Pues yo creo que Spybreak tiene razón. Hacer una composición así, con un objeto 3D sobre una foto es bastante sencillo. Sólo hay que cuadrar la cámara 3D con la cámara que tomó la foto. Este proceso, aunque se puede hacer con técnicas matemáticas, medidas y demás, normalmente se puede hacer "a ojo" y quedará bastante bien igualmente. Otra cosa es si la escen a es un vídeo y no una foto, pero esto ya es otro cantar xD.
Lo mínimamente complicado para obtener ese resultado tan real, es obtener la imagen HDRI del entorno del que se ha hecho la foto. Sobre todo es complicado si no se cuenta con métodos profesionales. Lo más normal en estos casos es hacer un par de fotos a una bola cromada (de las de Navidad, por ejemplo), y luego hacer la composición en algún programa para este fin, como puede ser el HDRShop). Pero aún así, NO se consigue un HDRI bueno, dado que ya partimos de fotos que no contienen información de la luz (las fotos a la bola supuestamente las hemos hecho con cámaras convencionales, analógicas o digitales, pero que no guardan en la imagen esa información que necesitamos para el resultado perfecto).
Bueno, puede que haya sido poco preciso en algunas cosas xD pero resumiendo, Spybreak an mi opinión tiene toda la razón del mundo.
Ah! Y el tema del HDR en el HalfLife que prometen los de Valve, creo que no será exactamente esto lo que pretenden (dar iluminación más real a los objetos del juego) sino que la imagen final que vemos, obtenga información de la luz generada, de modo que se pueda controlar la exposición en tiempo real, cuyo efecto es mucho más vistoso que si regulásemos el brillo y contraste de la imagen.
No sé si me he explicado bien (más bien no xD) pero bueno, es lo que deduzco a raíz de haber visto aquel vídeo en el que se demostraba el HDR en el HalfLife.
Saludos!!