La simulación del comportamiento de la luz es posiblemente el factor más importante a la hora de conseguir sintetizar una imagen realista. Desde los inicios del estudio de la óptica los físicos han desarrollado modelos matematicos para estudiar la interacción de la luz en las superficies. Relacionada con la tematica de esta sesión del curso (iluminación y texturas) hay una bellísima y electrizante historia de amor, creada en 1998 por Juanma Sanchez, llamada Luxor X, que incluimos a continuación.


Con la aparición del microprocesador, los ordenadores tuvieron suficiente potencia como para poder simular estas complejas interacciones. Así, empleando un ordenador y partiendo de las propiedades geométricas y de materiales especificadas numéricamente es posible simular la reflexión y propagación de la luz en una escena. A mayor precisión en esta simulación, mayor nivel de realismo conseguiremos en la imagen resultado.

La Iluminación de escenas esta directamente relacionada con el método de render utilizado, que veremos en la sesión 5. A mayor precisión en el método de render, mayor tiempo de generación y mayor realismo en la imagen resultado.

A pesar de que el objetivo parece sencillo, existen algunos problemas y limitaciones importantes. El primero es debido al excesivo coste computacional de los métodos de calculo más realistas. Para cualquier proyecto real de obtención de una imagen, hay que establecer un límite en el nivel de detalle de la escena que queremos simular, indicados en términos del número de interacciones máximas de la luz con las superficies (rebotes), resolución espacial de la imagen, etc. Esta conexión entre la simulación del comportamiento de la luz y el nivel de realismo queda patente en las apróximaciones propuestas en diferentes métodos de render que estudiaremos con más detalle en la sesión 5 del curso. Una ecuación que modela el comportamiento físico de la luz, ampliamente aceptada por la comunidad, es la propuesta por Kajiya en 1986, donde además proponía el método de PathTracing. De forma general podemos decir a mayor simplificación en la resolución de los términos de esta ecuación tendremos métodos menos realistas (y computacionalmente menos costosos).


Figura 01. Iluminación Local e Iluminación Global.


Iluminación Local Vs. Iluminación Global

A un alto nivel de abstracción, podemos realizar una primera taxonomía de métodos de render entre aquellos que realizan una simulación de iluminación local, teniendo en cuenta únicamente una interacción de la luz con las superficies, o los métodos de iluminación global que tratan de calcular todas las interacciones (rebotes) de la luz con las superficies de la escena.

Debido a que es imposible calcular las infinitas interacciones de los rayos de luz con todos los objetos de la escena, las apróximaciones de iluminación global se ocuparan de calcular algunas de estas interacciones, tratando de minimizar el error de muestreo. En la sesión 5 enunciaremos de forma superficial algunas de las técnicas de muestreo que se utilizan en motores de render actuales.

En la figura 1 se muestra el resultado de renderizar la misma escena con un método de iluminación local y uno global. Los modelos de iluminación global incorporan la iluminación directa que proviene de la primera interacción (rebote) de las partículas de luz con las superficies, así como la iluminación indirecta reflejada por otras superficies existentes en la escena.

Blender incorpora en su motor de Render dos métodos que simulan la iluminación global: Radiosidad y Oclusión Ambiental. El método de Radiosidad (Radiosity) es un método de entre superficies difusas, que tiene algunas propiedades muy interesantes que lo hacen muy adecuado en ciertos entornos (vuelos virtuales de cámara donde la posición de los objetos no cambia; por ejemplo, en visualizaciones de infoarquitectura). En la Figura 2 se muestra un ejemplo de calculo de esta interacción de luz entre superficies difusas, en la famos?sima escena de la caja de Cornell (Cornell Box), ampliamente utilizada para demostrar este tipo de características en métodos de render (se puede apreciar que las caras de los cubos que están próximas a las paredes adquieren el color de esa pared; el cubo de la derecha de color verde y el de la izquierda rojo, debido al "rebote" de la luz en la pared y posteriormente en el cubo). El método de emulación de Ambient Occlusion (Oclusión Ambiental), que ofrece una apróximación físicamente incorrecta pero muy efectiva visualmente. Ambos métodos, junto con el uso de motores externos (Yafray y LuxRender) que permiten métodos más avanzados (PathTracing, Mapas de Fotones y Transporte de Luz de Metrópolis) serán estudiados en la quinta sesión del curso.



Figura 02. Cornell Box.


Algunas herramientas y trucos útiles de Blender

En esta sesión (y en las siguientes) será necesario probar varias alternativas y utilizar frecuentemente el render para visualizar resultados. Para facilitar la tarea, se explicaran a continuación algunas herramientas y trucos útiles de Blender.


Parámetros del grupo de botones Render

Aunque se explicara con más detalle en la sesión 5, a partir de esta sesión será conveniente conocer cómo modificar algunos parámetros generales de render en Blender (como resolución, nivel de antialiasing, etc...). En los botones de escena , dentro de la categoría de render (ver Figura 3), existen varios botones y cajas de valores numéricos que veremos a continuación. Algunos de los controles más importantes de la pestaña Render son los siguientes:


Figura 03. Opciones Render.


  • Render: El enorme botón Render permite generar la imagen 2D a partir de la escena 3D, su pulsación equivale al atajo de teclado F12. La lista desplegable que aparece debajo del botón permite elegir el motor a utilizar (Blender Internal o Yafray). Hasta la sesión 5 utilizaremos únicamente el motor por defecto Blender Internal.
  • OSA: Oversampling es la técnica que emplea Blender para evitar el aliasing en la representación de las imágenes. Basicamente consiste en calcular el color de cada píxel como medía de un conjunto de muestras. A modo conceptual podemos verlo como si cada píxel estuviera formado por un conjunto de píxeles más pequeños, y el color final del píxel se calcula como medía de los "subpíxeles". Si esta activo el botón OSA, empleara esta técnica de Anti-aliasing, y el número de muestras vendrá determinado por el botón del grupo situado debajo que esté activo 5 8 11 ó 16. A valores mayores, mejores resultados pero mayor tiempo de render. En la Figura 4 puede verse un ejemplo de aplicación en las aristas de un cubo.



Figura 04. Oversampling.


  • MBLUR: El botón MBLUR permite eliminar el aliasing temporal empleando motion blur (según el factor indicado en la entrada numérica Bf). Es necesario el uso de animaciones para ver su efecto, por lo que estudiaremos su uso en la sesión 4.
  • Botones de porcentaje: Permiten seleccionar rápidamente el porcentaje de la resolución de salida 100% 75% 50% y 25%. Es muy útil cuando se están realizando pruebas modificando parámetros de materiales y texturas desactivar OSA y renderizar a un tamaño pequeño 25% ó 50%.
  • XParts e YParts: Indica el número de partes en las que Blender realizara el render. En escenas muy complejas puede ser conveniente aumentar el número debido a que renderizar porciones más pequeñas normalmente requiere emplear menor memoria y puede ser la única forma de obtener resultados. Además, permite agilizar la obtención de resultados en máquinas multiprocesador (con varios cores). Por defecto blender lanzara tantos hilos de ejecución como procesadores detecte en el sistema.


  • Border: Esta interesante funcionalidad permite elegir la zona a renderizar, mediante una caja. Cuando el botón Border esta activo, podemos definir la caja de renderizado en la vista de la cámara. Pulsamos Shift B y con definimos un rectángulo que aparecerá pintado de color rojo. Al renderizar F12 sólo esa zona se calculara (ver Figura 5). Si activamos el botón Crop de la pestaña Format, sólo se generara el rectángulo de Border, sin el marco negro.
  • Shadow: El botón Shadow si esta activo indica que se calcularan las sombras de las fuentes de luz. Por defecto, debera estar activo siempre.
  • SSS: Si esta activo y algún material tiene propiedad de SubSurfaceScattering, calculara el mapa para apróximar este fenómeno físico. Si no hay ningún objeto que lo utilice, tenerlo activo no hace que el tiempo de render se incremente.
  • Pano: Activa el modo de render panoramico.
  • EnvMap: Permite el uso de mapas de entorno para simular la reflexión (espejo). Si no se utiliza en ningún material mapas de entorno, tenerlo activo no supone un aumento en el tiempo de render.
  • Ray: Activa el Raytracing en el motor de render interno de Blender. Veremos una explicación de este algoritmo en la sesión 5. Ahora simplemente nos sirve con ver dónde se activa, puesto que hay algunas propiedades de los materiales que no pueden calcularse si no esta activo el trazado de rayos.
  • Radio: Activa el uso de Radiosidad. Veremos su uso en la sesión 5.



Figura 05. Definición de la zona con Border.

Border rendering: La opción de Border es muy interesante cuando se esta trabajando en una escena compleja. Por ejemplo, imaginemos que estamos generando una imagen de alta resolución para una promoción inmobiliaria, y tras 30 horas de render, en la imagen final detectamos que una de las ventanas tiene un error. Bastaría con arreglar el error y definir el rectángulo a renderizar (la zona de la ventana) y lanzar de nuevo el render sólo de esa parte. Compondríamos el resultado con algún programa de retoque, como Gimp.

En la pestaña Format (ver Figura 3), las opciones más relevantes para las próximas sesiones son:

  • SizeX y SizeY: Resolución de la imagen en píxeles (ancho y alto). Para establecer la resolución de la imagen, existen algunos tamaños estándar definidos en la columna de botones de la derecha en esa misma pestaña (de color marrón): PAL (resolución PAL 720x576), NTSC (720x480), etc...
  • Crop: Como se ha comentado anteriormente, el botón Crop sirve para recortar la zona elegida mediante Border.
  • Format: Lista desplegable (en la Figura 3 tiene seleccionado Jpeg) donde se puede elegir el formato de la imagen (o video) resultado. Si se seleccionado Jpeg o AVI, el control numérico que indicara la calidad (compresión). La lista de botones inferiores BW RGB y RGBA indican que la imagen se guardará en escala de grises, en color o en color con canal alpha (transparencia), siempre que el formato lo permita. Si deseamos guardar información de transparencia en imágenes, deberíamos seleccionar como formato de salida alguno que lo soporte, como TGA o PNG.

Modo Preview


La previsualización de materiales y texturas en Blender es algo limitada en la ventana 3D. Sin embargo, existen opciones para comprobar cómo quedará el resultado mediante una previsualización rápida, accesible desde la cabecera de la ventana 3D View/ Render Preview o mediante el atajo de teclado Shift P.

La ventana de previsualización puede desplazarse en la ventana 3D pinchando y arrastrando con sobre la barra de título (ver Figura 6), y se puede escalar pichando y arrastrando con sobre su esquina inferior derecha (zona marcada con dos líneas diagonales, ver Figura 6). Esta ventana puede usarse sobre cualquier ventana 3D y, naturalmente, sobre la propia vista de la cámara. Como se muestra en la figura de ejemplo, este modo de previsualización muestra materiales, texturas y efectos de iluminación (sombra) sobre cualquier ventana 3D.



Figura 06. Render Preview.

Posicionamiento cómodo de la cámara virtual

En las próximas sesiones resultara interesante poder modificar cómodamente la posición de la cámara virtual para probar diferentes puntos de vista y enfoques. Establecer manualmente la orientación de la cámara (rotación en cada eje) resulta muy tedioso. En la cuarta sesión del curso estudiaremos en detalle el manejo de restricciones. Ahora aprenderemos cómo definir un tipo de restricción Trak To.


Añadiremos a la escena un objeto Empty (recordemos que no tiene representación en la etapa de Render), mediante Barra Espaciadora Add/ Empty. Hecho esto, seleccionamos primero la cámara y después con Shift pulsado el Empty. Con los dos seleccionados en ese orden, pulsamos Control T y aceptamos Trak To Constraint. Aparecerá una restricción de ese tipo en la pestaña Constraints de los botones de objeto . Esta restricción puede eliminarse (al igual que los modificadores que vimos en la sesión anterior) pulsando en .

Mediante esta restricción, podemos desplazar el Empty y la cámara siempre apuntara hacia donde esté colocado. También podemos mover la cámara empleando diferentes vistas para conseguir el punto de vista adecuado. Al principio del siguiente video se posiciona la cámara como se ha realizado hasta ahora, mediante rotaciones y desplazamientos Video: 00:00 - 00:20. Hecho esto, se añade el Empty (que se escala S Video: 00:27 - 00:30 únicamente para facilitar su selección) y se crea el trak como se ha explicado en el párrafo anterior Video: 00:20 - 00:45. Los posteriores movimientos de cámara y del Empty se ven reflejados en la vista de la cámara. Finalmente, al eliminar la restricción Trak To Video: 01:25, la cámara vuelve al comportamiento inicial.