Resultados 1 al 9 de 9

Tema: Ziva VFX novedades y características

  1. #1
    Fecha de ingreso
    Sep 2011
    Mensajes
    1,173

    Ziva VFX novedades y características

    La nueva versión de Ziva VFX ya esta aquí, agregando compatibilidad con Maya 2020, una mayor estabilidad de material y más características. Ziva Dynamics no se queda atrás de las demás empresas que proporcionan licencias de su software sin costo para ayudar a los usuarios que trabajan desde casa de forma remota debido al covid-19.


  2. #2
    Fecha de ingreso
    Apr 2002
    Mensajes
    25,945

    ZRT Face Trainer servicio de rigging facial en la nube

    ZRT Face Trainer servicio de rigging facial en la nube. El especialista en simulación de personajes Ziva Dyamics ha puesto en marcha un servicio de rigging facial en la nube al que ha llamado ZRT Face Trainer. El servicio dispone de aprendizaje automático lo que debería redundar en mejores resultados para personajes de juegos y trabajos en tiempo real.

    El sistema ZRT Face Trainer está disponible para que los usuarios seleccionados lo prueben de forma gratuita. Los desarrolladores dicen que transforma cualquier malla facial en una verdadera marioneta en tiempo real.

    El rigging no se limita al sistema facial, lo hace de todo el personaje, aunque los desarrolladores quieren destacar el rigging facial dada su complejidad utilizando sistemas CG tradicionales.

    Ziva Dynamics es conocido por el trabajo de cuerpo completo de personajes y su complemento para simular tejidos blandos en Autodesk Maya. La compañía ha estado insinuando su entrada al rigging facial y la animación desde hace algún tiempo.


    La tecnología está casi lista para proyectos de producción

    A fines del año pasado, la firma publicó un video teaser de un nuevo sistema de rendimiento facial basado en el aprendizaje automático. Poco después hizo una demostración de una solución facial sin marcadores y en tiempo real.

    Parte de esa tecnología ahora se ha puesto a disposición del público. Al menos para cualquier persona que sea seleccionada para participar en el lanzamiento de la beta cerrada de ZRT Face Trainer.

    La nueva plataforma de manipulación facial automatizada basada en la nube está entrenada para imitar la gama de expresiones de los actores humanos utilizando una biblioteca de 15 TB de datos escaneados en 4D.

    Convierte cualquier malla de cabeza humana en un rostro en tiempo real, capaz de adoptar decenas de miles de formas faciales. Según el sitio web del producto, ZRT Face Trainer puede convertir las mallas de la cabeza de personaje precargadas en una "marioneta en tiempo real" capaz de expresar más de 72,000 formas faciales en una hora.

    Velocidad de 3 milisegundos por frame

    Los rostros faciales son solo 30 MB en tiempo de ejecución y se ejecutan a una velocidad de 3 milisegundos por marco en un solo subproceso de CPU. Lo que los hace adecuados para su uso en juegos y aplicaciones en tiempo real.

    El sitio web no especifica en qué motor de juego se obtuvieron esas cifras. Pero las demostraciones en la página web del producto utilizan la versión de acceso anticipado de Unreal Engine 5.

    Antes de que se pueda procesar la malla de una cabeza, debe limpiarse y modificarse manualmente para que coincida con un orden de puntos estándar. Posteriormente subdividirse adecuadamente para generar deformaciones convincentes.

    Puedes leer una descripción general del proceso, para lo cual Ziva Dynamics recomienda Wrap, el software de retopología de R3DS y Autodesk Maya, en este PDF descargable.

    Los resultados prometen ser impresionantes

    Los resultados se ven bastante impresionantes en los videos de demostración en el sitio web del producto. Muestran animaciones estándar de movimiento para 12 modelos de cabezas 3D diferentes.

    La mayoría son cabezas humanas de proporciones realistas, aunque también hay algunos humanoides y alienígenas.

    De acuerdo con la hoja de ruta de Ziva Dynamics, se agregará soporte para parámetros faciales personalizables antes del lanzamiento público completo.

    ZRT Face Trainer es un servicio basado en la nube y actualmente está disponible en versión beta cerrada solo por invitación. Ziva Dynamics aún no ha anunciado los precios o una fecha de lanzamiento público.

    Instrucciones de preparación facial ZRT

    El proceso consta de tres partes para preparar la malla facial para el sistema ZRT Face Trainer.

    La preparación facial es un paso crítico en el flujo de trabajo del sistema ZRT Face Trainer. El proceso de registro asigna tu malla personalizada a la cara humana genérica para que la canalización ZRT Face Trainer pueda procesar con precisión y entrenar las deformaciones correctas en los puntos correctos de tu malla facial.

    Tener en cuenta la calidad de tu preparación tendrá un impacto directo en la calidad del resultado final. Si no se completa el registro con alta calidad, se obtendrán resultados finales deficientes o deformados. Los desarrolladores recomiendan encarecidamente tomarse su tiempo con este paso y seguir las instrucciones con el mayor cuidado posible.

    Dada la naturaleza manual de la preparación, han asignado cuatro 4 intentos por usuario. Si no te gustan los resultados de tu entrenamiento inicial, puedes intentar mejorar y volver a entrenar tu malla hasta tres 3 veces más. Si te satisfacen los resultados, puedes intentarlo de nuevo con una nueva cara.

    Visión general del proceso en Wrap3

    • Importa ambas caras: origen (malla Ziva) y destino (tu malla).
    • Definir puntos de registro.
    • Envolver ambas mallas.
    • Limpieza usando pinceles y el archivo JawPolySelect proporcionado en Autodesk Maya.
    • Exportar la malla resultante a Autodesk Maya.
    • Subdividirlo usando OpenSubDiv, no subdividir en Wrap3.


    Parte 1 Mapeo de malla

    1. Inicia Wrap3.

    Si nunca antes ha usado Wrap3, puedes aprender a usarlo aquí.

    2. En Wrap3, abre la malla de código fuente y la malla de destino.

    Agrega dos nodos LoadGeom al gráfico.

    Haz clic en el primer nodo LoadGeom y selecciona el botón de puntos suspensivos (...) junto a "Nombre de archivo" para abrir el explorador de archivos.

    En la ventana "Archivos", selecciona SourceMesh.obj en la carpeta preparación de rostros. Si es necesario, puedes volver a descargar la carpeta preparación facial aquí.

    Haz clic en el segundo nodo LoadGeom de tu gráfico y abre la malla del personaje que quieras entrenar. Asegúrese de que se trata de un archivo OBJ. En estas instrucciones, la malla se denomina malla de destino. En la ventana gráfica, verás que ambas mallas se superponen entre sí.

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 1.jpg 
Visitas: 643 
Tamaño: 117.0 KB 
ID: 241239

    3. Prepara la escena para los puntos de control.

    • Agrega un nuevo nodo SelectPointPairs y adjúntalo a los dos nodos LoadGeom existentes.
    • A continuación, agrega un nodo LoadImage al gráfico.
    • En el nodo LoadImage, abre PointSelection.jpg en la carpeta "preparación facial".
    • Conecta el nodo LoadImage al nodo LoadGeom del source Mesh original. El gráfico de nodos ahora debería parecerse al gráfico de la Figura 2.


    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 2.jpg 
Visitas: 646 
Tamaño: 345.6 KB 
ID: 241240

    Luego, cambia a la pestaña Editor visual para que puedas visualizar ambas cabezas una al lado de la otra.

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 3.jpg 
Visitas: 627 
Tamaño: 72.0 KB 
ID: 241241

    • Haz clic en el nodo LoadGeom de source Mesh y, en el editor de nodos, desmarque la casilla "wireframe".
    • Haz clic en el nodo SelectPointPairs y marca la casilla "Sincronizar vistas" en el editor de nodos.
    • Ahora, haces clic en el nodo LoadGeom de nuestra malla de destino y desactiva la vista de wireframe para ese también.


    4. Coloca tus puntos

    Haces clic en el nodo SelectPointPairs. Haces clic en los puntos rojos que aparecen en la textura PointSelection.jpg en la malla de origen. Los números de aviso se asignan a los puntos rojos, en el orden en que haces clic en ellos.

    En cualquier momento, puedes pasar a la malla de destino y colocar puntos; deben colocarse en el mismo orden. ¡¡Esto es importante!! A los puntos de ambas mallas se les debe asignar el mismo número de punto (Figura 3).

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 3.jpg 
Visitas: 627 
Tamaño: 72.0 KB 
ID: 241241

    5. Agrega un nodo SelectPolygons para sockets de malla.

    Conecta el nuevo nodo SelectPolygons al nodo LoadGeom de source Mesh.
    En el nodo SelectPolygons, abre el archivo FacePolySelect.txt. Este es un archivo JSON que seleccionará automáticamente los polígonos necesarios de la malla de origen (Figura 4) .

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 4.jpg 
Visitas: 619 
Tamaño: 123.0 KB 
ID: 241242

    6. Agrega un nuevo nodo de ajuste al gráfico

    Conecta el nodo Wrapping a todos los nodos LoadGeom, SelectPointPairs y SelectPolygons.

    En el nodo Ajuste, haces clic en el botón "calcular" del editor de ajustes. Esto provocará una ventana de ajuste. Los puntos que colocaste en las mallas de origen y de destino se corresponderán entre sí; y la selección del zócalo se adoptará en la malla de destino(Figura 5).

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 5.jpg 
Visitas: 629 
Tamaño: 109.1 KB 
ID: 241243

    Parte 2 Limpieza de la malla

    1. Ahora, cambia el nodo LoadImage a KeylineMap.jpg. Se verá como la Figura 6.

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 6.jpg 
Visitas: 612 
Tamaño: 301.3 KB 
ID: 241244

    2. Limpia tu malla. Las oclusiones pueden ocurrir cerca del área del labio inferior, por lo que puedes usar la selección de polígono JSON específicamente para la línea de la mandíbula.

    Añadir un nodo Pincel al gráfico; conéctalo al nodo Envolvente.
    Agrega un nuevo nodo SelectPolygons; conéctalo al nodo Source Mesh LoadGeom y al nodo Wrapping.
    En el nuevo nodo SelectPolygons, abre JawPolySelect.txt desde la carpeta "preparación facial" (Figura 7).

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 7.jpg 
Visitas: 694 
Tamaño: 250.3 KB 
ID: 241245

    Haz clic en el nodo "ajuste" y la vista cambiará a la malla de destino ajustada en su lugar. Puedes empezar a limpiar la malla con la herramienta de cepillo RelaxProj, como mejor te parezca. El objetivo es obtener líneas suaves, especialmente a lo largo de la línea clave primaria (figura . El Clone Brush es ideal para la zona interna de la boca y los ojos.

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 8.jpg 
Visitas: 658 
Tamaño: 238.3 KB 
ID: 241246

    3. Agrega un nodo Blendshapes al gráfico, una vez que estés satisfecho con sus resultados.

    Conecta el nodo Blendshapes al nodo Source Mesh LoadGeom y al nodo Wrapping.
    Luego, haces clic en el nodo Blendshape. En ese editor, usa la barra "Blend 0" para ver la mezcla de Source Mesh en su Target Mesh. Puedes frotarlo para revisar la precisión.

    En este punto, puedes continuar editando la ubicación de cualquiera de los puntos en cualquiera de las mallas para ajustar la mezcla para una mayor precisión o usar la herramienta de pincel para arreglar la malla un poco más.

    Si realizas un ajuste, recuerda hacer clic en el botón "calcular" en el nodo "ajuste", o de lo contrario no se aplicarán los ajustes.

    4. Agrega un nodo SaveGeom

    Conecta el nodo SaveGeom al nodo Blendshapes.

    5. Guarda tu nuevo archivo de resultados

    Asegúrate de añadir una ubicación de archivo que no olvidarás. Todo el trabajo duro ya está hecho. Necesitarás esta geometría para hacer el paso final del proceso de preparación de la cara.

    Parte 3 Aumentar la resolución

    Ahora que tienes tu malla completamente preparada, es hora de aumentar la resolución para que el ZRT Face Trainer pueda generar las deformaciones más detalladas y con la más alta calidad posible. Es importante que este paso se realice en Autodesk Maya. La subdivisión en Wrap3 NO funcionará, ya que el orden de vértices cambiará.

    1. Comienza importando tu nueva malla facial OBJ en Autodesk Maya. En la misma escena, abre la malla OBJ de destino original con la que empezaste.

    2. Haces clic en tu malla de resultados y selecciona la opción "suavizar".

    3. En la ventana "opciones suaves", debes establecer los niveles de división en 1. El tipo de subdivisión en "OpenSubdiv Catmull-Clark2 y presiona "Aplicar".

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 9.jpg 
Visitas: 657 
Tamaño: 287.3 KB 
ID: 241247

    4. Selecciona las mallas de destino y resultados originales (en este orden), navega hasta la opción de menú "malla" y haces clic en "transferir atributos".

    6. En la ventana opciones de transferencia de atributos, haces clic en "Editar" y elige "Restablecer".

    6. Realiza este paso solo si su malla tiene más de 70,000 vértices, al menos tanta resolución como ValidateMesh.obj. Luego, configura las siguientes opciones y presiona "aplicar". Esto hará que tu nueva malla de resultados adopte todos los atributos valiosos de la malla original, asegurando que no se haya perdido nada durante el paso de registro inicial.

    Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube - figura 10.jpg 
Visitas: 592 
Tamaño: 40.7 KB 
ID: 241248

    7. Ahora, haces clic en la malla resultados y navega hasta la opción de menú "editar". En el menú desplegable, selecciona "eliminar por tipo" → "historial".

    8. Finalmente, elimina la malla OBJ de destino original de tu escena por completo. La malla agregada en el paso 2.

    9. Guarda tu malla de resultados como FBX utilizando la configuración predeterminada. Tu malla de resultados debe ser la única malla en el FBX.

    Revisa tu trabajo

    ¡Último paso! Es hora de verificar si el orden de puntos final coincide con lo que espera ZRT Face Trainer.

    Se proporciona una malla de referencia con el orden de puntos correcto (ValidateMesh.obj). Para comprobar la malla de resultados:

    1. Importa ValidateMesh.obj y la malla de resultados en una escena de Autodesk Maya vacía. Selecciona ambas mallas dentro de Autodesk Maya, luego ve a la pestaña "deformar" y haces clic en "combinar forma".

    2. En el nodo "Blend Shape", establece el atributo target en 1.0. Una malla debe mezclarse con la otra sin ningún artefacto.

    ¡Has terminado! El equipo de desarrollo de ZRT Face Trainer recomienda cambiar el nombre de la malla final para identificar que es la que está completamente preparada. Sube esta malla final al portal ZRT Face Trainer en Ziva Store cuando estés listo para empezar el proceso de rigging.

    Conclusión sobre ZRT Face Trainer

    Cómo podemos ver, en el rigging facial no hay milagros ni botones que lo hagan todo por sí solo. Puede que este sea un buen sistema de rigging facial, pero sigue teniendo una gran cantidad de trabajos en el proceso.

    Tienes más información sobre el tema en la página de los desarrolladores.

    Miniaturas adjuntas Miniaturas adjuntas Clic en la imagen para ver su versión completa. 

Nombre: ZRT Face Trainer servicio de rigging facial en la nube.jpg 
Visitas: 1309 
Tamaño: 169.4 KB 
ID: 241249  
    |Agradecer cuando alguien te ayuda es de ser agradecido|

  3. #3
    Fecha de ingreso
    Apr 2002
    Mensajes
    25,945

    Ziva VFX ha estado explorando el aprendizaje automático

    El aprendizaje automatizado a la hora de crear personajes CG está utilizando las últimas técnicas de aprendizaje, a la hora de crear criaturas o dobles digitales nos encontramos con el desarrollo de software relativamente nuevo, y aunque prometedor y avanzando a pasos agigantados todavía no está al alcance de todos, por lo que varias empresas han estado sumergiendo sus dedos en en el tema.

    Ziva Dynamics, que ofrece software de simulación basado en la física llamado Ziva VFX, ha estado explorando el aprendizaje automático, particularmente en relación con su tecnología de Solver en tiempo real.

    Esta tecnología, permite convertir simulaciones offline de alta calidad, elaboradas por directores técnicos usando Ziva VFX, en personajes en tiempo real. Ziva ha implementado esta tecnología en algunas demostraciones públicas y participado en prototipos confidenciales con varias empresas punteras en diferentes sectores para explorar casos de uso y estrategias futuras de productos.

    Los algoritmos de aprendizaje automático permiten a los artistas plantear interactivamente personajes Ziva de alta calidad en tiempo real, los renders producidos a partir de simulaciones offline se combinan con datos de animación representativos a través de un proceso de aprendizaje automático.

    A partir de eso, los solucionadores se aproximan rápidamente a la dinámica natural del personaje para posiciones completamente nuevas. Esto da como resultado un activo de personajes rápido e interactivo que logra formas realmente consistentes, todo en un archivo relativamente pequeño.

    Allegorithmic, que hace que el conjunto Substance de texturizado 3D y herramientas de creación de materiales, también ha estado explorando el campo de la IA para combinar varios procesos relacionados con el material, como el reconocimiento de imágenes y la extracción de color, en una sola herramienta, llamada Project Substance Alchemist.

    Clic en la imagen para ver su versión completa. 

Nombre: Ziva VFX ha estado explorando el aprendizaje automático.jpg 
Visitas: 1357 
Tamaño: 127.8 KB 
ID: 242201

    Las capacidades de IA (inteligencia artificial) de Project Substance Alchemist son, en particular, alimentadas por GPU Nvidia (Nvidia en sí está en el centro de una gran cantidad de investigación de aprendizaje automático relacionada con gráficos informáticos).

    Por un lado del software Project Substance Alchemist, el deleite que fue creado para ayudar a los artistas a eliminar las sombras bakeadas de un color base o fotografía de referencia una red neuronal fue creada a partir de la biblioteca de materiales de Substance para entrenar el sistema.

    Los artistas necesitan que sus imágenes estén libres de tales sombras con el fin de obtener un control absoluto sobre el material. El deleite impulsado por IA detecta las sombras, las elimina y reconstruye lo que hay bajo las sombras.

    En el espacio de captura de movimiento, varias empresas están empleando técnicas de aprendizaje automático para ayudar a hacer el proceso más eficiente. Deep Motion, por ejemplo, utiliza AI de varias maneras, para volver a segmentar y después del proceso de los datos de captura de movimiento, para simular la deformación del cuerpo blando en tiempo real, para lograr una estimación de postura 2D y 3D, entrenar personajes físicos para sintetizar movimiento dinámico en una simulación, y para unir múltiples movimientos para una transición y mezcla sin fisuras.

    Estas aplicaciones de AI resuelven una variedad de problemas para acelerar los procesos de VFX, permitir la creación de personajes verdaderamente interactivos y expandir las canalizaciones para datos de animación y simulación, dice Kevin He, fundador de Deep Motion.

    El aprendizaje automático se ha utilizado durante años para crear efectos interesantes en la animación basada en la física y las artes de los medios de comunicación, pero estamos viendo una nueva ola de aplicaciones a medida que los cálculos se vuelven más eficientes y los enfoques novedosos, como el aprendizaje de refuerzo profundo, crean modelos más escalables.

    Mientras tanto, la compañía Radical también está utilizando AI en la captura de movimiento y en particular, desafiando el enfoque habitual basado en hardware para capturar. Específicamente utilizan la entrada de cámaras de video 2D convencionales para producir animaciones 3D que requieren poca o ninguna limpieza, codificación, inversión o preparación.

    Para hacer eso no confían en las detecciones basadas en hardware de toneladas de pequeños puntos de datos que se agregan en sumas de datos más grandes que después de una limpieza intensiva, se asemejan colectivamente a la actividad humana. Más bien, ofrecen reconstrucciones de movimiento humano basadas en el aprendizaje y basadas en software en el espacio 3D.

    |Agradecer cuando alguien te ayuda es de ser agradecido|

  4. #4
    Fecha de ingreso
    Apr 2002
    Mensajes
    25,945

    Unity adquiere Ziva Dynamics

    Unity ha adquirido el desarrollador de herramientas de rigging de personajes y criaturas Ziva Dynamics. Todo el personal de Ziva Dynamics se ha unido a Unity. Los términos financieros del acuerdo no han sido publicados.

    No se han anunciado cambios en los productos comerciales de Ziva Dynamics, que incluyen el complemento de simulación de músculo maya y tejidos blandos Ziva VFX y el servicio de rigging facial basado en la nube ZRT Face Trainer.

    La adquisición es la última de una serie de compras llevadas a cabo por Unity. La empresa tiene puesta la mirada empresarial en desarrolladores de efectos visuales y herramientas de juegos. Incluidos Weta Digital, SyncSketch y el desarrollador de SpeedTree IDV.

    La experiencia de Ziva Dynamics

    Fundada en 2015, Ziva Dynamics capitalizó las experiencias del CEO James Jacobs en la industria de vfX. Incluidos los períodos como supervisor de criaturas en Weta Digital y Method Studios.

    En Weta, Jacobs ayudó a desarrollar Tissue, el marco de simulación de personajes basado en la física de la empresa; por el que recibió un Premio de la Academia de Ciencia y Tecnología en 2013.

    El producto estrella de la compañía, el complemento de simulación de músculo y tejidos blandos Maya Ziva VFX, se lanzó públicamente en 2017 y, desde entonces, se ha convertido en un elemento básico de las canalizacinoes de criaturas en el mercado de efectos visuales.

    El software ahora se ha utilizado en cientos de películas y series de televisión, incluyendo Godzilla contra Kong, Pacific Rim: Uprising, Capitana Marvel, Juego de tronos y Hellblade II.

    Nombre:  Unity adquiere Ziva Dynamics.jpg
Visitas: 1093
Tamaño: 102.5 KB


    Aprendizaje automático para el rigging facial

    Dynamics se ha diversificado desde entonces en otros aspectos de la criatura digital y la tecnología humana; lanzando el servicio de rigging facial online entrenado en aprendizaje automático.

    La firma también está desarrollando ZivaRT, un nuevo sistema de deformación no lineal basado en el aprendizaje automático para personajes de juegos. Ya utilizado en Spider-Man de Insomniac Games.

    Además, la compañía licencia su tecnología digital humana y de simulación a clientes empresariales en los sectores de la moda y la confección, la ciencia, el deporte y el sistema sanitario de salud.

    Unity describe a Ziva como una compañía que ya ha resuelto el desafío de llevar simulaciones complejas de calidad cinematográfica en tiempo real. Lo ha conseguido utilizando su software ZivaRT. Entrenado para utilizar datos generados por la tecnología de efectos visuales de Ziva.

    Puedes ver el comunicado oficial en el blog de Unity.
    |Agradecer cuando alguien te ayuda es de ser agradecido|

  5. #5
    Fecha de ingreso
    Apr 2002
    Mensajes
    25,945

    Ziva VFX 2.0 para Autodesk Maya

    Video introductorio de Ziva Dynamics para Ziva VFX, un plugin para simular tejidos blandos para Autodesk Maya. Esta actualización mejora el rendimiento de simulación y reproducción.

    La actualización mejora el rendimiento de la simulación, añade un nuevo solucionador iterativo experimental; la opción de almacenar en caché las mallas TET generadas durante las simulaciones; y soporte para el sistema de reproducción en caché de Autodesk Maya.

    Ziva VFX 2.0 es una poderosa herramienta para crear simulaciones estables y precisas de tejidos blandos. Se ha convertido en un elemento básico de las canalizaciones de efectos visuales. Entre sus clientes se incluyen DNEG, Scanline VFX e Image Engine.

    El complemento imita la rigidez, la densidad y la preservación del volumen de los tejidos reales, incluidos los huesos, los tendones, los músculos y la piel. Admite múltiples tipos de amortiguación física.

    Podemos editar los parámetros directamente, Ziva VFX 2.0 admite un flujo de trabajo basado en pinceles que permite pintar las propiedades del material y la resolución de la malla. Incluso pintar en puntos de unión muscular y fibras musculares.


    Novedades y características en Ziva VFX 2.0

    Rendimiento y reproducción de simulación mejorados La primera actualización importante desde el lanzamiento de Ziva VFX 1.9 en 2020. La primera desde que Unity adquirió Ziva Dynamics en enero, Ziva VFX 2.0 presenta una serie de mejoras en la simulación.

    El nodo zSolver obtiene un nuevo control solverToleranceFactor, que permite a los usuarios intercambiar la precisión de una solución contra el tiempo necesario para calcularla.

    El programa nos permite seleccionar un nuevo solucionador iterativo, siendo una alternativa al solucionador directo predeterminado.

    Sigue siendo una característica experimental en Ziva VFX 2.0 y actualmente solo es compatible con el integrador predeterminado BackwardEuler.

    ¿Qué hace zSolver por ti?

    El solucionador calcula las posiciones del cuerpo, las velocidades y las aceleraciones en cada paso del integrador. El solucionador directo está seleccionado de forma predeterminada. Una alternativa es utilizar el solucionador iterativo experimental.

    Dependiendo de la elección del solucionador, el tiempo de ejecución del activo puede variar significativamente. Es probable que el solucionador iterativo experimental supere al solucionador directo en activos donde las propiedades del material son similares entre todos los objetos deformables (tejidos, telas, accesorios y rigideces de respuesta a colisiones).

    Todos los solucionadores deben producir un resultado correcto. La única diferencia observable entre los solucionadores son sus costos de tiempo. Una forma práctica de saber qué solucionador es más rápido para un activo, es probar cada uno y comparar sus tiempos.

    El solucionador iterativo es actualmente experimental y solo admite el integrador de tiempo Euler hacia atrás sin amortiguación de la inercia.


    Factores de tolerancia en zSolver

    El solucionador utiliza varios criterios para establecer automáticamente un límite de precisión de la solución (tolerancia del solucionador) para cada activo de simulación. Esto en Ziva VFX 2.0 se puede ajustar manualmente utilizando el parámetro del factor de tolerancia del solucionador. Un factor de tolerancia del solucionador que es mayor que uno reduce la precisión del solucionador y el tiempo de resolución.

    Un factor de tolerancia del solucionador inferior a uno aumenta la precisión del solucionador y el tiempo de resolución. En la mayoría de los casos, dejar el factor de tolerancia del solucionador en el valor predeterminado dará como resultado una simulación estable.

    El aumento del factor de tolerancia del solucionador permite al solucionador hacer menos iteraciones de Newton en cada paso de tiempo. Por el contrario, disminuir el factor de tolerancia del solucionador puede obligar al solucionador a hacer más iteraciones de Newton en cada paso de tiempo. Por lo tanto, cuando el factor de tolerancia del solucionador es demasiado grande, se producirán artefactos de simulación similares como si usaran muy pocas iteraciones de Newton.

    En en Ziva VFX 2.0 el uso de una tolerancia de solucionador pequeño puede ayudar a resolver algunos artefactos de simulación para simulaciones difíciles de resolver, como aquellos con diferencias a gran escala entre tejidos y telas.

    Formas de integrar zSolver

    Selecciona el esquema de integración numérica que utilizará el solucionador.

    BackwardEuler: Un integrador estable que genera muy poca dinámica. Este es el integrador utilizado en versiones anteriores a v1.5. Es el integrador predeterminado. A veces llamado BDF1.

    BDF2: Integrador preciso de segundo orden que da buena estabilidad y mucha más dinámica que BackwardEuler. Úselo en cualquier situación en la que desee una buena dinámica, como propagación de ondas, oscilación, rebote, jiggliness, etc.

    TR-BDF2: Un esquema híbrido que combina un esquema de preservación de energía (Newmark implícito, también llamado método «trapezoide», TR) y BDF2. Este integrador da aún más dinámica que BDF2, por una pequeña pérdida de estabilidad.

    QuasiStatic: Con este integrador, los cuerpos no tienen momento y permanecen en un estado de equilibrio elástico, según lo dictado por los accesorios, las colisiones y la gravedad. Los cuerpos se doblarán o estirarán, pero no tendrán dinámica. Útil en situaciones donde la dinámica no es deseable; por ejemplo, para generar destinos de forma de mezcla.

    Mejora de rendimiento con QuasiStatic

    La actualización también presenta una potente re-implementación del integrador QuasiStatic. A menudo utilizado para generar formas de mezcla, destinadas a mejorar el rendimiento y la estabilidad.

    Otros cambios incluyen un nuevo atributo cacheTetMesh para el nodo zTet, que permite a los usuarios almacenar en caché las mallas tetraédricas que Ziva VFX 2.0 genera a partir de la malla triangular de superficie del tejido.

    Habilitar el almacenamiento en caché reduce los tiempos para crear el tetmesh; especialmente en máquinas con pocos núcleos de CPU, a costa de aumentar el tamaño del archivo.

    Además, Ziva VFX 2.0 es compatible con el sistema de reproducción en caché de Autodesk Maya. Utilizado para acelerar la reproducción de animaciones de personajes; aunque solo para usuarios de Autodesk Maya 2022.

    La versión no es compatible con versiones anteriores, advertimos que la apertura de configuraciones de simulación creadas en Ziva VFX 2.0 utilizando versiones anteriores del complemento hará que Autodesk Maya se bloquee.


    Ziva VFX Utilities con Scene Panel 2

    Cambios en Ziva VFX Utilities, el conjunto que acompaña a las utilidades de Python, incluye Scene Panel 2. Una nueva versión de la GUI para ver, organizar y editar nodos Ziva VFX 2.0.

    La nueva versión, destinada en última instancia a reemplazar el panel de escena original; proporciona una barra de herramientas dedicada para realizar operaciones comunes. Esta agrega una vista de componente de los objetos seleccionados actualmente en la escena.

    Precios y requisitos del sistema Ziva VFX 2.0 está disponible para Autodesk Maya 2019-2022. Se puede ejecutar en sistemas operativos Windows 7-10 o RHEL/CentOS 6.5 + Linux.
    |Agradecer cuando alguien te ayuda es de ser agradecido|

  6. #6
    Fecha de ingreso
    Apr 2002
    Mensajes
    25,945

    Ziva Face Trainer para modificaciones faciales

    Ziva Face Trainer para modificaciones faciales. El especialista en simulación de personajes Ziva Dyamics ha publicado Ziva Face Trainer (ZFT). Un nuevo servicio de manipulación facial basado en la nube y entrenado en aprendizaje automático para juegos y trabajo en tiempo real.

    Según Ziva, el proceso convierte una malla facial humana o humanoide estática en una cara en tiempo real de alto rendimiento con compatibilidad total con ARKit. Dicen que lo hace en menos de dos horas.

    La firma también ha publicado sus complementos ZivaRT, necesarios para animar el Ziva Face resultante en Autodesk Maya, o para implementarlo en los motores de juego Unity y Unreal Engine.


    Ziva Face Trainer para modificaciones faciales

    Convierte cualquier malla facial en animación

    Ziva Face Trainer es capaz de convertir cualquier malla de cabeza humana (oide) en un modelo en tiempo real capaz de realizar más de 70.000 formas faciales distintas. Conocido originalmente como ZRT Face Trainer, Ziva Face Trainer se publicó el año pasado en versión beta cerrada, antes de que Ziva Dynamics fuera adquirida por Unity.

    Basado en una biblioteca de 15 TB de datos de escaneo 4D, ZFT convierte una malla de cabeza cargada en formato FBX en un modelo en tiempo real. Capaz de expresar más de 72.000 formas faciales de entrenamiento, junto con las poses faciales novedosas.

    Los Ziva Faces resultantes tienen una huella de memoria de 30 MB en tiempo de ejecución. Se ejecutan a 3 milisegundos por fotograma en un solo hilo de CPU. Lo que los hace adecuados para su uso en juegos y aplicaciones en tiempo real.


    Ziva VFX 2.0 para Autodesk Maya

    Pasos previos sobre la malla

    Antes de que se pueda procesar una malla de cabeza, se debe limpiar y realizar la retopología manualmente para que coincida con un orden de puntos estándar; y se debe subdividir adecuadamente para generar deformaciones convincentes.

    Puedes leer una descripción general del proceso, para el cual Ziva Dynamics recomienda Wrap. El software de retopología de R3DS y Autodesk Maya, en esta guía que puedes descargar.

    Ziva Face Trainer nos permite medir los resultados en el sitio web del producto. Dispone de animaciones de rango de movimiento estándar para 12 modelos de cabezas humanas y humanoides.

    El modelo creado en tiempo real se puede usar en Autodesk Maya, Unity y Unreal Engine; y tiene compatibilidad total con el marco ARKit de Apple. Para ello utiliza las herramientas de captura de movimiento facial. Incluido Live Link Face gratuito de Epic Games.

    El uso de Ziva Face en una aplicación host requiere el software ZivaRT Player

    Los usuarios podemos cargar una malla de cabeza preparada en Ziva Face Trainer de forma gratuita. Lo que permite obtener una vista previa del resultado antes de comprar una sesión de entrenamiento y descargar el Ziva Face resultante.

    Para interactuar con un Ziva Face Trainer dentro de una aplicación host, por ejemplo, para configurar una animación facial en Autodesk Maya. O para implementar el modelo en tiempo real en un motor de juego, se requiere un complemento a parte, ZivaRT Player.

    La versión de Unity es gratuita; las versiones de Autodesk Maya y Unreal Engine requieren una suscripción de pago.


    Ziva Face Trainer para modificaciones faciales video

    Precios y requisitos del sistema Ziva Face Trainer

    Es un servicio basado en la nube, por lo que podemos cargar una malla para la cabeza desde cualquier navegador web estándar. ZivaRT Player está disponible para Autodesk Maya en sus versiones 2019 a 2022, Unreal Engine 4 y Unity.

    Cada sesión de capacitación cuesta 1800 dólares e incluye suscripciones de un año a ZivaRT Player para Autodesk Maya y UE4. Las suscripciones adicionales para cualquiera de las ediciones cuestan 200 dólares al año. ZivaRT Player para Unity es gratis.
    |Agradecer cuando alguien te ayuda es de ser agradecido|

  7. #7
    Fecha de ingreso
    Apr 2002
    Mensajes
    25,945

    Unity publica Ziva Real-Time 2.0

    El conjunto de herramientas basado en el aprendizaje automático Ziva Real-Time está diseñado para crear personajes 3D en tiempo real con alta fidelidad, incluyendo deformaciones precisas de músculos y tejidos blandos.

    Unity ha publicado Ziva Real-Time 2.0, su sistema basado en IA para generar personajes 3D en tiempo real de alta calidad, con una deformación precisa de los tejidos blandos.

    Anteriormente, solo estaba disponible en versión beta, el software utiliza archivos de origen que muestran un personaje en diferentes poses para entrenar un modelo de aprendizaje automático y aprender a deformar y desollar la malla.

    Además de mejorar los rigs de personajes en tiempo real existentes, el sistema puede generar rigs en tiempo real que se comportan de manera similar a los rigs fuera de línea creados para efectos visuales.

    Los datos resultantes se pueden utilizar dentro de Maya, Unity o Unreal Engine, permitiendo desplegar personajes con calidad de película en aplicaciones en tiempo real.


    Ziva Real-Time, anteriormente conocido como ZivaRT

    ya se ha utilizado en la producción de videojuegos, como Spider-Man: Miles Morales de Insomniac Games. El software ahora forma parte de la gama de productos Unity Wētā Tools, junto con herramientas desarrolladas internamente en el estudio VFX Weta Digital, que Unity adquirió en 2021.

    Esta es la primera vez que la tecnología está ampliamente disponible, ya que ZivaRT solo estaba disponible en versión beta. La actualización de Ziva Real-Time 2.0 principalmente revisa la documentación en línea y los activos de muestra, sin agregar muchas funciones nuevas.


    Utiliza inteligencia artificial para mejorar el aprendizaje automático

    Ziva Real-Time es una alternativa impulsada por el aprendizaje automático a los flujos de trabajo tradicionales de desollado en la animación 3D. Utiliza el aprendizaje automático para predecir cómo se deformaría la malla de un personaje en movimiento, incluidos los tejidos blandos como los músculos y la piel.

    A diferencia de Ziva Face Trainer, que se enfoca en la animación facial, el entrenamiento en Ziva Real-Time se realiza fuera de línea, utilizando el software Ziva Real-Time Trainer.

    Los usuarios proporcionan datos para entrenar el modelo de IA, incluyendo archivos Alembic que muestran la malla en diferentes poses y archivos FBX que muestran la jerarquía de articulaciones del personaje en esas poses.

    Las formas de pose pueden ser creadas a mano o provenir de datos escaneados de actores reales, y también se pueden utilizar animaciones de movimiento y simulaciones de ropa de herramientas como Marvelous Designer o Houdini para el entrenamiento.


    Pensado tanto para figuras humanas como para criaturas

    El software no solo es adecuado para personajes humanos y humanoides, sino también para criaturas, como se muestra con el guepardo en los ejemplos disponibles en la tienda en línea de Ziva Dynamics.

    Una vez completado el entrenamiento, Ziva Real-Time Trainer exporta un archivo ZRT que es procesado por el Reproductor en tiempo real de Ziva, disponible como complemento para aplicaciones como Maya, Unity y Unreal Engine. Este reproductor permite controlar la deformación del personaje en la aplicación correspondiente.

    Unity afirma que los activos más complejos tienen menos de 30 MB, lo que permite que se procesen rápidamente, incluso a velocidades de submilisegundos.

    Ziva Real-Time Trainer es compatible con Windows 10+ y CentOS 7.6-7.9 Linux, mientras que los complementos de Ziva Real-Time Player funcionan con Maya 2019+, Unity 2021.3+ y Unreal Engine 4.26+, todos en el sistema operativo Windows.
    |Agradecer cuando alguien te ayuda es de ser agradecido|

  8. #8
    Fecha de ingreso
    Apr 2002
    Mensajes
    25,945

    Ziva VFX permite utilizar GPU Nvidia compatible

    El más reciente video demostrativo de Unity sobre Ziva VFX presenta la versión 2.2 del plugin de simulación de tejidos suaves para Maya. Esta actualización incorpora un nuevo solucionador de GPU, lo que permite acelerar las soluciones utilizando GPU Nvidia compatibles.

    Unity ha publicado la versión 2.2 de Ziva VFX, su plugin de simulación de tejidos suaves para Autodesk Maya. La actualización introduce una novedosa solución para utilizar GPU, que posibilita aprovechar las capacidades de las GPU Nvidia actuales para agilizar las soluciones. También se añade la opción de visualizar la expansión en los archivos adjuntos directamente en la ventana gráfica de Autodesk Maya.

    Ziva VFX, una herramienta potente para crear simulaciones precisas y estables de tejidos suaves, fue presentada en público por primera vez en 2017. Ahora es una parte esencial en las tuberías de efectos visuales, siendo utilizado por empresas como DNEG, Scanline VFX e Image Engine.



    Este plugin simula la rigidez, densidad y volumen de tejidos reales, incluyendo huesos, tendones, músculos y piel. Además, es compatible con diversos tipos de amortiguación física. Ziva VFX ofrece la posibilidad de ajustar parámetros de manera directa y también cuenta con un enfoque basado en pinceles que permite pintar propiedades del material y resolución de malla. Incluso se pueden pintar puntos de inserción de músculos y fibras musculares.

    El año pasado, Unity adquirió este plugin y su desarrollador original, Ziva Dynamics, integrándolos en su nueva división llamada Unity Wētā Tools.


    La característica más destacada de Ziva VFX 2.2

    Es el novedoso solucionador de GPU, una implementación basada en CUDA que requiere una GPU Nvidia de la generación Turing o posterior. Aunque la documentación no proporciona cifras exactas, se señala que el rendimiento es especialmente mejor en activos grandes y complejos.

    Por otro lado, ahora es posible visualizar el estiramiento de los archivos adjuntos en la ventana gráfica de Autodesk Maya, utilizando colores personalizables para indicar el nivel de estiramiento.

    Ziva VFX 2.2 está disponible para Autodesk Maya 2019+ y es compatible con Windows 7-10 y RHEL/CentOS 7.3+ Linux. El software se ofrece únicamente en modalidad de alquiler.
    |Agradecer cuando alguien te ayuda es de ser agradecido|

  9. #9
    Fecha de ingreso
    Apr 2002
    Mensajes
    25,945

    A Ziva les quedan pocas noticias que publicar

    A Ziva les quedan pocas noticias que publicar, el motivo no es otro que la falta de discontinuidad del programa, Unity ha decidido dejar de ofrecer sus productos de Ziva. Entre ellos se encuentran el complemento de simulación de tejido para Maya llamado Ziva VFX, su versión en tiempo real Ziva Real-Time, y el servicio en la nube para rigging facial llamado Ziva Face Trainer.

    A partir del día 2 de abril de 2024, Unity ya no vende ni ofrece soporte activo a estos productos. Esta decisión forma parte de una serie de cambios que Unity ha estado implementando. Esto incluye la terminación de su acuerdo de desarrollo de herramientas con el estudio de efectos visuales Wētā FX.

    Algunos de los desarrolladores originales de Ziva se unirán a DNEG, una firma internacional de efectos visuales, que ha adquirido una licencia exclusiva de la propiedad intelectual.

    Unity ya no ofrece ni apoya Ziva VFX, Ziva RT y Ziva Face Trainer. Esta noticia marca el fin de los productos que Unity adquirió cuando compró a su desarrollador original, Ziva Dynamics, en 2022.

    Ziva VFX es probablemente el más conocido, utilizado en proyectos de efectos visuales de alto perfil como Dune, varias películas de Marvel y Game of Thrones.

    Posteriormente, se lanzaron dos herramientas nuevas basadas en inteligencia artificial: Ziva Face Trainer para el modelado facial en línea, y Ziva RT para la deformación de personajes en tiempo real.

    Los tres productos fueron descontinuados sin previo aviso, y Unity anunció la noticia en su blog el mismo día que envió correos electrónicos a los usuarios.

    Los suscriptores pueden convertir sus licencias actuales en términos de cinco años para seguir utilizando los productos, aunque sin soporte activo.

    Tienen hasta el 2 de octubre de 2024 para descargar las nuevas claves de licencia; después de esa fecha, perderán acceso al portal de clientes de Ziva, incluida la documentación en línea.

    Parte del equipo de Ziva se unirá a DNEG, que ahora tiene la licencia exclusiva de la propiedad intelectual de Ziva.

    Según un comunicado en el blog de DNEG, esta tecnología mejorará su pipeline de criaturas y se utilizará en su división de experiencias inmersivas, DNEG IXP.


    No se menciona si esta tecnología estará disponible como productos comerciales en el futuro

    Unity conserva la propiedad de la tecnología adquirida de Ziva Dynamics y continuará evaluando cómo integrarla en sus ofertas principales.

    Estos cambios son parte de un esfuerzo más amplio de Unity para enfocarse en sus productos principales y descontinuar otros que no son fundamentales.

    En enero, Unity anunció que planeaba despedir al 25% de su personal y que probablemente descontinuaría más productos no esenciales en el futuro.

    Anteriormente, Unity había terminado su acuerdo de servicios profesionales con Wētā FX, lo que resultó en la eliminación de 265 empleados involucrados en el desarrollo de herramientas internas, adquiridas por Unity en 2021.

    Algunas de estas herramientas, que se suponía estarían disponibles a través de Unity Wētā Tools, ahora serán aún menos accesibles debido a la descontinuación de los productos de Ziva.

    Aparte de las características propias del motor de juegos de Unity, la única tecnología importante que sigue disponible comercialmente a través de Unity Wētā Tools es SpeedTree, un conjunto de herramientas para generar plantas, adquirido por Unity en 2021, y ampliamente utilizado tanto en juegos como en efectos visuales.
    |Agradecer cuando alguien te ayuda es de ser agradecido|

Temas similares

  1. 3ds Max Universe características y novedades
    Por 3dpoder en el foro Programas de Diseño 3D y CAD
    Respuestas: 13
    : 15-02-2025, 06:58
  2. 3ds Max Enscape novedades y características
    Por 3dpoder en el foro Programas de Diseño 3D y CAD
    Respuestas: 6
    : 02-11-2024, 22:00
  3. Blender Blender 3 novedades y características
    Por 3dpoder en el foro Programas de Diseño 3D y CAD
    Respuestas: 63
    : 17-08-2023, 12:56
  4. 3ds Max SpeedTree novedades y características
    Por 3dpoder en el foro Programas de Diseño 3D y CAD
    Respuestas: 1
    : 22-07-2023, 22:00
  5. Rhinoceros Rhinoceros características y novedades
    Por mags en el foro Programas de Diseño 3D y CAD
    Respuestas: 9
    : 25-11-2020, 12:14

Etiquetas para este tema