Motion capture con syntheyes y Blender
Hola a todos, para dentro de unas semanas vamos a empezar un proyecto en el que hay una integración de un personaje en 3d en un escenario real. Para la parte 3d utilizaremos principalmente Blender 2.5, quizás algo de ZBrush, y para el tracking utilizaremos Syntheyes, pues es un software muy potente al que ya estamos bastante acostumbrados, y no es excesivamente caro.
El tema es que para el matchmoving de la cámara no hay problema, pero nos gustaría probar cómo funciona el sistema de captura de movimiento con Syntheyes. Hasta ahora hemos hecho un par de pruebas y el resultado es muy bueno. Estamos ya pensando en hacer el traje de captura, y disponemos de un estudio y tres cámaras para la grabación con multiángulo.
Hasta ahí todo bien, pero ahora viene la parte que me preocupa. Sé que Blender y Syntheyes se llevan bien, nunca tuve problemas entre ellos para exportar/importar.
El caso es que una vez tengamos al tío con el traje trackeado, acabaremos con unos cuantos puntos flotando por el espacio en Blender.
Y mi pregunta, básicamente es, ¿cómo pasamos de esos puntos flotantes el movimiento a un esqueleto? Y luego cómo lo pasamos al personaje definitivo? Porque las proporciones no serán las mismas. Yo tengo varias ideas y estoy probando cosas a ratos, pero pongo esto aquí para ver si alguien ha utilizado este sistema anteriormente y me puede orientar un poco.
Otra pregunta es si existe alguna manera en Blender, de, pongo un ejemplo. Tenemos dos cubos. Uno es padre del otro, animamos el padre, se podría grabar el movimiento del hijo y luego desemparentarlo para no necesitar más al padre? Esto lo digo porque sí, por ejemplo, tengo los puntos, creo un armature y le pongo restricciones a los puntos, grabando el efecto que tienen esas restricciones en el armature, tendría una acción en ese armature, que podría aplicarle a otro armature con unas proporciones diferentes que no tenga los puntos con las respectivas restricciones.
En fin, a ver si alguien puede encaminarme un poco en este tema. Gracias.
Motion capture con syntheyes y Blender
No pes brother no uses ZBrush solo Blender. Una pregunta.
Blender no hace tracking?
Motion capture con syntheyes y Blender
No, no hace tracking. He estado investigando un poco y he descubierto parte del posible workflow. En Blender 2.49, viene un script que hace un bake de todas las restricciones, con lo cual nos deja unos huesos sin restricciones, IK ni nada más que rotaciones y posiciones. Este esqueleto se puede abrir en Blender 2.5 sin ningún problema, al no haber restricciones ni nada por el estilo no hay ningún conflicto (al menos en la prueba que he hecho). De este modo, ya tendríamos los puntos convertidos a un esqueleto con una acción que se puede aplicar a otro esqueleto similar.
En breves haré una prueba de captura de movimiento, solo con un brazo y sin cambiar de punto de vista, solo un movimiento simple del brazo en lateral, con markers en el hombro, codo y muñeca. Trataré de probar con esto y crear un workflow lo más sencillo posible.
Motion capture con syntheyes y Blender
Me interesa el tema yo posiblemente, este verano tenga que hacer una escena con motion capture de un humano y, aunque aún no sé si me meteré en el proyecto, también había pensado usar Syntheyes y bakear la animación.
Ya iras contando que tal te ha ido.