Traidores, las ideas aquí son GPL o nada.
Traidores, las ideas aquí son GPL o nada.
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
O cuanto misterio, estaré expectante, que curiosidad. Y también a ver si ton se decenta ya de revisar mi parche del histograma de una vez.
Es que no quisiera meter la pata y quedar como un tonto, antes hablo con Damiles y lo exponemos ante vosotros.Traidores, las ideas aquí son GPL o nada.
Bueno, os adelanto algo, supongo que, para vosotros lo de los histogramas es algo a esto:
Pero yo. (y pensando en sacar mucha utilidad) quiero ir más, allá, pero eso depende de Damiles.
Así que los besos, abrazos, peloteo y aplausos serán para él.
Ala fin fin fin, para que probéis. Parche estore views con hotkeys download.
Para salvar Control + v y para cargar Control + Alt+v.
Ala ya me comentáis cosas.
Ta mañana, buenas noches.
Hablando de histogramas. Blender tiene una salida de color de 16 bit por canal? Saludos. E1000i.
Graba en formato OpenEXR, que son 32 bits (16 si marcas la opción half).Hablando de histogramas. Blender tiene una salida de color de 16 bit por canal?
"La vida es como el tetris, cuando llegan los palos no sabes como encajarlos"
Pues lo hacía con HDR. Que en principio tendría que ser lo mismo.Graba en formato OpenEXR, que son 32 bits (16 si marcas la opción half).
Prové con EXR a 32 y a 16 (half pulsado) Photoshop no se entera o Blender no da salida a 16 bits. Un fichero pesaba aproximadamente 5mb y en half aproximadamente 1 Mb.
La misma imagen la probé con HDR (32 bits) y sorpresa: el peso del fichero era de tan solo 260 Kb y con un histograma con efecto peine, mientras que el del EXR era lleno y bonito. Saludos y buenos renders.
Emili.
El soporte que ofrece Blender para los HDRI es muy básico y dado que no permite iluminar con ellos, lo que hace es convertirlos cuando los cargas en LDRI (8 bits por canal).Pues lo hacía con HDR. Que en principio tendría que ser lo mismo, prové con EXR a 32 y a 16 (half pulsado) Photoshop no se entera o Blender no da salida a 16 bits. Un fichero pesaba aproximadamente 5mb y en half aproximadamente 1 Mb, la misma imagen la probé con HDR (32 bits) y sorpresa: el peso del fichero era de tan solo 260 Kb y con un histograma con efecto peine, mientras que el del EXR era lleno y bonito. Saludos y buenos renders.
Emili.
En EXR debería de funcionar.
Si el Adobe Photoshop no te importa ese fichero.exr, prueba con el plugin de OpenEXR. www.OpenEXR.com.Pues lo hacía con HDR. Que en principio tendría que ser lo mismo. Probé con EXR a 32 y a 16 (half pulsado) Photoshop no se entera o Blender no da salida a 16 bits. Un fichero pesaba aproximadamente 5mb y en half aproximadamente 1 Mb.
La misma imagen la probé con HDR (32 bits) y sorpresa: el peso del fichero era de tan solo 260 Kb y con un histograma con efecto peine, mientras que el del EXR era lleno y bonito.
Respecto a la sorpresa de tamaños, radiance HDR es 32 bits en total, 8 por canal + otros 8 de exponente. Open EXR son 32 bits por canal (coma flotante, 1 bit de signo, 23 bits mantisa y 8 de exponente. El half de 16 bits son 1 bit de signo, 5 de exponente y 10 de mantisa).
Decía un tal Greg ward, hablando del open EXR de 16 bits: because it can represent negative primary values along with positive ones, the open EXR format covers the entire visible gamut and a range of about 10.7 orders of magnitude with a relative precisión of 0.1%. Since humans can simultaneously se no more than 4 orders of magnitude, this makes open EXR a god candidate for archival image estorage.
"La vida es como el tetris, cuando llegan los palos no sabes como encajarlos"
Ala para los windowseros, que espero que sean pocos, ahí os subo una versión compilada para que probéis para salvar las vistas.
-- IMÁGENES ADJUNTAS --
![]()
Muchas gracias.Ala para los windowseros, que espero que sean pocos, ahí os subo una versión compilada para que probéis para salvar las vistas.
Obtén enseñanza tradicional en arte y cine. Los ordenadores solo son herramientas. Ellos no pueden tomar decisiones creativas, y solo pueden crear trabajos tan buenos como tus conocimientos y tu experiencia les permita.
Victor Navone
Ser "animador" es un regalo que te ganas y un honor que deben adjudicarte los otros.
Chuck Jones
La tecnología no hace las pelí*culas, la gente las hace. No eres un animador sólo porque puedas mover un objeto del punto A al punto B. Eres alguien quien le da vida a un personaje, que es algo que el software y la tecnología no puede dar.
John Lasseter
Perdón hay un bug, lo detectaron en blenderartists, es que, no utilicen el anterior.
Update, bug fixed.
-- IMÁGENES ADJUNTAS --
![]()
Por dios, esto es como hablar con ton en español.
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
Gracias, Damiles.
Versión 0.005. Gracias de nuevo.
Obtén enseñanza tradicional en arte y cine. Los ordenadores solo son herramientas. Ellos no pueden tomar decisiones creativas, y solo pueden crear trabajos tan buenos como tus conocimientos y tu experiencia les permita.
Victor Navone
Ser "animador" es un regalo que te ganas y un honor que deben adjudicarte los otros.
Chuck Jones
La tecnología no hace las pelí*culas, la gente las hace. No eres un animador sólo porque puedas mover un objeto del punto A al punto B. Eres alguien quien le da vida a un personaje, que es algo que el software y la tecnología no puede dar.
John Lasseter
Gracias Damiles.
Cuiño, cuiiiiño!!!!
Thanketes.
Wapettte. Genial. Gracias. Damile.
Trabaja en lo que te gusta y y nunca mas trabajaras, todo sera Diversión !!!!
Qué os parece de lo que me comenta vico en blenderartistí new característica todo test. View3d save and load - Blender artists forums.
A mí no me parece bien, pienso que para algo así ya están los layouts (tantos como quiera y con el nombre que quiera)Qué os parece de lo que me comenta vico en blenderartistí new característica todo test. View3d save and load - Blender artists forums.
Si te apetece seguir programando, pídenos ideas a nosotros, que aún nos quedan unas cuantas.
Eso de poner nombres ¿para qué? ¿tan difícil es recordar en que punto has guardado un view? ¿vas a guardar x views con nombre?
Anda ya, es innecesario.
En AutoCAD las vistas salvadas pueden ser nombradas, así por ejemplo, en un proyecto, sabes a cual vista te dirigiras.A mí no me parece bien, pienso que para algo así ya están los layouts (tantos como quiera y con el nombre que quiera).
Si te apetece seguir programando, pídenos ideas a nosotros, que aún nos quedan unas cuantas.
No creo que sobre. Si deseas seguir programando.
Trabaja en lo que te gusta y y nunca mas trabajaras, todo sera Diversión !!!!
En AutoCAD las vistas salvadas pueden ser nombradas, así por ejemplo, en un proyecto, sabes a cual vista te dirigiras.A mí no me parece bien, pienso que para algo así ya están los layouts (tantos como quiera y con el nombre que quiera).
Si te apetece seguir programando, pídenos ideas a nosotros, que aún nos quedan unas cuantas.
No creo que sobre. Si deseas seguir programando.
Trabaja en lo que te gusta y y nunca mas trabajaras, todo sera Diversión !!!!
Pues sí, quizás decir que no lo veo bien fue exagerado, mejor diré que el esfuerzo que reuiere programar eso, se puede usar para otra cosa (llevamos años sin poder nombrar las capas y lo veo más necesario).No creo que sobre. Si deseas seguir programando.
Que discusiones más bonitas, la verdad es que posiblemente requiera más esfuerzo del que creo / creemos, aun así, como sabéis, hago un característica una vez a las mil mi tiempo es muy limitado.
Supongo que requiere crear una clase de objetos nueva, no es mala idea, desde luego, pero para el tipo de cosas que suelen hacerse en Blender no creo que merezca la pena. Otra cosa es AutoCAD, donde cada vista sirve para enforcar distintas zonas de un plano, por ejemplo, y poder imprimir cada planta y alzados por separado sin volverse loco moviendo la escena. Bueno, a alguien le puede ir bien, a mí no me resultara practico.
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
Bueno yo creo que por ahora lo que voy a hacer es subir el patch al patch tracker y que los gurús decidan.
Tema nuevo. Siempre he echado en falta un mínimo control de cambio de cámaras, y los scripts que hay siempre son un poco farragosos. ¿no estaría bien asociar cámaras con render layersí o mejor aún, si eso os quita el sueño, controlarlas mediante nodos: podría incluirse una entrada en los nodos de renderlayer, y un nodo cámara para elegir entre las cámaras de la escena y que permitiera, por ejemplo, un rango de frames. A ver si preparo una imagen con algo así.
Ya esta. Claro, render layers dejaría de ser un input estricto, cosa que creo que descolocaría a los centroeuropeos, pero ahí lo dejo. ¿Qué pensáis?
-- IMÁGENES ADJUNTAS --
![]()
Última edición por Klópes; 24-05-2007 a las 08:38
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
Damiles:
-Haces bien en colgar el patch en el tracker.
Lo de renombrar las capas si que es necesario para conseguir dar el paso a las escenas complejas, no podemos depender de la memoria a la hora de retomar un proyecto estancado con 1000 objetos en escena y comprobar cada uno de los layers a ciegas.
Sigue adelante con lo de los histogramas.
Caronte tiene un cojón de ideas siempre útiles porque conoce mejor que nunca Blender.
El pez ha dado una buena idea lo de incluir las cámaras en los nodos.
Somos unos pesados pedigueños.
A mí me parece buena idea lo de los nodos para cambio de cámaras.
Yo hace tiempo, en mí total ignorancia sobre programación, te pedí Damiles un nodo de composición para quitar ruido de los renders a la Neat image, por ejemplo, para hacer renders con AO con pocos samples y quitarle el ruido que deja (y no te digo para renders unbiased). Ya puestos a pedir, si encima también pudieras hacer un nodo que añadiese ruido fractal, te incluiría en mis oraciones.
Si lo vieses factible, útil y tienes ganas, me podrías poner a la cola?
Muchas gracias y un saludo.
Cuiño, cuiiiiño!!!!
Para eso ya tienes el nodo texture, salado.Ya puestos a pedir, si encima también pudieras hacer un nodo que añadiese ruido fractal, te incluiría en mis oraciones.
Si lo vieses factible, útil y tienes ganas, me podrías poner a la cola?
Muchas gracias y un saludo.
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
Ale, Klópes a las oraciones. Eso me pasa por pensar en la ducha.
Cuiño, cuiiiiño!!!!
La ducha se disfruta, no es para pensar. Sólo tienes que vigilar de no caerte y acordarte de cerrar bien la puerta.Ale, Klópes a las oraciones. Eso me pasa por pensar en la ducha.
Edito: aquí tienes un uso bastante obvio: http://download.blender.org/demo/mov...esert-h264.mov.
Última edición por Klópes; 24-05-2007 a las 16:44
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
Y lo peor es que conocía el vídeo. Ains.
Cuiño, cuiiiiño!!!!
Hace un par de días han abierto una rama bmesh (que maneja N-Gons. A ver quién es el primero que se atreve a compilarlo. (porque ahora tendrá bugs a dolor.
"La vida es como el tetris, cuando llegan los palos no sabes como encajarlos"
Lo peor no son los bugs, lo peor es que (como ocurrió la última vez que se compiló un Blender con b-Mesh) la mayoría de las herramientas de modelado no funcionan.Hace un par de días han abierto una rama bmesh (que maneja N-Gons, a ver quién es el primero que se atreve a compilarlo. (porque ahora tendrá bugs a dolor.
Pero aun así, es una noticia cojonuda.
¿Ande se ven ahora los mailing list de SVN?
30 años de Star Wars
En el mismo sitio, o no recibes los mailsí yo estoy apuntado a Bf-blendercvs y ahí recibo los mails. Aunque se pueden ver también aquí: the Bf-blender-cvs archives.
Vale, yo los veía en http://projects.Blender.org/pipermail/Bf-blender-cvs/ y ahora ya no existe.
30 años de Star Wars
Como mola. un patch para poder editar la brocha del Sculpt Mode.
![]()
Yuju.
Que buena pinta.
30 años de Star Wars
Ese parche tiene un apinta estupenda.
Cuiño, cuiiiiño!!!!
Me gusta mucho impresionante, habrá que probarlo.
Damiles con que aquí estabas, el otro día usando tu transform strip en el Sequencer me di cuenta que trabaja en píxeles, al cambiar de resolución todo se desmadra, lo puedes hacer proporcional?
Última edición por ZanQdo; 27-05-2007 a las 08:50
Offtopic:
[size=7"]ostia. [/size] impresionante el lucio cavalcanti: lucio cavalcanti 3d demo reel download Area.
Para que los que todavía están indecisos, comprobéis las posibilidades de Blender: zquatro animação. zquatro animação. zquatro animação. zquatro animação.
? Pues no sé que le ves de impresionante.Impresionante el lucio.
Damiles. Feature request. Un hotkey para volver a la anterior herramienta seleccionada (sea cual sea). Vuelve a la última si se vuelve a pulsar otra vez.
Utilisimo.
Creo sería muy útil. Q, pudiera ser (ya no vale, para salir, ahora es ctrol+q). Así saldrías de un comando, y entrarías al anterior.
(Como en AutoCAD).
Trabaja en lo que te gusta y y nunca mas trabajaras, todo sera Diversión !!!!
Y en XSI (stick keys) y en Maya.(Como en AutoCAD).
Offtopic. Pregunto por aquí para que sepáis lo espabilados que es el Leander: Se me ha olvidado cómo transparentar un objeto para poder ver la rotoscopia de atrás. ¿cómo? Que sí, que lo he mirado mucho.
Que yo sepa no se puede yo siempre entro y salgo de wireframe (z).
El viejo Alt+x de 3ds Max.Offtopic. Pregunto por aquí para que sepáis lo espabilados que es el Leander: Se me ha olvidado cómo transparentar un objeto para poder ver la rotoscopia de atrás. ¿cómo? Que sí, que lo he mirado mucho.
Obtén enseñanza tradicional en arte y cine. Los ordenadores solo son herramientas. Ellos no pueden tomar decisiones creativas, y solo pueden crear trabajos tan buenos como tus conocimientos y tu experiencia les permita.
Victor Navone
Ser "animador" es un regalo que te ganas y un honor que deben adjudicarte los otros.
Chuck Jones
La tecnología no hace las pelí*culas, la gente las hace. No eres un animador sólo porque puedas mover un objeto del punto A al punto B. Eres alguien quien le da vida a un personaje, que es algo que el software y la tecnología no puede dar.
John Lasseter
En el panel draw de object buttons, activa transparent, ahora puedes usar el slider el alpha en el material y verás transparencia en el 3d view.Offtopic. Pregunto por aquí para que sepáis lo espabilados que es el Leander: Se me ha olvidado cómo transparentar un objeto para poder ver la rotoscopia de atrás. ¿cómo? Que sí, que lo he mirado mucho.
Además, de lo que dice Zanqdo, en el mismo panel puedes elegir modo wire y también lo veras transparente en el modo edición.
Si, pero cuando entras en modo edición se desactiva esa funcionalidad.En el panel draw de object buttons, activa transparent, ahora puedes usar el slider el alpha en el material y verás transparencia en el 3d view.
30 años de Star Wars
Eso no funciona en modo edición, por lo tanto no sirve para modelar, y lo de ponerlo en wireframe que comenta pucks no es solución, porque pierdes el modo sombreado.En el panel draw de object buttons, activa transparent, ahora puedes usar el slider el alpha en el material y verás transparencia en el 3d view.
O sea, que lo que he dicho sigue vigente, lo mejor que podemos hacer por ahora, es usar la z para echar un vistazo y continuar. Al menos es lo único que yo he encontrado.
Ah si para modelar esta mal. Creo que se puede hacer un hak en Python, momento.
Última edición por ZanQdo; 27-05-2007 a las 19:40
Zanqdo explica tu problema con el Sequencer y el transform.
Ahí estoy en #plumi, es que no me esperaste ni un segundo.Zanqdo explica tu problema con el Sequencer y el transform.
Edito: bueno seguro vos con tu mala conexión a interred.
La cosa es que el transform strip trabaja en valores de píxeles, digamos si tengo una imagen a 800*600 y desplazo en x 400, estoy moviendo la mitad de la imagen hacia la derecha (creo) pero si se me ocurre pasarme a 400*300 para hacer pruebas de render más rápidas todo se desmadra, por que 400 significa toda la imagen fuera de pantalla, esa es la bronca, debería ser por porcentages o algo así más estable.
Última edición por ZanQdo; 27-05-2007 a las 20:03
Pues miraré que le hago, un saludo.
Ahora, ya me extrañaba ya, que el theme por defecto sí que lleve transparencias y el personalizado no. Gracias a todos.En el panel draw de object buttons, activa transparent, ahora puedes usar el slider el alpha en el material y verás transparencia en el 3d view.
Editado: en modo edición no furulula.
No he leído lo de Caronte.
¿Cómo pues no han habilitado la visualización alpha de las mallas en modo edición?
Mal vamos si hay que modelar saliendo y entrando por la puerta del object mode o modo wire.
Última edición por Leander; 27-05-2007 a las 20:33
Bah no se puede con Python, es demasiado desmadre para que funcione mi idea, y la memoria se dispara, estuve hablando con ideasman y nada, el bg image necesita un recodem (para variar ji).
Última edición por ZanQdo; 27-05-2007 a las 20:55
Empezando con una chispa Mental.Vaya, y como lo habías planteado, Zanqdo?
He he, la idea era tener dos objetos, uno en wire forzado, otro en transparencia solid, editas el wire y un script continuamente remplaza el Mesh de este objeto wire por el de transparente, así que, básicamente ves otro objeto en object mode que muestra los mismos resultados, pero olvídalo, no funcionó, al hacer continuamente copias Python ocupa muchísima memoria, además para que el maldito Mesh se redibuje hay que entrar y salir de Edit Mode, y esto, teniendo otro objeto seleccionado seria simplemente demasiado desmadre.
Última edición por ZanQdo; 27-05-2007 a las 22:49
A mí se me ocurre otra via, no creo que sea complicado, pero si compromete programación directa de Blender.He he, la idea era tener dos objetos, uno en wire forzado, otro en transparencia solid, editas el wire y un script continuamente remplaza el Mesh de este objeto wire por el de transparente, así que, básicamente ves otro objeto en object mode que muestra los mismos resultados, pero olvídalo, no funcionó, al hacer continuamente copias Python ocupa muchísima memoria, además para que el maldito Mesh se redibuje hay que entrar y salir de Edit Mode, y esto, teniendo otro objeto seleccionado seria simplemente demasiado desmadre.
Forzar el método de visualización de cada objecto de manera independiente.
O sea, la tetera en wireframe, el plato en solid, etc. El problema de Blender es que el método de visualización de cada objeto es global y así no es el caso del resto de los softwares.
A ver, se va a respetar el método de visualización de los objetos de manera global, salvo excepciones, podemos indicar un objeto la forma de representarse de manera independiente del por defecto indicado de manera global con un botón en Mesh tools (wire, solid, shaded).
¿Qué conseguimos con esto?
Podemos instanciar un objeto con el método de visualización global (solid por ejemplo) y el nuevo objeto instanciado lo ponemos a wire de forma independiente y dejamos el objeto original en unselectable para no editarlo.
De esta manera lo que modifiques en el objeto wire se aplica en el solid y al mismo tiempo trabajamos con transparencias.
Luego cuando se termine el trabajo, borras la instancia y ya está.
Creo que he metido la pata, disculpa, no te había leído bien, es más o menos lo que has comentado Zanqdo. Edito: acabo de averiguar que cuando utilizo el modificador mirror en algún momento. Catapum.(según la posición en que esté), si lo subo para arriba después de otros 3 modificadores es cuando viene la gracia.
Peta, no tengo ganas de ir al BugTracker.
Última edición por Leander; 27-05-2007 a las 23:36
Cuando editas un Mesh compartido, todos los objetos que tengan ese Mesh pierden su drawmode, se ven como en Edit Mode.A mí se me ocurre otra via, no creo que sea complicado, pero si compromete programación directa de Blender. Forzar el método de visualización de cada objecto de manera independiente.
O sea, la tetera en wireframe, el plato en solid, etc. El problema de Blender es que el método de visualización de cada objeto es global y así no es el caso del resto de los softwares.
A ver, se va a respetar el método de visualización de los objetos de manera global, salvo excepciones, podemos indicar un objeto la forma de representarse de manera independiente del por defecto indicado de manera global con un botón en Mesh tools (wire, solid, shaded).
¿Qué conseguimos con esto?
Podemos instanciar un objeto con el método de visualización global (solid por ejemplo) y el nuevo objeto instanciado lo ponemos a wire de forma independiente y dejamos el objeto original en unselectable para no editarlo.
De esta manera lo que modifiques en el objeto wire se aplica en el solid y al mismo tiempo trabajamos con transparencias.
Luego cuando se termine el trabajo, borras la instancia y ya está.
Esto es malo, muy malo.Cuando editas un Mesh compartido, todos los objetos que tengan ese Mesh pierden su drawmode, se ven como en Edit Mode.
¿Lo habéis propuesto? ¿no ha dicho nada ton?
Es que personalmente cansa darle continuamente a z para mover unos pelos de desplazamiento a la hora de ajustar a una rotoscopia.
Ahora que me acuerdo, fue uno de los motivos que abandoné temporalmente Blender cuando estaba modelando una cara con una rotoscopia. No veía una.
Es que están tomando el problema por otro lado, lo único que se necesita es una opción para que la imagen se dibuje en sima del solid (con un slider de intensidad) y eso ya se ha hablado, paciencia yo también tengo interés personal en esto, incluso estaba pensando en pagar a Ignacio (creo que era el) para ciertos cambios en el bg image.Esto es malo, muy malo. ¿Lo habéis propuesto? ¿no ha dicho nada ton? Es que personalmente cansa darle continuamente a z para mover unos pelos de desplazamiento a la hora de ajustar a una rotoscopia.
Ahora que me acuerdo, fue uno de los motivos que abandoné temporalmente Blender cuando estaba modelando una cara con una rotoscopia. No veía una.
Oh, sí, yo confío ciega e incondicionalmente en Blender, todo se andará.Es que están tomando el problema por otro lado, lo único que se necesita es una opción para que la imagen se dibuje en sima del solid (con un slider de intensidad) y eso ya se ha hablado, paciencia yo también tengo interés personal en esto, incluso estaba pensando en pagar a Ignacio (creo que era el) para ciertos cambios en el bg image.
Una opción Ghost en Edit Mode dónde se mezclara un modo solid transparente independientemente del alpha del material+wire tampoco estaría nada mal.
Pero lo más sencillo es tal como lo comentas, el background encima.
Foreground, tu lo has dicho buen nombre.Oh, sí, yo confío ciega e incondicionalmente en Blender, todo se andará. Una opción Ghost en Edit Mode dónde se mezclara un modo solid transparente independientemente del alpha del material+wire tampoco estaría nada mal.
Pero lo más sencillo es tal como lo comentas, el background encima.
Sigo sin entender cuál es el problema, pones el blueprints en modo shaded, lo que estés modelando en modo wire y el viewport Shading en modo textured.
-- IMÁGENES ADJUNTAS --
![]()
Pues el problema es que queremos modelar en modo sombreado, no en wireframe, así de primeras puedes pensar que no es algo tan necesario, pero sí, por ejemplo, intentas rotoscopiar con el Sculpt Mode, entraras en el infierno.
Ví los trabajos indicados por Leander, están también indicados en. televisión commercials with Blender in Brazil at blendernation.Offtopic: Ostia. Impresionante el lucio cavalcanti: lucio cavalcanti 3d demo reel download Area.
Para que los que todavía están indecisos, comprobéis las posibilidades de Blender: zquatro animação. zquatro animação. zquatro animação. zquatro animação.
A mí parecieron buenos, considerando que son viñetas para la televisión, sobre fiestas regionales, y sobre eventos locales y eventuales como concursos y pruebas.
Considerando que al intentar divulgar el Blender, siempre preguntan sobre que trabajos profesionales son hechos con él, creo que el demostrativo fue una buena forma de divulgación.
Algunas de aquellas viñetas fueron exhibidas a millones de espectadores en brasil.
Eso sí.Considerando que al intentar divulgar el Blender, siempre preguntan sobre que trabajos profesionales son hechos con él, creo que el demostrativo fue una buena forma de divulgación.
sorpresa.
Nuevo parche de partículas. http://users, utu, fi/jhkarh/media/c..._28_5_07.patch. blenderdev/particles rewrite - Blenderwiki.28.5.2007.
*bugs fixed.
**deleting all particles in particle mode crashed.
**billboards crashed without an active Camera.
**adding particle ipues from the ad new menú crashed.
**duplicating objects that had edited particles left wrong pointers leading possibly todo memory leaks.
**billboard tilt drawing didnt work in relative time.
**using uv-coordinates in a texture without actually having any UV crashed when rendered.
*new things.
**texture field efector with the old RGB & gradiente options.
New curl option .
**option todo show child particles in particle mode .
**billboards support tiled animated textures.
**separated explode functionality todo a sepárate modifier that uses the previous particlesystem in the stak.
***due todo this old files with explode being used may not work correctly (not guaranted todo work but todo try circumvent this use an old patch and disable the explode, then open with new patch and add a new explode modifier below the particle system).
**weight painting of particle attributes updates interactively .
**curve guides work interactively .
**particle instance modifier has options for normal instancing / along Path instancing and options for unborn, alive & dead particles .
**curve, surface & text objects can now emit particles .
***for now the modifier stak data is not used for these types.
***still very new code so por favor test todo death.
**random rotation factor for billboards.
**slightly better baking (less memory allocations) so if you get trouble with baking it probably a new bug.
**very early experimental branching característica for child paths, for lighting etc.
***unfortunately the halo Vector rendering is not quite up to par todo render these lines properly, but like i said it still very early.
**lattice support.
***the first lattice in the modifier stak After a particle system is used for the particles of that system.
***sepárate option todo apply lattices todo baked particles.
Leaving for a wek in bulgaria so i thought todo leave you guys something todo play with. So in other words you have a wek todo find me some pretty darn god bugs.
Semeaolvidau lo más importante. http://users, utu, fi/jhkarh/media/c..._tutorial.html.
Desde que recuerdo el foro, siempre se ha cumplido el ciclo Leander chorreando lanzando gritos sobre las últimas novedades de Blender y trabajos de artistas / Caronte diciendo que se dejen de chorradas e implementen cosas útiles y diciendo que esos artistas tampoco son para tanto.
Empiezo a creer que sois bots. En serio.
Bots, usr error***randomize calls 3dpoder admin. Sending información, error.Empiezo a creer que sois bots. En serio.
Leander no computa.
En camvio tu as camviado, ya no corriges las faltas hortográficas.Caronte diciendo que se dejen de chorradas.
Gracias Damiles por el fix.
https://projects, Blender.org/tracke..._id=9&atid=127.
En las noticias, probablemente el SVN se descongele pronto, ya que ideasman y bdiego crearon una rama de 2.44a estable para poder empezar en el tronco principal con la 2.5.
Última edición por ZanQdo; 29-05-2007 a las 07:58
Lo prometido es deuda. Nuevos builds Windows y Linux optimizado, información en el enlace: Windows. Linux se3 03 Core 2.
Gracias Zanqdo, por cierto, buen patch Venomgfx, ya empiezas también al código.
¿Qué patch?Gracias Zanqdo, por cierto, buen patch Venomgfx, ya empiezas también al código.
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
Color lamps (patch). Turn on the draw col button in preview panel, Lamp buttons. Gives feedbak of all lamps colors in OGL display.
First patch by Venomgfx, enhorabuena.
En graphicallorg.
Esta solo en el build de Linux, en realidad lo voy a quitar también de ahí, es bonito, pero es un dolor estar manteniendo builds con parches, más con la cantidad de cambios que veremos pronto.
Pues también le han metido una compilación con un patch de 3daudio por ahí. Espera, pera, ra. Voici: Win. graphicallorg.
Linux: graphicallorg.
May the source be with you: http://techmeologysite, tripod.com/blender3daudio.zip.
Una pregunta. Hace un mes cuando salió el Blender 2.43, creo que fue Caronte el que explicaba: Que en Blender animando la malla base de un personaje, después en el render aplicaba el modelo de alta creado con el Sculpt.
¿Este mismo caso se puede aplicar con un modelo creado en otro software?
Mexplico: con un personaje modelado en ZBrush, exporto el (*.obj) a el nivel más bajo y un obj al nivel más alto.
¿Con estos dos modelos se podría animar el de baja en Blender y que al renderizar utilizara el modelo de alta?
No porque discrepe de tu opinión intento ofenderte.
Un saludo a todos y gracias por vuestro tiempo.
Claro, pero sería más trabajo, tendrieas que riggear ambos, y ocultar el Low en render y el high en OGL, las opciones para hacer eso están en la ventana de outliner, otra opción es generar un displacement map con ZBrush y aplicarlo con el modificador de displacement.Una pregunta. Hace un mes cuando salió el Blender 2.43, creo que fue Caronte el que explicaba: Que en Blender animando la malla base de un personaje, después en el render aplicaba el modelo de alta creado con el Sculpt.
¿Este mismo caso se puede aplicar con un modelo creado en otro software?
Mexplico: con un personaje modelado en ZBrush, exporto el (*.obj) a el nivel más bajo y un obj al nivel más alto.
¿Con estos dos modelos se podría animar el de baja en Blender y que al renderizar utilizara el modelo de alta?
Zanqdo tenía entendido que solo se rigeaba el modelo en baja y al animar se sustituía por el modelo con el Sculpt aplicado, (esto en Blender).
En el caso de traer los dos obj de otro software el de baja y el de alta, ¿tendríamos que riggear los dos?
¿No hay alguna forma de asociarlos? Como si fuera el modelo de baja del Blender con su modelo correspondiente de Sculpt.
No porque discrepe de tu opinión intento ofenderte.
Un saludo a todos y gracias por vuestro tiempo.
Vaya hay forma de pasar el weight Paint de un modelo a otro, es usando el script que viene en Blender llamado bone weight copy, lo encuentras en el menú object/scripts.Zanqdo tenía entendido que solo se rigeaba el modelo en baja y al animar se sustituía por el modelo con el Sculpt aplicado, (esto en Blender).
En el caso de traer los dos obj de otro software el de baja y el de alta, ¿tendríamos que riggear los dos?
¿No hay alguna forma de asociarlos? Como si fuera el modelo de baja del Blender con su modelo correspondiente de Sculpt.
Lo más fácil es como bien dices esculpir en Blender directamente pues así aprovechas la multiresolución.
Gracias Zanqdo. La verdad que aún me falta mucho para probarlo, pero me vino a la mente y me picaba la curiosidad.
No porque discrepe de tu opinión intento ofenderte.
Un saludo a todos y gracias por vuestro tiempo.
Oh ho ho, tu mensaje número 1000, felicidades.
La cosa es como comente hace tiempo: Lo normal en cualquier software es generar el mapa de normales y/o de desplazamiento y usarlos sobre una malla subdividida en tiempo de render para obtener el aspecto final, animando y rigeando únicamente la malla de baja.
Solo en Blender tenemos la opción (o más bien la obligación hasta que el Sculpt Mode lo permita) de animar la malla de baja y renderizar (o incluso visualizar) la de alta sin necesidad de usar mapas de desplazamiento o de normales.
Rigear una malla de superalta es una locura innecesaria.
Por eso mismo me preguntaba, si igual que en Blender rigeas y animas con el modello de baja y después se renderiza con el de alta de Sculpt.
Se podría hacer igual con dos modelos de otro software externo uno de baja y otro de alta.
Pero ya veo que no se puede hacer. Un saludo coronte y gracias.
Ostia es verdad, el número 1000, una ronda para todos. Gracias zanqudo.
No porque discrepe de tu opinión intento ofenderte.
Un saludo a todos y gracias por vuestro tiempo.
¿Pero que es lo que piensan meter en la 2.44a? Si es que realmente va a salir. ¿Preparar el terreno a la 2.5, pero el qué?
Habrá 2.44a con un par de bugfixes solo para Windows, el resto de los so se queda con 2.44.
El inconformista del Leander cree que ha Blender le falta mejorar el Sequencer para que sea más editable, esta pobre. Pienso que se debería poder crear composiciones vacías sin cargar nada, a partir de una de ellas ir montando archivos por separado a modo de capas, creo que eso es lo que hace After Effects, que no es lo mismo que los meta strips.
Una buena idea sería que en una composición podamos añadir una imagen rotarla, escalarla, desplazarla como dentro de un espacio 3d.
Las posibilidades son infinitas si se trabaja en una especie de outliner para una composición podemos editar cada uno de los elementos y retocar el brillo, contraste, curvas.
Por el tema de brillo y contraste no es problema, curvas, bueno, seria ver quien las hizo para los nodos y si tiene ganas, el tema de una imagen para postproducirla en 3d, la verdad, en After lo tienes, pero es un programa 2d de edición/postproducción de video 2d que tiene cosas en 3d, pero Blender es una aplicación 3d que le han añadido un Sequencer, si necesitas algo 3d, editalo directamente y añade la escena, tendrás más libertad que directamente en el Sequencer, eso opino yo.
Del brillo y contraste yalguno más puedo llevar el código que hice para los nodos allí.
Vamos a ver, siempre leo por ahí: Demoreel made with: XSI + After Effects. Animation master+ After Effects. Maya+ After Effects.
Blender+wax.
Blender + Cinelerra.
Siempre hay un programa de edición 2d por medio, solo hay que mejorar un poco el Sequencer que puede hacer mucho tal como nos ha demostrado nuestro amigo Pepeland en sencilled, facilidad y versatilidad de manejo con la demoreel de los trabajos de sus amigos.
No se trata de ir directamente a editar una escena 3d, sino de trabajar con el montaje de las escenas ya procesadas y renderizadas.
A ver, te lo explico de otra manera y con un ejemplo: imagina un primer plano acercándose al espectador mientras se va aplicando un efecto de difuminado sin tocar para nada el Dof de las cámaras mientras que la capa del fondo se va fundiendo. Aquí tienes un ejemplo: 3d compositing in After Effects 6.5-a creativecow tutorial.
No te fijes en la interfaz ni cómo se trabaja, es un programa diferente, fíjate en los resultados y cómo se podría aplicar en el Sequencer.
No estaría de más y mucho sería de agradecer que incorporaras lo del brillo y contraste (y alguno más) en el Sequencer, puesto que son cosas muy básicas para que estén ausentes allí.
Se a lo que te refieres, pero en este caso todo lo que dice el video perfectamente se podría crear primero en el 3d y pasar la escena al Sequencer para terminar de darle los toques, simplemente creo que es otra forma de trabajo muy distinta a la filosofía que siempre hay en postproducción.
Vaya, te entiendo perfectamente, déjame pensar un poco por simplificar un poco y sacar máximos resultados, m. Está claro que el Sequencer simplemente necesita un efecto de transform para aplicarlo a los cortes, pero con keyframes.
El efecto tiene los siguientes valores:
-Move.x.
Move, y.
Move, z.
Rotate.x.
Rotate, y.
Rotate, z.
Scale.x.
Scale, y.
Scale, z.
Cada uno de esos valores puede aplicarse a un ipo curve a modo de keyframes.
Con eso ya casi tenemos todo, pero claro, es mucho, porque también es mucho pedir, y programar.
Tiene ya un transform como no, ese también es mío, pero como no de 2d, en ningún momento se ha planteado y dudo que se planten que el Sequencer tenga o manege datos de 3d, que, aunque puede, todo es programarlo y ya está. Creo que tienen muy claro que Blender es solo 3d y el Sequencer que maneje solo 2d, y siempre he oído que el propósito de Blender es una aplicación 3d, y no de edición de video, ellos no quieren competir ni con Cinelerra ni similares comerciales, prefieren que los developers se centren en tareas de 3d más que del Sequencer, eso creo que me comentaron una vez que planteé una cosa para el Sequencer.
Leander you creo que tu tienes que, aprender a usar las herramientas que ya tiene Blender, por ejemplo, usar el node compositor como entrada del Sequencer, y escenas 3d (también compuestas si quieres) como scene strips para el Sequencer, es increíblemente poderoso, no hay nada que no puedas hacer con Blender en este momento. Para manejar video en 3d simplemente carga la secuencia en un plano con el material correcto y la cámara correcta en una escena, y usa esa escena en el Sequencer como ya dije. Lo del desenfoque también es totalmente posible.
Como ejemplo tienes este logotipo animado, con todo y blend file que hice para el trabajo hace unas semanas, es todo procedural y no destructivo.
Mi reel también fue editado completamente en Blender, el enlace está en mí firma.
Última edición por ZanQdo; 03-06-2007 a las 00:12
Bueno Zanqdo, me acabas de abrir los ojos, como diría Elgordo: esto me pasa por pensar en la ducha, muchas gracias amigo.
Esta claro, Blender tiene sus propias herramientas, y no tiene por qué utilizarse el camino común de herramientas standard para llegar a los resultados cuando en Blender se trabaja de otra manera.
Pretendía facilitar un poco más y optimizar para ahorrar tiempo añadiendo (como propuse) un poco más de sal en el Sequencer, pero como ha comentado Damiles: Blender es una herramienta 3d.
Tenéis toda la razón todos, siempre es un placer charlar con ustedes, porque siempre sacamos conclusiones y comparaciones para bien de Blender.
Una cosa me parece acertada: meter brillo/contraste, niveles, curvas en el Sequencer es algo de agradecer.
Normalmente en todo programa deben estar las propiedades a la vista y a mano, no entiendo por qué hay que pulsar n continuamente para editar las strip properties del Sequencer, deberían estar por defecto en el button Windows e ir cambiando de panel según qué strip o corte tengas seleccionados.
¿No os parecería más cómodo?
Te vamos a llamar: Leander el pedigüeño.¿Recuerdas la parte final del teaser de efectos que hice en v de vicioso?Imagina un primer plano acercándose al espectador mientras se va aplicando un efecto.
Pues como recordaras esta todo hecho y montado con Blender, y si te fijas en la parte final, veras que es algo muy parecido a lo que comentas, solo que yo en lugar de un Dof le aplique un fade, pero vamos, que me hubiese dado lo mismo.
Mira, hay una cosa que mucha gente no hace porque piensa que es una barbaridad y en realidad no es así. Me refiero a usar Blender (la parte 3d) para editar videos con una libertad y potencia asombrosa, tengo un amigo que tiene un pequeño estudio de estos que montan videos para bodas, comuniónes, etc y viendo una tarde cómo montaba un video con el Premier pensé; ¿y si intento usar la parte 3d de Blender con texturas de video?
Pues lo probé y me quedé de piedra porque Blender montaba las secuencias con efectos 3d (el que me diese la gana, ya que no estoy limitado a una librería) mucho más rápido que el Premier.
O sea, que usar Blender como editor de vídeo no es una barbaridad, porque el render no tarda nada (como mucho, tarda lo mismo que cualquier editor de vídeo estándar), gracias a que podemos desactivar todas (o casi todas) las opciones que ralentizan el render y que no son necesarias en este caso.
¿Qué se puede mejorar el Sequencer? Por supuesto, pero tranquilo que todo llegara.
Creo que ese mote se me queda pequeño. Ya te echaba de menos tu presencia, porque estas discusiones son propicias a contar tu persona.Te vamos a llamar: Leander el pedigüeño.
Bueno, has tocado un punto que me planteé en su día y que podría ser interesante que puntualizaras. ¿Qué parámetros del render podemos desactivar sin que afecte a la edición de vídeo? (es un offtopic, pero pequeñín).
Vaya, no tiene sentido tu pregunta, si quieres desactivar unos parámetros de render, renderiza sin esos parámetros y carga luego el corte en el Sequencer hombre.Bueno, has tocado un punto que me planteé en su día y que podría ser interesante que puntualizaras. ¿Qué parámetros del render podemos desactivar sin que afecte a la edición de vídeo? (es un offtopic, pero pequeñín).
Zanqete. ¿Qué es esto que acabo de leer por ahí?Yo también lo quiero, le metes caña.It sems that the After Effects export característica is becoming a big demand, couldnt agre more, actually it would be really useful and a great addition todo the Blender arsenal.
Zanqdo already tried something in that direction.
Claro, aquí está el hilo: blender todo After Effects - Blender artists forums.
Los idiotas de Adobe no quisieron ayudar así que, ha costado un mundo sacar algo que funcione, pero si te fijas al final, un par de maes con más paciencia e interés que yo lo terminaron de ajustar, al menos ellos dicen que funciona, yo la verdad lo empesé a hacer por insistencia de otros, porque no uso After Effects me basta y sobra con Blender.
Última edición por ZanQdo; 06-06-2007 a las 02:03
Eres todo una máquina, muchas gracias. Ae es una herramienta sin competencia y un standard, el script es imprescindible.
Depende del efecto que estés haciendo, pero lo típico es desactivar: las sombras (o incluso quitar todas las luces porque el material suele ser Shadeless), el Raytracing (lo cual desactiva casi todo lo que consume tiempo como el AO, la refracción, etc), bajar el osa a 5 (que sobra para animaciones), de todos modos, como he dicho depende del efecto que estés haciendo, porque, por ejemplo, si quieres que un plano texturizado con una secuencia de video pase delante de otro para hacer una transición entre ambos y quieres que proyecte una leve sombra (que queda muy bien) pues necesitas como mínimo una luz y activar las sombras (una shadowmap en baja resolución sobra y se calcula muy rápido).Bueno, has tocado un punto que me planteé en su día y que podría ser interesante que puntualizaras. ¿Qué parámetros del render podemos desactivar sin que afecte a la edición de vídeo? (es un offtopic, pero pequeñín).
Las posibilidades son infinitas y si te dedicas habitualmente a hacer montages de vídeo, puedes hacerte una librería de transiciones, así después solo necesitas cambiar la videotextura y punto.
Otro truco:
Yo incluso he llegado a usar el compositor por nodos como si fuese el secuenciador de video concretamente para un efecto de la película v de vicioso, necesitaba que una nave (3d) pasase por delante de un árbol (imagen real) y después por detrás de otro y como había usado el chroma key de los nodos, pues lógicamente desde el Sequencer no podía controlarlo, así que, lo que hice fue usar un nodo time (ese gran desconocido) para que el valor del nodo de chroma fuese distinto en distintos frames de la animación.
También dependiendo de la resolución de la textura y lo cerca que este la cámara, debes variar el filter, y el apagar o encender el interpolation, depende del caso, si está lejos la cámara no necesitas interolación, ademaś, el mipmap puede darte un efecto borrozo repentino con ciertos ángulos del plano que tiene las texturas así que, apagalo, en render settings utiliza un filtro de a no muy borroso, como el Mitchell.
Última edición por ZanQdo; 06-06-2007 a las 11:33
Muy imprecionante :-o. blender skinning improvements. build para winblows.
Ostras. Esto va a facilitar muchísimo el trabajo de riggeado.
Qué bien que vayan los tiros por ahí.
Publicado en Irc hace 5 minutos. planes para el 2007..
¿Un instituto de Blender? ¿algo, así como una factoría de desarrollo del programa o para dar clases de Blender? Lo del Blender game me da igual, el listón está demasiado alto en el mercado, lo de la película me parece genial.
No, es un estudio perpetuo para desarrollar proyectos como orange y Peach durante todo el año y financiado por la comunidad en su mayoría.
Yo entiendo que es un local del que puedan disponer ocasionalmente proyectos relacionados con Blender.¿Un instituto de Blender? ¿algo, así como una factoría de desarrollo del programa o para dar clases de Blender?
No es que yo lo entienda, es que lo dicen:
Studio.
Fully equipped Project space todo host at least two teams of 5-6 people. The Studios Will be available for temporary projects, for open movie/game/effect projects.
Additional space for workshops/trainings is required.
Hate keeps a man alive. It gives him strength.
-------------------------------------
YafRay -- Mi empresa (spam, spam, spam)
Está claro que está para dar soporte no solo para orange y Peach.
En traducción libre, viene a decir: El instituto consistirá (período 2007-2012): Personal. Un pequeño equipo formado por 4 personas, productores y coordinadores de proyectos, y un administrador.
Este equipo también trabajara en los proyectos de la fundación Blender, org.
Estudio.
Local totalmente equipado para albergar al menos dos equipos de 5-6 personas. Los estudios estarán disponibles para proyectos temporales, para proyectos de películas/juegos/efectos libres.
Se requiere espacio adicional para talleres y cursos.
Investigación y desarrollo.
Trabajo permanente de investigación o desarrollo para 1-3 personas.
Hate keeps a man alive. It gives him strength.
-------------------------------------
YafRay -- Mi empresa (spam, spam, spam)
Me apunté a un cursillo de inglés que al final supe que es baturro. Sastracias.
Nik ah estado cambiando bastantes cosas del multires para ahorrar memoria, funciona bastante mejor. build para win.
No subo de Linux porque no creo que los linuxeros no sepan compilar?
Última edición por ZanQdo; 11-06-2007 a las 07:45
Carajo, funciona bastante mejor. Y con un cuadrado subdividido a nivel 11, las consume 550 Mb frente a 700 Mb la versión oficial.
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
Vaya, eso lo probaré tan pronto llegue a casa. Gracias por el aviso.
Cuiño, cuiiiiño!!!!
Raytracing difuso para el motor de render interno:
http://projects.Blender.org/tracker/..._id=9&atid=127.
Refracción difusa en Susi y reflexión difusa en el suelo:
Reflexión difusa en Susi y en suelo:
![]()
Vaya Blender internal render esta poniéndose calentito calentito.
Que buena pinta. Últimamente hay mucha actividad en el SVN (incluidas las ramas de Google summer code). http://wiki.blender.org/index.php/us...ewimagebrowser.
-- IMÁGENES ADJUNTAS --
![]()
30 años de Star Wars
Qué buena pinta estos dos parches, que buena pinta. Pero lo que me pregunto, a ver si sabéis algo, hece tiempo que se viene comentando lo del recode del motor de render interno de Blender (incluso creo que fue el verano pasado que se hablaba de basarse en reyes), pero al menos el parche de s es un apaño (pero menudo apaño) para simular ese efecto con el internal renderer actual. ¿desesperados efectos Glossy son más de lo mismo, o se está ya trabajando en el esperado recode? Un saludo.
Cuiño, cuiiiiño!!!!
Qué ganas de tener el filebrowser ese me repatea tener que usar un programa externo para buscar la textura que quiero además parece ser que, soportara también preview de materiales y de.blends.
Elgordo, dudo mucho que haya un recode del internal porque es un mastodonte. Yo creo que los tiros van más por añadir motores externos (mediante el nuevo Api de render) e ir implementando funciones nuevas al internal como es costumbre desde hace años.
Si, desde luego esa parece ser la línea de acción, pero había oído justificar lo del recode porque este sistema de parches hace que como dices el motor sea un mastodonte y esto vaya en detrimento de la velocidad de render en fin, que conste que yo más contento que unas castañuelas con mis reflejos difusos sin subterfugios. Un saludo.
Cuiño, cuiiiiño!!!!
Si se ve ruido, y creo que lo veo, el difuso no es fake. Por cierto, en XSI este tipo de material (de reflexión/frracción difusa rápidas) lo metieron hace poco en la última versión. (el de nativo de Mental Ray resulta muy lento).
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
Klópes el Shader mi nativo de Mental Ray es rápido, inclusive interpola samples a resoluciones menores, muy rápido y bueno.
Con respecto al Blender internal por ahí alguien quiere sustituir el lento Octre del raytracer por un sistema más eficiente.
Estoy esculpiendo 3.5 millones de quads con 650 Mb, esto está bueno, ahora falta undo a Hd por que eso de apagar el undo no me gusta mucho.
Lo que metieron en el último Mental Ray es justamente eso, que interpole samples para hacer el Glossy más rápido y suave, pero hace mucho que Mental trae reflexiones y refracciones con Glossy (sin la posibilidad de interpolación) en infinidad de Shaders.
Con respecto al de Mental Ray, yo lo decía por la implementación del nodo architectural material, que, por estos lares (mi oficina) estaban muy emocionados porque podía hacer los Trazos cónicos estos. Sabía que ya podía hacerlo antes, pero suponía que era lento porque no lo usaban, así que, utilizan Vray.
Si es que.
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más
Seis días sin aparecer por aquí y ya me han cambiado el programa. Mecachis, que guay. Caronte (y demás), gracias por los truquis, es justo lo que quería saber. Igual valdría la pena abrir un hilo a propósito para tratar el uso de Blender como secuenciador.
Hola, ahora Blender soporta pyconstraints builds para todos. Linux. Linux optimizado para Core 2. Windows.
Si el visualizador tuviera preview de (*.obj), ya seria todo un detalle.
Aqui quiero poner una imagen bonita de mi pagina, pero no puedo...ojete.
Qué divertido.Hola, ahora Blender soporta pyconstraints builds para todos. Linux. Linux optimizado para Core 2. Windows.
Estas líneas emparentan un objeto a otro. No es tontería: es un emparentamiento, normal, pero a este le podemos ajustar la influencia porque ahora es una restricción:
Código:#bpyconstraint. Use_target=true. Def doconstraint(m1, m2, idp): Return m1*m2
...y estaba superbueno.
Y miré su perfil. Y vi que era amigo de Daniela. Puaf.
Dos niñas en el parque
no se elevará, nunca más