Página 5 de 7 PrimerPrimer ... 34567 ÚltimoÚltimo
Resultados 61 al 75 de 101

Tema: Siggraph evento internacional del diseño gráfico

  1. #61
    Fecha de ingreso
    Jan 2008
    Mensajes
    610

    Siggraph 2010

    Hombre Cabfl, estoy decuerdo en que es un poco ridículo que marketing haya decidido vender (que no se vende, es un upgrade gratuito) el preview engine como que no hay que comprar caras tarjetas gráficas que se quedan obsoletas en 6 meses, más que otra cosa porque cuando salga Maxwell render con GPU (o CPU + GPU) entonces tendrán que hacer un comunicado ignorando este, pero, recuerda que Vray RT (que también va por CPU, al igual que Vray normal) es un producto a parte, y a parte vienen a ser 250 euros + iva.

    Next limit dice básicamente lo mismo que ChaosGroup, sí al GPU, pero no a costa de obligar a la gente a comprar una Nvidia, es decir, cuando OpenCL esté listo, y que la gente elija su producto.

    Me pregunto si Nvidia se esperaba esta rebeldía por parte de algunas compañías, jodé, al final fueron Nvidia quien se curró el Cuda.

  2. #62
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Siggraph 2010

    No he criticado que sea un software aparte, integrado, que se pague o no nueva licencia. Lo que critico es las mentiras que sueltan para justificar su software por CPU, en vez de por GPU como el resto de competencia. Decir que no lo van a lanzar por GPU por que según ellos no es una tecnología adecuada, me parece un engaño, además de dejar colgados a sus usuarios, además, se excusan en el precio de las tarjetas gráficas, pero es que, el mismo rendimiento se necesitan 10 CPU que cuestan 20 veces más.

    Me parece una tomadura de pelo, siendo además líderes en el mercado de motores de render unbiased. Se han dormido en los laureles, y en vez de ponerse las pilas para actualizar su software a GPU, prefieren engañar a la peña y seguir vendiendo licencias CPU el vrayrt funciona por CPU por que en su momento la tecnología GPU y las gráficas aún no estaba preparada, pero ahora ya es el momento y próximamente por GPU.

    Randomcontrol han hecho una jugada no muy limpia, al vender el Arion como licencia separada de Fryrender, pero por lo menos se han subido rápido a la nueva tecnología, en vez de negar lo evidente.

    Y aparecen nuevas alternativas como thea y Octane, que dejan a Maxwell obsoleto en términos de velocidad.

  3. #63
    Fecha de ingreso
    Jan 2008
    Mensajes
    610

    Siggraph 2010

    No han dicho que GPU no sea la tecnología adecuada. Lo que han dicho es que GPU a través de Cuda no es la tecnología apropiada, y que lo será cuando OpenCL sea una realidad. Además, queda otra cuestión, pero la dejo para el final.

    En lo que estamos de acuerdo es en que enfocar el tema como no hace falta comprar caras tarjetas gráficas es una gilipollez, todos nos hemos gastado un huevo en procesadores y tenemos claro cuánto vale qué. Se han limitado a decir que funcionara en cualquier procesador moderno. Lo que no sabemos en cómo funcionara, pero bueno, ya veremos.

    La verdad es que vrayrt tiene que estar a punto de caramelo para el GPU, a ver qué pasa con el vrayrt de Autodesk Maya, aunque hasta dónde sé, hasta que OpenCL no sea una realidad, al igual que Next Limit, no moverán ficha.

    Respecto a random control, no es una opción, al menos para mí de momento, no me da confianza, la verdad.

    De todas maneras, todos sabemos que el render por GPU tiene un problema gordísimo, y es la memoria. Hoy en día con 2 gigas que narices renderizas, como tu proyecto no sea un producto único, porque como haya que tirar para lante un proyecto de 500 texturas con 2 Gb.

    Probablemente está sea la mejor razón por la que ni ChaosGroup ni Next Limit venden este tipo de producto aún.
    Última edición por Reaversword; 09-08-2010 a las 17:24

  4. #64
    Fecha de ingreso
    Jan 2008
    Mensajes
    610

    Siggraph 2010

    Aquí la presentaciones de ChaosGroup: http://www.cGarchitect.com/news/newsfed.asp?Nid=4970. Estoy viendo los vídeos ahora mismo, podéis ver cómo han preparado el motor de render para crear estereoscopia sin necesidad de lanzar dos renders diferentes, dispersión de la luz, Vray RT para Autodesk Maya, Vray RT a través de cpu+GPU, y el simulador de fuego de ChaosGroup, Phoenix (para max).
    Última edición por Reaversword; 11-08-2010 a las 12:30

  5. #65
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Siggraph 2010

    Muy interesantes esos videos, Reaversword. La beta de vrayrt v2, muestra que 3 gráficas gf480GTX, son 15-25 veces más rápidas que un i7 980x (6 Cores + HT a 3,6 Ghz).

    También bien de las limitaciones de la cantidad de Ram de las gráficas, y cómo automáticamente bajan la resolución de las texturas cuando es necesario. En este caso están usando tarjetas domésticas con 1,5 Gb de memoria, pero hay tarjetas tesdla con 3 y 6 Gb de memoria, y las nuevas Quadro con 2 - 6 Gb. Habría que ver cuanta cantidad de texturas y geometría aguantan.

    Cierto que con 3 Gb de memoria local, sigue siendo poco para proyectos de gran tamaño. Equivaldría a un render con CPU con 4 Gb de Ram (1 Gb se descuenta, por que la gráfica no carga el Windows+3dsmax+la aplicación de render, solos datos de geometría y texturas), pero también es cierto que hoy día nos hemos acostumbrados a tener 8-16 Gb de Ram en nuestras equipos, y ya nadie optimiza el tamaño de las texturas, y metemos mucha más resolución de textura de la necesaria. Recuerdo no hace muchos años, cuando optimizabamos todo.

    Me ha sorprendido que usa exclusivamente GPU, mientras que otros como Arion, usan la suma de GPU + cpus.

    En el caso del vrayrt, la CPU solo gestiona, y usa un solo Core, así que, la mejor configuración sería un Dual Core + 4 tarjetas gráficas potentes con mucha memoria local.

    A ver si alguien que entienda bien el inglés del video, nos puede aclarar algunas cosas:
    En el interfaz del vrayrt (3ds Max) tiene 3 opciones: CPU, OpenCL (singlekernel), OpenCL (multikernel).
    1º si con la opción OpenCL (singlekernel) esta usando 3 tarjetas GeForce480GTX, ¿para qué es la opción de OpenCL (multikernel)? Responden a esta pregunta al final del video.
    2º porqué pone OpenCL, si luego resulta que consulta una ventana de Cuda para mostrar las características del sistema GPU. En alguna parte del video aclara si esta usando OpenCL o Cuda?
    Después de ver estos videos donde se demuestra la enorme ventaja de calcular por GPU, creo que nextlimits se han dormido y Maxwell llegara el último.

    Y mientras a engañar a los usuarios para que sigan comprando sus licencias CPU.

    Si actualmente tenemos tarjetas de hasta 2-6 Gb de Ram local, la próxima generación tendrá posiblemente 8 Gb o más (10-12 Gb?), y apenas hay un año entre generación y generación. Así que el render por GPU es el presente, y las empresas que desarrollan motores de render deberían ir lanzando ya sus primeras versiones, para que en un año sus motores de render GPU estén maduros.
    Última edición por cabfl; 11-08-2010 a las 17:41

  6. #66
    Fecha de ingreso
    Aug 2006
    Mensajes
    1,017

    Siggraph 2010

    Muy interesantes esos videos, Reaversword. La beta de vrayrt v2, muestra que 3 gráficas gf480GTX, son 15-25 veces más rápidas que un i7 980x (6 Cores + HT a 3,6 Ghz).

    También bien de las limitaciones de la cantidad de Ram de las gráficas, y cómo automáticamente bajan la resolución de las texturas cuando es necesario. En este caso están usando tarjetas domésticas con 1,5 Gb de memoria, pero hay tarjetas tesdla con 3 y 6 Gb de memoria, y las nuevas Quadro con 2 - 6 Gb. Habría que ver cuanta cantidad de texturas y geometría aguantan.

    Cierto que con 3 Gb de memoria local, sigue siendo poco para proyectos de gran tamaño. Equivaldría a un render con CPU con 4 Gb de Ram (1 Gb se descuenta, por que la gráfica no carga el Windows+3dsmax+la aplicación de render, solos datos de geometría y texturas), pero también es cierto que hoy día nos hemos acostumbrados a tener 8-16 Gb de Ram en nuestras equipos, y ya nadie optimiza el tamaño de las texturas, y metemos mucha más resolución de textura de la necesaria. Recuerdo no hace muchos años, cuando optimizabamos todo.

    Me ha sorprendido que usa exclusivamente GPU, mientras que otros como Arion, usan la suma de GPU + cpus.

    En el caso del vrayrt, la CPU solo gestiona, y usa un solo Core, así que, la mejor configuración sería un Dual Core + 4 tarjetas gráficas potentes con mucha memoria local.

    A ver si alguien que entienda bien el inglés del video, nos puede aclarar algunas cosas:
    En el interfaz del vrayrt (3ds Max) tiene 3 opciones: CPU, OpenCL (singlekernel), OpenCL (multikernel).
    1º si con la opción OpenCL (singlekernel) esta usando 3 tarjetas GeForce480GTX, ¿para qué es la opción de OpenCL (multikernel)? Responden a esta pregunta al final del video.
    2º porqué pone OpenCL, si luego resulta que consulta una ventana de Cuda para mostrar las características del sistema GPU. En alguna parte del video aclara si esta usando OpenCL o Cuda?
    Después de ver estos videos donde se demuestra la enorme ventaja de calcular por GPU, creo que nextlimits se han dormido y Maxwell llegara el último.

    Y mientras a engañar a los usuarios para que sigan comprando sus licencias CPU.

    Si actualmente tenemos tarjetas de hasta 2-6 Gb de Ram local, la próxima generación tendrá posiblemente 8 Gb o más (10-12 Gb?), y apenas hay un año entre generación y generación. Así que el render por GPU es el presente, y las empresas que desarrollan motores de render deberían ir lanzando ya sus primeras versiones, para que en un año sus motores de render GPU estén maduros.
    Vaya pero que burrada.

    Para que comprar si lo puedo tener gratis el mejor unbiased como el LuxRender.

    Si quieren vivir engañados déjalos a esos lols.

  7. #67
    Fecha de ingreso
    Jan 2008
    Mensajes
    610

    Siggraph 2010

    Cabfl. Creo que las opciones no son singlekernel o multikernel, sino singlechannel o multichannel, por si vas a hacer compositing con el resultado.

    Estos de ChaosGroup son unos cachondos (lo pongo recordando de cabeza):
    Tenemos aquí está caja negra abierta, para que veáis lo que hay dentro, 3 GeForce 480 y un sólo procesador Intel extreme de 6 Cores, no toquéis las tarjetas que lamentablemente en unas presentaciones en Alemania hemos tenido dos muertos y varios heridos.

    Vamos a presentar Vray for Maya, luego Phoenix, pdpplayer, y luego cerveza, vino y a beber.

    Y por último en la presentación de pdpplayer. Con que previsualizais vuestras animaciones? -con Fchek, ya, y varias a la vez, para comparar? Lo compongo en After Effects. Ya, y mientras renderizas, err, voy a comer. Cuantas veces comes al día?
    Mención especial de cuando están cambiando los colores de la furgoneta antigüa, después de ponerla de color rosa: esto, no. Definitivamente este no es el color.

    Por no hablar del vídeo del coche deportivo: seguro que ha todos os ha pasado cuando llega vuestro director técnico y os dice, es que ese no es exactamente el tono de rojo que buscamos (pone otro tono de rojo), bueno, quiźa ligeramente amarillo (lo vira al amarillo), no, en realidad lo quiero verde. Seguro que todos vosotros sabéis de lo que hablo.

    Espectacular.

    Que sí, si estamos de acuerdo, que las gráficas son mucho más rápidas, si yo también quiero esa tecnología funcional ya, pero las tesla exige desenroscarse un riñón, un ojo y un huevo. Eso sí, podemos ahorrarnos la caldera de la calefacción de la casa con los apaños adecuados.

    Tío, no seas tan duro con Next Limit, si por algo se caracterizan es por tener productos que funcionan sólidos como rocas. Seguro que han investigado la tecnología de rendering por GPU, pero aún no han visto por conveniente sacarlo (fíjate que en 2009 Chaos ya tenía algo funcional y tampoco sacó vrayrt por GPU).

    Chaosgroup también ha comentado además de la auto-compresión de las texturas (elegante de cojones, la verdad, lo previsualizas y luego en el render final todo correcto), que hay ciertos Shaders que necesitan tomar decisiones lógicas, y que a las GPU de momento no se les da bien, han dejado caer que esperan que las GPU avancen, y en definitiva, que hay ciertos Shaders que necesitan una CPU para funcionar correctamente. Han comentado que no hay displacement (qué curioso, ahora que directx11 presume de ser una de las mayores novedades en traer), y que, aunque el Depth of Field va bien, el Motion Blur es prácticamente inviable. Que aún queda mucho por hacer, que están trabajando con el environment Fog. (pues sí que me he quedado con el cante, así todo de carrerilla).

    Ah. Y sorpresa en el hilo de Vray for Maya.

  8. #68
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Siggraph 2010

    Que sí, si estamos de acuerdo, que las gráficas son mucho más rápidas, si yo también quiero esa tecnología funcional ya, pero las tesla exige desenroscarse un riñón, un ojo y un huevo. Eso sí, podemos ahorrarnos la caldera de la calefacción de la casa con los apaños adecuados.
    Cierto que son caras, pero mucho más baratas que una granja de render por CPU.

    Un Dual Xeon (6+6cores) y 12 Gb de Ram, y una gran fuente de alimentación, te puede costar 5000 euros.

    Un Core i7 930 (4 Cores) + 12 Gb de Ram + Quadro FX470 + 2x tesla c2050 3 Gb + fuente 1200w, te cuesta en Azken 6000 euros.

    Si compras las 2 tarjetas y te montas tu el equipo, te saldrá por menos, posiblemente 5400 euros.

    Es una pasta, pero hablamos de un equipo que es al menos 10 veces más potente que el Dual Xeon, y la diferencia de precio es de 1000 euros o menos, y solo una licencia de render.

    El equivalente en rendimiento en equipos Dual Xeon, serían 10 por 5000 euros = 50.000 euros (a esto suma el coste de 10 licencias de nodos de render).

    En vrayrt todavía tiene limitaciones, pero es que, es una versión prerelease. Aún no es versión comercial y, además cuando lo lancen, será 1ª versión. Y ya sabes cómo es esto cuando lanzan una herramienta nueva, hasta 2 o 3 versiones después no suele empezar a alcanzar la madurez.

    En Arion, parece que soporta todo igual que Fryrender, luego las limitaciones de vrayrt, se deben más a su diseño, que al propio GPU.

    La memoria local es sin duda una limitación, y habrá que aprender a optimizar las escenas y las texturas. Pero seguro que en la próxima generación de tarjetas tendrán más memoria local, así que, creo que las CPU están listas para sentencia, y llega el momento de las GPU.

    O no, por que este mundo no para de avanzar nunca, y cuando menos lo esperamos nos sorprenden con nuevas tecnologías.

    Intel acaba de desarrollar una tarjeta con 32 Cores y 128 hilos, basado en x86, que trabaja como coprocesador de cálculo ayudando al CPU. Además, tiene la ventaja de que al ser x86, no necesita optimizar el software, y cualquier motor de render que funciona en un CPU, también podría funcionar en cpu+coprocesadores: http://www.fudzilla.com/processors/p...specifications.

    Las demos actuales son con una tarjeta con un coprocesador de 32cores fabricado en 45nm a 1,2 GHz. Pero hablan de una futura versión de 50 Cores a 22nm (que seguramente ira además a más Mhz).

    La principal desventaja de Intel, es que todavía tardarán 18-24 meses en tener su producto comercial listo, mientras que la tecnología GPU se vende ya.

    Aquí un análisis comparando ambas soluciones cpu+coprocesador vs GPU fermi (Nvidia). http://www.hpcwire.com/features/comp...64.html?Page=1.

    De nextlimits, lo que me molesta es que se excusen intentando convencer a la gente de que el GPU no es el camino a seguir (por que ahora no les interesa) y dentro de un par de años nos venderán el Maxwell por GPU. Y además hablan del precio de trabajar por GPU, cuando es mucho más barato que una granja por CPU.

    Me suena al marketing estilo Apple, que lo que hoy es muy malo por que ellos no lo tienen, mañana es lo mejor del mundo por que ya lo tienen (y además intentaran venderlo como revolucionario e innovador).
    Última edición por cabfl; 11-08-2010 a las 23:07

  9. #69
    Fecha de ingreso
    Jan 2008
    Mensajes
    610

    Siggraph 2010

    Muy interesante lo de Intel. A ver si se van dando cuenta que después de la disputa con Nvidia, se pueden comer un terreno que no siempre ha sido suyo, pero así, tranquilamente. Seguro que la gente de Intel, ha día de hoy tienen más que preparados los procesadores de dentro de 4 o 5 años, y van vendiendo poco a poco. Mientras se les siga metiendo caña, mejor para nosotros.

    Cabfl, sabes si Arion va por Cuda? Supongo que las limitaciones de ChaosGroup vienen porque al OpenCL le queda aún para el desarrollo. Sí, como dices, es cuestión de tiempo.

  10. #70
    Fecha de ingreso
    Jun 2006
    Mensajes
    471

    Siggraph 2010

    Intel acaba de desarrollar una tarjeta con 32 Cores y 128 hilos, basado en x86, que trabaja como coprocesador de cálculo ayudando al CPU. Además, tiene la ventaja de que al ser x86, no necesita optimizar el software, y cualquier motor de render que funciona en un CPU, también podría funcionar en cpu+coprocesadores: http://www.fudzilla.com/processors/p...specifications.
    Yp prefiero soluciones como las que está proponiendo Intel a las GPU de Nvidia/ati, para los desarrolladores es un gran problema tener que rediseñar programas que requieren mucha memoria a las características de una GPU, en cuanto una arquitectura elimine esas barreras se hará con el mercado.
    Un saludo

    Houdini Addict
    Powered by UNIX
    If it looks good enough, it's good!

  11. #71
    Fecha de ingreso
    Jan 2008
    Mensajes
    610

    Siggraph 2010

    Parece que, aunque Chaos esté haciendo las cosas a través de OpenCL, comentan por el foro de Vray que aun así, continúan usando Nvidia debido al bajo soporte de OpenCL que tiene Ati de momento.

    Lo cierto es que me sorprende, hace ya más de una año que se empezó a hablar del OpenCL, y Ati aún no está dejándose las pelotas para darse a sí misma un empujón en ese campo. No lo entiendo, está muy bien ser la pera limonera en tema de juegos, pero no entiendo cómo no van más adelantados en este campo, o es que ha sido el OpenCL (y el Cuda) lo que realmente supuso el retraso de la fermi de Nvidia y ahora es cuando se nota el porqué?

  12. #72
    Fecha de ingreso
    Apr 2002
    Mensajes
    10,772

    Siggraph 2010

    Aqui quiero poner una imagen bonita de mi pagina, pero no puedo...ojete.

  13. #73
    Fecha de ingreso
    Jan 2008
    Mensajes
    610

    Siggraph 2010

    En el interfaz del vrayrt (3ds Max) tiene 3 opciones: CPU, OpenCL (singlekernel), OpenCL (multikernel).
    Cabfl. Creo que las opciones no son singlekernel o multikernel, sino singlechannel o multichannel, por si vas a hacer compositing con el resultado.
    Tú llevabas razón Cabfl, era kernel, no channel. Lo he estado viendo en el rt de Maya. Mis disculpas, va siendo hora de pillarse un monitor full Hd, por lo de leer mejor las letras.

  14. #74
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Siggraph 2010

    Pues entonces la pregunta sigue en el aire: ¿Qué diferencia habrá entre uno y otro?

  15. #75
    Fecha de ingreso
    Jan 2008
    Mensajes
    610

    Siggraph 2010

    Pues entonces la pregunta sigue en el aire: ¿Qué diferencia habrá entre uno y otro?
    Ok, ya me he enterado. El multi kernel es para quien quiera programar sombreadores por GPU (GPU Shaders), como, por ejemplo, texturas procedurales. Aunque aún está la cosa verde.

Página 5 de 7 PrimerPrimer ... 34567 ÚltimoÚltimo

Temas similares

  1. Evento internacional Next Lab Generation
    Por 3dpoder en el foro Actividades y Eventos
    Respuestas: 0
    : 26-02-2025, 20:49
  2. Evento internacional Nvidia GTC
    Por esmarquez en el foro Actividades y Eventos
    Respuestas: 9
    : 25-02-2025, 19:13
  3. Comic-Con evento internacional
    Por 3dpoder en el foro Actividades y Eventos
    Respuestas: 2
    : 02-03-2021, 20:12
  4. Respuestas: 0
    : 18-10-2012, 08:10
  5. Siggraph evento internacional del diseño gráfico
    Por Wok en el foro Programas de Diseño 3D y CAD
    Respuestas: 4
    : 22-07-2006, 14:29

Etiquetas para este tema