Página 2 de 4 PrimerPrimer 1234 ÚltimoÚltimo
Resultados 16 al 30 de 51

Tema: Intel i7 x980 vs Dual Xeon e5620

  1. #16
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Si eres consciente de que esos 1000 euros mañana serán 200 y no te importa, es que tú eres la clase de persona que asume la situación y entiende lo que ocurre. Ese micro está hecho para ti.
    En cuanto a los benchmark para 3ds Max y trabajo con video, he mirado estos y la cosa no pinta mal: http://www.behardware.com/articles/7...Core-32nm.html. http://www.techspot.com/review/261-I...ion/page5.html. http://www.Tomshardware.com/reviews/...o,2573-13.html. http://www.youtube.com/watch?v=isjy0qwzu0u.

    A ver yo estoy consciente que es una pasta, pero como dicen los yanquis el tiempo es dinero y realmente si este micro me va a hacer un render o un encoding de 10 horas 2 horas menos simplemente me vale. Pongamos las cosas en perspectiva, los benchmarks y las pruebas hablan de segundos, pero cuando eso lo descafeinas (esto es muy importante) y lo extrapolas a horas y horas de render creo que es la mejor opción sobre todo tirando lo contra los 920/930 y hablando de OC que va a tenerlo seguro. No sabes las que he pasado yo por que el render no termina a tiempo o por que tengo que tengo que terminar de hacer un QuickTime h264 para mandar y no acaba de una vez.

    En cuanto a la granja (tema que cada vez me seduce más, pese a la cara de mi chica) me dices que, si un render no tiene los 6 gigas que requiere pues no lo hace y ahí creo que estoy en desacuerdo contigo puesto que le puedo poner 6 gigas y si no les alcanza pues que tire de disco duro como toda la vida. No se va a parar el render por eso, aunque si ira más lento. Otra cosa es que quiera tirar el render de Optimus de Transformer en estas condiciones, pero no es el caso, por ahora.

    En cuanto a los AMD me parecen una buena opción, aunque no sé cómo quedarían contrastándolos contra los 920. ¿por cierto, donde puedes comprar 8 gigas por menos de 200? Y referente a la GTX480 estoy completamente de acuerdo contigo. Ahora con el 3ds Max 2011 y el cs5 están exprimiendo las GPU, es un terreno bastante virgen por ahora, pero con proyección de futuro, por ahora me voy a comprar la primera y si veo que la cosa camina entonces le añado la otra por lo que estoy dejando la puerta abierta con la placa que me quiero comprar que tenga SLI aunque creo que 4 SLI es una burrada de dinero y por ahora no me compensa ni pensarlo.

    En cuanto a tenerlo todo en un ordenador, hasta el otro día pensaba igual que tú, pero cuando la cosa se pone fea y tienes que entregar varios trabajos en el mismo tiempo y descubres que no tienes el don de la ubicuidad pues una granja de render es lo que puede salvarte la vida. Y, sobre todo (en mi opinión) una granja tuya, puesto que subir 2 gigas de proyecto a una granja online para descubrir que fallo algo y tal no hace gota de gracia. Yo soy de los que prefiere tenerlo todo bajo control y tener una respuesta inmediata tanto de los resultados como de los problemas que vayan surgiendo por el camino. Que ocupa espacio y aumenta la cuenta de la luz pues bien, pero no te preocupes que no encenderia ni gastaría una pasta en una granja de render si no le estaira sacando una pasta. Mientras tanto apagaditas y de bonito.

    En cuanto a la garantía, tengo entendido que hasta el otro día EVGA daba garantía de por vida, pero ya no es así, ahora es garantía limitada y su respectivo asterisco y tal. Corrígeme si me equivoco, al menos con las tarjetas de video es así. Pero bueno como las tarjetas las ensambla uno y los demás le ponen pegatinas y adaptan alguna cosa pues no sé si sea igual con las placas bases, insisto, si me equivocó corrígeme pues pienso igual que tú y me decantaría por la EVGA si tendría que gastar 20 euros más, pero tener mi cabeza tranquilita, sobre todo con la burrada de OC que pienso meterle al micro 24/7.

    En cuanto a la EVGA ahora mismo el usb3 esta usandose? Tanto como el sata3? Estoy con esa duda por que si es bueno cuando te compras un hardware tener mirada de futuro, pero si la cosa es por pijada, paso.
    Última edición por 3D_Cubano; 15-07-2010 a las 11:03

  2. #17
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Por eso mismo se que tú eres la persona que puede comprarlo, yo desde luego no, la paciencia es una de mis virtudes. En cuanto a lo de la granja, me temo que no, no todo en la vida se arregla tirando de disco duro, yo en Blender, si creo un archivo con 4.5 gigas de memoria y lo intento renderizar en otro de 3 (mi otro ordenador) es que ni me deja abrir el fichero, no sé si pasa lo mismo con otros, pero no vayas tan confiado en ese tema.

    Amd no tiene nada que hacer contra un 920, pero nada de nada, lo que pasa es que no en todos los equipos puedes poner un i7, y entonces, por relación calidad precio si que son más interesantes.

    Las VGA son el futuro, tanto Intel como AMD las van a incluir en el procesador en la siguiente arquitectura, que no quepa duda y, aunque hoy por hoy Cuda es el rey, en nada OpenCL y opnegl lo destronaran.

    El tema online es cuestión de gustos, para mí subir 2 gigas no supone mucho esfuerzo con una conexión de 30 megas simétricas, pero de las de verdad, no esas de 20 y luego son 2 o 3, ahora, sé que esa línea le cuesta a mi jefe un dineral, y entiendo que no todo el mundo pueda usar esa opción.

    EVGA tiene garantías normales e ilimitadas, depende del producto, los más básicos tienen su tiempo, y a partir de un nivel ya es de por vida, la que te puse es la primera en tenerlo de por vida, pero te tienes que registrar en 30 días después de la compra, por eso pone el asterisco.

    Las tarjetas las ensambla cada uno, Nvidia o Ati lo único que hacen es darte un pbc de referencia y un palet de chips. Obviamente te la puede mandar echa de su fabrica, pero cada uno puede ensamblarla en otro sitio y de distinta forma, un ejemplo de ya es la nueva GTX 460, una de las opciones mide 2.6 centímetros menos, y funciona. Te aseguro que varía, no son la misma cosa por llamarse igual, la calidad de los transistores es diferente, los chips de memoria pueden ser otros, los conectores no tienen por qué ser de foxcom.

    El usb3 será el futuro, no lo niego, pero no creo que revolucione el mundo, será como el Windows 7, muy bueno y prometedor, pero la gente sigue usando el XP, en teoría obsoleto. El fabricante de lo que sea no puede arriesgarse a no vender algo porque el usuario no tenga usb3, por eso, hasta que no lo tengan todas las placas, incluso las más básicas, no se empezara a adoptar masivamente, en tres años veremos si ya es algo más palpable la realidad del usb3, pero mucho tiene que cambiar todo (ahora mismo, ni AMD ni Intel en sus chipset soportan el usb3, es el fabricante el que lo tiene que añadir en forma de otro circuito integrado).

    El SATA 3 no va a cambiar nada a no ser que uses un disco SD, por que los mecánicos de toda la vida es imposible que colapsen el SATA 2, y por un margen realmente amplio, lo veo sobre todo pensando en el futuro, y específicamente de esos discos de 128 Gb de 200 o 300 euros.

    Resumiendo, el usb3 es retrocompatible, funciona en usb2, aunque eso sí, a menor velocidad, por lo que no lo veo una necesidad o un requisito fundamental (los lápices usb tampoco colapsan el ancho de banda del 2) y el SATA 3 creo que si usas discos normales no importa nada, no se nota diferencia.

    Posdata: la Ram ha vuelto a bajar bastante.
    2 Gb por 50 euros. http://www.appinformatica.com/memori...b-1066-cl7.php.
    8 gigas son 4 módulos = +-200 euros.

  3. #18
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Hola Juan. En cuanto a max yo todavía no he hecho un fichero de 3 gigas, al menos no el, max solo. Ya con texturas y tal si y el 3ds Max va como el culo, pero va.

    En cuanto a la internet simétrica de 30 megas. Tienes idea del pastón que cuesta eso mensualmente. A mí me paso por la cabeza un día y cuando averigüe se me quitaron las ganas por corte.

    Quieres decir que si voy a comprarme un SD como es el caso (sd Intel x25-m g2 postville 80 Gb) debería adoptar el sata3 por que le saco mayor partido. Por que si es así la decisión entonces es muy clara. Puesto que no me voy a gastar 200 euros en algo para que después me rinda por debajo de sus posibilidades? Yo como lo que me has dicho prefiero entonces la EVGA, pero si la cosa es que me quedo corto en transferencia pues a tomar por, c, y me voy con la Asus y que dios se apiade de mi y me salga buena.

  4. #19
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Vamos por partes:
    3d_cubano, empiezas preguntando por equipos de gama alta: Dual Xeon y i7 980x, y estamos ahora hablando de i7 920 y AMD?
    Que es lo que quieres, un equipo top de gama y gastarte una buena pasta, o un equipo de gama media con precio ajustado?
    No es lo mismo comparar el i7 980x con un Dual Xeon que con un 930/920 o AMD.

    Para mí, en equipos de rendimiento, AMD no existe. Al menos hasta que lancen su próxima arquitectura y volveremos a darle una oportunidad.

    Respecto al Dual Xeon, el i7 980x posiblemente sea menos caro, con un rendimiento superior, sí, he dicho superior, 6 Cores a 3,3 Ghz rinden más que 8 Cores a 2,4 GHz. Y además el i7 980x permite OC sin forzar placa ni memoria. Es la virtud de los micros extreme edition.

    Si lo comparamos con el 920/930, simeplemente no hay color. Cierto, el i7 980x es bastante más caro. 1000 euros vs 250EUR, pero la diferencia de rendimiento es también muy grande. 3,3 Ghz vs 2,6 Ghz, que además el i7 980x lo puedes subir a 4 GHz sin despeinarse y sin forzar el equipo, pero es que, además el i7 980x es 6cores y el 920/930 solo 4 Cores.

    En resumen, el i7 980x es más del doble de rápido que el 920/930 renderizando y trabajando, para mí estaría claro, si hay presupuesto, el i7 980x. Y la diferencia de precio la rentabilizas en poco tiempo.

    Del tema placas, el usb3 y el sata3 son los nuevos estándares, pero no hay que tirar cohetes, si el equipo lo quieres para granja de render, no necesitas nada de eso. Con un simple disco duro barato SATA 2 vas sobrado, si el equipo lo quieres para trabajo, y vas a montar un SD, pues incluso con el SATA 2 vas bien, la controladora permite 300mb/s y un SD de los buenos tiene transferencias de 150-250 Mb/s, si vas a montar un raid de discos SD, entonces es cuando necesitas el sata3, pero realmente vas a montar esa burrada? Pues está claro que no lo necesitas.

    El usb3, está muy reciente. Así que tardarán en aparecer periféricos que lo aprovechen, y si estas pensando en discos duros externos: e-SATA y que me quiten todo lo demás, además, siempre podrás en un futuro añadir una tarjeta PCI Express sata3 o usb3.

    Del tema garantías, todas las marcas dan más o menos la misma garantía. 2 años. Es lo que exige la ley, Juan a, estas mosca con Asus por que se te jodió una gráfica en 6 meses? Estaba en garantía, cuál es el problema? Eso es cuestión de suerte, pero además estoy seguro que se joden más gráficas de marcas baratas como club3d que de Asus o Gigabyte.

    Sin duda si comparamos Asus o Gigabyte con supermicro o Tyan, no hay color, pero porque son marcas de sectores diferentes. Asus y Gigabyte, son marcas de consumo, y tienen buena calidad en comparación con otras marcas del mismo sector. Y también hay que tener en cuenta el modelo, que no es lo mismo una Asus de gama baja de 80 euros que una pedazo de Asus de 300 euros.

    Respecto a la Ram, trabajo a diario con escenas que necesitan más de 4 gigas de Ram, y los equipos van como la seda con Windows XP-64 y Windows 7-64, en 3ds Max(64) y Vray(64) o Mental Ray(64), si lanzas un render que necesita más Ram de la que tienes, pues se ralentiza por el disco duro, pero no se cierra. Si Blender se cierra, muy mal por esa aplicación, pensaba que estaba más madura, aun así, estoy por ver si eso es cierto, porque me suena a que estás trabajando en 32bits.

  5. #20
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Yo tampoco, pero en Blender en un lateral te pone el número de vértices, el de caras y el de memoria Ram y del Hd que tiene el archivo. Y es real, el archivo creo que no llegaba a las 100 megas de disco, pero requería toda esa cantidad de memoria RAM.

    Me lo imagino (se que las facturas son de 4 cifras), por eso para mí si es una opción una RenderFarm online, entiendo que si alguien tiene 6 megas de ono como yo en casa pues no sea más que una locura.

    El Intel no tiene ese problema, fue de los primeros SSD en hacer acto de presencia (fue el mejor por varios meses) pero no llega a esos 300 megas por segundo que es el límite del SATA 2, no me hagas mucho caso, pero creo recordar que se quedaba en 180 o por ahí.

    Me refiero, por ejemplo, al nuevo disco de Samsung de 512 gigas, que todavía no ha salido y cosas así.

    No te preocupes, que lo del SATA y el usb es algo a largo plazo, algo, así como los discos IDE y los SATA, se ha tardado cerca de unos 5 años en dejar los IDE de lado, y ni aun así, muchas placas siguen trayendo el conector de 40 pines.

  6. #21
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    A ver a ver aclarémonos.
    3d_cubano, empiezas preguntando por equipos de gama alta: Dual Xeon y i7 980x, y estamos ahora hablando de i7 920 y AMD?
    Yo siempre he hablado de Intel, el que menciono AMD fue Juan y para granjas de renders mayormente.
    Que es lo que quieres, un equipo top de gama y gastarte una buena pasta, o un equipo de gama media con precio ajustado?
    No es lo mismo comparar el i7 980x con un Dual Xeon que con un 930/920 o AMD.

    Para mí, en equipos de rendimiento, AMD no existe. Al menos hasta que lancen su próxima arquitectura y volveremos a darle una oportunidad.

    Respecto al Dual Xeon, el i7 980x posiblemente sea menos caro, con un rendimiento superior, sí, he dicho superior, 6 Cores a 3,3 Ghz rinden más que 8 Cores a 2,4 GHz. Y además el i7 980x permite OC sin forzar placa ni memoria. Es la virtud de los micros extreme edition.
    A ver si yo lo tengo claro en ese sentido, después de tanto chapotear a mí también me queda claro que no hay comparación entre un 920 y un 980, otra cosa seria hablar del e975 o algo así, pero ahora mismo no entra en consideración puesto que mi decisión en ese sentido es bastante clara: Intel i7 980x, ahora mismo es el micro más rápido que el dinero puede pagar en gamas i7 y sus rendimientos son espectaculares. Ya otra cosa es irse a los Dual Xeones (x5669 y compañía) pero eso ya es el doble de presupuesto por un incremento si acaso de un 50 %. Por cuestiones de presupuesto no es una opción. Así que el ganador sigue siendo: i7 980x.
    Si el equipo lo quieres para granja de render, no necesitas nada de eso. Con un simple disco duro barato SATA 2 vas sobrado.

    Si el equipo lo quieres para trabajo, y vas a montar un SD, pues incluso con el SATA 2 vas bien, la controladora permite 300mb/s y un SD de los buenos tiene transferencias de 150-250 Mb/s.
    A ver desde el principio tengo claro que es para una workstation, en la que renderizaré y haré de todo. Juan es el que me ha dado la idea de la granja de render y me parece muy buena idea y no la tenía en consideración en lo absoluto. Es algo que no me entraba en la cabeza. Y de ahí ponerse a valorar AMD y 920. De los cuales siempre me decantare por el 920 y una board lanparti si acaso que es de las baraticas, para bajar los costes del nodo de render. Es una opción que no había tenido en cuenta, pero que no tiene nada que ver con mi Workstation que es el motivo de este mensajes.
    Sin duda si comparamos Asus o Gigabyte con supermicro o Tyan, no hay color, pero porque son marcas de sectores diferentes. Asus y Gigabyte, son marcas de consumo, y tienen buena calidad en comparación con otras marcas del mismo sector. Y también hay que tener en cuenta el modelo, que no es lo mismo una Asus de gama baja de 80 euros que una pedazo de Asus de 300 euros.
    Veo que no incluyes a EVGA en tu lista de top boad, algo en especial? Por otra parte si me voy a gastar 960 euros en un micro no es para ponerlo en una placa base de 90 euros y sobre todo que la quiero overclockear. Por eso mi búsqueda de una placa buena, aunque sea más cara.
    Respecto a la Ram, trabajo a diario con escenas que necesitan más de 4 gigas de Ram, y los equipos van como la seda con Windows XP-64 y Windows 7-64, en 3ds Max(64) y Vray(64) o Mental Ray(64).

    Si lanzas un render que necesita más Ram de la que tienes, pues se ralentiza por el disco duro, pero no se cierra. Si Blender se cierra, muy mal por esa aplicación, pensaba que estaba más madura.

    Aun así, estoy por ver si eso es cierto, porque me suena a que estás trabajando en 32bits.
    Amen.

  7. #22
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    No es que se cierre, es que no llega a abrirse, es un Ubuntu 64. No estoy enfadado con nadie, es solo que yo esperaba más de Asus, yo compré las cosas pensando en la marca, y me defraudó por completo, igual que Seagate, igual que Asrock, igual que Gigabyte (los ventiladores de las gráficas se paraban solos y las tarjetas se quemaban), Lg. En fin, no me fío de ninguna, así que, o garantía de por vida o nada, eso significa que seguro que aguanta sin problemas, y si los hay, pues no es mi problema.

    Yo también apuesto por el 980, pero es que, hay veces en las que por 5 o 6 segundos por fotograma no merece la pena pagar 750 euros más, máxime teniendo en cuenta que a partir del año que viene van a salir los CPU híbridos, con fpu y GPU, y estoy convencido de que los más básicos le darán para el pelo incluso al 980, por eso creo que es mejor un 930, que no rinde mal, y esperar a ver cómo se desarrolla el tema, y guardar el dinero para ese momento.

    Por cierto, yo se de primera mano que la diferencia entre 1y 2 núcleos es muy grande, pero entre 4 y 6 en el max no eran más de 5 segundos, hicieron las pruebas con el 980 desactivando sus núcleos, no puedo ponerla porque Tom&#347, hardware no me termina de cargar (¿la habrán threshold?)
    Lo de AMD lo comento porque una granja con i7 de la serie 9 es un pastón, pero con AMD salen por mucho menos, y no creo que merezca la pena una inversión en hardware tan grande para que pasado mañana no rindan nada comparado con lo que haya en el mercado.

    Y discrepo enormemente contigo en el tema de que 6 Cores a 3,3 Ghz rinden más que 8 Cores a 2,4 GHz. Habrá aplicaciones en las que sí, y habrá otras en las que no. Las que sean altamente paralelizables rendiran más con 8 núcleos que con 6, y las que no, rendiran más con 6 porque tiene mayor frecuencia.

  8. #23
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    [quote=(los ventiladores de las gráficas se paraban solos y las tarjetas se quemaban), Lg. En fin, no me fío de ninguna, así que, o garantía de por vida o nada, eso significa que seguro que aguanta sin problemas, y si los hay, pues no es mi problema.

    Yo también apuesto por el 980, pero es que hay veces en las que por 5 o 6 segundos por fotograma no merece la pena pagar 750 euros más, máxime teniendo en cuenta que a partir del año que viene van a salir los CPU híbridos, con fpu y GPU, y estoy convencido de que los más básicos le darán para el pelo incluso al 980, por eso creo que es mejor un 930, que no rinde mal, y esperar a ver cómo se desarrolla el tema, y guardar el dinero para ese momento.
    por cierto, yo se de primera mano que la diferencia entre 1y 2 núcleos es muy grande, pero entre 4 y 6 en el max no eran más de 5 segundos, hicieron las pruebas con el 980 desactivando sus núcleos, no puedo ponerla porque Tom&#347, hardware no me termina de cargar (¿la habrán threshold?)
    Lo de AMD lo comento porque una granja con i7 de la serie 9 es un pastón, pero con AMD salen por mucho menos, y no creo que merezca la pena una inversión en hardware tan grande para que pasado mañana no rindan nada comparado con lo que haya en el mercado.
    y discrepo enormemente contigo en el tema de que 6 Cores a 3,3 Ghz rinden más que 8 Cores a 2,4 GHz. Habrá aplicaciones en las que sí, y habrá otras en las que no. Las que sean altamente paralelizables rendiran más con 8 núcleos que con 6, y las que no, rendiran más con 6 porque tiene mayor frecuencia.[/quote]No estamos hablando de 5 o 6 sgs, sino del 40% a velocidad de fabrica y de 60-70% con OC (fácil de realizar y sin riesgo en el i7 980x y difícil y arriesgado en el 920/930) si en un render de 12 sgs, mejoras 5 segundos, es un abismo, y si es un frame de 5 minutos, bajar a 2:30 minutos, es puro rendimiento.

    Respecto a lo que saldrá el año que viene, siempre es igual, siempre habrá algo mejor dentro de 6 meses. No me vale el argumento y, además ahora más que nunca hay un verdadero salto de rendimiento entre un CPU normal y un extreme edition, pues además de más Mhz, tiene 2 Cores más.

    Esas pruebas que habrás visto probando el 3ds Max con 4 o 6 Cores, olvídalas, en las webs no saben usar el 3ds Max y pasan benchmarks que testean más el rendimiento de los visores que el de render. Y así vemos auténticas barbaridades de comparativas.

    Con Vray y Mental Ray, la escalabilidad es de más del 90%.
    6x3,33 Ghz = 19,9 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    En potencia bruta el i7 980x 6 Cores es más rápido que el Dual Xeon 2,4 GHz 4x4 = 8 Cores, tanto en aplicaciones monohilo, por tener Cores a más Mhz, como en tareas multihilo bien optimizadas (altamente paralelizables) como los motores de render, debido a sus más Mhz x Cores, y sobre todo por que 6 Cores escalan mejor que 8.

    El rendimiento real del 6 Cores será más próximo al total teórico, que el de 8 Cores.

    Además, el Dual Xeon no lo puedes oc, y el i7 980x si puedes, y sin necesidad de forzar placa ni Ram, ni voltajes.
    6x4 Ghz = 24 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    Sin duda el i7 980x es muy superior, y el Dual Xeon mucho más caro, por que las placas son más caras, y el tipo de Ram, además de necesitar una fuente de más potencia que es más cara y gastara más electricidad.

    Si me comparas con un Dual Xeon 6 Cores (12 en total) entonces cambia la historia, pero se dispara el precio.

    Y por último, si dices que desactivando 2 Cores rinde casi igual, ¿cómo puedes creer que el Dual Xeon con 8 Cores va mejoré te contradices.
    Última edición por cabfl; 16-07-2010 a las 23:23

  9. #24
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Bueno, bueno relajemonos, que aquí todo el mundo está dando su opinión de buena fe y al fina se ha cumplido el objetivo que es ayudarme a decidirme.

    En cuanto a lo de que mañana sale algo nuevo tienen razón, pero salvo queintel anuncie que el mes que viene saca el micro no es lógico sentarse a esperar cuando tus renders se demoran un huevo y tienes que entregar cosas que no llegas. Ahora se resuelte y más adelante se verá. Que en la informática si esperas siempre lo que está por venir nunca llega.

    En cuanto a los Xeones de 6 micros ahí si que se disparan los precios, son una belleza de tecnología, pero no hay presupuesto que los aguante al menos le mío no puede. Muchas gracias por sus ayudas y en cuanto tenga armado el muñeco les dale benchmarks y fotografías para discutir acerca de rendimientos reales.

  10. #25
    Fecha de ingreso
    Sep 2008
    Mensajes
    323

    Intel i7 x980 vs dual xeon e5620


  11. #26
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Cab, jugar a hacer overclock a uno y no al otro, creo que no es jugar limpio. Lo de desactivar los núcleos es por la escalabilidad, lo he estado mirando (aunque no puedo poner la fotografía porque en casa no me deja entrar en la página, cosa que en la playa si pude hacer ayer) y la diferencia en este procesador entre un núcleo y 2 era de un incremento de la reducción casi a la mitad del tiempo, lo cual es muy bueno, significa que duplica el rendimiento. El problema es que la diferencia entre tener 2 y 3 no es la misma, sino que era cercana al 35%, y así hasta que entre tener 5 y 6 en el que apenas había diferencia.

    Yo no me contradigo, veras, para una situación que no es paralela, un juego, por ejemplo, conviene tener pocos núcleos y mucha velocidad, imagina que usamos este con seis núcleos, yo uno lo usaría para el motor de físicas, otro para la inteligencia artificial, otro para manejar el mapa y otro para el sonido. Sobran 2 que no puedo usar para nada, por lo que conviene que esos 4 que uso corran como el viento.

    En cambio, una situación paralela es muy distinto, cuanto más núcleos mejor. Vamos a poner el ejemplo de un renderizado. En Blender, la imaginen cuando se renderiza se subdivide en cuadros más pequeños, pongamos, por ejemplo, 64, bien, cada cuadro lo hará cada núcleo. El problema viene que en estos casos, hasta que todos no terminen no avanzan, es decir, 6 núcleos son 6 cuadros, si 5 de ellos son cuadros en blanco (solo un color de fondo, sin sombras y sin complejidad alguna) casi en el acto lo tendremos terminado, pero tienen que esperar a que el 6 termine el suyo con sombras HDR y a. O sea, que si tarda 30 segundos más, los otros 5 núcleos están esperando 30 segundos de gratis, por eso es mejor tener 8, ya que 64 es 8x8, significaría que cada pasada es una fila o columna, por lo que sería más rápido. No sé si me he explicado bien.

    Otro aporte, no es una contradicción, es una dificultad. 8 rinden mejor que 6, (un motor v8 rinde de mejor manera que un 6 en línea) lo que pasa es que es muy complicado programarlos, es decir, cuando creas una aplicación, parte del código tienes que usarla para definir los recursos que se cogen del procesador, ahí vienen incluidos el espacio de memoria Ram, los núcleos y todo lo que tenga que ver con el hardware. Lo que pasa es que para que se puedan usar 8 núcleos no basta con poner, por ejemplo: numberofcpustouse:8, sino que cada uno tiene que programarse a mano, y por eso rinden menos, pero es algo que está mejorando con el tiempo, y lidiar con 2 es difícil, pero posible, pero cuando tienes que usar 4, es una pesadilla, y o la aplicación es muy lineal y muy paralela o lo llevas de culo. En este sentido, Blender está muy bien echo, y usa de manera muy eficiente los núcleos que tenga el sistema, y max fracasa en este caso porque el código es malo, cosa que confirman las quejas de bugs que ahí presentes en internet de este software.

    Yo recomiendo los 8 porque confío en que mejoren el código y pueda aprovechar mejor los recursos, pero a día de hoy no es una realidad. Lo mismo pasó con el SLI, al principio apenas suponía una mejora del 10%, y hoy muchos juegos suponen una mejora del 50 o más, solo hay que darle tiempo y optimizar el código fuente (lo cual no es para nada sencillo). Mira como la comparación con Cinebench de nono el Xeon se merienda al i7, y eso es porque el código es fabuloso y muy optimizado.

    Lo que pasa es que hay que ser realistas, el i7 es un buen procesador y una buena opción, tanto como con 4 como con 6 núcleos, y la verdad espero impaciente las fotografías del equipo, el cual espero que haga muy feliz a su propietario y lo disfrute mucho.

  12. #27
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Referente a como trabajan los renders no creo que como lo planteas (o como lo entendí yo que puede no ser lo mismo) puesto que si un cuadro se mete un siglo en hacer render por que da la hola que ahí cohinciden HDR, reflejos y AO pues se quedan calculando ese cuadro mientras los demás siguen avanzando, nadie se queda a esperar por nadie. Es más cuando todos los demás terminan pues se ponen a por el demorón o por lo menos así es cómo funciona en Mental Ray. Ah que puede darse la ocasión que los 6 están trabajando en una zona complicada pues a esperar a que terminen, pero bueno de eso va la cosa.
    La verdad espero impaciente las fotografías del equipo.
    No te preocupes que las abra, a lo mejor me tardo 15 o más, pero de que va, va.

  13. #28
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Juan a, después de leer tu respuesta, llego a la conclusión de que no les con atención las explicaciones y demostraciones que te hemos dado.

    No se trata de jugar limpio o sucio, sino del potencial real de cada opción.

    Los Xeon no se pueden OC por que los micros tienen el multiplicador bloqueado, y las placas para Workstation y servidores no tienen opciones de oc, para subir la frecuencia del bus, o los voltajes, o los multiplicadores etc. No hay opciones para poder tocar la velocidad de la placa o la Ram o la CPU.

    Sin embargo, en los i7 las placas si traen las opciones necesarias para OC y, además el i7 980x es un CPU serie extreme edition que están preparados por Intel para hacer oc, y traen el multiplicador desbloqueado para que puedas subirlo libremente sin necesidad de forzar la placa o la memoria.

    Sin tener ni idea de oc, puedes subirlo desde 3,3 Ghz hasta 4 GHz simplemente cambiando el multiplicador, y si sabes manejar el resto de parámetros, podrás subirlo mucho más de 4 GHz.

    Los Xeon no puedes hacer nada, así que 2,4 GHz, te guste o no.

    El rendimiento por número de Cores, depende de lo optimizado que esté el software, en motores de render se aprovechan todos los Cores, con una leve penalización por la gestión, que es mayor cuanto más Cores.

    El rendimiento real número de Cores vs Mhz. Ni uno ni lo otro. No se puede decir tajantemente que más Cores es mejor que más Mhz, ni tampoco al revés.

    El rendimiento depende de ambos, del número de Cores y de su velocidad en Mhz. A igual Mhz, 8 Cores son más rápidos que 6. Pero y si el de 6 tiene sus Cores a muchos más Mhz que el de 8? Pues el de 6 será más rápido.

    Y eso es lo que ocurre aquí:
    6 Cores a 3,33 Ghz es más rápido que 8 Cores a 2,4 GHz. Te lo hemos demostrado ya varias veces, pero si sigues empeñándote en creer con fe ciega en los 8 Cores, halla tu.

    Cinema4d, tiene un render bien optimizado para muchos hilos de cálculo: http://lightrender.es/foros/download...=400&mode=view.

    El i7 980x a 3,33 Ghz (sin oc) es más rápido que el Dual Xeon 8 Cores a 2,4 GHz.

    Si además hacemos OC al i7 980x, pues saca las cuentas, bueno, ya te las hice yo antes.
    Con Vray y Mental Ray, la escalabilidad es de más del 90%.
    6x3,33 Ghz = 19,9 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    En potencia bruta el i7 980x 6 Cores es más rápido que el Dual Xeon 2,4 GHz 4x4 = 8 Cores, tanto en aplicaciones monohilo, por tener Cores a más Mhz, como en tareas multihilo bien optimizadas (altamente paralelizables) como los motores de render, debido a sus más Mhz x Cores, y sobre todo por que 6 Cores escalan mejor que 8.

    El rendimiento real del 6 Cores será más próximo al total teórico, que el de 8 Cores.

    Además, el Dual Xeon no lo puedes oc, y el i7 980x si puedes, y sin necesidad de forzar placa ni Ram, ni voltajes.
    6x4 Ghz = 24 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    Sin duda el i7 980x es muy superior, y el Dual Xeon mucho más caro, por que las placas son más caras, y el tipo de Ram, además de necesitar una fuente de más potencia que es más cara y gastara más electricidad.

    Si me comparas con un Dual Xeon 6 Cores (12 en total) entonces cambia la historia, pero se dispara el precio.
    Del tema de los cuadrados en el motor de render. El tamaño lo defines manualmente. Así que no tiene nada que ver que tengas 2, 4, 6, 8 o más Cores para aumentar o reducir el tamaño de los cuadrados de render.

    Además, si se da el caso de una fotografía, que en un cuadrado tarda mucho más que todos los demás, por su comejidad, es mejor tener un 6cores a 4 GHz, que tendrá un Core a 4 GHz trabajando en ese cuadrado y terminara rápido y los otros 5 no tendrán que esperar tanto, que tener un Dual Xeon con 8 Cores, y un Core a 2,4 GHz trabajando ese cuadrado lentamente, mientras los otros 7 esperan.

    La solución mejor es reducir el tamaño del cuadrado para que se repartan esa zona entre varios, sí, pero esa solución vale tanto para un 6 Cores como para un 8 Cores, y siempre el 6 Cores 3,33 Ghz será más rápido que el 8 Cores 2,4 GHz.

    Y además en tareas que no son multicore, como, por ejemplo, mientras estas modelando, 1 Core a 3,33 Ghz (o 4 GHz) del i7, será mucho más rápido que 1 Core a 2,4 GHz del Dual Xeon.

    Del rendimiento de Blender y max, infórmate mejor, por que te veo muy perdido.

    El max usando el driver de visores por software, usa todos los Cores al 100% y aprovecha muy bien el rendimiento de la CPU. En OpenGL y DirectX que usan la tarjeta gráfica, no depende solo de 3ds Max, sino del driver de la tarjeta gráfica y su integración en la aplicación, que en el caso de 3ds Max, resulta que es de las aplicaciones más rápidas que existen actualmente. OpenGL es capaz de usar varios Cores, pero DirectX usa solo 1. Aun así, DirectX con un solo Cores, es mucho más rápido que OpenGL trabajando con varios. La razón es simplemente que Ati y Nvidia están mejor optimizados para DirectX.

    Respecto a los juegos que algo comentaron antes. Hoy día la mayoría aprovechan hasta 4 Cores.
    Última edición por cabfl; 19-07-2010 a las 18:37

  14. #29
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Me duele que me digas que no leo, ya que no es así, leo y comprendo, e intento responder en consonancia. Sobre lo que no se puede overclockear un Xeon no es cierto, no es lo usual, pero la placa que aquí puse si que lo permite, y aporta muchas características para ello, por ello, pienso que no es justo darle a uno una ventaja (que no dudo que no la pueda conseguir fácilmente) y al otro no, que, aunque se presupuestopone que no se le hará nunca, no por ello es imposible. Mi AMD también tiene el multiplicador bloqueado, y el de mi padre, y el de la oficina, y seguramente los que mucha gente usa también, pero yo al mío le pude subir la frecuencia, sin problema alguno, otra cosa es que el multiplicador liberado ayude más, pero eso no implica que no se puedan overclockear.

    Eso de preparado por Intel, no me lo creo, estoy convencido de que un 920 también tiene mucho potencial de overclock, pero lo que interesa es que, si quieres más velocidad pagues por un procesador superior (obviamente más caro) y por eso los van capando, y para poder mantener la fama de la marca, pues sacan algunos sin límites, pero a un precio desorbitado. No sé si recuerdas los AMD XP, el multiplicador se desbloqueaba uniendo unas pistas con un simple lápiz de grafito, y eran posible en todos. Nada, Intel diseña sus procesadores y si luego puede los saca al mercado. Digo lo de si puede, porque prepararon para sacar un p4 a 4.0 Ghz, pero la arquitectura no estaba por la labor y nunca llegó a salir, yo lo de preparación lo sustituiría por suerte, de si es posible o no, no por un esfuerzo extra por parte de los ingenieros.

    Yo que programo te aseguro que no se pierde un poco, se pierde gran parte, además, ya puedo entrar en la página y colgar la captura que te comente del i7 con sus núcleos desactivados.

    Nombre:  resapp3dstudio.png
Visitas: 397
Tamaño: 40.1 KB


    De uno a dos núcleos mejoramos bastante, la mitad del tiempo, si fuese muy poco lo que se pierde por cada núcleo extra, tendríamos que 11 minutos entre 2 es 6.5, entre 2 (sería el tercer núcleo) es 3,25, que entre 2 (ya vamos por el cuarto) es 1.6, y 6 nos darían 40 segundos, pero la imagen muestra 2,27 minutos, que para nada es lo que ocurre, y si te fijas, el mayor salto lo pega de 1 a 2, porque de 5 a 6 solo mejora 20 segundos, lo cual es una, y te aseguro que es por el motor del programa, que no vale un duro. Dime tú si eso es optimización y aprovechamiento de Cores.

    Más Cores es mejor si se optimizan al 100%, (cosa altamente difícil) como ocurre en este software.

    Nombre:  sinnombre.png
Visitas: 594
Tamaño: 38.6 KB


    El 980 es bastante mejor que el 930, y no solo es por su frecuencia extra, lo que demuestra que esta optimizado, lo cual es normal en estos casos, hacer un test, solo tiene que hacer eso y es normal que lo haga bien.

    Yo soy el primero en decir que no hay CPU mejor que otra, depende de la aplicación, y creo que en esto de renderizar la velocidad pasa a un segundo plano, y lo que importan son los núcleos. El tamaño lo ajustamos manualmente, sí claro, una cosa es lo que tú le digas que haga y otra lo que haga en segundo plano el motor de render, ¿si pones un único cuadro crees que lo renderizará del tirón? Pues claro que no, lo subdividirá para poder hacerlo, lo que pasa es que este proceso es transparente para el usuario, y parece que es solo un único cuadro. Las cosas de la informática, que no sabes lo que hace el hardware en segundo plano. Obviamente, no sé cómo será el del 3ds Max, y nunca lo sabré dado que el código fuente no lo veré nunca, pero si se lo que hacemos para conseguir las cosas y de qué forma, y dudo que Autodesk revolucione el mundo en este sentido.

    Yo lo veo así, siempre habrá uno que sea más lento porque se toque las pelotas, en todo, renderizando, trabajando en el taller, en la oficina, lo que importa no es lo que lo retrase, sino lo que se pueda avanzar mientras ese nos retrasa. Piensa por un momento una cosa, la probabilidad de que en 6 núcleos coincidan dos cuadros difíciles es menor de que con 8 tengamos 2 de los complejos. Es decir, el caso más extremo es que solo uno trabaje, y el resto a chupar electricidad de gratis, pero por las circunstancias de esto, es raro que pase, más que nada porque el propio motor intenta alternar los cuadrados, es decir, cada uno es al azar. Bien, con seis núcleos a lo mejor nos tocan de una vez 2 de los 3 cuadrados más complejos, con ocho a lo mejor nos tocan esos 3 y nos evitamos un pase extra, solo es coger la calculadora, ver el tiempo que puede perderse con 6 y el que puede ganarse con 8. Yo para mí lo tengo claro, lo que pasa, es que 6 y 8 son un chorro de dinero, muchísimo, y entonces entra en juego otro valor, el señor dinero, y entonces me decanto por 4 núcleos miserables, ya que la escalabilidad de 4 es buena, la de 8 muy mala, y para ganar 1 minuto por fps, prefiero invertir ese dinero en un motor de GPU, el cual, por la mitad de lo que cuesta el 980x lo hace 20 veces más rápido, por ejemplo, con una GTX480 de 500 euros. Se trata de no ser un cerrado de mente.

    Yo me informo muy bien, el max usa el 100% de los Cores ¿y? Eso no implica que lo haga bien, al contrario, en la gráfica se ve claro que no es así. Mi coche usa un 150% más de gasolina que el tuyo y eso no implica que sea mejor ni que corra más, a lo mejor es porque un motor carburado consume más y rinde menos, pero eso sí, usa más gasolina que el tuyo.

    Discrepo en lo de que tanto como OpenGL como DirectX no dependen de max, a lo mejor si en vez de tener que hacer algo a palos de ciego, me diesen el código fuente, pues saldría algo bastante decente a la primera, en este caso no es solo culpa de max, también de Microsoft, de Adobe, y de todos los que quieras, por que yo adivino no soy, e interpretar un código sin saber cómo fue escrito es muy complicado.

    En lo que si te doy la razón es en lo que DirectX está más optimizado, es normal, OpenGL perdió su impulso hace mucho, ahora se muestra más competitiva, pero tampoco en exceso. Lo que pasa es que en estas cosas no solo influye lo mejor, porque OpenGL puede ser gloria bendita, pero si programar con ella es solo la mitad de complicado que hacerlo para la Play Station 3, pues que le den por culo, si DirectX es peor, pero me es más fácil, será el que yo apoye, y cuando el 95% de los estudios solo saben usar las apis de DirectX está claro que es muy difícil que Ati y Nvidia le presten atención al OpenGL. Es lo mismo que pasa con max, lo usa el 40% del mundo, es obvio que el que aprendió con el 3dsMax no está por la labor de cambiar de software, y menos cuando es la referencia en el mercado. Las cosas de los monopolios.

    De todas formas, te digo lo que pienso, ambos son herramientas, el dx, y OGL son un texto que el usuario crea, es como la gente que pregunta por el programa que debe usar, lo importante no es el software, eres tú, y depende de cómo se usen rinde más o menos. Lo que ocurre, es que nadie programa bien (ni yo mismo) y entonces el juego en vez de necesitar 3 gigas de Ram, necesita 4, porque tiene fugas de memoria, o porque no he optimizado el código (cosa muy habitual, optimizar lleva mucho tiempo y dinero, pero muchísimo, y hay veces en que apenas mejora un 10%). Pero si se usan correctamente ambas, me decanto por open, rinde excepcionalmente bien (los Unreal (Tournament 2003, 1, 2.) usan OpenGL y hay veces en que llegan a los 300fps, y eso en DirectX pues es anecdótico) y no genera gráficos malos, más bien geniales. Lo que ocurre es que es más difícil de usar, y para lograr ese césped que ondea con el viento en DX necesito unas 30 horas y con OGL sobre 50, es normal, el tiempo es dinero, el estudio quiere sacar 5 o 6 juegos al año, se conforman con sacar uno y, y, pero si por ellos fueran.

    Lo del juego te lo he puesto yo, para hacerte ver que no siempre más es mejor en todos los casos, depende de cual y para que, con cuatro vas sobrado, no necesito 6 si son más lentos que los 4 y solo voy a usar esos 4.
    Última edición por 3dpoder; 09-03-2012 a las 08:24

  15. #30
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Intentaré responderte por partes. El OC en Xeon es bastante extraño. Alguna placa hay, y no es la primera vez que aparecen, pero no esperes la panacea. Las memorias EC no están pensadas para oc, ni tampoco es lo mismo OC un micro, que hacerlo con 2, que nunca son idénticos. Aun así, se puede con esa placa, forzando chipset, memorias y Vcore de los CPU.

    Dudo que quien se gaste el pastón que cuesta ese equipo se dedique ha juguetear con el oc.

    Si te fijas en el 99% de las placas para Dual Xeon, no traen opciones de oc.

    Los i7, son todos el mismo CPU, a diferente frecuencia (a excepción de los 4 Cores vs los 6 Cores). Y no es Intel quien dice vamos a fabricar uno a tantos Mhz y otros a más o menos. Se fabrican todos al mismo tiempo. 920, 930, 940, 950, 960, salen todos de la misma remesa. Pero no todos salen iguales. Unos soportan más frecuencia y otros menos, unos necesitan un Vcore más alto y otros menos. Intel lo único que hace es seleccionar cuales salen mejores y cuales peores, y les asigna mayor o menor frecuencia.

    Los extreme edition, son el tope de gama, y llevan los CPU pata negra. Los que mejor han salido y que soportan mayores frecuencias y vcores más altos. Intel los ha seleccionado así para oc, por eso digo que están mejor preparados para oc.

    Además, vienen desbloqueados para oc, y no necesitas forzar placa, ni Ram, ni chipset.

    Sin duda, un 920 admite también oc, y si te sale bueno, bastante oc, pero no esperes que suba tanto como un extreme edition, y además forzando memorias, chipset, pues el multiplicador esta bloqueado.

    La gráfica de rendimiento que has puesto con 3ds Max y Mental Ray, parece correcta, y bien optimizada, aunque ha tí no te lo parezca.
    ¿Qué esperas, que de 5 a 6 Cores mejore 50% igual que de 1 a 2 Cores?
    Fíjate bien, que de 1 a 2 Cores casi duplica su rendimiento, igual que de 2 a 4 Cores, igual que de 3 a 6 Cores.

    Añadir un Core a 5, supone apenas un 15% teórico, y un rendimiento real de 10%.

    Si te fijas, con 4 Cores tarda 3:15sg (195sg) y con 6 Cores 2:27sg (147sg), 48 segundos de diferencia, que no es poco para un render de 2:27sg, simplemente un 25%, ahí es nada.

    Y si la gráfica fuera con un Dual Xeon (4+4=8 Cores) verías que el rendimiento de 6 a 7 y a 8 Cores mejora aún menos, pero que 8 Cores son casi el doble de rápidos que 4 Cores.

    Digo lo de casi, por que se pierde rendimiento en la gestión de hilos, y mientras más Cores menos escalabilidad.

    Los números hablan por sí solos, Mental Ray es un motor muy bien optimizado, y no es hola, simplemente es uno de los mejores motores de render que existen, desde hace más de 20 años.

    Estamos comparando un i7 980x 6cores (3,33 Ghz) vs Dual Xeon 5620 8 Cores (2,4 GHz)?
    O con un Dual Xeon 5580 8 Cores (3,2 GHz)?
    Porque si estamos comparando con el Dual Xeon 2,4 GHz, para que me pones una gráfica con un Dual Xeon 3,2 GHz?
    Si es ese el que quieres comparar, no hace falta que busques gráficas, ya te lo digo yo, el Dual Xeon es más rápido, pues su frecuencia es casi igual y además tiene 2 Cores más.

    Pero el Dual Xeon 5640 2,4 GHz, que es el que estamos hablando y el que preguntó 3dcubano, no le llega al i7 980x, aunque sean 8 Cores, porque son muy lentos: 2,4 GHz.
    ¿No has visto la demostración?
    http://lightrender.es/foros/download...=400&mode=view.

    Cinebench, que parece que te ha gustado, pero en la versión 11.5, que está mejor optimizado que el 10.

    El i7 980x 6cores 3,33 Ghz es más rápido que el Dual Xeon 5620 8 Cores 2,4 GHz.

    Incluso un poco mejor para el i7 980x de lo que yo te había calculado, posiblemente por que el 8 Cores pierde más rendimiento gestionando más Cores:
    6x3,33 Ghz = 19,9 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    Si cometes la torpeza de poner un tamaño de cuadro tan grande que use un único cuadro, renderizará solo con 1 Core, aunque tenga 8. El motor de render no buscara nada en segundo plano, se limitara a hacer lo que tú le has dicho, renderizar con un solo cuadro, y dado que asigna Cores a cada cuadro, pues no tiene más cuadros para el resto de Cores. Este tema es absurdo, no sé ni por que me esfuerzo en explicártelo, cualquiera puede comprobarlo con Mental Ray o Vray, o Brazil.

    Rebuscar en el tamaño de los cuadros si es mejor un 8 Cores que un 6 Cores, es surrealista.
    8 Cores van más rápidos que 6 a misma frecuencia, pero si el de 6 tiene más frecuencia que el de 8, será más rápido el de 6. Y si tienes una imagen con una zona muy compleja, reduces el tamaño de los cuadro, para que se calcule entre los 6 Cores.

    Del tema de DirectX y OpenGL. Ya te lo dije, depende del driver de Nvidia, y de la implementación de la Api en 3dsmax.

    Por eso una Quadro FX es mucho más rápida que una GeForce, son el mismo GPU, pero la Quadro FX tiene un driver de Nvidia optimizado y, es más rápida.

    Y la integración en 3dsmax de la Api, es muy buena, y lo sabemos por que comparado con otras aplicaciones, max mueve más geometría en la misma cpu/gráfica que otras, como Maya, Cinema 4D, LightWave. Sólo he visto al XSI mover más que max. Sobre todo, si usas una Quadro FX que tiene un driver superoptimizado para max (por Nvidia, nada que ver con Autodesk).

    En juegos, si es mejor OpenGL o DirectX, actualmente es DirectX quien tiene la iniciativa, y OpenGL llega siempre con retraso. DirectX tiene actualmente más capacidad que OpenGL.
    Última edición por cabfl; 20-07-2010 a las 02:06

Página 2 de 4 PrimerPrimer 1234 ÚltimoÚltimo

Temas similares

  1. Workstation Dual Xeon e5620 16 núcleos
    Por davidematanza en el foro Mercadillo
    Respuestas: 3
    : 06-02-2014, 01:10
  2. Intel xeon x5570 vs Intel xeon e5620
    Por konig en el foro Hardware
    Respuestas: 8
    : 27-10-2013, 18:46
  3. Workstation Dual Xeon e5620
    Por mcflait en el foro Mercadillo
    Respuestas: 2
    : 18-04-2013, 17:14
  4. Core i7 dual Intel xeon
    Por Buzzz07 en el foro Hardware
    Respuestas: 11
    : 15-06-2009, 11:10
  5. Dual-Core Intel Xeon Quad-Core Intel Xeon
    Por render67 en el foro Hardware
    Respuestas: 3
    : 16-03-2007, 12:01

Etiquetas para este tema