Página 3 de 4 PrimerPrimer 1234 ÚltimoÚltimo
Resultados 31 al 45 de 51

Tema: Intel i7 x980 vs Dual Xeon e5620

  1. #31
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    ¿Extraño OC a un Xeon? La gente hace cosas muy raras, se puede si o no. Se puede, me da igual que casi ninguna placa y menos gente lo haga, pero es una posibilidad, por lo que desde ese mismo momento en que a ambos se le puede subir la frecuencia y solo se la subimos a uno es algo injusto, y para nada se ajusta a la realidad. Imagina que solo nos subiesen los impuestos a nosotros, y a los ricos, que son pocos, no, ya que de todas formas, defraudran a hacienda. ¿lo ves justo? O todos moros o todos cristianos, o todos tienen OC o ninguno.

    Tú dudas de eso, de OC un Xeon, yo dudo de muchas otras cosas y no tiene por qué ajustarse a la realidad, como de echarle queroseno al motor, y conozco a uno que lo hace, de la misma forma habrá alguien que haga lo otro.

    Te lo voy a comentar, yo sé que se fabrican en serie, y se intenta que todos salgan pata negra, ya luego los bajaran de vueltas. Piensa una cosa, imagina que por cada 100 procesadores, sale uno pata negra ponte que este año se han vendido un millón de i7, eso son bastantes pata negra, más de los que Intel va a vender nunca, pues se hace lo mismo, se pone que sea algo inferior, y en verdad tienes un ex solo que no lo sabes. Lo mismo pasa con las gráficas, o te crees que todas las GTX480 que se hagan se van a vender, pues se recortaran para que sean una GTX465 y en verdad es una 480, solo que de nuevo no lo sabes, así que, los supuestos pata negra abundan más de lo que te piensas, bastante más, el último informe de tmsc (o cómo se escriba) dijo que un 40% eran el chip perfecto, o sea, de cada 100, 40 son pata negra, y dudo que Intel los guarde en un almacén. Amd hace lo mismo, y luego los vende en vez de cómo Phenom 6 como un x4 y otras cosas, por eso las placas permiten desbloquear los núcleos. No amigo, ni pata negra ni nada, la industria funciona de otra manera.

    Tener el multiplicador desbloqueado y pensar que OC no forzamos nada más es un error. Subes el multiplicador de 22 (imagina que es el tope de la gama, el inferior que no es ex solo llega hasta aquí) a 25, pues resulta que se aumenta la frecuencia, por lo que por pura física, se requiere más energía, por lo que la placa necesita entregar más de ella, parece que no, pero ya la estamos forzando (incluso la propia fuente). La Ram, al tener una CPU más rápida tiene que trabajar más y, aunque no lo creas, trabajar más es forzarla más. El chipset tiene que gestionar de una forma más rápida y, aunque no lo hayamos subido de forma directa, indirectamente también trabaja más. En fin, que tener el multiplicador desbloqueado no es la panacea, en muchos casos hay retocar la placa para sincronizarla y cambiar el voltaje. Las cosas de los iones, no son lo que parecen.
    ¿No puede hacer lo mismo un 920 que un 980 euros pues sí, si que puede, incluso a más nivel, que yo sepa los Celeron de ahora se overclockean incluso mejor que los ex, no tiene nada que ver, es otro trozo de silicio, depende de cada uno hasta dónde puede llegar.

    Un Celeron d (una de procesador) llegó hasta los 8.2 Ghz, y el 980x no lo he visto a más de 7ghz, por lo que no es tan bueno como piensas, no por ser más caro tiene que ser mejor.

    Yo te aseguro que una escalabilidad del 50% por cada núcleo es posible, solo que como te he dicho requiere dinero a espuertas y casi el mismo tiempo que en desarrollar el programa, y nadie está por la labor. Así que, sí que espero esa escalabilidad del 50% con el 6 núcleo, por que sé que es posible. Ya ves tú la optimización de Mental Ray, solo con dos núcleos está bien echo, y no es hola, gestionar 2 núcleos es complicado, pero semi sencillo, pero lo bueno viene con 6, eso sí que es complicado, y entonces recurrimos a una ñapa (que suele ser que los gestione el so en vez del programa) y listo, nos quitamos un peso de encima. Pues déjame decirte que eso es una, así de claro, y si para ti eso es lo mejor, será porque no conoces otra cosa, no por que realmente merezca ese título. La gente fuma, muchísima gente, no puede ser tan malo. Si miramos lo que hacen los demás para decidir sobre algo (en este caso la calidad del Mental Ray) mal vamos, ¿si los demás se tiran al río tú también?
    Por cierto, telefónica (telefónica) también debe de ser lo mejor, existe desde hace 20 años.

    La comparativa sigue sin ser justa, XP no es precisamente amigo del multinúcleo, y ni siquiera es el de 64 bits, por favor busca una que sea del 7 en su versión 64, por que el so hace más de lo que tú te crees en gestión y en rendimiento, pero bastante. El XP favorece velocidad a cantidad, y existiendo algo que si tiene soporte nativo del mulinúcleo, te pido que si es posible la pongas con un so acorde a los tiempos que corren.

    En verdad me doy cuenta de que confías demasiado en la teoría, los totales teóricos no valen nada más que para hacerte un idea, y menos en la informática, donde hay muchas variables que, el papel diga una cosa no implica que sea así, mi coche no consume los 6 litros que pone el papel, en la teoría las cosas no se rompen, y todos sabemos que todo se rompe, en la teoría, el agua destilada pura al 99.9% a lo mejor solo llega a un 99.5%, en fin, ejemplos miles, la teoría para cálculos de física y matemáticas, para todo lo demás no vale para nada. Yo también era como tú, confiaba al 100% en la teoría, pero me empezaron a llover palos por todos lados, descubrí que la teoría es una cosa, la vida real otra. El máximo teórico de 19.2 a mí no me sirve de nada, solo para tener una idea general, pero lo tengo que coger con pinzas, porque son eso, teorías.

    Insisto, yo no tengo max, y no sé cómo lo hace, pero si pones un cuadro, el procesador lo renderizará con todo lo que tenga, subdividiéndolo, algo que es absolutamente normal, ¿o acaso no va poco a poco? Ese poco a poco son subdivisiones, sino fuese así, la mostraría de golpe, y sabemos que no es así.

    Yo mira tú por dónde no veo que 6 sean más rápido que 8 más lentos (renderizando), llámalo saber programar y conocer los trucos y chapuzas que se hacen en el código, en fin, yo no rebusco el tamaño de los cuadros, solo pongo situaciones límite, pero, si con 6 núcleos tengo que reducir aún más los cuadros, ya me dirás tú dónde está la ganancia.

    No, depende del programador, igual que otras muchas cosas en esta vida, es el artista, no la herramienta. Yo creo lo mismo con Maya como con Blender, y son herramientas distintas. El driver de Nvidia lo que hace es corregir mis errores, nada más. Una Quadro es más rápida porque ha Nvidia le interesa que sea así, no por otra cosa, porque los drivers valen para ambas tarjetas, ya que físicamente es el mismo trozo de silicio, y sí, cada programa en que se use tiene que ver, y los estándares también, pero como eso no va con nadie, cada uno desarrolla como le sale de los coj*nes y tiene que venir Nvidia o Ati a poner una ñapa, en vez de hacer las cosas bien. Autodesk es tan culpable como Maya, como lsi, c4d, interpretar un código compilado es difícil de verdad.

    Open GL es mejor, solo que para conseguir mejores resultados requiere más tiempo, por eso DirectX es la más usada.

  2. #32
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Hola amigos veo que nos hemos enfrascado en una discusión teórica bastante profunda y quiero acotar algunas cosas.
    Para ganar 1 minuto por fps.
    Como dije anteriormente si esto es lo que gano por frames por segundo me parece un mundo cuanto tengo que entregar una animación de 500 cuadros. Veamos las cosas en perspectiva y no solamente por el tiempo de entrea de un cuadro único. Que aquí mucho viven de hacer fotografías fijas, pero los otros (yo incluido) que tenemos que meternos con las animaciones y sus tiempos. Cualquier diferencia por mínima que sea en un cuadro con respecto a otro repercture bastante en el tiempo final de una animación completa.
    Es obvio que el que aprendió con el 3dsMax no está por la labor de cambiar de software.
    Mira yo llevo trabajando con 3ds Max desde la versión 1 y te digo yo que llegado a esta altura que me lo conozco bastante bien no me voy a poner a perder tiempo aprendiendo otra aplicación puesto que como bien tú dices son herramientas y si a ti un martillo te sirve para poner un clavo no vas a la tienda a comprar otro por bonito que sea, o por que sea el que tiene todo tu barrio. Otra cosa es comprar uno neumático, pero aquí en esta historia no es el caso. A la postre max, Autodesk Maya, XSI y c4d son lo mismo. Herramientas, si te sabes una bien no tiene sentido cambiar solo por decir que sabes más.
    Las memorias EC no están pensadas para oc.
    Aquí rompo una lanza a favor de Juan, siempre hay soluciones y en este caso, por ejemplo, la placa EVGA acepta memorias ordinarias por lo cual no son necesariamente imprescindibles las EC.
    La gráfica de rendimiento que has puesto con 3ds Max y Mental Ray, parece correcta, y bien optimizada, aunque ha tí no te lo parezca.
    ¿Qué esperas, que de 5 a 6 Cores mejore 50% igual que de 1 a 2 cores?
    Lo ideal sería que por cada núcleo añadido existiera la misma diferencia que de uno a otro, así seria matemáticamente correcto, pero no es caso, desfortunadamente. Aunque aun así 6 corren más rápido que 5 y eso es lo cuenta hablando de renders.
    Los números hablan por sí solos, Mental Ray es un motor muy bien optimizado, y no es hola, simplemente es uno de los mejores motores de render que existen, desde hace más de 20 años.
    En esto estoy de acuerdo, es un motor muy profesional y ampliamente extendido en la industria por algo será ¿no? O es que, ahora vamos a ver a RenderMan malo solo porque es el más adoptado por las grandes infrastructuras del 3d? No por que muchos adopten algo tiene que ser bueno pero tampoco necesariemente tiene que ser malo. Si Mental Ray da ese nivel de escalabilidad por algo será, es una empresa que tienen bastantes cesudos dentro solo rompiéndose la cabeza para sacar los renders en el menor tiempo posible. O no se acuerdan lo lento que era Mental hace 5 años atrás?
    Porque si estamos comparando con el Dual Xeon 2,4 GHz, para que me pones una gráfica con un Dual Xeon 3,2 GHz?
    Si es ese el que quieres comparar, no hace falta que busques gráficas, ya te lo digo yo, el Dual Xeon es más rápido, pues su frecuencia es casi igual y además tiene 2 Cores más.
    Sera más rápido, pero cuesta un huevo más y esta vez multiplicado por dos así que, no entra en la valoración.
    El i7 980x 6cores 3,33 Ghz es más rápido que el Dual Xeon 5620 8 Cores 2,4 GHz.

    Incluso un poco mejor para el i7 980x de lo que yo te había calculado, posiblemente por que el 8 Cores pierde más rendimiento gestionando más Cores:
    6x3,33 Ghz = 19,9 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).
    Aquí fue donde entraron mis dudas.
    Sólo he visto al XSI mover más que max.
    Esto no lo sabía, me entero ahora.
    En juegos, si es mejor OpenGL o DirectX, actualmente es DirectX quien tiene la iniciativa, y OpenGL llega siempre con retraso. DirectX tiene actualmente más capacidad que OpenGL.
    Pasemos del tema de los juegos que aquí no vienen al caso, estamos hablando de soluciones para un ambiente de trabajo profesional. Ya los entornos de juegos son otra cosa y merecerían otro mensaje completamente diferente a este.
    Como de echarle queroseno al motor.
    De esto en Cuba sabemos bastante y hay muchos cochoes del año 50 caminando por las calles con esas soluciones. La necesidad es la madre de la invención.
    El 980x no lo he visto a más de 7ghz.
    ¿dónde? Por que seguro tenía un tanque de 55 galones de hidrógeno liquido para enfriar todo aquello ¿no? Por favor hablemos de cosas tangibles y no perdamos el norte que repito es para sacar conclusiones en entornos de trabajo profesional no de friki especulador.
    Yo también era como tú, confiaba al 100% en la teoría, pero me empezaron a llover palos por todos lados, descubrí que la teoría es una cosa, la vida real otra.
    Podemos hacer esto menos personal?
    Yo mira tú por dónde no veo que 6 sean más rápido que 8 más lentos (renderizando).
    A ver tío esto ya se ha demostrado hasta el cansansio, así que, no pateleamos más en ese sentido, miremos las cosas en el sentido practico. E5620 vs 980, no metamos ni x5660 ni 5680 ni nada por el estilo que no es la pregunta ni es el caso. Aquí no se trata de ganar la discusión sino de aprender todos juntos y sacar el mejor provecho de las opiniones acerca del tema en cuestión.
    OpenGL es mejor, solo que para conseguir mejores resultados requiere más tiempo, por eso DirectX es la más usada.
    Aquí, y con el mayor respeto, veo una tendencia media friki tuya. A ver mejor por qué? Por que está más optimizado, porque hay menos gente que lo usa. El término mejor es muy relativo por que yo te podría decir que DirectX es mejor por que lo usan casi todas las empresas de videojuegos y como bien tú dices es más fácil implementarlo. Entonces te dices o te contradices? No seamos tercos por favor. Que si OpenGL fuera la panacea ahora mismo estaría en el top del mercado y no es el caso. Más o menos lo que pasa con Linux, Blender y sus defensores. Seamos prácticos.

    Por lo demás muchas gracias y que viva la diversidad de opiniones.

  3. #33
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    He creado un mensaje en discusiones generales en donde se ve la importancia de un sistema operativo u otro, y de paso, como la velocidad del núcleo no es lo que nos pensamos, es decir, si aumento un 50% su frecuencia no se disminuirá a la mitad el tiempo de renderizado, sino un 30%. Obviamente, un 50% es cuasi imposible, por lo que siendo realistas, los 3.33 del 980x para ponerlo a 4 (por supuesto con un disipador en condiciones) es un incremento del 20%, por lo que con suerte renderizas en un 10% menos del tiempo.

    Ojalá pudiese comparar cara a cara el 5620 contra el 980x, pero no puedo, y encontrar información y fotografías de estos procesadores enfrentados es muy difícil, por lo que no siempre saldrá el que queramos, aun así, yo defiendo que el 5620 lo hace mejor que el 980x, en materia de render claro está.

    Los 7 y 8 Ghz son con nitrógeno, pero es una prueba para que se vea que no por ser el más caro es el que más rinde y más se overclockea, sino que cosas que cuestan un 5% lo que el ex alcanzan mayores frecuencias.

    Sí, me encanta OpenGL, es mejor porque cuando saque el juego, en vez de poner que necesita una GTX460, pues una GTX 240 podrá ser suficiente, es decir, open exige muchos menos requisitos que DirectX, y eso implica más público pontecial. El que sea más difícil usarlo es otra cosa, pero java y c tienen el mismo problema, c es complicado de programar, pero rinde muy bien, mientras que java es super fácil de programar (cosas orientadas a objetos solamente) pero requiere mucho más hardware. No se usa porque el tiempo es dinero, pero Unreal si que lo usa, en todos sus Unreal, el mítico deus ex, el bioshok, hay bastantes, te dejo una lista. http://es.wikipedia.org/wiki/anexo:v..._unreal_engine.

    Linux y Blender para mí son la panacea, me ahorran al año muchísimo dinero, y encima aprendes cosas todos los días. Eso es ser practico, ¿cuánto te dejas tú al año en licencias?

  4. #34
    Fecha de ingreso
    Oct 2006
    Mensajes
    12

    Intel i7 x980 vs dual xeon e5620

    De inicio es algo más rápido el 980, pero la cosa se puede acortar o incluso volcar si se bien de OC y si metemos por medio el precio, es más cuestión de gustos.

    Tendrás que valorar si ese 10% de tiempo merece la pena el pagar la diferencia de precio. Es más, para mí ahora mismo la mejor solución es una RenderFarm con thuban, se comen al 980 con patatas y pimientos a igualdad de precio.

  5. #35
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    De inicio es algo más rápido el 980, pero la cosa se puede acortar o incluso volcar si se bien de oc.
    Algo más rápido? Son 6cores 3,3 Ghz vs 4 Cores 2,66ghz, hay un abismo de diferencia, y además si hablamos de oc, el 980x es un extreme edition, mejor preparado para oc.

    Respecto al Dual Xeon, rendimiento similar, algo mejor el 980x, y con oc, el 980x muy superior.
    Última edición por cabfl; 31-07-2010 a las 18:36

  6. #36
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Lo ideal sería que por cada núcleo añadido existiera la misma diferencia que de uno a otro, así seria matemáticamente correcto, pero no es caso, desfortunadamente. Aunque aun así 6 corren más rápido que 5 y eso es lo cuenta hablando de renders.
    1 Core 10:27, 2 Cores 5:43 y 3 Cores = 0, crees que eso sería matemáticamente correcto? Es un disparate de conclusión, y con 4 Cores lo termina antes de empezar.

    Matemáticamente eso no es correcto.

    Cada Core añade un porcentaje más de rendimiento respecto al número de Cores que ya existen.

    Si tienes un Core, y añades otro, entonces tienes 2, y eso es el doble que 1.

    Si tienes 2 Cores y añades otros 2, entonces tienes 4, y eso es el doble que 2.

    Si tienes 4 Cores y añades otros 2, entonces mejoras un 50% (no un 100% que sería el doble). 6 Cores mejora un 50% respecto a 4 Cores.

    En ambos casos hay una mejora del doble de rendimiento, si tardas 5 minutos con 1 Core, tardaras cerca de 2:30 con 2 Cores, y 1:15 con 4 Cores, con 6 Cores mejoras hasta bajar a 56sg aproximadamente. (son cifras teóricas, pues luego esta la penalización de gestión de Cores o multihilos, y cada vez es mayor con más Cores).

    Si tienes 8 Cores, será el doble de rápido que 4 Cores, que es lo mismo que tardar la mitad que 4 Cores. Si 4 Cores tardan 1:15, pues 8 Cores tardan 38sg.

    Si esos tiempos que te he puesto se cumplen, entonces hay una escalabilidad matemáticamente perfecta. (que en la realidad suele ser algo menos).

    Como puedes ver 8 Cores son el doble de rápidos que 4, y por eso el render tarda la mitad. Lógico, ¿no?
    Pues bajamos de 1:15 a 38sg, lo qué significa una mejora de 38sg.

    Sin embargo, 2 Cores mejoran también el doble respecto a un Core, y baja de 5 minutos a 2:30.
    1 Core gana 2:30 y 8 Cores ganan solo 38sg? Visto sin entender el ejemplo, parece muy mal optimizado y desaprovechado, pero lo que tienes que ver es cuánto ganan respecto a la mitad o respecto a 1 solo Core.

    Respecto a la mitad 4 Cores, 8 Cores mejoran el doble, y bajan a la mitad: 38sg, y respecto a 1 solo Cores, 8 Cores son 7 veces más rápidos que 1 Core, y bajan de 5 minutos. Hasta solo 38sg.

    Traducido en el ejemplo de Tomshardware: un render que tarda 10:27 un solo Core.
    1 Core = 10:27.
    2 Cores = 5:17.
    4 Cores = 2:39.
    6 Cores = 2:00.
    8 Cores = 1:20.

    Si comparas con los resultados de Tomshardware, veras tiempos aproximados, aunque los de Tomshardware serán peores porque son reales e incluyen otros factores que penalizan el rendimiento, pero aun así bastante aproximados, y en esos resultados que yo he puesto de ejemplo son escalabilidad matemáticamente perfecta, que no incluye la penalización por gestión de Cores y los recursos que ello consume.

    Mejor no me puedo explicar. Si no lo entienden, les recomiendo que pregunten a algún profesor de matemáticas que sepa explicarlo.

  7. #37
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    [quote=% su frecuencia no se disminuirá a la mitad el tiempo de renderizado, sino un 30%.[/quote]O no estas muy puesto en oc, o no haces bien los cálculos de porcentajes.

    Si haces un OC del 50%, como vas a bajar los tiempos a la mitad? Para eso necesitas un OC del 100% (duplicar la frecuencia).

    Mi CPU q6700 2,66ghz, tiene un OC del 35% hasta 3,6 Ghz, y tiene una mejora de rendimiento de 33% en tiempos reales de render.

    Si pudiera duplicar su frecuencia, y también la del bus y de las memorias, tendría un rendimiento del doble. Esto no puedo demostrarlo, porque no puedo hacer esa bestialidad de oc, pero si puedo bajar el OC de 3,6 Ghz a la mitad, que es 1,8 Ghz, y tachan, los tiempos son aproximadamente el doble.
    Última edición por cabfl; 31-07-2010 a las 18:47

  8. #38
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Cierto, salen más de los que se comercializan como ex. Pero cuando compras un 920, nadie te garantiza que ese en cuestión que ha ti te va a tocar, sea un buen CPU para oc, mientras que el ex sabes 100% que es un pata negra y, además viene con el voltaje ajustado para aceptar mayores subidas.

    Y por último, nunca veras un i7 920 que fue fabricado junto a un i7 980x.

    El CPU es diferente:
    I7-980x = 32nm 6 Cores.

    I7-920 = 45nm 4 Cores.[quote=(imagina que es el tope de la gama, el inferior que no es ex solo llega hasta aquí) a 25, pues resulta que se aumenta la frecuencia, por lo que por pura física, se requiere más energía, por lo que la placa necesita entregar más de ella, parece que no, pero ya la estamos forzando (incluso la propia fuente). La Ram, al tener una CPU más rápida tiene que trabajar más y, aunque no lo creas, trabajar más es forzarla más. El chipset tiene que gestionar de una forma más rápida y, aunque no lo hayamos subido de forma directa, indirectamente también trabaja más. En fin, que tener el multiplicador desbloqueado no es la panacea, en muchos casos hay retocar la placa para sincronizarla y cambiar el voltaje. Las cosas de los iones, no son lo que parecen.[/quote]Qué entiendes por forzar? Forzar es exigir mayor rendimiento del que está diseñado.
    1º, los i7 gestionan la memoria directamente, luego el chipset no interviene, y no trabaja más por aumentar el rendimiento del CPU.
    2º, las memorias no trabajan ni más ni menos. Trabajan igual, el voltaje y frecuencias se mantienen, y por lo tanto, no se fuerzan ni corren peligro de estropearse.
    3º, la fuente de alimentación tampoco se fuerza. Que aumente el consumo, no significa que fuerces la fuente, salvo que tengas una fuente muy ajustada. Si tienes un equipo con una fuente de 750w, y el equipo consume 500w, tienes 250w de margen, haces OC y aumentas 50w el consumo, y? La fuente está diseñada para rendir de sobra 550w, pues esta homologada para 750w. No la estas forzando.
    4º, en un ex, no necesitas tocar el voltaje, por que se ajusta automáticamente y, además tiene un margen más olgado que los CPU normales. Para ajustar el Vcore manualmente necesitas hacer un OC extremo.[quote=¿no puede hacer lo mismo un 920 que un 980 euros pues sí, si que puede, incluso a más nivel, que yo sepa los Celeron de ahora se overclockean incluso mejor que los ex, no tiene nada que ver, es otro trozo de silicio, depende de cada uno hasta dónde puede llegar.

    Un Celeron d (una de procesador) llegó hasta los 8.2 Ghz, y el 980x no lo he visto a más de 7ghz, por lo que no es tan bueno como piensas, no por ser más caro tiene que ser mejor.[/quote]Un Celeron es un CPU de solo 2 Cores. Su capacidad de OC puede ser mayor. No puedes comparar el OC de un CPU de 2 Cores vs a otro de 6 Cores y más de 3 veces más grande. Es una cuestión de lógica simple.[quote=% por cada núcleo es posible, solo que como te he dicho requiere dinero a espuertas y casi el mismo tiempo que en desarrollar el programa, y nadie está por la labor. Así que, sí que espero esa escalabilidad del 50% con el 6 núcleo, por que sé que es posible. Ya ves tú la optimización de Mental Ray, solo con dos núcleos está bien echo, y no es hola, gestionar 2 núcleos es complicado, pero semi sencillo, pero lo bueno viene con 6, eso sí que es complicado, y entonces recurrimos a una ñapa (que suele ser que los gestione el so en vez del programa) y listo, nos quitamos un peso de encima. Pues déjame decirte que eso es una, así de claro, y si para ti eso es lo mejor, será porque no conoces otra cosa, no por que realmente merezca ese título. La gente fuma, muchísima gente, no puede ser tan malo. Si miramos lo que hacen los demás para decidir sobre algo (en este caso la calidad del Mental Ray) mal vamos, ¿si los demás se tiran al río tú también?[/quote]Tu has trabajado alguna vez con motores de render como Mental Ray, Vray, Brazil, PhotoRealistic RenderMan?
    Deberías estudiar un poco mejor cómo funcionan esos motores antes de sacar estas conclusiones.[quote=
    En verdad me doy cuenta de que confías demasiado en la teoría, los totales teóricos no valen nada más que para hacerte un idea, y menos en la informática, donde hay muchas variables que, el papel diga una cosa no implica que sea así, mi coche no consume los 6 litros que pone el papel, en la teoría las cosas no se rompen, y todos sabemos que todo se rompe, en la teoría, el agua destilada pura al 99.9% a lo mejor solo llega a un 99.5%, en fin, ejemplos miles, la teoría para cálculos de física y matemáticas, para todo lo demás no vale para nada. Yo también era como tú, confiaba al 100% en la teoría, pero me empezaron a llover palos por todos lados, descubrí que la teoría es una cosa, la vida real otra. El máximo teórico de 19.2 a mí no me sirve de nada, solo para tener una idea general, pero lo tengo que coger con pinzas, porque son eso, teorías.[/quote]Wxp, con un kernel NT 5.1 tiene una gran capacidad multihilo. Incluso Windows NT 4 la tenía. La prueba es que los motores de render, que actualmente son las aplicaciones mejor optimizadas para multihilo, tienen un rendimiento casi idéntico en Windows XP incluso un poco mejor (1-2%), que en Windows 7.

    Los máximos teóricos solo son referencias. Pero parece que prefieres entender las cosas como te interesa, en vez de comprender lo que queremos explicarte (tener la razón a toda costa).

    Si un CPU de 6 Cores tiene un rendimiento teórico de 19,9ghz y 2cpu que suman 8 Cores tienen un rendimiento teórico de 19.2 GHz, ese es su máximo rendimiento. Ahora intervienen otras variantes, como los recursos que se consumen por la gestión de múltiples hilos, y el ancho de Ram que se consume por cada hilo. Es un hecho, que mientras más hilos, peor penalización. Así que, si un equipo de 8 Cores tiene un potencial menor que otro de 6 Cores, a la hora de la verdad, será todavía peor, pues además tienes que, aplicarle mayor penalización.[quote=¿o acaso no va poco a poco? Ese poco a poco son subdivisiones, sino fuese así, la mostraría de golpe, y sabemos que no es así.[/quote]Pues ya sabes, empieza a revisar cómo funciona Mental Ray en 3ds Max, para que aprendas a decir cosas más coherentes.

    Si la imagen se divide en cuadrados pequeños, asigna uno a cada hilo de cálculo (Core o ht). Pero si aumentas el tamaño del cuadrado de manera que, solo cabe uno en la imagen, sólo usara un Core, y los otros 7 se quedarán a 0.

    Como mucho veras que el sistema operativo alternara entre todos los Cores, pero siempre trabajara el total del CPU a 1/8 de su rendimiento (en el caso de un Dual Xeon 8 Cores).[quote=(renderizando), llámalo saber programar y conocer los trucos y chapuzas que se hacen en el código, en fin, yo no rebusco el tamaño de los cuadros, solo pongo situaciones límite, pero, si con 6 núcleos tengo que reducir aún más los cuadros, ya me dirás tú dónde está la ganancia.

    No, depende del programador, igual que otras muchas cosas en esta vida, es el artista, no la herramienta. Yo creo lo mismo con Maya como con Blender, y son herramientas distintas. El driver de Nvidia lo que hace es corregir mis errores, nada más. Una Quadro es más rápida porque ha Nvidia le interesa que sea así, no por otra cosa, porque los drivers valen para ambas tarjetas, ya que físicamente es el mismo trozo de silicio, y sí, cada programa en que se use tiene que ver, y los estándares también, pero como eso no va con nadie, cada uno desarrolla como le sale de los coj*nes y tiene que venir Nvidia o Ati a poner una ñapa, en vez de hacer las cosas bien. Autodesk es tan culpable como Maya, como lsi, c4d, interpretar un código compilado es difícil de verdad.[/quote]Ya veo que para ti lo único que importa es el número de Cores/hilos, y me hago una idea de cuanto entiendes de este tema.

    Pero deberías empezar a aprender, que el rendimiento real de un CPU, es la suma de los Cores y de su velocidad (Mhz). No por tener más Cores será más rápido, incluso en las condiciones de perfecta escalabilidad. Porque si esos muchos Cores funcionan a una velocidad muy lenta, por que es lo que suman entre todos, poco vas a ganar.

    Sin duda la mejor configuración es: pocos Cores a mucha velocidad, pues se penaliza menos el multihilo.

    Si me dices que el 8 Cores tiene una velocidad similar al de 6 Cores, entonces sí que será más rápido. Al menos una velocidad que se le aproxime, aunque sea inferior, por ejemplo, un Dual Xeon 3,0 Ghz, será más rápido que un 980x, pero comparar con un Dual Xeon 2,4 GHz, la diferencia de velocidad es mucha, y no se compensa con los 2 Cores adicionales.DirectX, es la más usada, porque hace años que superó de largo a OpenGL. Y actualmente el ritmo de investigación, experimentación y desarrollo, de toda la industria gráfica, lo marca DirectX, que está mucho más evolucionado que OpenGL. Las tarjetas gráficas actualmente tienen muchas funciones que en OpenGL no son soportadas, mientras que si lo son en DirectX. OpenGL equivale a directx9c, que ya tiene unos cuantos años.

    No es hola, que incluso el mercado profesional, y las gráficas profesionales, se estén optimizando para DirectX.

    OpenGl, ya no es lo que era cuando estaba bajo el amparo de SGI.
    Última edición por cabfl; 03-08-2010 a las 11:55

  9. #39
    Fecha de ingreso
    Feb 2006
    Mensajes
    2,368

    Intel i7 x980 vs dual xeon e5620

    Yo sé un poco de informática y de este tipo de temas, pero frente a lo que leo, me quedo en bragas, un placer tener gente en el foro que sabe tanto y que, aunque, no estén de acuerdo con lo que se dice, se tiene la paciencia de explicar todo con pruebas y datos. Gracias, para muchos esto nos hace aprender bastante.

    Personalmente el OC me parece una salvajada para una economía normal, quiero decir que ahora en verano que el micro se pone en unos 60 grados (que sé que no es mucho) si lo oveclockeas subes bastante la temperatura del mismo micro, de la gráfica y de todo el bicho por dentro, así que, tienes que refrigerarlo mejor. Me imagino que todo aquel que lo hace es porque vive de esto, ahorrar tiempo en renders, pero las pocas veces que he hecho OC lo he dejado porque es verdad que la vida misma del micro se acorta, o eso es lo que yo pensaba, pero a raíz de leer lo que escribis, me hacéis dudar mucho. Porque según lo que habéis puesto es probable que algunos micros estén preparados para overclock y otros no (hablo de los no ex) entonces es una lotería.

    Nunca se sabe y me da algo de miedo.

    Mi pregunta es, tengo un buen equipo, por lo menos estoy bastante contento con él, es un AMD Phenom Quad Core 9550 2.20 Ghz, una gráfica GeForce 250 GTS y 6 Gb de Ram DDR 800 y estoy encantado, no sé para vosotros sí es demasiado corto o pequeño, pero utilizo el Vray y lo cierto es que no va mal (claro, no tengo con que comparar, así que, no lo sé).

    Qué me podéis decir de este equipo? Tiene unos 3 años casi, me lo hice yo y compré los componentes para montármelo.

    Estaba pensando en actualizarlo y pasarme de AMD (que llevo más de 10 años exclusivamente con esta empresa) a Intel, un i7, pero he visto los precios y fastidiar, son prohibitivos desde hace ya un año, no han bajado, siguen rondando de 250 a 300 euros sólo el micro, y si pensamos que la placa necesita otro tipo de Ram que también es más cara, pues sube mucho la actualización, y no sé si es buena idea. Gracias.
    Última edición por climb; 02-08-2010 a las 20:55
    http://www.danipascual.com

    La lectura no da al hombre sabiduría; le da conocimientos.

    William Somerset Maugham

  10. #40
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Para comparativas de rendimiento, tienes un hilo en este foro de hardware, con una prueba de render, haz tus pruebas y compara los resultados con los del resto de compañeros, tienes unos cuantos resultados con i7.

    Seguramente las diferencias sean bastante grandes. Y no es que tú CPU sea lento, que en realidad es bastante rápido, es que los i7 son muy rápidos.

    Del tema del oc, como ya se ha comentado, todos los CPU se fabrican en la misma oblea. Pero debido a la estructura molecular del mineral, unos salen mejor que otros. Entonces en un control de calidad, se separan los que soportan mayor voltaje y los que menos, y se asignan las frecuencias. Siempre menos de lo que el CPU soporta, por eso todos los CPU admiten oc, pero algunos admiten más OC que otros, pues tienen un voltaje más bajo, o soportan mayores subidas de voltaje. Si le haces un poco de OC al cpu/chipset/Ram (10%), no vas a acortar la vida del equipo, pero si te estiras subiendo OC (25% o más), entonces es cuando tienes una lotería que puede explotar cualquier día. Lo mejor es ir probando poco a poco, y buscar la manera de poder ir subiendo al CPU, sin necesidad de subir chipset/Ram, o que suban lo menos posible. Normalmente las Ram son lo más delicado en el oc, sobre todo a largo plazo.

  11. #41
    Fecha de ingreso
    Feb 2006
    Mensajes
    2,368

    Intel i7 x980 vs dual xeon e5620

    Gracias por la respuesta, en realidad necesita otro Vray al que tengo, pero sólo quería que me dieras tu opinión sobre mi equipo, y te lo agradezco, así como lo que me has dicho sobre el OC y el cuidado que hay que tener, yo por si acaso, como no me gano la vida renderizando no voy a hacerlo, porque, aunque pueda subir un 10% más la capacidad del micro, no creo que haya diferencias sustanciales.

    Acabo de hacer la prueba que me has dicho en el mensaje de arriba, me sale 3`45`` con el Vray 1.50 service pack 4 que te he leído que no te gusta nada, pero bueno, es el que tengo. Gracias Cabfl.
    Última edición por climb; 03-08-2010 a las 00:30
    http://www.danipascual.com

    La lectura no da al hombre sabiduría; le da conocimientos.

    William Somerset Maugham

  12. #42
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    En general, actualmente no me gusta AMD por que va muy por detrás de Intel, al menos 1 año de retraso. Tu micro es un buen CPU, pero por rendimiento/precio.

    Los resultados que ha ti te han dado son muy malos.

    Así que revisa la versión de Vray que tienes, por que huele a pirata mal instalada. Justo antes de tu resultado, hay otro compañero con un AMD similar y poco más de 2 minutos de render.

  13. #43
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Comparativas de rendimiento del i7-980x (6cores 3,33 Ghz) vs i7-975 (4 Cores 3,33 Ghz).
    6 Cores vs 4 Cores, y las diferencias en aplicaciones optimizadas multihilo, son muy claras:




  14. #44
    Fecha de ingreso
    Feb 2006
    Mensajes
    2,368

    Intel i7 x980 vs dual xeon e5620

    Qué barbaridad de diferencia. Si Cabfl, es el Vray 1.50 service pack 4 pirata claro, pensaba que la diferencia del tiempo que le daba a mi compañero de menos tiempo era porque el mío es de 2.2 Ghz y el suyo era 2.6, pero el usa el Vray sp5, lo mismo es eso, si no es así y para cerciorarme que está bien instalado, debería de probar el sp5 con el 3ds Max 2011?
    Perdona que te del coñazo, pero en dos mensaje tuyos he aprendido mucho.

    Otra cosa, no sabía que había i7 con 6 núcleos, además son de doble hilo cada uno o cómo se diga, o sea que simula 12 núcleos?
    Acabo de pasarme por una buena tienda de componentes y he visto el precio de ese bicho, sólo el micro con iva son casi 900 euros.
    http://www.danipascual.com

    La lectura no da al hombre sabiduría; le da conocimientos.

    William Somerset Maugham

  15. #45
    Fecha de ingreso
    Feb 2006
    Mensajes
    503

    Intel i7 x980 vs dual xeon e5620

    Me vais a perdonar que no me haya leído todo el hilo menudos tochos que estáis haciendo, pero doy mi opinión rápidamente si es posible.

    Sihabláis de rendimiento/precio ni un Xeon ni un extreme no entran ni en consideración otra cosa es que le supone a una empresa una inversión de 1000-1200 euros. Cabfl sabes perfectamente que la serie extreme de Intel está bastante lejos de ser rentable son una gama para frikis que no les importa el dinero solamente que la tienen más grande que el resto, ahora bien actualmente da la cusualidad que un micro como el 980x a coincido en el tiempo con sus hermanos Xeones y los únicos 6 núcleos de Intel hasta la fecha y comparándolos con estos hasta puede parecer barato un 980x, pero 1000 euros, por ese micro es un derroche de dinero y más teniendo en cuenta que el 970 (otro 6 núcleos) está al caer al igual que el sustitutorial de ese 980x el 990x y más teniendo ya en vista los futuros nuevos socket para 2011, en fin no me compraría un 980x ahora mismo ni loco y ceme en la práctica un 980x se queda por aire sobre 4401 Mhz y un 920 en 4200 y aun teniendo dos núcleos menos no compensa en absoluto le aumento de rendimiento del 980x estamos hablando de 200 euros, vs 1000 euros.

    Si coincido con lo de que los AMD siguen por detrás en rendimiento, pero aún a si te puedes montar un pepino 6 núcleos por cuatro duros, algo que no es posible con un 1366.

    Recomendación equipo rendimiento alto con grande posibilidades de muy alto gracias al OC y factible ampliación a 6 núcleos cuando estos estén en precios más mundanos:
    920-930 con 12 Gb de RAM.

    Recomendación equipo rendimiento bueno con también buenas posibilidades de OC y rendimiento alto con bajo coste y sin posibilidad de ampliación (cambio socket AMD bulldozer):
    Phenom I 1055t con 8 Gb de RAM.

    Rendimiento friki máximo rendimiento actual en escritorio con máximo OC con paso a 32nm en toda la gama 6 núcleos Intel, al menos preferible a Xeon 6 núcleos o doble socket. Rentabilidad 0 y con devalúación bastante rápido en el mercado, futuro 970 6 núcleos más barato a la vista.
    980x 12 Gb de RAM.

Página 3 de 4 PrimerPrimer 1234 ÚltimoÚltimo

Temas similares

  1. Workstation Dual Xeon e5620 16 núcleos
    Por davidematanza en el foro Mercadillo
    Respuestas: 3
    : 06-02-2014, 01:10
  2. Intel xeon x5570 vs Intel xeon e5620
    Por konig en el foro Hardware
    Respuestas: 8
    : 27-10-2013, 18:46
  3. Workstation Dual Xeon e5620
    Por mcflait en el foro Mercadillo
    Respuestas: 2
    : 18-04-2013, 17:14
  4. Core i7 dual Intel xeon
    Por Buzzz07 en el foro Hardware
    Respuestas: 11
    : 15-06-2009, 11:10
  5. Dual-Core Intel Xeon Quad-Core Intel Xeon
    Por render67 en el foro Hardware
    Respuestas: 3
    : 16-03-2007, 12:01

Etiquetas para este tema