¿Extraño OC a un Xeon? La gente hace cosas muy raras, se puede si o no. Se puede, me da igual que casi ninguna placa y menos gente lo haga, pero es una posibilidad, por lo que desde ese mismo momento en que a ambos se le puede subir la frecuencia y solo se la subimos a uno es algo injusto, y para nada se ajusta a la realidad. Imagina que solo nos subiesen los impuestos a nosotros, y a los ricos, que son pocos, no, ya que de todas formas, defraudran a hacienda. ¿lo ves justo? O todos moros o todos cristianos, o todos tienen OC o ninguno.
Tú dudas de eso, de OC un Xeon, yo dudo de muchas otras cosas y no tiene por qué ajustarse a la realidad, como de echarle queroseno al motor, y conozco a uno que lo hace, de la misma forma habrá alguien que haga lo otro.
Te lo voy a comentar, yo sé que se fabrican en serie, y se intenta que todos salgan pata negra, ya luego los bajaran de vueltas. Piensa una cosa, imagina que por cada 100 procesadores, sale uno pata negra ponte que este año se han vendido un millón de i7, eso son bastantes pata negra, más de los que Intel va a vender nunca, pues se hace lo mismo, se pone que sea algo inferior, y en verdad tienes un ex solo que no lo sabes. Lo mismo pasa con las gráficas, o te crees que todas las GTX480 que se hagan se van a vender, pues se recortaran para que sean una GTX465 y en verdad es una 480, solo que de nuevo no lo sabes, así que, los supuestos pata negra abundan más de lo que te piensas, bastante más, el último informe de tmsc (o cómo se escriba) dijo que un 40% eran el chip perfecto, o sea, de cada 100, 40 son pata negra, y dudo que Intel los guarde en un almacén. Amd hace lo mismo, y luego los vende en vez de cómo Phenom 6 como un x4 y otras cosas, por eso las placas permiten desbloquear los núcleos. No amigo, ni pata negra ni nada, la industria funciona de otra manera.
Tener el multiplicador desbloqueado y pensar que OC no forzamos nada más es un error. Subes el multiplicador de 22 (imagina que es el tope de la gama, el inferior que no es ex solo llega hasta aquí) a 25, pues resulta que se aumenta la frecuencia, por lo que por pura física, se requiere más energía, por lo que la placa necesita entregar más de ella, parece que no, pero ya la estamos forzando (incluso la propia fuente). La Ram, al tener una CPU más rápida tiene que trabajar más y, aunque no lo creas, trabajar más es forzarla más. El chipset tiene que gestionar de una forma más rápida y, aunque no lo hayamos subido de forma directa, indirectamente también trabaja más. En fin, que tener el multiplicador desbloqueado no es la panacea, en muchos casos hay retocar la placa para sincronizarla y cambiar el voltaje. Las cosas de los iones, no son lo que parecen.
¿No puede hacer lo mismo un 920 que un 980 euros pues sí, si que puede, incluso a más nivel, que yo sepa los Celeron de ahora se overclockean incluso mejor que los ex, no tiene nada que ver, es otro trozo de silicio, depende de cada uno hasta dónde puede llegar.
Un Celeron d (una de procesador) llegó hasta los 8.2 Ghz, y el 980x no lo he visto a más de 7ghz, por lo que no es tan bueno como piensas, no por ser más caro tiene que ser mejor.
Yo te aseguro que una escalabilidad del 50% por cada núcleo es posible, solo que como te he dicho requiere dinero a espuertas y casi el mismo tiempo que en desarrollar el programa, y nadie está por la labor. Así que, sí que espero esa escalabilidad del 50% con el 6 núcleo, por que sé que es posible. Ya ves tú la optimización de Mental Ray, solo con dos núcleos está bien echo, y no es hola, gestionar 2 núcleos es complicado, pero semi sencillo, pero lo bueno viene con 6, eso sí que es complicado, y entonces recurrimos a una ñapa (que suele ser que los gestione el so en vez del programa) y listo, nos quitamos un peso de encima. Pues déjame decirte que eso es una, así de claro, y si para ti eso es lo mejor, será porque no conoces otra cosa, no por que realmente merezca ese título. La gente fuma, muchísima gente, no puede ser tan malo. Si miramos lo que hacen los demás para decidir sobre algo (en este caso la calidad del Mental Ray) mal vamos, ¿si los demás se tiran al río tú también?
Por cierto, telefónica (telefónica) también debe de ser lo mejor, existe desde hace 20 años.
La comparativa sigue sin ser justa, XP no es precisamente amigo del multinúcleo, y ni siquiera es el de 64 bits, por favor busca una que sea del 7 en su versión 64, por que el so hace más de lo que tú te crees en gestión y en rendimiento, pero bastante. El XP favorece velocidad a cantidad, y existiendo algo que si tiene soporte nativo del mulinúcleo, te pido que si es posible la pongas con un so acorde a los tiempos que corren.
En verdad me doy cuenta de que confías demasiado en la teoría, los totales teóricos no valen nada más que para hacerte un idea, y menos en la informática, donde hay muchas variables que, el papel diga una cosa no implica que sea así, mi coche no consume los 6 litros que pone el papel, en la teoría las cosas no se rompen, y todos sabemos que todo se rompe, en la teoría, el agua destilada pura al 99.9% a lo mejor solo llega a un 99.5%, en fin, ejemplos miles, la teoría para cálculos de física y matemáticas, para todo lo demás no vale para nada. Yo también era como tú, confiaba al 100% en la teoría, pero me empezaron a llover palos por todos lados, descubrí que la teoría es una cosa, la vida real otra. El máximo teórico de 19.2 a mí no me sirve de nada, solo para tener una idea general, pero lo tengo que coger con pinzas, porque son eso, teorías.
Insisto, yo no tengo max, y no sé cómo lo hace, pero si pones un cuadro, el procesador lo renderizará con todo lo que tenga, subdividiéndolo, algo que es absolutamente normal, ¿o acaso no va poco a poco? Ese poco a poco son subdivisiones, sino fuese así, la mostraría de golpe, y sabemos que no es así.
Yo mira tú por dónde no veo que 6 sean más rápido que 8 más lentos (renderizando), llámalo saber programar y conocer los trucos y chapuzas que se hacen en el código, en fin, yo no rebusco el tamaño de los cuadros, solo pongo situaciones límite, pero, si con 6 núcleos tengo que reducir aún más los cuadros, ya me dirás tú dónde está la ganancia.
No, depende del programador, igual que otras muchas cosas en esta vida, es el artista, no la herramienta. Yo creo lo mismo con Maya como con Blender, y son herramientas distintas. El driver de Nvidia lo que hace es corregir mis errores, nada más. Una Quadro es más rápida porque ha Nvidia le interesa que sea así, no por otra cosa, porque los drivers valen para ambas tarjetas, ya que físicamente es el mismo trozo de silicio, y sí, cada programa en que se use tiene que ver, y los estándares también, pero como eso no va con nadie, cada uno desarrolla como le sale de los coj*nes y tiene que venir Nvidia o Ati a poner una ñapa, en vez de hacer las cosas bien. Autodesk es tan culpable como Maya, como lsi, c4d, interpretar un código compilado es difícil de verdad.
Open GL es mejor, solo que para conseguir mejores resultados requiere más tiempo, por eso DirectX es la más usada.