La competencia entre Intel y Nvidia por la inteligencia artificial
En el mundo de la inteligencia artificial, la competencia por crear sistemas más rápidos y eficientes no se detiene. Recientemente, organizaciones como MLCommons han publicado resultados que comparan el rendimiento de diferentes arquitecturas de hardware diseñadas para machine learning. Dos compañías, Nvidia y AMD, destacan en estas pruebas, cada una con sus respectivas soluciones: las GPU Blackwell y las Instinct MI325.
Estas evaluaciones no son simples rankings. Su objetivo es ofrecer una comparación justa entre sistemas, utilizando redes neuronales idénticas para medir su capacidad de procesamiento. Con once benchmarks disponibles, tres de ellos nuevos, el campo de pruebas refleja la evolución acelerada de la inteligencia artificial.
Nuevos desafíos para máquinas más inteligentes
La aparición de modelos de lenguaje cada vez más complejos, como GPT-4, ha obligado a adaptar las pruebas. MLPerf, el conjunto de benchmarks más reconocido, ha incorporado evaluaciones que miden no solo la velocidad, sino también la capacidad de respuesta en tiempo real. Un ejemplo es el test [B]Llama2-70B Interactive[B], que exige a los sistemas generar al menos 25 tokens por segundo y responder en menos de 450 milisegundos.
Otro avance significativo es la inclusión de modelos con ventanas de contexto ampliadas, como el [B]Llama3.1 405B[B], capaz de procesar 128.000 tokens de información simultáneamente. Esto permite manejar tareas más complejas, como análisis de documentos extensos o código de programación. Además, se ha introducido una prueba llamada [B]RGAT[B], diseñada para clasificar grandes volúmenes de datos interconectados, como artículos científicos.
Nvidia y su dominio en rendimiento
Nvidia sigue liderando con sus arquitecturas Hopper y Blackwell. La GPU B200, basada en Blackwell, demuestra una ventaja clara gracias a su memoria de alto ancho de banda y su capacidad para realizar cálculos con precisión reducida, lo que acelera el procesamiento de IA. En pruebas con el modelo Llama3.1 405B, un sistema con ocho B200 superó por cuatro veces la velocidad de uno equipado con H200.
La compañía también ha mostrado cómo su tecnología [B]NVL72[B] puede integrar múltiples servidores para funcionar como una sola unidad, logrando un rendimiento masivo. Un rack completo de sistemas GB200 alcanzó casi 870.000 tokens por segundo en pruebas con Llama2 70B, un número que redefine los límites de lo posible.
AMD e Intel: estrategias diferentes
AMD ha presentado su GPU MI325X, que compite directamente con la H200 de Nvidia. Con mayor memoria y ancho de banda, esta tarjeta busca destacar en el manejo de modelos extensos sin necesidad de distribuir la carga entre múltiples servidores. En pruebas con Llama2-70B, equipos con ocho MI325X estuvieron a solo un 7% de la velocidad de los sistemas basados en H200.
Por su parte, Intel ha optado por centrarse en sus CPUs Xeon 6, mostrando avances significativos en reconocimiento de imágenes y otras tareas específicas. Sin embargo, su ausencia en la categoría de aceleradores de IA, como el chip Gaudi 3, refleja un retraso en esta carrera tecnológica. El propio CEO de Intel ha reconocido la necesidad de mejorar para alcanzar a sus competidores.
El futuro de la inteligencia artificial
Mientras compañías como Google también entran en la contienda con sus chips TPU, queda claro que la innovación en hardware seguirá impulsando las capacidades de la IA. Cada avance acerca a sistemas más rápidos, más precisos y capaces de tareas que antes parecían imposibles. La pregunta no es si seguirán mejorando, sino cuánto más podrán lograr.
|Agradecer cuando alguien te ayuda es de ser agradecido|