¿Por qué las IA siguen inventándose la cosas?
Desde hace un tiempo, los chatbots con inteligencia artificial vienen prometiendo respuestas más claras, razonadas y útiles. Sin embargo, un fenómeno curioso y no precisamente nuevo sigue creciendo, las llamadas alucinaciones. No se trata de que vean dragones rosas, sino de que suelten respuestas falsas como si fueran ciertas, con la misma seguridad con la que alguien asegura que puede ganar en el Monopoly sin hacer trampas.
¿Qué es una alucinación de IA y por qué debería importarnos?
En este contexto, una alucinación no es un viaje lisérgico de una IA aburrida, sino una respuesta que parece verdadera... pero no lo es. Puede ser una invención pura, un dato fuera de contexto o simplemente algo que nadie pidió. Como cuando le preguntas a tu amigo por una receta de tarta y acaba explicándote la historia completa del azúcar en el Antiguo Egipto.
Nuevas versiones, viejos errores
Los modelos más recientes de algunas empresas importantes, como OpenAI, han mostrado tasas más altas de errores que sus versiones anteriores. Por ejemplo, un modelo llamado o4-mini se equivocó el 48 % de las veces al resumir información sobre personas. Su antecesor, el modelo o1, solo fallaba el 16 por ciento del tiempo. Algo así como pasar de copiar mal los deberes a inventárselos por completo con letra bonita y colores.
¿Quién alucina más: la IA o quien la evalúa?
Hay una clasificación tipo liga de fútbol, pero con modelos de IA que compara qué tanto se equivocan los distintos sistemas. Algunos como DeepSeek-R1 aumentaron su número de errores, aunque muchos de ellos eran inofensivos: respuestas lógicas, pero que no estaban basadas en el texto que debían resumir. Es como contestar bien, pero a la pregunta equivocada.
¿Sirve medir todo con la misma regla?
Expertos como Emily Bender señalan que evaluar las IAs por su capacidad para resumir textos puede ser engañoso. Estos sistemas están diseñados para predecir palabras, no para entender lo que leen como lo haría un humano. Es como pedirle a un loro que te resuma una novela: puede repetir cosas con gracia, pero no sabe de qué va el libro.
El problema del nombre: ¿alucinaciones o solo errores?
La palabra alucinación suena poética, pero es tramposa. Implica que las máquinas ven algo irreal, cuando en realidad solo están generando palabras sin comprender. Además, da la impresión de que los errores son excepciones, cuando en muchos casos son simplemente parte del proceso. Como si el GPS insistiera en llevarte al mar cada tanto, y tú lo siguieras porque generalmente acierta.
¿Y ahora qué hacemos con las IA que se equivocan?
Según algunos investigadores, puede que tengamos que acostumbrarnos a convivir con estas fallas. Quizás la solución no sea eliminarlas del todo, sino usarlas solo cuando podamos verificar rápidamente si están en lo cierto. Como ese compañero que es muy simpático, pero al que conviene chequearle todo lo que dice con Google.
Las IAs han mejorado en muchas cosas, pero los errores siguen ahí, cambiando de forma y estilo. Las llamadas alucinaciones son parte del trato. Así que, si vas a confiar en una IA, mejor que no sea para hacer tu declaración de impuestos o escribir los votos de tu boda. A menos que quieras prometerle amor eterno a una cabra de Saturno.