jueves, febrero 5, 2026

La producción que cuenta

Agustín Lecchi: «Los grandes...

(Por Pablo Maradei) El secretario General del Sipreba, Agustín Lecchi, habló también del nuevo...

Los funcionarios libertarios del...

(Por Eduardo Porto @periferiacts) A pedido del gobierno de Javier Milei, la Dirección...

Sturzenegger decretó la jubilación...

Una porción de los estatales comprendidos por la medida no reúne los requisitos...

El Gobierno mandó a...

El secretario de Trabajo de la Nación, Julio Cordero, defendió la reforma laboral...
HomeNEGOCIOSUn chatbot que...

Un chatbot que no “alucine” es simplemente imposible

Las alucinaciones de los chatbots pueden reducirse, pero no pueden solucionarse con el enfoque actual de los grandes modelos de lenguaje (LLM). A menos que cambie la idea misma en la que se basa la versión actual de ChatGPT. Esta fue una de las conclusiones a las que se llegó en un artículo escrito por investigadores de OpenAI, liderados por Sam Altman.

En un par de años, el concepto de “alucinación” en la inteligencia artificial se ha hecho de dominio público. Hace ya dos años, muchos notaron que varios libros escritos con IA generativa ocupaban los primeros puestos de algunas listas de ventas en Amazon. Uno, en concreto, presentaba nombres inventados entre los autores y una serie de indicaciones erróneas sobre cómo distinguir las setas tóxicas de las comestibles. El caso, reportado por 404 Media, proporcionó un ejemplo de cómo la impresión de recibir información correcta, cuando en realidad es solo verosímil, puede causar daños bastante graves.

Varios investigadores han demostrado que la aparición de alucinaciones, errores fácticos en secuencias de palabras generadas estadísticamente por los LLM, es inevitable. Se trata de una limitación estructural que no puede superarse simplemente aumentando la cantidad de datos o la capacidad de cómputo. Lo novedoso es que, hasta hace poco, las empresas que diseñan estos productos restaban importancia al problema, mientras que ahora incluso OpenAI admite que, para resolverlo, sería necesario cambiar la forma en que funciona su modelo.


Imagen de globos de diálogo.

La nueva versión de ChatGPT explica por qué no genera resultados que infrinjan las reglas. El análisis inicial de WIRED reveló que algunas barreras eran fáciles de eludir.


¿De dónde vienen las alucinaciones?

Según los investigadores de OpenAI, las alucinaciones “se originan simplemente como errores en la clasificación binaria”. Cuando el modelo no puede responder ciertas preguntas, en algunos casos porque la información no está disponible, y en otros por la forma en que fue entrenado, adivina. Por ejemplo, mencionan respuestas generadas sobre la tesis doctoral de uno de los firmantes de la investigación, donde el chatbot insistía en ofrecer títulos incorrectos.

En un arrebato de antropomorfismo, los investigadores comparan este comportamiento con el de un estudiante que inventa una respuesta en un examen difícil. Sin embargo, asignar características humanas a los sistemas informáticos es un enfoque peligroso, ya que puede alejarnos de una comprensión precisa de los procesos que determinan su funcionamiento. En este caso, no obstante, la analogía ayuda a ilustrarlo, ya que entre los criterios de evaluación de estas tecnologías se encuentran pruebas que entrenan a las máquinas para obtener la máxima puntuación. Estas limitaciones no se aplican solo a ChatGPT, sino también a los modelos más populares. Los investigadores analizaron diez de ellos.


OpenAI Samsung Stargate 2238060667

Donald Trump anunció a inicios de este año el Proyecto Stargate, con la meta de establecer “la mayor infraestructura de inteligencia artificial de la historia”. OpenAI lidera esta iniciativa, a la cual se han sumado empresas surcoreanas.


Qué solución plantea OpenAI

Para remediar el problema, los investigadores proponen un enfoque diferente: penalizar más las respuestas incorrectas dadas con confianza que las no respuestas, o mejor dicho, aquellas que admiten no saber. Para ello, sería necesario revisar los modelos actuales de evaluación del rendimiento. Actualmente, los LLM se entrenan para predecir la siguiente palabra en una secuencia dada o en una frase en lenguaje natural.

La conclusión de los investigadores es clara: ningún modelo alcanzará jamás el 100% de fiabilidad, porque algunas preguntas, especialmente las relacionadas con el mundo real, no tienen respuestas seguras ni calculables, ni siquiera con todos los datos posibles a disposición. Pero si la respuesta a una pregunta dada no es calculable, y los distintos LLM dejan de intentar “adivinarla” sobre una base estadística, ¿qué pasará con la experiencia del usuario?

Como escribe Wei Xing, profesor adjunto de la Facultad de Ciencias Matemáticas y Físicas de la Universidad de Sheffield, en The Conversation, la solución propuesta por OpenAI podría significar literalmente el fin de ChatGPT. Imagina recibir constantemente respuestas ambiguas o admisiones de ignorancia del chatbot al que consultas precisamente para obtener respuestas. En su artículo, explica que no sería difícil reducir las alucinaciones utilizando los conocimientos del estudio. Desde hace décadas existen métodos establecidos para cuantificar la incertidumbre. Podrían usarse para proporcionar estimaciones fiables de la incertidumbre y guiar a una IA a tomar decisiones más inteligentes.

Get notified whenever we post something new!

spot_img

Create a website from scratch

Just drag and drop elements in a page to get started with Newspaper Theme.

Continue reading

En la Argentina se toma cada vez menos soda: cómo hizo esta histórica marca para sobrevivir

Como muchos inmigrantes españoles, Vicente Tarazona llegó a la Argentina huyendo de las consecuencias de la guerra, buscando un futuro mejor y sin un peso en el bolsillo. Corría el año 1947 y el joven (aún menor de edad),...

Soy el humano que se infiltró en Moltbook, la misteriosa red social para bots de IA (y creo que no soy el único)

El club de moda es siempre al que no puedes entrar. Por eso, cuando oí hablar de Moltbook, una red social diseñada exclusivamente para que los agentes de IA publiquen, comenten y se sigan unos a otros mientras los...

Comenzó el juicio por el femicidio de Tamara Fierro

A siete meses del femicidio de Tamara Fierro, ocurrido en la localidad de Fraile Pintado, este miércoles comenzó el juicio oral y público que busca determinar responsabilidades penales por el brutal crimen. El Tribunal en lo Criminal está...

Enjoy exclusive access to all of our content

Get an online subscription and you can unlock any article you come across.