jueves, febrero 5, 2026

La producción que cuenta

Agustín Lecchi: «Los grandes...

(Por Pablo Maradei) El secretario General del Sipreba, Agustín Lecchi, habló también del nuevo...

Los funcionarios libertarios del...

(Por Eduardo Porto @periferiacts) A pedido del gobierno de Javier Milei, la Dirección...

Sturzenegger decretó la jubilación...

Una porción de los estatales comprendidos por la medida no reúne los requisitos...

El Gobierno mandó a...

El secretario de Trabajo de la Nación, Julio Cordero, defendió la reforma laboral...
HomeNEGOCIOSNo hay pruebas...

No hay pruebas de que el ChatGPT erótico vaya a ser seguro, alerta exresponsable de riesgos de OpenAI

Cuando se escriba la historia de la IA, Steven Adler podría acabar siendo su Paul Revere militar, o al menos uno de ellos, en lo que respecta a la seguridad. El mes pasado, Adler, quien pasó cuatro años desempeñando diversas funciones de seguridad en OpenAI, escribió un artículo para The New York Times con un título bastante alarmante: I Led Product Safety at OpenAI. Don’t Trust Its Claims About “Erotica” (Dirigí la seguridad de productos en OpenAI. No te fíes de sus afirmaciones sobre la “erótica”). En él exponía los problemas a los que se enfrentaba OpenAI a la hora de permitir que los usuarios conversaran eróticamente con chatbots y, al mismo tiempo, protegerlos de cualquier impacto que esas interacciones pudieran tener en su salud mental.

“Nadie quería ser el policía de la moralidad, pero carecíamos de medios para medir y gestionar cuidadosamente el uso erótico. Decidimos que la erótica impulsada por IA tendría que esperar”, se leía en el artículo. Adler decidió publicarlo porque Sam Altman, CEO de OpenAI, había anunciado recientemente que la compañía pronto permitiría “erótica para adultos verificados”. En respuesta, Adler escribió que tenía “grandes dudas” sobre si OpenAI había hecho lo suficiente para, en palabras de Altman, “mitigar” las preocupaciones de salud mental en torno a cómo los usuarios interactúan con los chatbots de la compañía.

Después de leer el artículo de Adler, quise hablar con él. Aceptó amablemente reunirse en las oficinas de WIRED en San Francisco para conversar sobre su experiencia durante sus cuatro años en OpenAI, sobre el futuro de la seguridad de la IA y sobre el reto que esto plantea a las empresas que proporcionan grandes modelos de lenguaje (LLM) al mundo.


Esta entrevista ha sido editada para mayor extensión y claridad.

KATIE DRUMMOND: Antes de empezar, quiero aclarar dos cosas. La primera es que, por desgracia, no eres el mismo Steven Adler que tocaba la batería en Guns N’ Roses, ¿cierto?

STEVEN ADLER: Es correcto.

Bien, ese no eres tú. La segunda: has tenido una larga carrera en tecnología, específicamente en inteligencia artificial. Así que, antes de entrar en materia, cuéntame un poco sobre tu trayectoria y en qué has trabajado.

He trabajado en todo el sector de la inteligencia artificial, principalmente en temas relacionados con la seguridad. Durante los últimos cuatro años estuve en OpenAI, abordando todas las dimensiones posibles de la seguridad: desde cómo mejorar los productos para los usuarios y reducir riesgos, hasta cómo detectar si los sistemas de IA podrían volverse realmente peligrosos.

Antes de unirme a la empresa, trabajé en una organización llamada Partnership on AI, que analizaba la industria en su conjunto y se preguntaba: “Ante estos retos, algunos más amplios de lo que una sola empresa puede afrontar, ¿cómo podemos colaborar para definir los problemas, ponernos de acuerdo en que existen, trabajar en soluciones y, en última instancia, mejorar el panorama general?”.

Ahora quiero hablar de tu posición en OpenAI. Dejaste la empresa a finales del año pasado. Antes de irte, dirigías la investigación y los programas relacionados con la seguridad. ¿En qué consistía ese puesto?

Mi trayectoria en OpenAI se dividió en varias etapas. Durante el primer tercio de mi tiempo allí lideré el área de seguridad de producto, lo que implicaba trabajar en GPT-3, uno de los primeros grandes productos de IA comercializados. Nos preguntábamos: ¿cómo establecer las reglas del juego para fomentar aplicaciones beneficiosas, evitando al mismo tiempo los riesgos que ya se vislumbraban?

Otros dos roles importantes que desempeñé fueron liderar el equipo de evaluación de capacidades peligrosas, encargado de definir cómo identificar cuándo los sistemas se volvían más riesgosos, cómo medirlo y qué medidas tomar al respecto, y abordar cuestiones generales sobre la preparación para la inteligencia artificial general (IAG). Observamos cómo internet comenzaba a transformarse y cómo los agentes de IA se estaban volviendo un concepto cada vez más popular. Aún no están completamente desarrollados, pero lo estarán. La gran pregunta era: ¿cómo nos preparamos para un mundo en el que OpenAI, o alguno de sus competidores, logre materializar esa visión tan ambiciosa que persiguen?

Get notified whenever we post something new!

spot_img

Create a website from scratch

Just drag and drop elements in a page to get started with Newspaper Theme.

Continue reading

En la Argentina se toma cada vez menos soda: cómo hizo esta histórica marca para sobrevivir

Como muchos inmigrantes españoles, Vicente Tarazona llegó a la Argentina huyendo de las consecuencias de la guerra, buscando un futuro mejor y sin un peso en el bolsillo. Corría el año 1947 y el joven (aún menor de edad),...

Soy el humano que se infiltró en Moltbook, la misteriosa red social para bots de IA (y creo que no soy el único)

El club de moda es siempre al que no puedes entrar. Por eso, cuando oí hablar de Moltbook, una red social diseñada exclusivamente para que los agentes de IA publiquen, comenten y se sigan unos a otros mientras los...

Comenzó el juicio por el femicidio de Tamara Fierro

A siete meses del femicidio de Tamara Fierro, ocurrido en la localidad de Fraile Pintado, este miércoles comenzó el juicio oral y público que busca determinar responsabilidades penales por el brutal crimen. El Tribunal en lo Criminal está...

Enjoy exclusive access to all of our content

Get an online subscription and you can unlock any article you come across.