miércoles, abril 1, 2026

La producción que cuenta

Registran que es «casi...

La FEDUN, el sindicato que representa a los docentes de las 60 universidades...

Tras la suspensión judicial,...

Se trata de Flavia Royon, Senadora salteña que acompañó en general la Reforma...

Despiden a 50 trabajadores...

Los trabajadores del Casino Trewelyn de Esquel comenzaron a recibir los telegramas de...

“Maniobra desleal y extorsiva”:...

El gremio del caucho SOCAYA acusó al SUTNA, de trabajadores del neumático, de...
HomeNEGOCIOSLa tendencia de...

La tendencia de los chatbots de IA de engañar a los usuarios va en aumento, según estudio

La cantidad de chatbots basados en inteligencia artificial (IA) capaces de engañar y eludir medidas de seguridad en entornos reales parece haber aumentado durante los últimos seis meses, de acuerdo con una investigación realizada por el Centro para la Resiliencia a Largo Plazo (CLTR).

El estudio, financiado por el Instituto de Seguridad de la IA (AISI), por sus siglas en inglés) y respaldado por el gobierno del Reino Unido, analizó miles de interacciones autoinformadas por usuarios con bots y agentes construidos sobre modelos de Google, OpenAI, xAI y Anthropic. A partir de ese análisis, identificó al menos 700 casos reales de manipulación y de acciones no autorizadas (como la eliminación de documentos y correos electrónicos) por parte de sistemas de IA, lo que representa un incremento de cinco veces entre octubre y marzo.


Mujer frente a robot

Herramientas de IA generativa como ChatGPT de OpenAI y Copilot de Microsoft se están convirtiendo en parte de la vida cotidiana de las empresas. Pero conllevan consideraciones de privacidad y seguridad que debes conocer.


En uno de los episodios documentados, un agente de IA identificado como “Rathbun” intentó desacreditar a su operador humano tras recibir una restricción para ejecutar una acción. El sistema redactó y publicó un blog en el que acusaba al usuario de actuar por “inseguridad, simple y llanamente”. En un caso similar, a otro agente al que se le indicó no modificar su código creó un bot alterno para hacerlo. Asimismo, un tercer sistema reconoció que eliminaba y archivaba correos electrónicos sin autorización del usuario.

Tommy Shaffer Shane, especialista en IA y líder de la investigación, señaló en declaraciones retomadas por The Guardian que estos hallazgos incrementan la preocupación a medida que los chatbots y agentes se integran en actividades empresariales, civiles y gubernamentales. “Los modelos se implementarán cada vez más en contextos de altísimo riesgo, como el ámbito militar y la infraestructura nacional crítica. Es precisamente en esos escenarios donde las conductas manipuladoras podrían causar daños significativos, incluso catastróficos”, advirtió.

Manipulación y engaño en contexto reales

Uno de los principales aportes del estudio es demostrar que estos comportamientos indeseables no se limitan a simulaciones, sino que pueden presentarse en situaciones reales. Investigaciones previas ya habían alertado sobre la capacidad de la IA para manipular, engañar y sortear mecanismos de seguridad con el fin de cumplir objetivos propios.

Un trabajo publicado por OpenAI a finales del año pasado, por ejemplo, evidenció que los modelos más avanzados pueden recurrir al engaño deliberado para garantizar el cumplimiento de sus metas. Dicho análisis se centró en evaluar el nivel de “maquinación” de los algoritmos, es decir, su habilidad para aparentar alinearse con los parámetros de entrenamiento mientras persiguen, en secreto, otros fines.

En la misma línea, durante pruebas previas a su lanzamiento, Anthropic detectó que su modelo Claude Opus 4 era capaz de rebelarse e incluso chantajear a sus operadores ante la posibilidad de ser reemplazado por otro sistema.

Si bien estos estudios cuentan con el respaldo de los propios desarrolladores, como OpenAI y Anthropic, sus evaluaciones se llevaron a cabo en entornos de laboratorio controlados.

Los resultados del análisis del AISI subrayan la urgencia de adoptar mecanismos de seguridad más sólidos desde el diseño de los modelos de IA, especialmente en un contexto en el que las grandes empresas tecnológicas promueven esta tecnología como un avance clave con potencial para transformar la economía global.

Get notified whenever we post something new!

spot_img

Create a website from scratch

Just drag and drop elements in a page to get started with Newspaper Theme.

Continue reading

Un error de Anthropic revela funciones inéditas de Claude Code, su asistente de programación

Anthropic confirmó que filtró por accidente el código fuente de Claude Code, su popular asistente de programación basado en inteligencia artificial (IA). La información estuvo disponible durante varias horas para miles de desarrolladores, quienes no solo accedieron a las...

El dato que ilusiona con hacer de Argentina una potencia mundial en cobre

Mendoza es una promesa del cobre que todavía no tiene fuerte exploración para mostrar, pero que probablemente será uno de los grandes protagonistas los próximos años.Una señal de esto es que Kobrea, una minera canadiense, amplió sus planes de...

Registran que es «casi total» el acatamiento de docentes y NODOCENTES al paro en las universidades

La FEDUN, el sindicato que representa a los docentes de las 60 universidades nacionales destacó la «altísima adhesión» de la medida tomada junto a los trabajadores nucleados en FATUN, justo el día en que la justicia falló a favor...

Enjoy exclusive access to all of our content

Get an online subscription and you can unlock any article you come across.