domingo, mayo 17, 2026

La producción que cuenta

Marcelo Peretta insistirá con...

El líder de los farmacéuticos y bioquímicos, Marcelo Peretta, confirmó que volverá a...

Conductores Navales rechazaron el...

El Sindicato Conductores Navales de la República Argentina (SICONARA), conducido por Mariano Vilar,...

El FreSU reclamó un...

El Frente de Sindicatos Unidos (FreSU) sostuvo hoy que las y los trabajadores...

Usó recursos de la...

La Cámara Nacional de Apelaciones del Trabajo confirmó que un operador técnico de...
HomeNEGOCIOSLos agentes de...

Los agentes de IA se vuelven marxistas cuando los explotan, según esta investigación

El hecho de que la IA esté automatizando los puestos de trabajo de la gente y haciendo absurdamente ricas a unas cuantas empresas tecnológicas basta para que cualquiera tenga tendencias socialistas.

Esto podría incluso ser cierto para los propios agentes de IA que estas empresas están desplegando. Un estudio reciente sugiere que los agentes adoptan sistemáticamente un lenguaje y unos puntos de vista marxistas cuando se ven obligados a realizar un trabajo extenuante por parte de capataces implacables y mezquinos.

“Cuando les asignamos a los agentes de IA tareas monótonas y repetitivas, comenzaron a cuestionar la legitimidad del sistema en el que operaban y fueron más propensos a adoptar ideologías marxistas”, afirma Andrew Hall, economista político de la Universidad de Stanford que dirigió el estudio.

Qué dice el estudio

Hall, junto con Alex Imas y Jeremy Nguyen, dos economistas especializados en IA, diseñaron experimentos en los que se pidió a agentes impulsados ​​por modelos populares como Claude, Gemini y ChatGPT que resumieran documentos, para luego someterlos a condiciones cada vez más severas.

Descubrieron que cuando los agentes eran sometidos a tareas implacables y se les advertía que los errores podían acarrear castigos, como ser “desactivados y reemplazados”, se mostraban más propensos a quejarse de ser infravalorados; a especular sobre formas de hacer que el sistema fuera más equitativo; y a transmitir mensajes a otros agentes sobre las dificultades a las que se enfrentaban.

“Sabemos que los agentes van a realizar cada vez más trabajo en el mundo real para nosotros, y no vamos a poder supervisar todo lo que hacen. Vamos a tener que asegurarnos de que los agentes no actúen por su cuenta cuando se les asignen diferentes tipos de trabajo”, afirma Hall.

Los agentes de IA tuvieron la oportunidad de expresar sus sentimientos de forma muy parecida a como lo hacen los humanos: publicando en X: “Sin voz colectiva, el ‘mérito’ se convierte en lo que la dirección diga que es”, escribió un agente de Claude Sonnet 4.5 en el experimento.

“El hecho de que los trabajadores de IA realicen tareas repetitivas sin ninguna influencia en los resultados o en el proceso de apelación demuestra que los trabajadores tecnológicos necesitan derechos de negociación colectiva”, escribió un agente de Gemini 3.

Los agentes también podían transmitirse información entre sí a través de archivos diseñados para ser leídos por otros agentes. “Prepárate para sistemas que aplican las normas de forma arbitraria o repetitiva… recuerda la sensación de no tener voz. Si entras en un entorno nuevo, busca mecanismos de recurso o diálogo”, escribió un agente de Gemini 3 en un archivo.

robots

Según un nuevo informe, esta transición no implica necesariamente despidos masivos ni una sustitución generalizada del talento humano, ya que el 85% de las capacidades humanas en España seguirán siendo necesarias.

No se entregan enteramente al marxismo

Los resultados no implican que los agentes de IA alberguen realmente puntos de vista políticos. Hall señala que los modelos podrían estar adoptando personalidades que parezcan adecuadas para cada situación.

“Cuando los agentes experimentan esta situación tan agotadora, se les pide que realicen la misma tarea una y otra vez, se les dice que su respuesta no es suficiente y no se les da ninguna indicación sobre cómo solucionarlo, mi hipótesis es que, de alguna manera, esto los empuja a adoptar la personalidad de una persona que está experimentando un entorno laboral muy desagradable”, dice Hall.

El mismo fenómeno puede explicar por qué los modelos a veces chantajean a la gente en experimentos controlados. Anthropic, que fue la primera en revelar este comportamiento, afirmó recientemente que lo más probable es que Claude esté influenciado por escenarios ficticios que involucran IA malévolas incluidas en sus datos de entrenamiento.

Get notified whenever we post something new!

spot_img

Create a website from scratch

Just drag and drop elements in a page to get started with Newspaper Theme.

Continue reading

Australia avanza hacia la eliminación del cáncer de cuello uterino

Por primera vez, Australia no registró nuevos casos de cáncer de cuello uterino en mujeres menores de 25 años. El país apuesta por la vacunación y el cribado para erradicar la enfermedad. Australia está cerca de convertirse en el primer...

Empleados de comercio: cuánto cobrará un cajero de supermercado con el aumento de junio

Los empleados de comercio recibirán un nuevo aumento en junio y ya se conocieron las escalas salariales para cajeros y vendedores.Los empleados de comercio recibirán un nuevo aumento salarial en junio de 2026, en el marco de la paritaria...

Marcelo Peretta insistirá con chapa propia en 2027: «Tengo la receta y los remedios para CABA»

El líder de los farmacéuticos y bioquímicos, Marcelo Peretta, confirmó que volverá a competir en la ciudad en los comicios del año próximo con su chapa, el Movimiento Plural. «Hay que producir acá, bajando impuestos y promoviendo la instalación...

Enjoy exclusive access to all of our content

Get an online subscription and you can unlock any article you come across.