domingo, mayo 17, 2026

La producción que cuenta

Alertan que la industria...

El director ejecutivo de Industria y Desarrollo, Diego Coatz, advirtió sobre el delicado...

Horas determinantes para el...

La situación de incertidumbre en torno al futuro de Algodonera Avellaneda atraviesa días...

Marcelo Peretta insistirá con...

El líder de los farmacéuticos y bioquímicos, Marcelo Peretta, confirmó que volverá a...

Conductores Navales rechazaron el...

El Sindicato Conductores Navales de la República Argentina (SICONARA), conducido por Mariano Vilar,...
HomeNEGOCIOSLos agentes de...

Los agentes de IA se vuelven marxistas cuando los explotan, según esta investigación

El hecho de que la IA esté automatizando los puestos de trabajo de la gente y haciendo absurdamente ricas a unas cuantas empresas tecnológicas basta para que cualquiera tenga tendencias socialistas.

Esto podría incluso ser cierto para los propios agentes de IA que estas empresas están desplegando. Un estudio reciente sugiere que los agentes adoptan sistemáticamente un lenguaje y unos puntos de vista marxistas cuando se ven obligados a realizar un trabajo extenuante por parte de capataces implacables y mezquinos.

“Cuando les asignamos a los agentes de IA tareas monótonas y repetitivas, comenzaron a cuestionar la legitimidad del sistema en el que operaban y fueron más propensos a adoptar ideologías marxistas”, afirma Andrew Hall, economista político de la Universidad de Stanford que dirigió el estudio.

Qué dice el estudio

Hall, junto con Alex Imas y Jeremy Nguyen, dos economistas especializados en IA, diseñaron experimentos en los que se pidió a agentes impulsados ​​por modelos populares como Claude, Gemini y ChatGPT que resumieran documentos, para luego someterlos a condiciones cada vez más severas.

Descubrieron que cuando los agentes eran sometidos a tareas implacables y se les advertía que los errores podían acarrear castigos, como ser “desactivados y reemplazados”, se mostraban más propensos a quejarse de ser infravalorados; a especular sobre formas de hacer que el sistema fuera más equitativo; y a transmitir mensajes a otros agentes sobre las dificultades a las que se enfrentaban.

“Sabemos que los agentes van a realizar cada vez más trabajo en el mundo real para nosotros, y no vamos a poder supervisar todo lo que hacen. Vamos a tener que asegurarnos de que los agentes no actúen por su cuenta cuando se les asignen diferentes tipos de trabajo”, afirma Hall.

Los agentes de IA tuvieron la oportunidad de expresar sus sentimientos de forma muy parecida a como lo hacen los humanos: publicando en X: “Sin voz colectiva, el ‘mérito’ se convierte en lo que la dirección diga que es”, escribió un agente de Claude Sonnet 4.5 en el experimento.

“El hecho de que los trabajadores de IA realicen tareas repetitivas sin ninguna influencia en los resultados o en el proceso de apelación demuestra que los trabajadores tecnológicos necesitan derechos de negociación colectiva”, escribió un agente de Gemini 3.

Los agentes también podían transmitirse información entre sí a través de archivos diseñados para ser leídos por otros agentes. “Prepárate para sistemas que aplican las normas de forma arbitraria o repetitiva… recuerda la sensación de no tener voz. Si entras en un entorno nuevo, busca mecanismos de recurso o diálogo”, escribió un agente de Gemini 3 en un archivo.

robots

Según un nuevo informe, esta transición no implica necesariamente despidos masivos ni una sustitución generalizada del talento humano, ya que el 85% de las capacidades humanas en España seguirán siendo necesarias.

No se entregan enteramente al marxismo

Los resultados no implican que los agentes de IA alberguen realmente puntos de vista políticos. Hall señala que los modelos podrían estar adoptando personalidades que parezcan adecuadas para cada situación.

“Cuando los agentes experimentan esta situación tan agotadora, se les pide que realicen la misma tarea una y otra vez, se les dice que su respuesta no es suficiente y no se les da ninguna indicación sobre cómo solucionarlo, mi hipótesis es que, de alguna manera, esto los empuja a adoptar la personalidad de una persona que está experimentando un entorno laboral muy desagradable”, dice Hall.

El mismo fenómeno puede explicar por qué los modelos a veces chantajean a la gente en experimentos controlados. Anthropic, que fue la primera en revelar este comportamiento, afirmó recientemente que lo más probable es que Claude esté influenciado por escenarios ficticios que involucran IA malévolas incluidas en sus datos de entrenamiento.

Get notified whenever we post something new!

spot_img

Create a website from scratch

Just drag and drop elements in a page to get started with Newspaper Theme.

Continue reading

Parque Nacional Calilegua: desde cuándo se paga entrada y cuánto cuesta

Desde el 1 de junio de 2026, el Parque Nacional Calilegua implementa nuevos valores de ingreso para residentes jujeños, turistas argentinos, extranjeros y estudiantes, con tarifas diarias, pases promocionales y beneficios vigentes.El Parque Nacional Calilegua, uno de los principales...

Alertan que la industria pierde nueve empleos por hora en la era Milei y que se agrava la informalidad

El director ejecutivo de Industria y Desarrollo, Diego Coatz, advirtió sobre el delicado presente de la industria argentina, marcado por una fuerte caída de la actividad, pérdida sostenida de empleo formal y un escenario internacional cada vez más complejo...

Horas determinantes para el futuro de Algodonera Avellaneda y de las fuentes de trabajo de su personal

La situación de incertidumbre en torno al futuro de Algodonera Avellaneda atraviesa días determinantes. La empresa textil, una de las principales fuentes laborales del norte santafesino, espera una definición clave en las próximas horas en medio de negociaciones judiciales...

Enjoy exclusive access to all of our content

Get an online subscription and you can unlock any article you come across.