miércoles, marzo 11, 2026

La producción que cuenta

El juez Lavié Pico...

El juez federal en lo Contencioso Administrativo Enrique Lavié Pico rechazó la medida...

La ciencia avanza más...

La desigualdad por razón de género en la ciencia persiste. Un estudio publicado...

Stellantis vuelve a paralizar...

(Por Jorge Duarte @ludistas) El parate se debe a una complicación logística para...

Conflicto en Fate: El...

El sindicato del neumático SUTNA denunció que la empresa Fate incumplió la conciliación...
HomeNOTICIASCódigo Futuro: La...

Código Futuro: La IA se viste de militar y el código devora a sus creadores

¡Hola a todos! Soy Anna Lagos. Bienvenidos una vez más a Código Futuro, el rincón de WIRED en Español donde nos sentamos a conversar sobre lo que está pasando con la IA, la ciencia y la tecnología.

Esta semana he estado releyendo Cibernética y sociedad (The Human Use of Human Beings, por su título en inglés), de Norbert Wiener. Aunque fue escrito a mediados del siglo pasado, hay una advertencia que resuena con una urgencia brutal en estos días: el peligro inmenso de ceder a las máquinas decisiones que involucran la vida humana. Wiener entendía que la tecnología no tiene moralidad intrínseca; nosotros somos quienes debemos imponérsela.

Los eventos de los últimos días en Silicon Valley parecen sacados directamente de una distopía que Wiener intentó evitar. Estamos presenciando el choque entre los principios éticos que fundaron a las grandes empresas de Inteligencia Artificial y la cruda realidad de la geopolítica y la defensa militar.

El cisma ético de OpenAI

Hasta ahora, habíamos visto a muchos usuarios cancelar sus suscripciones a ChatGPT en protesta por el reciente y polémico acuerdo de OpenAI con el Pentágono, llevando a Claude al puesto número 1 de la App Store.

Pero esta semana, la protesta escaló al nivel ejecutivo.

Caitlin Kalinowski, directora de robótica de OpenAI – quien llegó apenas en noviembre desde el equipo de gafas AR de Meta para reconstruir la división – ha anunciado su renuncia. Es la primera salida pública motivada por este contrato militar.

Sus palabras son un dardo directo al corazón de la empresa: llamó a la decisión un movimiento apresurado que se saltó los límites sobre la vigilancia con IA y la “autonomía letal”.

Kalinowski dejó claro que su salida es “por principios, no por personas”.

Y no está sola; el vicepresidente de investigación, Max Schwarzer, también abandonó el barco la semana pasada para irse a Anthropic.

OpenAI puede sobrevivir a las críticas en Twitter y a las caídas en la App Store, pero una carta de renuncia de alto nivel que menciona autonomía letal y vigilancia cambia por completo la narrativa.

La guerra fría de la IA: Amodei vs. Altman

El drama militar no termina en OpenAI. La frontera entre los gigantes de la IA se ha vuelto profundamente personal. El viernes pasado, el CEO de Anthropic, Dario Amodei, envió un memorándum interno de 1,600 palabras, filtrado por The Information.

En el texto, Amodei califica el acuerdo militar de OpenAI como “quizás un 20% real y un 80% teatro de seguridad”. Esto ocurre poco después de que el Pentágono tachara a Anthropic de “riesgo en la cadena de suministro”, abriendo la puerta para que OpenAI interviniera con términos similares.

Amodei no se guardó nada: acusó a Sam Altman de hacer gaslighting (manipulación psicológica) y de intentar retratar a Anthropic como “inflexibles” o “poco razonables”.

Además, señaló la donación de $25 millones a Trump por parte de Greg Brockman, contrastándola con la negativa de Anthropic a ofrecer “elogios estilo dictador”. Es fascinante ver cómo esta rivalidad corporativa se entrelaza con la política y la defensa nacional. Curiosamente, el martes, Amodei había usado un tono más diplomático respecto al Pentágono, pero el memo interno revela a un líder que finalmente soltó todo lo que llevaba guardando desde que dejó OpenAI en 2020.

Este lunes, Anthropic presentó una demanda federal contra el Departamento de Defensa de Estados Unidos y otras agencias de gobierno. En ella impugna la decisión de catalogar a la empresa como “riesgo para la cadena de suministro”. El Pentágono sancionó formalmente a Anthropic la semana pasada, poniendo fin a un desacuerdo que se prolongó durante semanas, sobre los límites del uso de su tecnología de inteligencia artificial generativa para aplicaciones militares, tales como armas autónomas.

Get notified whenever we post something new!

spot_img

Create a website from scratch

Just drag and drop elements in a page to get started with Newspaper Theme.

Continue reading

Meta compró Moltbook, la red social donde bots conversan entre sí, pero ¿para qué la quiere?

Meta adquirió Moltbook, una red social similar a Reddit que permite a los agentes de inteligencia artificial (IA) creados con OpenClaw comunicarse entre sí de forma aparentemente autónoma. La noticia surge en un momento en el que la comunidad...

El juez Lavié Pico rechazó el amparo presentado por la CGT para frenar el traspaso a CABA de la Justicia federal del Trabajo

El juez federal en lo Contencioso Administrativo Enrique Lavié Pico rechazó la medida cautelar solicitada por la CGT que buscaba suspender de manera inmediata la aplicación de artículos de la llamada Ley de Modernización Laboral, aunque la acción de...

La carrera contrarreloj de OpenAI por alcanzar a Claude Code de Anthropic

No solo Brockman notó el cambio. Desarrolladores de todo el mundo observaron que los agentes de escritura de código con IA habían mejorado notablemente. El discurso, centrado en gran medida en Claude Code, salió de Silicon Valley y se...

Enjoy exclusive access to all of our content

Get an online subscription and you can unlock any article you come across.