No a ningún uso militar – Desde dentro
La carrera por la supremacía de la inteligencia artificial se ha reducido a un puñado de jugadores capaces de
La carrera por la supremacía de la inteligencia artificial se ha reducido a un puñado de jugadores capaces de competir al más alto nivel. Anthropic pertenece a este pequeño grupo junto con nombres como OpenAI o Google, y sus modelos Claude han ganado fuerza en áreas como la programación. En este gran momento, sin embargo, la empresa enfrenta una decisión delicada: debe mantener ciertos límites al uso militar de su tecnología, incluso a costa de tensar su relación con el Departamento de Defensa de Estados Unidos.
El estándar que lo cambia todo. Según AxiosCitando a un alto funcionario de la administración, el Pentágono está presionando a cuatro importantes laboratorios de inteligencia artificial para que permitan el uso de sus modelos para «todos los fines legales», incluso en áreas particularmente sensibles como el desarrollo de armas, la recopilación de inteligencia u operaciones en el campo de batalla. Sin embargo, Anthropic no habría aceptado estos términos después de meses de difíciles negociaciones, lo que llevó al Departamento de Defensa a considerar una revisión de su relación con la empresa.
Los límites que no quieres cruzar. Ante esta demanda generalizada, los responsables de Dario Amodei han dejado claro que respetan ciertos límites. La empresa insiste en que dos áreas no están en discusión. Un portavoz dijo a los medios de comunicación antes mencionados que la compañía sigue «comprometida a utilizar IA de vanguardia para apoyar la seguridad nacional de Estados Unidos», pero aclaró que las discusiones con el Departamento de Defensa se centraron en «nuestros límites estrictos sobre armas totalmente autónomas y vigilancia masiva interna» y que estos temas «no están relacionados con las operaciones actuales».
El episodio que finalmente aumentó la tensión. El periodico de Wall StreetCitando a personas con conocimiento del asunto, afirmó que a través de la relación con Palantir, Claude fue desplegado en una operación militar estadounidense en Venezuela para capturar a Nicolás Maduro. En el mismo texto, la empresa de IA respondió que no podía comentar si su tecnología había sido utilizada en una operación militar concreta, clasificada o no. Y agregó que cualquier uso, ya sea en el sector privado o en el gobierno, debe cumplir con los lineamientos de uso respectivos.
Lo que está en juego. Más allá de ese episodio, Axios informó que “todo está sobre la mesa” a nivel militar estadounidense, incluida la posibilidad de reducir o incluso cortar la relación con Anthropic. El mismo alto funcionario citado por los medios añadió que si se eligiera esta ruta, tendría que llevarse a cabo “un reemplazo ordenado”, sugiriendo que el proceso llevaría algún tiempo. El WSJ proporciona otro dato interesante: el año pasado, se firmó un contrato de 200 millones de dólares entre Anthropic y el Departamento de Defensa.
El contenido de la disputa.. En un momento en el que las empresas de IA se esfuerzan por consolidar ingresos, justificar valoraciones y demostrar su utilidad en entornos críticos, la relación con el sector de defensa es un escaparate y una fuente de negocios de primer nivel. Al mismo tiempo, también es un área en la que las fronteras éticas y estratégicas se vuelven más claramente visibles. La decisión de Anthropic de mantener ciertas restricciones puede fortalecer su identidad como empresa centrada en la seguridad, pero también limita su acceso a contratos millonarios.
Imágenes | Antropoceno | Oleg Ivánov
En | Los centros de datos en el espacio prometen salvar el planeta. Y también arruinar la órbita de la Tierra.



