OpenAI ha anunciado un asociación con el contratista de defensa Anduril para mejorar los sistemas de aviones no tripulados del ejército. Esta colaboración señala un cambio significativo en la postura anterior de OpenAI sobre la participación militar, en medio de crecientes preocupaciones sobre el uso de la IA en la guerra. La alianza tiene como objetivo aprovechar la IA avanzada para mejorar las capacidades de respuesta y detección de amenazas en tiempo real para las misiones de seguridad nacional de EE. UU.
OpenAI se asocia con Anduril para mejorar los sistemas contra drones
El objetivo de la asociación radica en el desarrollo de modelos de inteligencia artificial que puedan sintetizar rápidamente datos urgentes para ayudar a los operadores humanos a evaluar las amenazas aéreas. Según OpenAI, esta iniciativa está diseñada para proteger al personal militar estadounidense de los ataques con drones manteniendo al mismo tiempo el compromiso con su misión de no causar daños. El director ejecutivo de OpenAI, Sam Altman, afirmó: «OpenAI crea inteligencia artificial para beneficiar a la mayor cantidad de personas posible y apoya los esfuerzos liderados por Estados Unidos para garantizar que la tecnología defienda los valores democráticos».
Esta asociación marca la primera colaboración de OpenAI con un contratista de defensa, luego de una decisión a principios de este año de levantar la prohibición del uso militar de sus herramientas. Anteriormente, las políticas de OpenAI prohibían explícitamente el uso de su tecnología para aplicaciones militares, incluido el desarrollo de armas. Sin embargo, recientemente la compañía revisó sus directrices y eliminó la terminología vinculada al uso militar, aunque se mantiene la cautela ya que continúan afirmando la importancia de no utilizar sus sistemas de inteligencia artificial para causar daño.
Anduril, cofundada por Palmer Luckey, es según se informa valorado en aproximadamente 14 mil millones de dólares y ha conseguido un contrato de 200 millones de dólares con el Cuerpo de Marines específicamente para sistemas contra drones. Esta medida de OpenAI se alinea con una tendencia más amplia en la industria tecnológica, ya que varias empresas de IA han buscado asociaciones con contratistas de defensa. En particular, Anthropic, respaldada por Amazon, formó una alianza similar con Palantir para apoyar a las agencias de inteligencia y defensa de Estados Unidos.
Los críticos de esta colaboración tecnológico-militar expresan preocupación por las implicaciones éticas, ya que numerosos empleados tecnológicos han protestado contra los contratos militares en el pasado. Los trabajadores de empresas como Google y Microsoft han expresado fuertes objeciones a los proyectos que utilizan tecnología con fines militares, lo que ha provocado un debate público sobre el papel de la tecnología en la guerra.
A pesar de las preocupaciones éticas, la asociación entre OpenAI y Anduril tiene como objetivo reforzar las capacidades militares, centrándose en mejorar la conciencia situacional durante amenazas potenciales. La colaboración busca reducir la carga sobre los operadores humanos, permitiéndoles tomar decisiones informadas más rápidamente. Los detalles específicos de cómo se desarrollará esta asociación aún se están desarrollando y queda por ver cómo ambas partes planean afrontar los desafíos inherentes.
La IA buscará armas en el metro de Nueva York
Preocupaciones por las asociaciones militares
El cambio de OpenAI hacia la colaboración con contratistas de defensa plantea preguntas importantes sobre la responsabilidad en el uso de tecnologías de IA. Como se señaló, muchos empleados dentro de la industria tecnológica se han opuesto a los compromisos con contratos militares, enfatizando la necesidad de transparencia con respecto a cómo se podrían aplicar las tecnologías de IA en el campo de batalla.
En enero, OpenAI modificó discretamente sus políticas de uso, que anteriormente habían prohibido las aplicaciones militares de sus modelos de IA. Esta decisión coincidió con la creciente participación de OpenAI en proyectos con el Departamento de Defensa de EE. UU., con el objetivo de implementar sistemas de IA para fines que incluyen la ciberseguridad. La evolución actual de estas asociaciones refleja una tendencia más amplia entre las empresas de tecnología que reevalúan sus posiciones en materia de contratos militares.
Al reconocer la importancia del uso responsable de la IA, OpenAI ha reiterado su compromiso de garantizar que sus tecnologías se utilicen de manera ética, afirmando específicamente que la asociación está diseñada para proteger al personal militar y mejorar las medidas de seguridad nacional. Sin embargo, persiste el escepticismo sobre hasta qué punto los sistemas impulsados por IA podrían conducir a una reducción de la supervisión humana en los procesos críticos de toma de decisiones.