OpenAI se asocia con el famoso laboratorio de la bomba atómica: ¿es un error mezclar IA con armas nucleares?

En la última semana se ha dado a conocer la asociación entre el Laboratorio de Los Álamos y la compañía Open AI para utilizar la inteligencia artificial (IA) con el fin de controlar la seguridad de las armas nucleares. Como es lógico, esto ha generado un gran revuelo. Es complicado no verlo como un zorro vigilando a las gallinas del gallinero. ¿Pero realmente es tan peligroso? Y, más importante aún, ¿realmente está ocurriendo lo que dicen los titulares?
La realidad es que no es tan apocalíptico como puede sonar en nuestras cabezas. Open AI publicó el pasado 30 de enero un comunicado en el que se daban a conocer las acciones que llevarán a cabo en Los Álamos. La mayoría de ellas no tienen nada que ver con armas nucleares. Sin embargo, esta noticia ha puesto sobre la mesa el temor de que realmente se llegue a utilizar la IA para controlarlas.
De hecho, no es un temor nuevo. Las Naciones Unidas ya han manifestado su compromiso para que en 2026 se prohíban las armas automáticas. Es decir, armas que actúan sin intervención humana. Esto no solo hace referencia a armas nucleares. También, por ejemplo, a misiles diseñados para lanzarse cuando detectan una posible amenaza.
Sabemos de sobra que la Inteligencia Artificial no es infalible. Puede equivocarse, precisamente porque no considera la posibilidad de hacerlo. La IA es ese amigo que todos tenemos que, si no sabe algo, se lo inventa. El problema es que eso, cuando se trata de controlar armas, puede ser muy peligroso. Por eso, nadie se atreve a hacerlo. Desgraciadamente no por el bien de sus rivales, sino porque se puede volver también en su contra.
¿Qué va a hacer Open AI en Los Álamos?
El laboratorio de Los Álamos es conocido por ser el lugar en el que se gestó la primera bomba atómica. La sede en la que el famoso Oppenheimer hizo historia para luego arrepentirse por ello.
Hoy en día es un laboratorio especializado en seguridad nacional, ciencia, energía y gerencia ambiental. Realiza trabajos tanto para el Departamento de Defensa como para la Comunidad de Inteligencia y el Departamento de Seguridad Nacional. Pero esto ya va mucho más allá de las armas nucleares. Se investigan nuevos materiales, algoritmos para acelerar la predicción del método científico y un sinfín de aplicaciones de la energía nuclear, que van desde la obtención de electricidad hasta la medicina.
En el comunicado que se acaba de publicar, Open AI ha relatado que las misiones que llevarán a cabo en colaboración con este laboratorio serán principalmente 6:
- “Acelerar la ciencia básica que sustenta el liderazgo tecnológico global de los Estados Unidos”.
- “Identificar nuevos enfoques para tratar y prevenir enfermedades".
- "Lograr una nueva era de liderazgo energético de los Estados Unidos desbloqueando todo el potencial de los recursos naturales y revolucionando la infraestructura energética de la nación".
- "Mejorar la seguridad de los Estados Unidos a través de una mejor detección de amenazas naturales y artificiales, como la biología y la cibernética, antes de que surjan"
- "Profundizar en la comprensión de las fuerzas que gobiernan el universo, desde las matemáticas fundamentales hasta la física de alta energía".
- "Mejor la ciberseguridad y proteger la red eléctrica estadounidense".
La inteligencia artificial requiere siempre supervisión humana en escenarios peligrosos. Crédito: Imagen creada mediante IA
Con respecto a las armas nucleares, señalan que se llevará a cabo “una revisión cuidadosa y selectiva de los casos de uso y consultas sobre seguridad de la IA por parte de los investigadores de OpenAI con autorizaciones de seguridad”. Además, mencionan otros tipos de armas muy peligrosas, como las armas biológicas. “Trabajamos en estrecha colaboración para evaluar los riesgos que plantean los modelos más avanzados en la creación de armas biológicas”.
En definitiva, no van a poner a la inteligencia artificial a trabajar sola ni a revisar que no se disparen las armas nucleares. Simplemente van a utilizarla para estudiar los mejores métodos de seguridad, siempre bajo la supervisión humana.
Inteligencia artificial, armas nucleares y energía
Para hablar sobre este tema, en Hipertextual nos hemos puesto en contacto con Francisco Herrera, Catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universidad de Granada, Director Instituto de Investigación DaSCI, y Académico de la Real Academia de Ingeniería. Ha colaborado con nosotros como parte del Proyecto Estratégico “Inteligencia artificial ética, responsable y de propósito general para ciberseguridad” IAFER-Cib (C074/23), fruto del convenio de colaboración suscrito entre el Instituto Nacional de Ciberseguridad (INCIBE) y la Universidad de Granada. Es una iniciativa que se lleva a cabo en el marco de los fondos del Plan de Recuperación, Transformación y Resiliencia, financiado por la Unión Europea-Next Generation EU.
Lo primero que deja claro el experto es que debemos diferenciar entre decidir y recomendar, ya que en un escenario que suponga riesgo para los humanos la IA nunca debe tomar decisiones. Solo hace recomendaciones con las que será un humano el que tome la decisión.
“Si hay alto riesgo para los humanos el sistema tiene que ser auditable y con capacidad de responsabilidad. En Estados Unidos cuentan con el modelos del safe and security, donde safe hace referencia al comportamiento seguro ante el humano y security a la seguridad para que no reciba ataques. En castellano se suele traducir como protección y seguridad.”
Francisco Herrera, catedrático de ciencias de la computación e inteligencia artificial.
Por lo tanto, cualquier sistema de IA dirigido a situaciones en las que peligre el ser humano debe auditarse para comprobar que es seguro en esos dos sentidos. Es algo que está muy bien regulado en Europa, pero también en Estados Unidos, donde se encuentra el Laboratorio de Los Álamos.
Lógicamente, el ámbito de la energía nuclear, más aún el de las armas nucleares, es de alto riesgo para el ser humano. En ese caso, la IA jamás debe decidir, solo recomendar. Sí que sería viable que tome decisiones en situaciones como dar citas en una peluquería. Si la IA falla (porque sí, pueden fallar), "como mucho puede decir a un cliente que no hay citas libres cuando sí las hay". Nadie corre peligro con ello.
¿Hay que preocuparse por la llegada de Trump?
Donald Trump ya ha puesto en marcha la salida de Estados Unidos de la Organización Mundial de la Salud y del Acuerdo de París contra el cambio climático. También ha lanzado un plan de emergencia energética en el que elimina cualquier restricción para la perforación de pozos de petróleo en áreas protegidas. Estos son solo unos pocos ejemplos de todas las decisiones de Joe Biden que ha denegado nada más comenzar su mandato. Su intención es eliminar todo lo que puede relacionarse con el anterior presidente.
Eso, según nos ha explicado Herrera, también incluye una nueva orden sobre IA. Joe Biden lanzó una en 2023 que se alineaba con la necesidad de que los algoritmos de IA sean confiables y seguros. Ahora, Trump ha anulado esa orden, pero aún no se ha manifestado con sus propias intenciones. “Hay incertidumbre sobre lo que va a hacer Estados Unidos ahora, por lo que tendrán que decir cuál es su modelo de trabajo en este ámbito”, señala el catedrático consultado por este medio. “Pero eso no implica que vayan a hacer cosas que no se podían hacer antes. No hay sistemas de IA aplicados a todos esos ámbitos”.
Suscríbete a la newsletter diaria de Hipertextual. Recibe todos los días en tu correo lo más importante y lo más relevante de la tecnología, la ciencia y la cultura digital.
De momento Donald Trump no se ha posicionado en este tema.
Armas nucleares y otras armas autónomas: la ONU se posiciona
Recientemente, la ONU señaló su intención de prohibir las armas autónomas para 2026. Es una forma de anticiparse a lo que podría ocurrir, dados los rápidos avances de la Inteligencia Artificial, pero no quiere decir que estas ya se estén usando.
“Las armas autónomas pueden tomar decisiones de disparo o ataque de forma autónoma”, explica Herrera. “Ahora mismo no sabemos que existan”. Sin embargo, el experto nos habla de lo más parecido que existe en la actualidad. Por ejemplo, señala un caso que se está dando en la franja de Gaza. Y es que el ejército de Israel cuenta con un algoritmo de IA entrenado con la imagen de las caras de los terroristas de Hamás a lo largo de los años. Cuando el algoritmo detecta una de estas caras, da la señal y una persona toma la decisión de disparar. Se calcula que 9 de cada 10 veces el algoritmo acierta. Esa décima persona puede ser simplemente alguien que se parezca a un terrorista, pero que no lo sea. Aun así, el ejército toma la decisión de disparar.
En este caso, aún no estamos ante armas autónomas. Esa décima persona podría ser perfectamente un israelí. Quizás por eso el ejército no se atreve a dejarlo todo en manos de la IA. Pero si parece que no lo es, no se espera a comprobar al 100% que sea un terrorista. Se dispara, sin más.
En este caso, el terror lo siembran los seres humanos, no la IA. Con las armas nucleares a lo largo de la historia ha pasado lo mismo. Es cierto que si se dejaran en manos de estas nuevas tecnologías, sin ningún tipo de supervisión, podría ser muy peligroso. Pero eso, por suerte, aún no ha ocurrido y se está regulando todo lo posible para que no llegue a ocurrir.