La fusión de la IA y la robótica está dando lugar a la creación de armas más poderosas y el interés por la incorporación de robots en operaciones de seguridad, policiales y militares ha ido aumentando constantemente en los últimos años. Es una vía que ya se está explorando tanto en Norteamérica como en Europa.
La integración de robots en estas áreas podría verse como análoga a la inclusión de perros en funciones policiales y militares en el siglo XX. Los perros han servido como guardias, centinelas, portadores de mensajes y detectores de minas, entre otras funciones.
Los robots utilitarios, diseñados para desempeñar un papel de apoyo a los humanos, imitan a nuestros compañeros de cuatro patas no sólo en la forma, sino también en la función. Equipados con tecnología de vigilancia y capaces de transportar equipos, municiones y más como parte de cadenas de reabastecimiento, podrían minimizar significativamente el riesgo de daño a los soldados humanos en el campo de batalla.
Sin embargo, los robots utilitarios sin duda adquirirían una dimensión diferente si se les añadieran sistemas de armas. Esencialmente, se convertirían en variantes terrestres del avión MQ-9 Predator Drone que actualmente utiliza el ejército estadounidense.
En 2021, la empresa Ghost Robotics presentó uno de sus robots de cuatro patas, llamado Q-UGV, que estaba armado con un rifle no tripulado de propósito especial 4. El evento de exhibición se centró en la utilización de robots utilitarios como arma.
Es importante tomar nota de cómo cada aspecto de esta combinación de armamento y robótica opera de manera diferente. Aunque el robot en sí es semiautónomo y puede controlarse de forma remota, el arma montada no tiene capacidad autónoma y está totalmente controlada por un operador.
Lea también: ¿Qué son esas «cositas» que vemos en nuestro campo visual?
En septiembre de 2023, los marines estadounidenses realizaron una prueba de concepto con otro robot utilitario de cuatro patas. Midieron sus capacidades para “adquirir y perseguir objetivos con un arma ligera antitanque M72”.
La prueba reavivó el debate ético sobre el uso de sistemas de armas automatizados y semiautomáticos en la guerra. No sería un gran paso para ninguna de estas plataformas incorporar la detección de amenazas impulsada por IA y la capacidad de «fijar» objetivos. De hecho, ya se encuentran disponibles en el mercado sistemas de observación de esta naturaleza.
En 2022, una docena de empresas líderes en robótica firmaron una carta abierta alojada en el sitio web de Boston Dynamics, que creó un robot utilitario parecido a un perro llamado Spot. En la carta, las empresas se manifestaron en contra de la utilización de robots disponibles comercialmente como armas.
Sin embargo, la carta también decía que las empresas no estaban en desacuerdo «con las tecnologías existentes que las naciones y sus agencias gubernamentales utilizan para defenderse y hacer cumplir sus leyes». En ese punto, vale la pena considerar si el caballo ya se ha desbocado con respecto a la utilización de la IA como arma. Ya se utilizan en combate sistemas de armas con tecnología inteligente integrada en la robótica.
Lea también: Científicos crean un robot que se derrite
Este mes, Boston Dynamics publicó un vídeo que muestra cómo la empresa había añadido el chatbot de IA ChatGPT a su robot Spot. Se puede ver la máquina respondiendo a preguntas y conversaciones de uno de los ingenieros de la empresa utilizando varias «personalidades» diferentes, como un mayordomo inglés. Las respuestas provienen del chatbot de IA, pero Spot pronuncia las palabras.
Es un paso fascinante para la industria y, potencialmente, positivo. Pero si bien Boston Dynamics puede mantener su promesa de no utilizar sus robots como armas, es posible que otras empresas no sientan lo mismo. También existe la posibilidad de que estos robots hagan un mal uso por parte de personas o instituciones que carecen de una brújula moral. Como sugiere la carta abierta: «Cuando sea posible, revisaremos cuidadosamente las aplicaciones previstas por nuestros clientes para evitar una posible utilización de armas».
Postura del Reino Unido
El Reino Unido ya ha adoptado una postura sobre la utilización de la IA como arma con su Estrategia de Inteligencia Artificial de Defensa, publicada en 2022. El documento expresa la intención de integrar rápidamente la inteligencia artificial en los sistemas del Ministerio de Defensa para fortalecer la seguridad y modernizar las fuerzas armadas.
Sin embargo, cabe destacar que un anexo del documento de estrategia reconoce específicamente los desafíos potenciales asociados con los sistemas de armas letales autónomas.
Por ejemplo, los datos del mundo real se utilizan para “entrenar” sistemas de IA o mejorarlos. Con ChatGPT, esto se obtiene de Internet. Si bien ayuda a que los sistemas de IA sean más útiles, toda esa información del “mundo real” también puede transmitir suposiciones y prejuicios erróneos al sistema mismo. Esto puede provocar un sesgo algorítmico (donde la IA favorece a un grupo u opción sobre otro) o respuestas inapropiadas y desproporcionadas por parte de la IA. Como tal, los datos de muestra de entrenamiento para sistemas de armas deben examinarse cuidadosamente teniendo en cuenta la guerra ética.
Este año, la Cámara de los Lores estableció un comité selecto de IA en sistemas de armas. Su objetivo es ver cómo las fuerzas armadas pueden aprovechar los beneficios de los avances tecnológicos, minimizando al mismo tiempo los riesgos mediante la implementación de salvaguardias técnicas, legales y éticas. También se está examinando la suficiencia de la política británica y la formulación de políticas internacionales.
Los perros robot todavía no apuntan con armas a fuerzas opuestas. Pero todos los elementos están ahí para que este escenario se convierta en realidad, si no se controla. El rápido ritmo de desarrollo tanto de la IA como de la robótica está creando una tormenta perfecta que podría conducir a nuevas y poderosas armas.
La reciente cumbre sobre seguridad de la IA celebrada en Bletchley Park tuvo un resultado positivo para la regulación de la IA, tanto en el Reino Unido como a nivel internacional. Sin embargo, hubo signos de una división filosófica entre los objetivos de la cumbre y los del comité de IA en sistemas de armas.
La cumbre estaba orientada a definir la IA, evaluar sus capacidades y limitaciones y crear un consenso global con respecto a su uso ético. Intentó hacerlo mediante una declaración, muy parecida a la carta abierta de Boston Dynamics. Sin embargo, ninguno de los dos es vinculante. El comité busca integrar clara y rápidamente la tecnología, aunque de acuerdo con la ética, las regulaciones y el derecho internacional.
El uso frecuente del término “barandillas” en relación con la cumbre y la declaración de Bletchley sugiere compromisos voluntarios. Y el primer ministro del Reino Unido, Rishi Sunak, ha declarado que los países no deberían apresurarse a regular.
La nobleza de tales declaraciones disminuye ante el entusiasmo de algunos sectores por integrar la tecnología en plataformas de armas.
Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.