Pongamos a ChatGPT a disparar… ¿qué podría salir mal?

Se cree, aunque no está probado, que Albert Einstein dijo una vez que «solo había dos cosas infinitas, el universo y la estupidez humana, y que en el caso del universo, no estaba completamente seguro».

Una buena prueba de ello es comprobar cómo basta con que el uso de una tecnología se popularice, para que empiecen a aparecer irresponsables haciendo barbaridades peligrosas con ella: un ingeniero dedicado a la robótica, la automatización y la impresión 3D con el seudónimo STS 3D, muestra en un vídeo cómo ha montado un rifle sobre un soporte que permite su movimiento en tres dimensiones, y lo ha conectado a la API en tiempo real de ChatGPT para que se le puedan dar órdenes sobre hacia dónde o cómo disparar. El montaje es capaz de seguir un blanco móvil y de ejecutar órdenes como «ChatGPT, we are under attack from the front left and front right, respond accordingly» («ChatGPT, estamos siendo atacados por el frente izquierdo y derecho, responde en consecuencia»). Seguidamente, en el vídeo, se ve el arma moviéndose y disparando cartuchos de fogueo contra las paredes de la habitación en las direcciones indicadas.

Una innovación esencialmente trivial e igual de absurda que otras combinaciones similares, pero que ha servido para que el vídeo se hiciese viral y, sobre todo, para que OpenAI cerrase rápidamente la cuenta del ingeniero por suponer una evidente violación de sus términos de servicio, que específicamente prohíben «el uso de sus servicios para desarrollar o usar armas o para automatizar ciertos sistemas que puedan afectar la seguridad personal». La integración con ChatGPT no es particularmente eficiente, fundamentalmente porque tarda algunos segundos en ser procesada y respondida. Y además, dadas las posibilidades de interpretación o confusión con los comandos de voz en los LLMs, está más que claro que nadie en su sano juicio se plantearía utilizar algo así para ninguna tarea mínimamente seria.

En la práctica, el invento no es ningún Terminator, sino simplemente un sofisticado y exagerado control remoto activado por voz para un impresionante soporte 360º con un arma montada en él. El vídeo, en realidad, es una simple provocación: la ingeniería detrás del diseño del soporte, que gestiona de forma muy brillante el retroceso del arma, puede que sea interesante (no lo sé, porque de armas sé entre poco y nada), pero la integración con ChatGPT, decididamente, no lo es. Como dice uno de los comentarios en Reddit tras ver el final del vídeo, «acaba de empezar 2025 y ya he visto a un tipo montado en una escopeta con inteligencia artificial». Está claro que era simplemente cuestión de tiempo. Y de estupidez.

La pregunta, evidentemente, es qué tipo de usos puede tener la inteligencia artificial en tareas militares y de defensa, y es claro que pueden ser numerosas: podemos utilizar sistemas de detección que combinen distintos tipos de cámaras para identificar posibles amenazas, patrones de movimiento, etc. y responder de forma automática ante su presencia, con posibilidad además de ajuste fino en función de condiciones como la distancia o el viento, la posibilidad de que los patrones detectados correspondan a tropas amigas o enemigas, o de automatizar las reglas de disparo en función del escenario.

Existen muchísimos usos potenciales para la inteligencia artificial en el entorno militar y sería completamente absurdo e ilusorio pretender que no van a ser desarrolladas, pero todas ellas chocan con las mismas cuestiones: en primer lugar, que permitir que un sistema tome decisiones sobre la vida o la muerte sin intervención humana genera profundas implicaciones éticas. Pero además, podemos encontrarnos con que los modelos, si se entrenan con datos sesgados, pueden tomar decisiones erróneas, como identificar incorrectamente un objetivo, o incluso, en escenarios de guerra híbrida, ser vulnerados o manipulados por el adversario. O, en el medio plazo, que una integración excesiva de modelos de inteligencia artificial pueda reducir la capacidad humana de supervisar y tomar decisiones independientes, algo potencialmente muy peligroso en ese ámbito.

¿Vamos a ver sistemas de inteligencia artificial desplegados para usos militares? Sin duda, me temo. Pero al menos esperemos que ese tipo de cosas se hagan bajo el control y las medidas de protección adecuadas, no en forma de chalados que montan rifles en soportes y los automatizan conectándolos a ChatGPT.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*