Google abandona su política de «no hacer daño» en su IA y se abre sus puertas a desarrollar armas militares

En el año 2018, Google anunció sus principios de inteligencia artificial; una guía clave para desarrollar proyectos basados en esta tecnología que busca garantizar un funcionamiento responsable y beneficioso para la humanidad. La compañía del buscador de Internet más popular afirma que el principal objetivo de la IA es mejorar la vida de las personas, además de hacer que sea accesible y útil en áreas como salud, educación, sostenibilidad, etc.

Google se compromete, al menos cuando publicó dichos principios, a que los sistemas de IA sean lo más imparciales posible, y que eviten sesgos injustos. De este modo, tienen que evitar la discriminación o prejuicios relacionados con la raza, género, religión u otras características.

Además de tener que respetar la privacidad de los usuarios, Google asegura que la IA no debe ser utilizada para crear riesgos o daños, comprometiéndose a no desarrollar o implementar esta tecnología en áreas que violen los derechos humanos, dedicadas al desarrollo de armas autónomas, o para manipulación psicológica. Sin embargo, lo más correcto sería hablar en pasado, ya que ha abandonado su política de «no hacer daño».

Un antes y un después en el desarrollo responsable de la IA

Como ha notificado Bloomberg, Google ha eliminado discretamente un pasaje clave de sus principios de inteligencia artificial. Concretamente, el que se comprometía a evitar el uso de esta tecnología en aplicaciones potencialmente dañinas, incluidas las armas.

La sección, titulada «Aplicaciones de IA que no perseguiremos», y que ya ha sido eliminada, declaraba explícitamente que Google se abstendría de desarrollar tecnologías «que causen o puedan causar un daño general», siendo las armas un ejemplo específico. Se ha preguntado a la compañía por el cambio, y esta ha señalado una publicación de su blog oficial escrita por James Manyika, vicepresidente senior de Google, y Demis Hassabis, quien dirige Google DeepMind.

Margaret Mitchell, ex codirectora del equipo de IA ética de Google y actual jefa de ética en Hugging Face, comentó a Bloomberg estar preocupada por las implicaciones de eliminar la cláusula de «daño»: «esto significa que Google, probablemente, ahora trabajará en el despliegue de tecnología directa que pueda matar personas«.

A pesar de que Google siempre había mantenido la postura de que la IA no se utilizase para dañar a los humanos, en los últimos años ha estado colaborando con los servicios militares de Estados Unidos e Israel para proporcionar servicios en la nube, algo que ha provocado protestas internas por parte de los empleados.

La cúpula militar estadounidense está utilizando la inteligencia artificial para acelerar su «cadena de destrucción». Aunque todavía no mata personas, no sería descabellado ver en un futuro relativamente cercano armas automáticas diseñadas para enfrentarse a los enemigos. OpenAI y Anthropic, las compañías responsables del desarrollo de ChatGPT y Claude, respectivamente, están interesadas en vender su software al ejército de los Estados Unidos.

El artículo Google abandona su política de «no hacer daño» en su IA y se abre sus puertas a desarrollar armas militares fue publicado originalmente en Urban Tecno.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*