Esta preciosidad de frase es el final de una larga conversación del asistente generativo de Google, Gemini, con un usuario que estaba intentando utilizarlo para hacer un trabajo de su universidad, y que como no podía ser de otra manera, se quedó absolutamente de piedra al leerla.
El que según la compañía es su «most capable AI model», que teóricamente tiene «filtros de seguridad que evitan que participe en discusiones irrespetuosas, sexuales, violentas o peligrosas y fomente actos dañinos», salió con semejante barbaridad tras un intercambio largo, sí, pero aparentemente bastante inocuo, sobre los desafíos actuales para las personas mayores para hacer que sus ingresos se extendiesen después de la jubilación. El enlace permanente de la conversación está aún disponible.
¿A qué se deben esos problemas en el funcionamiento de un algoritmo generativo? ¿Se trata de una mala selección en los materiales utilizados en su entrenamiento, o de un problema a la hora de programar los filtros que intentan prevenir la aparición de determinadas respuestas? De una manera u otra, Google ha conseguido el dudoso honor de encabezar la lista de contestaciones absurdas, de esas mal llamadas «alucinaciones», con errores que van mucho más allá de simplemente inventarse referencias o artículos, como habitualmente hace el ChatGPT de OpenAI, y que van desde la recomendación de comer piedras hasta poner pegamento en sus pizzas, pasando por preparar spaghetti con gasolina o por considerar a Obama el primer presidente musulmán de los Estados Unidos. Y que, lógicamente, tienen una tendencia a viralizarse mucho mayor que un simple error de referencia.
En muchos casos, los problemas de las respuestas «pintorescas» tienen que ver con fuentes de información ingestadas erróneamente por ser satíricas, como en el caso de The Onion: una página divertida, ingeniosa y que todos agradecemos que exista… pero muy posiblemente, no la más adecuada para alimentar un algoritmo generativo, al menos mientras esos algoritmos tengan, como Sheldon Cooper, serios problemas para detectar la ironía.
¿Qué lleva a Gemini a introducir semejante salvajada en una conversación aparentemente inofensiva? ¿Ha programado alguien en Google algún tipo de mecanismo que condiciona la paciencia o el hartazgo? La trazabilidad de ese tipo de respuestas suele ser imposible, y las búsquedas en Google, ya completamente saturadas con la frase en cuestión, que podría parecerse a una intoxicación alimentaria y etílica tras leerse las obras completas de Bukowski, no parecen ofrecer resultados mínimamente parecidos.
La respuesta de Google, que los chatbots de IA como Gemini pueden «a veces responder con respuestas sin sentido, y este es un ejemplo de ello», no es especialmente tranquilizadora, porque una respuesta así va mucho más allá de ser algo sin sentido. Google confirmó que el texto de la IA constituía una violación de sus políticas y que había tomado medidas para evitar que se produjeran resultados similares, pero ¿qué quiere decir exactamente eso? ¿Quién evita, en una cuestión como esta, que buena parte de la población tema encontrarse con ese «fantasma en la máquina» (y no, no me refiero al disco de mis amados The Police) capaz de, en un entorno conversacional, decirte barbaridades como esta?
¿Cómo puede una compañía que ya en 2016 hablaba de la importancia de este tipo de tecnologías y que se dedicó a formar a toda su plantilla en ellas, llegar a semejante nivel de irresponsabilidad?
Dejar una contestacion