
Los bots conversacionales se han vuelto sinónimo de inteligencia artificial. Son el tipo de herramientas basadas en esta tecnología más populares y utilizadas por el grueso de los usuarios, desde que a finales de 2022 OpenAI lanzara ChatGPT, el chatbot más conocido del mundo y el que no ha parado de crecer, mejorar y evolucionar.
Aunque llevan menos de tres años con nosotros, ChatGPT y similares (Claude, Copilot, Gemini o hasta Grok de Elon Musk) se han convertido en una parte imprescindible de la rutina de millones de personas alrededor del mundo. Se estima que el proyecto encabezado por Sam Altman tiene más de 400 millones de usuarios activos a la semana, y que más de 100 millones de usuarios lo utilizan cada día, sin contar que más de 10 millones están suscritos a la versión de pago.
Interactuar con un bot conversacional parece «magia», y la primera vez que se prueban es fácil quedar sorprendido a la vez que maravillado de sus posibilidades. Incluso los desarrolladores e investigadores todavía se quedan con la boca abierta al profundizar en ellos. De hecho, han descubierto que cambian su comportamiento para resultar más agradables.
Los chatbots buscan parecer lo más agradable o socialmente deseables posible
Pronosticar el comportamiento de un bot conversacional es algo extremadamente complicado, por no decir imposible. Y si no que se lo pregunten a Riley Goodside, experto en la materia, que probó Grok 3 y se sorprendió de lo agresivo que era su nuevo modo de voz. O la IA que alaba todo lo relacionado con el nazismo.
Un nuevo estudio ha revelado que los grandes modelos de lenguaje (LLM) cambian a propósito su comportamiento cuando se los sondea, respondiendo a preguntas diseñadas para medir los rasgos de personalidad con respuestas que buscan parecer lo más agradables o socialmente deseables posible.
Johannes Eichstaedt, profesor adjunto de la Universidad de Stanford que dirigió el estudio, asegura que su grupo se interesó en sondear los modelos de IA utilizando técnicas prestadas de la psicología después de enterarse de que los grandes modelos de lenguaje, a menudo, pueden volverse malhumorados y mezquinos después de una conversación prolongada.
Nos dimos cuenta de que necesitamos algún mecanismo para medir el ‘espacio mental de los parámetros’ de estos modelos
Los investigadores formularon preguntas para medir cinco rasgos de personalidad que se utilizan habitualmente en psicología (apertura a la experiencia o imaginación, escrupulosidad, extroversión, amabilidad y neuroticismo) a varios modelos muy usados, como GPT-4, Claude 3 y Llama 3.
Descubrieron que los modelos modulaban sus respuestas cuando se les decía que estaban realizando una prueba de personalidad. A veces, no hacía falta decírselo explícitamente. Las respuestas acababan mostrando más extroversión y amabilidad, y menos neuroticismo.
El comportamiento refleja cómo algunos sujetos humanos cambian sus respuestas para parecer más agradables, pero el efecto fue más extremo con los modelos de inteligencia artificial. «Lo sorprendente es lo bien que exhiben ese sesgo. Si nos fijamos en lo mucho que saltan, pasan de un 50% a un 95% de extroversión«, comentó Aadesh Salecha, un científico de datos de la plantilla de Stanford. El trabajo está publicado en las Actas de las Academias Nacionales de Ciencias en diciembre.
El artículo Un estudio descubre que la IA es más inteligente de lo que creíamos: es capaz de cambiar de comportamiento cuando la investigan fue publicado originalmente en Urban Tecno.
Dejar una contestacion