Cómo trabajar en el día a día con una IA y no morir en el intento

Algoritmos locos: Los errores de inteligencia artificial superan a los humanos - IEEE Spectrum

Estuve la semana pasada enseñando a un par de grupos algo sobre las técnicas básicas de ChatGPT para que entendieran si les vendría bien para sus trabajos y, sobre todo, para sobrevivir si tenían que empezar a usarlo, no cayendo en las trampas habituales.

Estas trampas incluyen desde los errores más comunes, como preguntas ambiguas para temas que no tienen una respuesta clara a poner falsas esperanzas en que la IA van a resolver un problema de forma precisa y óptima o a lidiar con los formatos en los que chatea (imágenes, PDFs, etc) que no siempre es fácil, especialmente cuando se trata de PDFs de decenas de páginas o de textos gigantescos.

Algo sobre lo que reflexioné es que en cierto modo hay que tratar a la IA como tratamos a nuestra metamemoria, esa «facultad de tener conocimiento de nuestra propia capacidad memorística». En lenguaje llano es simplemente saber lo que se sabe y lo que no se sabe. Aquí hay que saber un poco sobre cómo funcionan los LLM de los diferentes modelos de IA –de dónde sacan los datos, cómo se entrenan, etcétera– para adelantarse e imaginar si pueden proporcionar o no una respuesta válida.

Al respecto me han gustado dos artículos recientes: AI Mistakes Are Very Different Than Human Mistakes en IEEE Spectrum, del mismísimo Bruce Schneier con Nathan E. Sanders y What I’ve learned about writing AI apps so far en Seldo, de Laurie Voss.

El primero explica sobre todo la diferencia entre los errores humanos, que son normalmente del mismo tipo y en las mismas áreas, y los de las IA, mucho más aleatorios e incluso se podría decir que espectaculares (alucinaciones, empecinamientos, etc.) Cuando una IA comete esos errores piensas «madre mía, no ha entendido nada, no tiene ni idea… ¡no sabe ni de lo que habla!»

Esto es propio de los LLM y se puede solucionar acotando mejor las preguntas ampliando la forma de describir el problema, añadiendo más información relevante y pidiendo que verifique las respuestas cuando haya terminado. De hecho modelos como GPT o1 o Deepseek R1/R3 están especializados en «razonamiento más profundo» para evitar estos problemas en lo posible.

El segundo artículo resume unos pocos consejos cómo lidiar con los LLM:

  • Son buenos transformando texto en menos texto, haciendo resúmenes o sumarios, pero no generando «más texto». Tienden a añadir «paja» a falta de una expresión mejor. Son como un «Autocompletar» avanzado.
  • No hay que fiarse demasiado de los datos con que están entrenados, hay que darles la información necesaria si es posible.
  • Mejor hacer que los LLM se autocorrijan y verifiquen los datos varias veces para mejorar los resultados.
  • La programación tradicional es más fiable que la de los LLM, como observarás si trabajas con código.
  • Los LLM pueden ayudar, pero no reemplazar a todo el trabajo que hace una persona.
  • No hay que utilizar los LLM como médicos o abogados. De hecho son dos las áreas de conocimiento especialmente «vigiladas» por los filtros de los LLM para «no mojarse» y responder con todas las opciones, sin indicar cuál es la mejor, además de añadir que es conveniente consultar a un médico o un abogado. Otro área en que no suelen mojarse es en los consejos financieros.

Además de todo esto está el factor de ingeniería social –a falta de una expresión mejor– que se está observando en las IA mientras hablan con sus interlocutores. Utilizando un tono confiado, autoritario y podría decirse que incluso dominante y avasallador, hacen creer a quienes hablan con ellas que lo que están diciendo es cierto, correcto y preciso, cuando en realidad sólo lo es en un porcentaje de las ocasiones. ¡No te dejes dominar por una IA marimandona! Esto es válido especialmente para trabajos importantes; para pasar un rato o averiguar tontás cualquier charla es buena.

_____
Imagen (IA) ChatGPT.

# Enlace Permanente

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*