Cada vez son más las compañías que alertan acerca de la llegada, en forma de auténtico tsunami, de contenidos generados por inteligencia artificial a sus plataformas.
La primera que vi fue mi querida Medium, en la que llevo distribuyendo desde su fundación mis contenidos en inglés: la compañía fue pasando desde una primera actitud tolerante en enero de 2023, en la que únicamente pedía transparencia y que los contenidos creados mediante inteligencia artificial fuesen etiquetados como tales, hasta una ya más dura, en julio del mismo año, en la que, tras una invasión cada vez más fuerte, ya pasaban a definirse como «un sitio para la escritura humana, y punto«, y en lugar de «dar la bienvenida» al uso de tecnologías de inteligencia artificial para asistir en el proceso de escritura, simplemente «las permitían».
En el caso de Spotify, el problema va más allá. Que la inteligencia artificial permita crear todo tipo de canciones de manera instantánea, en cualquier estilo y con herramientas al alcance de cualquiera es una cosa, pero que la plataforma se vea inundada con muchísimas de esas canciones que, además, son «escuchadas» de manera automatizada por cientos de miles de cuentas robóticas para simular reproducciones de esas canciones y generar flujos de dinero hacia sus creadores es algo completamente distinto, y se llama directamente fraude o estafa. Es un negocio de «muchos poquitos», sí, pero indudablemente es no solo absurdo, sino que además, detrae fondos que deberían ser asignados a creadores reales por escuchas reales. Así, la compañía se dedica a retirar decenas de miles de canciones creadas mediante inteligencia artificial, para evitar su uso fraudulento.
Ahora, es Mark Zuckerberg el que viene a decir que podemos esperar encontrarnos cada vez más contenido creado mediante inteligencia artificial en nuestros timelines en redes como Facebook, Instagram o Threads, y que además, no tiene ningún problema con ello porque le parece una nueva categoría de contenido completamente nueva, que será generada, resumida o recopilada por IA, y que eso será muy interesante para la compañía. Es decir, que cuanto más contenido mejor, independientemente de cómo se genere, siempre que eso pueda incrementar el tiempo de permanencia de los usuarios en la red y, por tanto, les permita ponerles más publicidad hipersegmentada. Básicamente, que todo vale.
El crecimiento del contenido generado por inteligencia artificial en internet plantea varios problemas potenciales que podrían afectar tanto la calidad de la información como a la confianza de los usuarios en el contenido digital. Algunas de las preocupaciones principales que me plantea son:
La posibilidad de que se utilice para la generación de desinformación y noticias falsas: la inteligencia artificial puede generar grandes cantidades de contenido rápidamente, incluidos artículos de noticias, publicaciones en blogs y actualizaciones en redes sociales. Esto podría ser utilizado para difundir desinformación, noticias falsas o propaganda en modo astroturfing y simulando una popularidad que, en realidad, es inexistente, tratando de influir en la opinión pública o sesgando el acceso a la información.
La inmediata sobrecarga de contenido y dilución de calidad: con el aumento del contenido generado por inteligencia artificial, la cantidad de información en la red se incrementa, lo que puede dificultar que los usuarios encuentren fuentes fiables y de calidad. Es probable que el contenido generado por inteligencia artificial priorice cantidad sobre calidad, lo que lleva a una inundación de información de bajo valor o repetitiva.
La posible manipulación de motores de búsqueda: el contenido de inteligencia artificial creado con fines de SEO puede manipular los algoritmos de los motores de búsqueda, colocando contenido de baja calidad o con sesgo comercial en los primeros resultados. Esto puede eclipsar contenido más informativo, bien investigado o generado por expertos, lo que reduce la utilidad de los motores de búsqueda para encontrar información precisa.
El potencial desplazamiento laboral en la creación de contenidos: a medida que la inteligencia artificial se vuelve capaz de producir contenido escrito, visual o de video, la demanda de creadores humanos disminuye, afectando a campos como el periodismo, el marketing, el diseño gráfico o el entretenimiento. Esto puede reducir las oportunidades para profesiones creativas y, sobre todo, llevar a contenidos más homogéneos por estar obtenidos a partir de bases de entrenamiento similares.
Obviamente, la pérdida de autenticidad y del toque humano: la inteligencia artificial simula un estilo, pero carece de experiencias humanas, emociones y perspectivas personales, que son esenciales para crear contenido auténtico y significativo. Si el contenido generado por inteligencia artificial empieza a dominar internet, la red podría perder la diversidad de narrativas personales, experiencias vividas y profundidad emocional que ofrece el contenido creado por humanos.
La creación de cámaras de eco y de sesgo algorítmico: las herramientas de inteligencia artificial podrían reforzar involuntariamente sesgos existentes al replicar patrones en los datos con los que se entrenaron. Esto puede intensificar las cámaras de eco y limitar la perspectiva en el contenido generado.
Finalmente, la preocupación por la privacidad y uso de datos, dado que muchos sistemas de inteligencia artificial se entrenan con datos disponibles públicamente, algunos de los cuales pueden incluir información personal. Esto plantea interrogantes sobre la privacidad de los datos utilizados y cómo la información personal es reutilizada en contenido generado por inteligencia artificial sin el adecuado consentimiento de los afectados.
¿Debemos tratar de la misma manera todo el contenido generado mediante inteligencia artificial? Tengo mis dudas. Yo mismo genero contenidos mediante inteligencia artificial cuando publico mis podcasts creados con NotebookLM en plataformas como Spotify, Amazon Music y Apple Music, y en todos los casos los etiqueto como «generados por inteligencia artificial», a pesar de que lo que realmente genera el contenido no es la herramienta que utilizo para ello, sino el texto que he escrito yo, con estos deditos y esta cabecita.
Es decir, que en este caso, el papel de la inteligencia artificial no es el de generar el contenido, sino el de poner un contenido generado por un humano en un formato determinado, en este caso, adecuado para quienes prefieren escuchar a leer. En mi caso, se trata fundamentalmente de un experimento divertido sin más, pero me parece difícil compararlo con un caso potencialmente nocivo: mis oyentes son personas reales, el contenido está creado por mí, y simplemente cambia el canal: es más elaborado que si simplemente pidiese a una voz sintética (que podría incluso entrenar con la mía para hacerlo más «genuino») que leyese mis textos. Lo que hace en este caso NotebookLM es adaptar el contenido a un formato podcast, pero partiendo de un contenido original y de creación completamente humana, lo que me parece que es algo más que un matiz. Lo que escucha un oyente de mi podcast es, indudablemente, lo que yo escribí y quise comunicar, aunque pase por el filtro de una inteligencia artificial y lo locuten dos locutores sintéticos.
El futuro de una red llena de contenidos generados mediante inteligencia artificial me parece poco deseable – y menos aún si llegamos al absurdo conceptual en el que pasan a ser consumidos por lectores u oyentes artificiales. Pero creo que puede ser interesante introducir en ese «generado por inteligencia artificial» algunas gamas de grises, en función del papel que esa inteligencia artificial haya desempeñado en su generación.
Dejar una contestacion