El hombre que destapó los escándalos de Meta: «El problema es que el algoritmo recomienda cuentas de niños a adultos desconocidos»>

Es el 14 de septiembre de 2021. Mientras Facebook se prepara para mostrar su apuesta por el nuevo mundo virtual conocido como metaverso, el periodista Jeff Horwitz publica en ‘The Wall Street Journal’ una investigación , basada en documentos internos de la red social, filtrados por la trabajadora Frances Haugen , en la que se muestra cómo la empresa sabe perfectamente que está dañando la salud mental de los adolescentes, pero que no pone remedios para solucionarlo. Y el escándalo estalla. A esta información le siguen otras en las que se apunta que la compañía es explotada activamente por cárteles de la droga y traficantes de mujeres o cómo la tecnológica de Zuckerberg opta por cerrar los ojos en materia de moderación cuando al negocio le conviene. La situación se vuelve insostenible, el Gobierno de EE.UU. fija los ojos como pocas veces en la empresa , y la marca Facebook acaba tan abrasada por la informaciones que, ese noviembre, cambia de nombre para convertirse en Meta. Y, en parte, gracias a los miles de documentos filtrados por Haugen, que son la base del reciente libro ‘ Código roto ‘ (Ariel), en el que Horwitz explica de forma minuciosa cómo se fraguaron los grandes escándalos y fracasos recientes de la red que hizo que todos, todos, comenzásemos a vivir con los ojos pegados a la pantalla. —¿Qué es lo que más le sorprendió de toda la información que le pasó Haugen?—El que todos esos documentos existiesen y fuesen accesibles, porque sabía que muchos empleados no estaban contentos con la gestión que había hecho la compañía de la desinformación electoral y la salud mental de los usuarios. Facebook llevaba tiempo intentando que los documentos delicados (en los que se trataban estos temas) no se filtrasen, pero los sistemas internos de la compañía estaban muy mal organizados. A ellos mismos les costaba encontrar sus propios datos para evitar las filtraciones (se ríe).—¿Y lo que más le preocupó?—Siempre supe que Facebook no era una plataforma neutral, pero no hasta qué punto intentaba cambiar el comportamiento de los usuarios con sus algoritmos para su propio beneficio. Si ellos conocían, por ejemplo, formas de reducir la desinformación en sus redes sociales hasta un 10%, no estaban dispuesto a hacerlo si el negocio de la compañía se veía afectado, aunque fuese en una caída del 0,5% de usuarios diarios. Me sorprendió hasta qué punto Facebook mira exclusivamente por sí misma y le importa más el dinero que la salud de sus usuarios.En uno de los documentos lo pone: «el número de usuarios diarios es sagrado». Cualquier cosa que lo comprometa, lo que sea, nace muerto. Da igual que sea beneficioso para los usuarios. También hay información relacionada con la polarización política en España. ¿Conoce a un partido llamado Vox?—Claro.—Cuando Facebook cambió su algoritmo para conseguir que la gente pasase más tiempo usando la aplicación (en la década pasada) favoreció mucho a partidos políticos reaccionarios. Vox le dijo a uno de los investigadores de Meta que habían empezado a comprar anuncios que iban dirigidos a la gente que apoyaba a sus rivales políticos. Lo hacía para fastidiarles tanto que acabasen reaccionando y viralizando el contenido.MÁS INFORMACIÓN noticia No Europa investiga a Meta por considerar que fomenta la adicción de los menores—Leyendo el libro, hay varios pasajes en los que se deja notar que los errores políticos de Facebook, como Cambridge Analytica o su papel en el asalto al Capitolio de EE.UU., son fruto de la falta de previsión. ¿Es Facebook una empresa ingenua?—Creo que hay algo de negación de los hechos dentro de la compañía. Por ejemplo, Zuckerberg decía que se podía cuestionar de buena fe el Holocausto, y estoy de acuerdo en que en teoría puedes decir que tienes preguntas sobre los asesinatos masivos, pero en teoría, porque esa pregunta solo la hace un nazi (se ríe). Así que es absurdo. La empresa siempre dice que si hay alguna manera muy teórica y remota de que una persona pueda tener buenas intenciones, entonces vamos a pensar que es así. Esa es una de las líneas en la guía de empleados.Cuando los grupos conspiracionistas empezaron a explotar la red social y a organizarse, el objetivo no era realizar preguntas legítimas sobre el Gobierno, sino enfadar a la gente y revolucionarla. No había buenas intenciones. Eso pasó también con la negación de los resultados de las elecciones de 2020 por parte del grupo Qanon. Facebook creó un sistema en el que es muy fácil hacer trampas con el algoritmo. — El libro también deja la sensación de que Mark Zuckerberg está completamente sobrepasado por los problemas de sus redes…—Eso lo decía mucho Frances Haugen. Aquí hay una ironía, y seguro que pasa en España también: en Estados Unidos la gente acusa a Facebook de mucha censura, pero es que la empresa de manera desesperada no quiere tomar medidas contra nada. Suele preferir dejar las publicaciones que podrían ser contrarias a sus políticas. Una de las cosas que me resultaron más interesante de los documentos es que aunque Facebook habla maravillas de su inteligencia artificial, la IA no es capaz de eliminar más que un porcentaje pequeñísimo de publicaciones en las que se incita al odio y a la violencia, pero la prefieren a los equipos humanos.—De las historias que relata, me llamó mucho la atención la del ingeniero Arturo Béjar , que diseñó una herramienta para combatir la pedofilia en Instagram, pero no fue atendido por Meta.—Hay muchas cosas que Meta puede hacer para proteger a los adolescentes, pero, simplemente, no les interesa hacerlo. Lo que pasa es que cada mecanismo de seguridad limita lo que pueden hacer los usuarios y, entonces, si aplicas cambios te arriesgas a perder internautas, algo que para la compañía no es aceptable. La gente de fuera cree que los problemas de los niños se deben a fallos de moderación. Por ejemplo, si un adulto envía la imagen de un pene a un menor y Facebook no hace nada. Pero el verdadero problema es que es Instagram el que muestra menores a adultos desconocidos en las recomendaciones. El algoritmo lo fomenta.— También comenta que Zuckerberg estaba dispuesto a permitir que China censurase Facebook con el fin de estar presente en el país…—Lo intentaron durante un breve periodo de tiempo, pero no les funcionó. La empresa habla mucho sobre el respeto a la libertad de expresión, pero, como te he dicho antes, el negocio es el que manda. En Vietnam comenzó a eliminar contenido contrario al gobierno. Y lo mismo pasó en India, donde está permitido publicar sobre una teoría de la conspiración que dice que los musulmanes se están casando con mujeres indias para matarlas, y solo porque el gobierno del país piensa así. Meta está dispuesta a todo por no perder un mercado.— TikTok corre peligro en Estados Unidos . ¿Es la ‘app’ china más peligrosa que Facebook o Instagram?—A Meta nada le gustaría más que TikTok fuese prohibida en Estados Unidos (se ríe). Aunque no hace tanto dinero como Facebook, sigue siendo una gran amenaza para su negocio. Respecto a si es más peligroso, no tengo una respuesta. Lo que no entiendo es que la gente esté preocupada por los datos que tiene TikTok, cuando en tu propio teléfono estas compartiendo los datos de ubicación y las empresas los pueden vender y eso es mucho más preocupante. Tampoco creo que el que China sepa los vídeos que ves represente una amenaza a la seguridad nacional.— Su investigación ha servido para que fiscales de EE.UU. hayan demandado a la empresa por los daños que causa en niños. ¿Qué espera que salga de eso?—No sé qué pasará. Una cosa que sale en la demanda y me impresionó fue que la trabajadores de la empresa saben que los filtros con IA están dañando la autoestima de los usuarios, que piensan que todos son más atractivos que ellos por su culpa. En Meta hubo gente que quiso prohibir los efectos tipo cirugía estética, pero el propio Zuckerberg dijo que no porque la gente los usa. —¿Qué le gustaría conseguir con esta investigación?—El objetivo es explicar cómo la vida online nos cambia de una forma que no es natural, y también cómo las plataformas podrían ser diferentes, que no tenemos por qué aceptar que internet es así y punto, o que así es como se comporta la gente online y ya está. La realidad en la que vivimos ahora ha sido formada por las decisiones tomadas por estas plataformas, incluyendo a Meta, y estas decisiones se tomaron pensando en sus propios intereses. También me gustaría ayudar a la gente a entender cómo estas cosas cambian la forma en la que nos comunicamos entre nosotros y compartimos información. Las redes sociales son algo tan fundamental como el invento de la imprenta, son una gran oportunidad y también muy peligrosas. Las próximas décadas pueden ser complicadas por su culpa.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*