Carme Artigas confía en que el desarrollo de la inteligencia artificial (IA) ayudará a mejorar mucho la calidad de vida de todo el mundo. Sin embargo, la exsecretaria de Estado de Digitalización de España, cargo que dejó hace escasos meses, remarca que para ello hace falta acabar con las desigualdades en el acceso a la tecnología. Que son notables entre los países del norte y del sur. El pasado jueves, el comité de la ONU que copreside presentó su primer informe de recomendaciones sobre la IA , en el que se hace hincapié en la necesidad de crear estándares globales para la gobernanza de los algoritmos.Artigas, además, se acaba de incorporar al consejo asesor de Llorente y Cuenca tras su paso por el Gobierno.MÁS INFORMACIÓN noticia No La ONU alerta del peligro de que la IA solo esté al alcance de unos pocos países—¿Espera que todas las recomendaciones sean aceptadas por los estados miembro?—Así es, además, son todas complementarias. Son seis más la formación de oficina de coordinación, que consideramos que debe ser el pegamento para coordinarlo todo. Hay muchas iniciativas a nivel global que no están convergiendo y que deben hacerlo hacia estándares comunes ahora, porque después va a ser mucho más difícil.—En el informe se remarca la diferencia en desarrollo de inteligencia artificial e iniciativas entre los países del hemisferio norte y los del sur, que van por detrás. ¿Qué falla?—Ponemos de relevancia la falta de representatividad del sur global, hay 118 países que no están participando en ninguna de las conferencias e iniciativas relacionadas con el desarrollo de la tecnología. Estamos intentando que todos nos beneficiemos por igual de la tecnología, pero eso es imposible si no compartes el acceso a los datos, la capacidad de computación y talento. No hay ni un supercomputador en el mundo en el sur global. Para solucionarlo se propone la creación de un fondo internacional para apoyar su desarrollo. Tenemos que huir de ese ‘tecnocolonialismo’ del norte en el que nos limitamos a llevar la tecnología a otros países para que la compren.—¿Cómo funcionará ese fondo para apoyar el desarrollo?—Nosotros pensamos que tiene mucho sentido. También serviría para financiar los proyectos de la IA para el desarrollo sostenible y alcanzar capacidades de computación de las que nos beneficiemos todos. El dinero provendría de fondos de desarrollo público y también habría una parte privada de la filantropía, y vemos la posibilidad de que las empresa colaboren, aunque sea en especie con chips.—En Europa fuimos muy rápidos gobernando la tecnología. En el informe he visto algo del espíritu de la Ley de IA de la UE.—¿Sí? pues no había apenas europeos en el informe, ni una cuarta parte.—Pero se menciona, por ejemplo, que es importante que las normas para controlar la IA sean flexibles y puedan cambiar para seguir cubriendo a la tecnología, que es algo en lo que se hace mucho hincapié en la Ley de IA…—Pero ese no es un valor europeo solamente, estamos ante una empresa global, solo que la Unión Europea se adelantó. Cuando hablamos de gobernanza no solo hablamos de leyes. La regulación es un instrumento para la gobernanza de la IA, pero hace falta otros mecanismos para que haya un desarrollo ético de la inteligencia artificial. La regulación va a seguir siendo una cuestión de cada país, va a ser complicado que haya una única. Lo que sí que debe haber es un entendimiento mínimo común. La clave es que no se use la IA para infringir los derechos humanos. —¿Entonces no considera que la Ley de IA vaya a servir como ejemplo para el resto de países, tal y como se espera desde Europa?—Para mí es una legislación pionera que tendrá sus dificultades de implantación y sus resistencias. Es muy holística, porque habla de lo que no pueden hacer las empresas o los gobiernos. Si somos capaces de aplicarla bien representará una ventaja competitiva para Europa.—En el informe, se destaca que la segunda mayor preocupación para los expertos es el uso de IA en armas, y se pone como ejemplo el armamento que no necesita control humano para activarlo. —En el tema de las armas creemos que debe haber derechos humanos y que no se debe usar IA para matar personas.—¿Qué piensa cuando escucha eso de que la IA puede acabar con el mundo?—Los miedos que tenemos a la IA no están informados, porque no hay transparencia. Ni en el desarrollo, ni en sus riesgos, solo en sus oportunidades. Y esto pasa porque es una tecnología que se desarrolla en manos privadas con concentración de poder. El panel científico, que recomendamos a la ONU, va a tener que ilustrar todas estas percepciones en datos y evidencias para que sea posible tomar decisiones. El desconocimiento hace que se tenga miedo a la IA, pero no hay nada inevitable. El ser humano es el que decide lo que hace con su tecnología, y si quiere la puede desenchufar.—¿Sobra dramatismo, entonces?—Yo creo que si el drama sirve para darnos cuenta de que la IA se tiene que gobernar, bienvenido el drama.—¿Y qué piensa cuando escucha que la regulación daña la innovación?—Que no es así siempre y cuando la regulación sea buena. A ninguna industria la gusta que la regulen. La industria del software es como cualquier otra, y como a las farmacéuticas tiene todo el sentido pedirle pruebas de calidad antes de lanzar productos al mercado, porque ofrece certidumbre. El gran problema de la IA ahora mismo es la falta de confianza en ella, el que no pueda creer lo que veo ni lo que escucho.—¿Y qué pasa con lo que dicen las tecnológicas de que la regulación de la UE puede ahogar la competitividad?—La UE no es competitiva a nivel tecnológico por otras razones, como la falta de acceso a capital para poder escalar las compañías rápidamente y, sobre todo, hace falta un gran mercado digital. No por la regulación. Tenemos el talento, lo que pasa es que se nos va o nos lo roban.
Dejar una contestacion