Hay que tener cuidado con la IA: el 76% de los expertos en ciberseguridad cree que hay que ponerle límites

La inteligencia artificial está en todas partes. Y en el futuro estará todavía más presente. Solo hay que ver el potencial que tienen herramientas como ChatGPT, el bot conversacional de OpenAI, en distintos ámbitos: desde crear una imagen hasta escribir código, pasando por resumir textos o crearlos desde cero, dar consejos/ideas o elaborar un plan.

Debido a sus capacidades, no es extraño que su uso esté vigilándose con lupa en entornos académicos. De hecho, en escuelas de Nueva York se ha prohibido su uso, y cada vez hay más casos de estudiantes amonestados por emplear la herramienta para acabar sus deberes y proyectos. En cuestión de segundos puedes tener redactado un ensayo sobre prácticamente cualquier tema y sin faltas ortográficas.

Se están desarrollando proyectos basados en inteligencia artificial que son tan prometedores como aterradores. Uno de los mejores ejemplos lo encontramos en Corea del Sur con Dejaview, un sistema que pretende predecir crímenes antes de que sucedan, como en la película Minority Report. También ha alcanzado un punto de madurez que mucha gente duda sobre si eventos actuales han ocurrido realmente o no, como la DANA en España. Por eso muchos expertos en ciberseguridad creen que hay que poner límites a la IA.

600 profesionales de la ciberseguridad dan su opinión en una encuesta sobre IA

StrongDM es una empresa tecnológica estadounidense fundada en el año 2015 que se dedica al desarrollo de plataformas de acceso para infraestructura. Acaba de publicar un informe llamado The State of AI in Cybersecurity (El estado de la inteligencia artificial en la ciberseguridad) que destaca las preocupaciones y disposición de los profesionales de dicha rama para abordar los desafíos que se plantean con el incremento del uso de la IA.

Para la elaboración del informe se ha encuestado a 600 profesionales de la ciberseguridad, y arroja detalles y claves interesantes sobre cuestiones de regulación de la inteligencia artificial, así como las amenazas percibidas, la confianza en la defensa y el futuro laboral en este campo.

Algunos de los puntos más importantes recogidos en el informe destacan la gran preocupación que tienen los profesionales de la ciberseguridad respecto a la regulación de la IA, ya que el 76% opina que debería regularse estrictamente para evitar malas prácticas, y obtener un equilibrio entre seguridad e innovación.

Por otro lado, el 87% de los encuestados se mostró preocupado de los ciberataques ejecutados con inteligencia artificial, siendo el malware y las filtraciones de datos las principales amenazas. Y es que el 65% admite que las empresas no están completamente preparadas para afrontar dichos ataques, pues sus defensas no están a la altura de la nueva tecnología.

A pesar de que el escenario se ve algo oscuro, dos tercios de los encuestados afirman ser optimistas por el potencial de la inteligencia artificial en el trabajo, más como una ayuda que como reemplazo de las personas, al menos, en el ámbito de la ciberseguridad. Este apunte es muy curioso porque varias voces expertas aseguran que la IA acabará realizando el 80% del trabajo.

Los 600 profesionales realizaron la encuesta de forma online, voluntaria y anónima, por lo que no han sido «coaccionados» para proporcionar ciertas respuestas. Aunque puede que todavía haya que esperar para ver cuál es el siguiente gran paso de la inteligencia artificial, lo cierto es que el Consejo de Europa se reunió hace unas semanas para firmar el primer tratado mundial que la regula.

El artículo Hay que tener cuidado con la IA: el 76% de los expertos en ciberseguridad cree que hay que ponerle límites fue publicado originalmente en Urban Tecno.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*