Los sistemas de reconocimiento facial permiten identificar o confirmar la identidad de una persona mediante su rostro. La gente de a pie está familiarizada con esta tecnología gracias a dispositivos móviles como los iPad o iPhone de Apple, que integran Face ID en la cámara frontal, que les permite desbloquearlos con solo mostrar la cara. Otro sistema popular es Windows Hello, que permite desbloquear los ordenadores con sistema operativo Windows 10 o Windows 11 si se tiene una webcam compatible.
Si bien en estos casos el reconocimiento facial es muy útil porque resulta más rápido o cómodo que introducir la contraseña, con la llegada de la inteligencia artificial también puede suponer un peligro. Uno de los casos más recientes lo encontramos en las Ray-Ban Meta, unas gafas inteligentes que se han vuelto muy populares en varias zonas del mundo. Un par de estudiantes de Harvard consiguieron acceder a información personal de personas anónimas usándolas con IA.
El reconocimiento facial, junto a la IA, puede acabar para siempre con la privacidad y anonimato, sobre todo cuando este tipo de dispositivos se vuelvan más habituales por las calles. Tampoco hay que olvidar todas nuestras fotografías y vídeos que pueden estar en Internet. De ahí que exista una inteligencia artificial (un poco paradójico, todo sea dicho) que nos «enmascare» para protegernos.
Así es «Chameleon», el modelo de IA que puede producir una máscara de protección de privacidad única y personalizada
El Instituto de Tecnología de Georgia (Atlanta, Estados Unidos) está especializado en la enseñanza de la ingeniería, pero también cuenta con programas de arquitectura, ciencias, administración, informática, ciencias políticas y relaciones internacionales. Es considerada una de las mejores universidades en ingeniería en los Estados Unidos, encontrándose entre las cinco primeras, según el ranking U.S. News & World Report.
Uno de sus últimos estudios, publicado en arXiv, detalla cómo un grupo de investigadores del Instituto de Tecnología de Georgia ha creado un modelo de inteligencia artificial llamado «Chameleon». A diferencia de otros, está diseñado para producir una especie de «máscara de protección de privacidad (P-3) única y personalizada» digital, en fotografías personales, que impide el escaneo facial detecte el rostro de una persona cuando no se ha dado un permiso explícito.
«Chameleon» hará que los escáneres de reconocimiento facial identifiquen las fotografías como si fueran de otra persona, lo que sería una gran ayuda en el entorno digital de Internet, donde cada vez se comparte más información personal a través de redes sociales como Instagram o TikTok. El autor principal del estudio, Ling Liu, profesor de computación basada en datos e inteligencia, ha hecho las siguientes declaraciones:
El intercambio de datos y análisis que preservan la privacidad como Chameleon ayudará a avanzar en la gobernanza y la adopción responsable de la tecnología de IA y estimularán la ciencia y la innovación responsables
A pesar de que ya existen sistemas similares, que ofuscan detalles claves de la fotografía de una persona, a menudo tienden a no preservar la calidad de imagen original, produciéndose así artefactos digitales desagradables. Ahí es donde «Chameleon» despunta frente a sus competidores, ya que tiene características específicas para este punto.
En primer lugar, «Chameleon» usa optimización entre imágenes para crear una máscara P3 por usuario, en lugar de una nueva para cada fotografía. De este modo, el sistema puede brindar protección instantánea a un usuario, manteniendo un uso más eficiente de los recursos informáticos, que suelen ser algo más escasos en dispositivos como teléfonos móviles inteligentes, sobre todo en los de gama baja o media.
En segundo lugar, «Chameleon» incorpora «una optimización de la perceptibilidad» para garantizar la preservación de la calidad visual. El último punto es para reforzar lo suficiente la máscara como para evitar que actúen modelos de reconocimiento facial de origen desconocido. Los investigadores están satisfechos con el proyecto, y les gustaría usarlo más allá de la protección de imágenes personales, como evitar que se utilicen para entrenar modelos generativos de IA.
Algunos sistemas de inteligencia artificial apoyados en el reconocimiento facial parecen salidos de películas de ciencia ficción debido a sus posibilidades. Por ejemplo, este coreano que analiza patrones y considera factores como la hora del día, ubicación e historial de incidentes, así como la «predicción de reincidencia centrada en el individuo».
El artículo Esta IA te vuelve un «camaleón» en Internet: protege tu identidad e imagen en la red fue publicado originalmente en Urban Tecno.
Dejar una contestacion