
Unos días antes del lanzamiento oficial de Apple Intelligence en sus dispositivos, la compañía publica un muy interesante documento sobre la aplicación del cifrado homomórfico (HE) para procesar de forma segura los datos para funciones de inteligencia artificial.
El cifrado homomórfico permite realizar cálculos directamente sobre datos cifrados, sin necesidad de descifrarlos primero. Esto significa que un servidor o un modelo de machine learning puede procesar datos sin siquiera «ver» los datos originales. Cuando el dispositivo de un usuario necesita procesar una consulta, puede cifrar la consulta, enviarla al servidor, y el servidor puede realizar los cálculos necesarios para procesarla mientras los datos permanecen cifrados.
En la implementación que presenta Apple, los dispositivos cifran las consultas de datos antes de enviarlas a los servidores, donde la recuperación de información privada (PIR) y la búsqueda privada del vecino más cercano (PNNS) procesan los datos sin descifrarlos. PIR permite que un usuario recupere datos específicos de una base de datos sin revelar al servidor qué datos se están recuperando. Básicamente, permite realizar consultas privadas: en el contexto de Apple, si un dispositivo está consultando una base de datos de imágenes para identificar un punto de referencia u objeto, PIR le permite recuperar información sin revelar la consulta exacta al servidor, lo que ayuda a mantener la privacidad del usuario con respecto a sus intereses o consultas.
Por su parte, la búsqueda privada del vecino más cercano, o PNNS, permite encontrar la coincidencia más cercana o los vecinos más cercanos a un punto de datos específico en una base de datos cifrada. Esto es especialmente útil para el reconocimiento de imágenes u objetos, donde un servidor puede buscar elementos cifrados similares sin descifrar la consulta ni la base de datos. Apple utiliza esto para que cuando un usuario envía una imagen o un objeto cifrado para identificarlo, PNNS ayuda al servidor a encontrar el punto de referencia u objeto más cercano en su base de datos cifrada, permitiendo brindar resultados pero preservando la privacidad tanto de la consulta como de la fuente de datos.
Combinando estos protocolos, se permiten funciones privadas en el dispositivo aprovechando los datos cifrados y descargando el procesamiento complejo a la nube, pero sin comprometer su privacidad. En conjunto, estos métodos permiten a Apple ofrecer funciones centradas en la privacidad en las que el servidor procesa los datos sin llegar a ver ninguna información del usuario, lo que preserva la privacidad y, al mismo tiempo, permite las capacidades del machine learning. Esto es crucial para funciones centradas en la privacidad, como la búsqueda en el dispositivo, el reconocimiento seguro de imágenes, etc. Como bien dice Varun Mathur en X, estamos hablando de un anuncio verdaderamente relevante, equivalente al momento en que empezamos a utilizar el protocolo HTTPS de cifrado para todas las comunicaciones en internet. En la práctica, es lo que permite a Apple ofrecer capacidades de inteligencia artificial manteniendo un fuerte enfoque de respeto a la privacidad del usuario que se ha convertido en una auténtica seña de identidad de la compañía.
Cuando hablo de inteligencia artificial en mis clases y conferencias, la preocupación por la privacidad y el uso de los datos es sin ninguna duda la más habitual: directivos preguntando qué pasa si incluyen datos de su compañía en sus prompts, si sus prompts o sus RAGs provocan que los datos de contexto de su compañía puedan ser utilizados por las compañías que gestionan los LLMs, o si esa circunstancia, cuando se transmiten datos personales de clientes o de otros actores relacionados con la compañía pueden incluso hacerles incurrir en una ilegalidad. Un desarrollo como este, si se impone en todos los proveedores de LLMs, es una forma muy clara de generar tranquilidad mental a todos los participantes, y de contribuir a reducir la incertidumbre de muchos.
Dejar una contestacion