banner
Hogar / Blog / Descubriendo una privacidad
Blog

Descubriendo una privacidad

Jun 18, 2023Jun 18, 2023

En la era de la toma de decisiones basada en datos, las empresas están aprovechando el poder del aprendizaje automático (ML) para desbloquear conocimientos valiosos, obtener eficiencias operativas y solidificar la ventaja competitiva.

Si bien los avances recientes en la inteligencia artificial (IA) generativa han generado una conciencia sin precedentes sobre el poder de la IA/ML, también han iluminado la necesidad fundamental de privacidad y seguridad. Grupos como IAPP, Brookings y el reciente marco AI TRiSM de Gartner han esbozado consideraciones clave para las organizaciones que buscan lograr los resultados comerciales disponibles únicamente a través de la IA sin aumentar su perfil de riesgo.

A la vanguardia de estos imperativos está la seguridad del modelo ML. Al abordar directamente esta área clave, el aprendizaje automático que preserva la privacidad ha surgido como un camino para garantizar que los usuarios puedan aprovechar todo el potencial de las aplicaciones de aprendizaje automático en este campo cada vez más importante.

Los modelos de aprendizaje automático son algoritmos que procesan datos para generar conocimientos significativos e informar decisiones comerciales críticas. Lo que hace que ML sea extraordinario es su capacidad para aprender y mejorar continuamente. Cuando un modelo se entrena con conjuntos de datos nuevos y dispares, se vuelve más inteligente con el tiempo, lo que genera conocimientos cada vez más precisos y valiosos que antes eran inaccesibles. Luego, estos modelos se pueden utilizar para generar conocimientos a partir de datos, lo que se conoce como evaluación o inferencia de modelos.

Para ofrecer los mejores resultados, los modelos deben aprender y/o aprovecharse de una variedad de fuentes de datos ricas. Cuando estas fuentes de datos contienen información confidencial o patentada, su uso para el entrenamiento o evaluación/inferencia de modelos de aprendizaje automático genera importantes preocupaciones de privacidad y seguridad. Cualquier vulnerabilidad del modelo en sí se convierte en una responsabilidad para la entidad que lo utiliza, lo que significa que esta capacidad que prometía brindar información procesable que mejora el negocio ahora está aumentando el perfil de riesgo de la organización.

Este problema es una de las principales barreras que impiden un uso más amplio del aprendizaje automático en la actualidad. Las empresas enfrentan el desafío de equilibrar los beneficios del aprendizaje automático con la necesidad de proteger sus intereses y cumplir con los requisitos regulatorios y de privacidad en constante evolución.

Las vulnerabilidades en los modelos de ML generalmente conducen a dos macrocategorías de vectores de ataque: inversión de modelo y suplantación de modelo.

Los ataques de inversión de modelos implican apuntar al modelo mismo para aplicar ingeniería inversa a los datos sobre los que fue entrenado, datos que probablemente sean confidenciales y, por lo tanto, valiosos para el atacante. Esto podría incluir información de identificación personal (PII), propiedad intelectual (IP) y otra información confidencial o regulada que, si se expone, podría causar estragos en la organización.

La suplantación de modelos, por otro lado, representa una forma de aprendizaje automático adversario en el que un atacante intenta engañar al modelo manipulando los datos de entrada de tal manera que el modelo tome decisiones incorrectas alineadas con las intenciones del atacante. Este proceso implica observar o “aprender” cuidadosamente el comportamiento del modelo y posteriormente alterar los datos de entrada (de una manera que a menudo es imperceptible) para engañar al modelo y hacer que tome decisiones que sean ventajosas para sus objetivos. Ambos ataques apuntan a vulnerabilidades relacionadas con los pesos del modelo, una parte esencial de un modelo de ML. Como tal, la necesidad crítica de priorizar la protección del peso de los modelos se destacó durante el reciente debate convocado por la Casa Blanca sobre el riesgo de la IA.

El aprendizaje automático que preserva la privacidad utiliza avances en tecnologías de mejora de la privacidad (PET) para abordar estas vulnerabilidades de frente. Los PET son una familia de tecnologías que preservan y mejoran la privacidad y seguridad de los datos durante todo su ciclo de vida de procesamiento, permitiendo de manera única el uso seguro y privado de los datos. Estas potentes tecnologías permiten a las empresas cifrar modelos de aprendizaje automático confidenciales, ejecutarlos y/o entrenarlos y extraer información valiosa al tiempo que eliminan el riesgo de exposición. Las empresas pueden aprovechar de forma segura fuentes de datos dispares, incluso a través de límites organizacionales y dominios de seguridad, incluso cuando hay intereses competitivos involucrados.

Dos pilares notables de la familia PET que permiten el aprendizaje automático seguro y privado son el cifrado homomórfico y la computación multipartita segura (SMPC).

El cifrado homomórfico es una tecnología que permite a las empresas realizar cálculos cifrados sobre datos, preservando así la privacidad del contenido de la búsqueda o análisis. Al cifrar homomórficamente los modelos de aprendizaje automático, las organizaciones pueden ejecutarlos o evaluarlos en fuentes de datos confidenciales sin exponer los datos del modelo subyacente, lo que permite aprovechar los modelos entrenados con datos confidenciales fuera de los límites de su entorno de confianza.

Al utilizar SMPC, las organizaciones pueden entrenar modelos en una capacidad cifrada protegiendo el proceso de desarrollo del modelo, los datos utilizados para la capacitación y los intereses e intenciones de las partes involucradas. Los modelos se pueden entrenar de forma colaborativa con datos confidenciales sin riesgo de exposición. Este enfoque de capacitación de modelos garantiza la privacidad, la seguridad y la confidencialidad al tiempo que aprovecha el poder colectivo de diversos conjuntos de datos para mejorar la precisión y eficacia de los modelos de aprendizaje automático.

La creciente dependencia del aprendizaje automático para mejorar la actividad empresarial no es una tendencia pasajera, como tampoco lo son los importantes riesgos asociados con los modelos de aprendizaje automático. Una vez que se establece el valor central que la IA/ML puede ofrecer a la organización, el siguiente paso hacia la adopción es construir e instrumentar la seguridad, el riesgo y la gobernanza.

Los avances en los PET están proporcionando un camino prometedor a seguir. El aprendizaje automático que preserva la privacidad permite de manera única a las organizaciones desbloquear de forma segura todo el potencial del aprendizaje automático mientras mantienen la privacidad, cumplen con las directivas regulatorias y protegen los datos confidenciales. Al adoptar este enfoque de seguridad, las organizaciones pueden navegar por el panorama basado en datos con confianza, aprovechando conocimientos valiosos y al mismo tiempo manteniendo la confianza de los clientes y partes interesadas.