Un grupo de investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del Instituto Tecnológico de Massachussets (MIT), en colaboración con otras instituciones, ha desarrollado un sistema, denominado Privid, que garantiza una mejora de la privacidad de las personas en las imágenes de vídeo de las cámaras de vigilancia.
El sistema Privid se basa en una definición formal de privacidad, llamada ‘privacidad diferencial’, que permite el acceso a estadísticas agregadas sobre datos privados sin revelar información de identificación personal, a través de la agregación de un poco de ruido (datos adicionales) al resultado final de una búsqueda de vídeo para garantizar que no se pueda identificar a una persona.
De esta forma, Privid evita que los analistas malintencionados tengan acceso a toda la información del vídeo. Para ello, en vez de ejecutar el código en todo el vídeo de una vez, Privid divide el vídeo en partes pequeñas y ejecuta el código de procesamiento en cada parte.
En lugar de obtener resultados de cada pieza, los segmentos se agregan y se añade el ruido adicional. Además, se proporciona información sobre el límite de error que obtendrá el resultado, con un margen de error aproximado del 2%.
Compatibilidad con las redes neuronales
Por otro lado, Privid permite a los analistas usar sus propias redes neuronales profundas para el análisis de vídeo, lo que permite una mayor flexibilidad de hacer preguntas a los diseñadores de este sistema para mejorar la solución. En una variedad de vídeos y consultas, Privid tuvo una precisión del 79% al 99% de un sistema no privado.
Asimismo, esta solución del MIT introduce una nueva noción de ‘privacidad basada en la duración’, que desvincula la definición de privacidad de su cumplimiento. Si el objetivo de privacidad es proteger a todas las personas, el mecanismo de cumplimiento debe trabajar para encontrar a las personas a las que proteger, que puede o no hacerlo perfectamente. Con este mecanismo, no necesita especificar completamente todo y no está ocultando más información de la necesaria.
El desafío es determinar cuánto ruido agregar. El objetivo de Privid es añadir solo lo suficiente para ocultar a todas las personas, pero no tanto como para que sea inútil para los analistas.