El grupo de seguridad de inteligencia artificial (ISG SAI) del Instituto Europeo de Normas de Telecomunicaciones (ETSI) ha presentado tres nuevos informes que abordan la explicabilidad y la transparencia del procesamiento de inteligencia artificial (IA) y proporcionan un marco de seguridad de plataforma informática de IA.
El primero de los informes publicados, ETSI GR SAI 007, identifica los pasos que deben tomar los diseñadores e implementadores de las plataformas de inteligencia artificial para garantizar la explicabilidad y la transparencia del procesamiento de la IA.
El procesamiento de inteligencia artificial incluye la toma de decisiones de inteligencia artificial y el procesamiento de datos de IA. El informe aborda formas tanto estáticas como dinámicas para permitir que los diseñadores puedan mostrar su trabajo (explicabilidad) y estar abiertos al examen (transparencia).
Como ejemplo, una inteligencia artificial puede estar sesgada por diseño si el propósito de la IA es filtrar candidatos para un trabajo en función de alguna característica personal (es decir, a diferencia de un motor de selección meritocrático, la IA actúa como un motor de selección de características). En tal caso, los requisitos de explicabilidad y transparencia podrán identificar esa negativa basada en rasgos, ubicada en la raíz del motor de razonamiento de la IA.
Marco de seguridad de la IA
Por su parte, el documento ETSI GR SAI 009 proporciona un marco de seguridad de plataforma informática de inteligencia artificial. En un sistema de IA, una plataforma informática de inteligencia artificial actúa como la infraestructura para las aplicaciones de IA que proporciona recursos y entornos de ejecución.
El informe ETSI describe un marco de seguridad de la plataforma informática de IA que contiene hardware y software básico para proteger activos valiosos como modelos y datos implementados en la plataforma informática de inteligencia artificial cuando se utilizan en tiempo de ejecución o se almacenan en reposo.
El marco de seguridad consta de componentes de seguridad en la plataforma informática IA y mecanismos de seguridad ejecutados por componentes de seguridad en la plataforma. Al especificar el marco de seguridad, una plataforma informática de inteligencia artificial se puede consolidar contra el ataque relevante y puede proporcionar capacidades de seguridad para las partes interesadas involucradas en los sistemas de IA que necesitan proteger mejor los activos valiosos (modelo/datos) en una plataforma informática de IA.
Marco de prueba de conceptos
Por último, ETSI GR SAI 013 es un marco de prueba de conceptos, que proporciona información sobre el marco ‘ligero’ que utilizará ETSI ISG SAI para crear pruebas de conceptos (PoC) de múltiples socios. El marco se utiliza como una herramienta para demostrar la aplicabilidad de las ideas y la tecnología.
Los PoC multipartidistas fortalecen la colaboración entre las partes interesadas de la IA. Los resultados pondrán en perspectiva el trabajo del grupo ETSI SAI, aumentarán la visibilidad y crearán conciencia sobre los problemas de seguridad de la IA. El marco está diseñado para incluir tantas soluciones basadas en inteligencia artificial como sea posible, incluidas aquellas que cumplen funciones críticas relacionadas con el análisis de datos, la gestión de infraestructuras y la seguridad/ciberseguridad.
En teoría, un sistema basado en IA puede convertirse en un objetivo por sí mismo, y la detección de este tipo de ataques puede representar un desafío importante. Sin embargo, los ejemplos del mundo real de tales ataques son menos comunes. La comprensión de los aspectos prácticos para, por un lado, realizar un ataque impactante contra un sistema basado en IA y, por el otro, para defenderse y responder a dicha amenaza aún es limitada y el papel de los PoC para resaltar los problemas es clave para el éxito de la IA de seguridad.