El Instituto Nacional de Estándares y Tecnología (NIST) ha publicado su Marco de gestión de riesgos de inteligencia artificial (AI RMF 1.0), un documento de orientación para uso voluntario de las organizaciones que diseñan, desarrollan, implementan o usan sistemas de inteligencia artificial (IA) para ayudar a administrar los riesgos de las tecnologías de IA.
El objetivo del AI RMF es adaptarse al panorama de la IA a medida que las tecnologías continúan desarrollándose y ser utilizado por organizaciones en diversos grados y capacidades para que la sociedad pueda beneficiarse de las tecnologías de inteligencia artificial y al mismo tiempo estar protegida de sus daños potenciales.
En comparación con el software tradicional, la IA plantea una serie de riesgos diferentes. Los sistemas de IA se entrenan con datos que pueden cambiar con el tiempo, a veces de forma significativa e inesperada, lo que afecta a los sistemas de maneras que pueden ser difíciles de entender.
Estos sistemas también son de naturaleza ‘sociotécnica’, lo que significa que están influenciados por la dinámica social y el comportamiento humano. Los riesgos de la IA pueden surgir de la compleja interacción de estos factores técnicos y sociales, que afectan la vida de las personas en situaciones que van desde sus experiencias con chatbots online hasta los resultados de las solicitudes de empleo y préstamos.
Estructura del AI RMF
El marco equipa a las organizaciones para pensar sobre la inteligencia artificial y el riesgo de manera diferente. Promueve un cambio en la cultura institucional, alentando a las organizaciones a abordar la IA con una nueva perspectiva, que incluye cómo pensar, comunicar, medir y monitorear los riesgos de la IA y sus posibles impactos positivos y negativos.
Además, el AI RMF proporciona un proceso flexible, estructurado y medible que permitirá a las organizaciones abordar los riesgos de IA. Seguir este proceso para gestionar los riesgos de la IA puede maximizar los beneficios de las tecnologías de la inteligencia artificial, al tiempo que reduce la probabilidad de impactos negativos para las personas, los grupos, las comunidades, las organizaciones y la sociedad.
El AI RMF se divide en dos partes. La primera parte analiza cómo las organizaciones pueden enmarcar los riesgos relacionados con la IA y describe las características de los sistemas de IA confiables. La segunda parte, el núcleo del marco, describe cuatro funciones específicas: gobernar, mapear, medir y administrar, para ayudar a las organizaciones a abordar los riesgos de los sistemas de IA en la práctica. Estas funciones se pueden aplicar en casos de uso específicos del contexto y en cualquier etapa del ciclo de vida de la inteligencia artificial.