El nuevo programa de evaluación de riesgos e impactos de la IA (ARIA) del Instituto Nacional de Estándares y Tecnología (NIST) se ha diseñado para ayudar a mejorar la comprensión de las capacidades y los impactos de la inteligencia artificial (IA) en entornos realistas.
La evaluación de riesgos e impactos de la inteligencia artificial tiene como objetivo ayudar a las organizaciones y a las personas a determinar si una determinada tecnología de IA será válida, confiable, segura, privada y justa una vez implementada.
El programa permite comprender los impactos que la IA está teniendo y tendrá en la sociedad, por lo que se necesita probar cómo funciona la inteligencia artificial en escenarios realistas. En este contexto, el programa ARIA está diseñado para satisfacer las necesidades del mundo real a medida que crece el uso de la tecnología de inteligencia artificial.
Medición de riesgos de la inteligencia artificial
ARIA amplía el Marco de gestión de riesgos de IA, que el NIST publicó en enero de 2023, y ayuda a poner en funcionamiento la función de medición de riesgos del marco, que recomienda el uso de técnicas cuantitativas y cualitativas para analizar y monitorear los riesgos y los impactos de la inteligencia artificial.
Mediante el desarrollo de un nuevo conjunto de metodologías y métricas, ARIA ayudará a evaluar los riesgos e impactos para cuantificar cómo un sistema mantiene una funcionalidad segura dentro de contextos sociales.
De esta forma, ARIA considerará la IA más allá del modelo y evaluará los sistemas en contexto, incluido lo que sucede cuando las personas interactúan con la tecnología de IA en entornos realistas bajo uso regular.
Los resultados de ARIA respaldarán e informarán los esfuerzos colectivos del NIST para sentar las bases de sistemas de IA seguros y confiables.