El Instituto Nacional de Estándares y Tecnología (NIST) ha abierto una convocatoria para crear un nuevo consorcio que apoye el desarrollo de métodos innovadores para evaluar sistemas de inteligencia artificial (IA), para mejorar la seguridad y confiabilidad de esta tecnología en rápido crecimiento. Este consorcio es un elemento central del nuevo Instituto de Seguridad de IA de EE.UU. liderado por el NIST.
El instituto y su consorcio son parte de la respuesta del NIST a la Orden Ejecutiva recientemente publicada sobre el desarrollo y uso seguro y confiable de la IA. La Orden Ejecutiva asigna al NIST una serie de responsabilidades, incluido el desarrollo de un recurso complementario al Marco de gestión de riesgos de IA (AI RMF), centrado en la inteligencia artificial generativa, orientación sobre la autenticación de contenido creado por humanos y marcas de agua en el contenido generado por IA. Una nueva iniciativa para crear orientación y puntos de referencia para evaluar y auditar las capacidades de inteligencia artificial, y creación de entornos de prueba para sistemas de IA.
El Instituto de Seguridad de IA de EE.UU. aprovechará el trabajo que ya están realizando el NIST y otras entidades para sentar las bases de sistemas de inteligencia artificial confiables, respaldando el uso del AI RMF, que el NIST lanzó en enero de 2023. El marco ofrece un recurso voluntario para ayudar a las organizaciones a gestionar los riesgos de sus sistemas de IA y hacerlos más confiables y responsables. El instituto tiene como objetivo mejorar la capacidad de las organizaciones para evaluar y validar sistemas de IA, como se detalla en la hoja de ruta AI RMF.
Aprovechando su larga trayectoria de trabajo con los sectores público y privado, así como su historial de soluciones orientadas a la medición y los estándares, el NIST está buscando colaboradores de toda la sociedad para unirse al consorcio. El consorcio funcionará como un espacio de convocatoria para un diálogo informado y el intercambio de información y conocimientos. Será un vehículo para apoyar la investigación y el desarrollo colaborativos a través de proyectos compartidos, y promoverá la evaluación de sistemas de prueba y prototipos para informar futuros esfuerzos de medición de IA.
Aspectos clave para formar el consorcio
En particular, el NIST está solicitando respuestas de todas las organizaciones con experiencia y capacidades relevantes para celebrar un acuerdo de consorcio cooperativo de investigación y desarrollo (CRADA) para apoyar y demostrar vías que permitan una IA segura y confiable.
Se espera que los miembros contribuyan a la experiencia en una o más de varias áreas específicas, incluida la metrología de la inteligencia artificial, la IA responsable, el diseño y desarrollo de sistemas de inteligencia artificial, la interacción y los equipos entre humanos y la IA, las metodologías sociotécnicas, la explicabilidad e interpretabilidad de la IA y el análisis económico.
Se espera que los miembros participantes ofrezcan modelos, datos y/o productos para respaldar y demostrar vías que permitan sistemas de IA seguros y confiables a través del AI RMF; apoyo de infraestructura para proyectos de consorcio; y espacio en las instalaciones y gestión del consorcio de acogida de investigadores, talleres y conferencias.
Las organizaciones interesadas con capacidades técnicas relevantes deben enviar una carta de interés antes del 2 de diciembre de 2023. Los detalles de la solicitud de colaboradores del NIST están disponibles en el Registro Federal. El NIST planea organizar un taller el 17 de noviembre de 2023 para aquellos interesados en aprender más sobre el consorcio y participar en la conversación sobre la seguridad de la IA.