El Centro de Seguridad Nacional del Reino Unido (NCSC) y la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE.UU. (CISA) han publicado el documento ‘Directrices para el desarrollo seguro de sistemas de IA’. Este documento está enfocado a los desarrolladores, con el fin de ayudar en la creación de sistemas seguros de inteligencia artificial (IA).
El uso cada vez mayor de la tecnología de IA continúa tanto en el sector público como en el privado, y estas directrices ayudarán a los desarrolladores de estos (y nuevos) sistemas de inteligencia artificial a reducir los riesgos del sistema antes de que surjan problemas de seguridad.
Etapas para desarrollar un sistema de IA seguro
El documento ‘Directrices para el desarrollo seguro de sistemas de IA’ se divide en cuatro etapas: diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros. Cada sección destaca consideraciones y mitigaciones que ayudarán a reducir el riesgo de ciberseguridad en el proceso de desarrollo de un sistema de IA organizacional.
Al integrar los principios de seguridad por diseño, estas pautas representan un acuerdo en el que los desarrolladores deben invertir, protegiendo a los clientes en cada paso del diseño y desarrollo de un sistema.
Las directrices proporcionan recomendaciones esenciales para el desarrollo de sistemas de IA y enfatizan la importancia de adherirse a los principios de Secure by Design (seguridad por diseño) que CISA defiende.