El 13 de diciembre, la Oficina Europea de Inteligencia Artificial (EIA) de la Comisión Europea organizará un taller online enfocado solo para especialistas y centrado en la evaluación de los modelos de inteligencia artificial (IA) de uso general con riesgo sistémico. La Oficina de IA ha abierto una convocatoria de evaluadores para recibir resúmenes de artículos publicados sobre este tipo de modelos de IA. El plazo para el envío de los resúmenes de artículos estará abierto hasta el 8 de diciembre de 2024.
Se trata de una oportunidad para que las organizaciones y los grupos de investigación muestren su experiencia y contribuyan a dar forma al ecosistema de evaluación en el marco de la Ley de IA de la UE.
El evento reunirá a evaluadores líderes y a la Oficina de IA para intercambiar ideas sobre metodologías de evaluación de vanguardia para modelos de IA de uso general. Los participantes seleccionados presentarán sus enfoques, compartirán las mejores prácticas y analizarán los desafíos en la evaluación de los riesgos sistémicos asociados con las tecnologías avanzadas de inteligencia artificial.
Esta iniciativa tiene como objetivo fomentar la colaboración y avanzar en la ciencia de las evaluaciones de modelos de IA de propósito general, contribuyendo al desarrollo de marcos sólidos para garantizar la seguridad y confiabilidad de estos modelos.
Convocatoria de presentaciones de resúmenes de artículos
La Oficina de IA invita a los evaluadores a enviar sus resúmenes de artículos publicados anteriormente sobre la evaluación de modelos de IA de propósito general con riesgo sistémico. Los resúmenes de artículos deben focalizarse en alguno de los siguientes temas: riesgos relacionados con amenazas químicas, biológicas, radiológicas y nucleares; delitos cibernéticos; riesgos de interrupciones a gran escala o interferencias en la infraestructura; y preocupaciones sobre la supervisión y la alineación de los modelos de IA autónomos.
Asimismo, se aceptarán temas que aborden los riesgos de generar resultados discriminatorios; riesgos que implican violaciones de la privacidad o uso indebido de datos; riesgos asociados a la propagación de información falsa o dañina; y riesgos adicionales que afecten a la salud pública, la seguridad, los procesos democráticos o los derechos fundamentales.
En cuanto al perfil de los solicitantes, deben ser organizaciones registradas o grupos de investigación afiliados a universidades con experiencia demostrada en evaluaciones de modelos de IA de propósito general. Las propuestas se evaluarán en función de la calidad técnica, la relevancia y la alineación con la misión de la Oficina de IA.
La fecha límite para la presentación de propuestas es el 8 de diciembre. El día 11 se llevarán a cabo las notificaciones de invitación para participar en el taller el 13 de diciembre, a las 14:00 horas CET.
Los interesados en presentar su propuesta de resúmenes de artículos pueden hacerlo en el siguiente enlace.