La tecnología avanza con grandes pasos, pero las normas de uso ético van más lentas, provocando que algunas empresas como Bosch comiencen a crear sus propias líneas rojas éticas para establecer el uso de la Inteligencia Artificial.
En concreto, Bosch ha publicado las directrices para el uso de la IA en sus productos inteligentes. La pauta principal en la que se basa es el papel de la persona en la toma de decisiones, la cual debe tener la decisión final en cualquier situación relacionada con la Inteligencia Artificial.
Esta iniciativa de la compañía es debido a su deseo de que sus productos basados en IA sean seguros, robustos y explicables. Además, la marca planea formar a 20.000 empleados en el uso de la Inteligencia Artificial, durante los próximos dos años.
Inteligencia Artificial como herramienta
El código de ética de Bosch deja patente que la Inteligencia Artificial no debe tomar decisiones sobre los humanos sin que este proceso haya sido supervisado por personas; al tiempo que esta tecnología deberá servir como una herramienta para las personas.
Dentro del código se describen tres enfoques. En el primero es ‘human-in-command’, donde la IA es una ayuda para la persona como, por ejemplo, en la toma de decisiones, clasificación de objetos u organismos.
En el segundo enfoque, ‘human-in-the-loop’, un sistema inteligente puede tomar decisiones de manera autónoma pudiendo ser anuladas en cualquier momento por las personas.
Por último, el tercer punto, ‘human-on-the-loop’, se centra en la tecnología inteligente, como los sistemas de frenada de emergencia, donde no existe un margen para la intervención humana durante el proceso de la toma de decisión. El sistema se basa en unos parámetros programados donde la IA decide si activar o no el sistema.