
La opinión del experto: AI Act
Javier Valls, evaluador de Ética de la IA en la Comisión Europea, comparte con nosotros su visión sobre la nueva normativa AI Act que entrará en vigor en 2023 y cómo afectará a las organizaciones europeas.
P: Javier, se habla mucho de los riesgos de la Inteligencia Artificial, que hacen que surjan necesidades de gobernanza y nuevas regulaciones. ¿Puedes explicarnos brevemente qué es para ti el gobierno de la IA?
R: La gobernanza de la inteligencia artificial consiste en un marco de gestión del uso de esta tecnología en una organización. Este marco está constituido por principios de buenas prácticas y un marco jurídico regulatorio que orienta a la organización a utilizar la inteligencia artificial en sus procesos de forma segura. La simbiosis entre los principios y guías con el marco regulatorio es necesario, puesto que ninguno de forma autónoma cubre las necesidades que tiene la sociedad de asegurar que no se produzcan accidentes y malos usos al implementar sistemas inteligentes en el día a día.
Tenemos ya constancia de casos en los que se producen problemas de discriminación, de restricción de libertades, lesiones de la privacidad de las personas o incluso muertes por accidente que nos indican que la implementación de la inteligencia artificial puede causar daños a los ciudadanos en sus derechos democráticos. Es por ello por lo que un buen plan de gobernanza de la inteligencia artificial es importante para tomar las medidas necesarias para evitar este tipo de problemas con su utilización.
P: ¡Totalmente! Muchas empresas están planteándose cómo dar forma a ese plan de gobernanza, la mayoría todavía ávidas de orientación para empezar. ¿Qué pasos ha dado la Unión Europea en este sentido? ¿Podrías describirlos?
La Unión Europea ha logrado grandes avances en los dos campos que mencionaba. Por un lado, las guías éticas del grupo de altos expertos (HLEG) en inteligencia artificial han expuesto un sistema de siete pilares o prácticas relevantes: el control y supervisión humana de los sistemas inteligentes, la seguridad y robustez técnica, el respeto a la privacidad y un gobierno de datos adecuado, la transparencia en su funcionamiento, el respeto a la diversidad, la no discriminación y la justicia, el bienestar medioambiental y social y la rendición de cuentas. Éstos soportan cuatro principios: el respeto de la autonomía humana, la prevención de daños, el trato justo y la explicabilidad. Principios que se han de tener en cuenta para cumplir con el análisis ético de la inteligencia artificial.

Fuente: Ethics Guidelines for Trustworthy AI (Comisión Europea)
A nivel regulatorio, la Unión Europea está impulsando una normativa, AI Act, que se espera ver publicada en diciembre de este año. Esta normativa hace hincapié en dos puntos importantes que deben converger: el respeto de los derechos fundamentales y la regulación de la inteligencia artificial. Desde el primero, que sirven de base al sistema democrático, se tendrá que hacer una reinterpretación de los derechos fundamentales para entornos que funcionen con sistemas inteligentes: éstos deben estar diseñados para no vulnerarlos. El segundo punto se centra en la prevención de los posibles riesgos que puedan surgir con tecnologías de inteligencia artificial que en determinados entornos van a ser consideradas como de alto riesgo, exigiendo un plan de prevención.
La gobernanza de la inteligencia artificial sólo es posible con ambos pilares. La ausencia de uno de ellos puede cuestionar su uso por parte de la sociedad.
P: En tu opinión, la nueva normativa de AI Act, ¿cómo afectará a las empresas?
Hay un primer impacto, directo y muy positivo, que es el establecimiento de un marco conceptual común y de políticas compartidas que sirva de orientación a las empresas de cara a establecer su gobernanza. Esta normativa establece una definición de IA, características a examinar (complejidad, predictibilidad, transparencia,…) que generan riesgos en su uso, una escala de seguridad de la IA y principios para atajar las vulnerabilidades.

Fuente: Shaping Europe’s Digital Future (Comisión Europea)
Por otro lado, para adaptarse a esta normativa, las empresas necesitarán desarrollar activos de gobernanza que, en muchos casos, son incipientes o faltan por ahora. Esto requerirá un esfuerzo organizativo y cierta inversión a las empresas en acciones como: adaptar o desarrollar su plan de prevención de riesgos; evaluar los impactos en sus servicios digitales y especialmente los relacionados con social media, que se consideran de alto impacto; reforzar o crear su capa propia de autorregulación y su evaluación de impacto en los derechos fundamentales de las tecnologías que aplican.
Finalmente, un impacto que responde exclusivamente a la casuística de incumplimiento de esta normativa, son las sanciones administrativas, o incluso penales en los casos de vulneración más graves. Las primeras son sanciones que, en el borrador actual, están estipuladas en el pago de una penalización de hasta el 6% de sus ingresos globales anuales del año anterior para empresas privadas o de hasta € 500.000 para organismos oficiales de la UE (Artículo 71).
Con una gobernanza adecuada, las empresas pueden evitar las sanciones derivadas de la entrada en vigor de AI Act en 2023, lo que hace sumamente importante que realicen su transición de manera adecuada para dotarse de una gobernanza sólida.
Evaluador de Ética de la IA en la Comisión Europea
Doctor en Derecho. Profesor Titular de Derecho Penal en Universidad de Granada
Linkedin: https://www.linkedin.com/in/javier-valls-prieto-518298b2/. Twitter: @javi_valls