Hablemos

Javier Valls, evaluador de Ética de la IA en la Comisión Europea, comparte con nosotros su visión sobre la nueva normativa AI Act que entrará en vigor en 2023 y cómo afectará a las organizaciones europeas.


P: Javier, se habla mucho de los riesgos de la Inteligencia Artificial, que hacen que surjan necesidades de gobernanza y nuevas regulaciones. ¿Puedes explicarnos brevemente qué es para ti el gobierno de la IA?

R: La gobernanza de la inteligencia artificial consiste en un marco de gestión del uso de esta tecnología en una organización. Este marco está constituido por principios de buenas prácticas y un marco jurídico regulatorio que orienta a la organización a utilizar la inteligencia artificial en sus procesos de forma segura. La simbiosis entre los principios y guías con el marco regulatorio es necesario, puesto que ninguno de forma autónoma cubre las necesidades que tiene la sociedad de asegurar que no se produzcan accidentes y malos usos al implementar sistemas inteligentes en el día a día.

Tenemos ya constancia de casos en los que se producen problemas de discriminación, de restricción de libertades, lesiones de la privacidad de las personas o incluso muertes por accidente que nos indican que la implementación de la inteligencia artificial puede causar daños a los ciudadanos en sus derechos democráticos. Es por ello por lo que un buen plan de gobernanza de la inteligencia artificial es importante para tomar las medidas necesarias para evitar este tipo de problemas con su utilización.

P: ¡Totalmente! Muchas empresas están planteándose cómo dar forma a ese plan de gobernanza, la mayoría todavía ávidas de orientación para empezar. ¿Qué pasos ha dado la Unión Europea en este sentido? ¿Podrías describirlos?

La Unión Europea ha logrado grandes avances en los dos campos que mencionaba. Por un lado, las guías éticas del grupo de altos expertos (HLEG) en inteligencia artificial han expuesto un sistema de siete pilares o prácticas relevantes: el control y supervisión humana de los sistemas inteligentes, la seguridad y robustez técnica, el respeto a la privacidad y un gobierno de datos adecuado, la transparencia en su funcionamiento, el respeto a la diversidad, la no discriminación y la justicia, el bienestar medioambiental y social y la rendición de cuentas. Éstos soportan cuatro principios: el respeto de la autonomía humana, la prevención de daños, el trato justo y la explicabilidad. Principios que se han de tener en cuenta para cumplir con el análisis ético de la inteligencia artificial.

Interrelaciones entre los siete pilares: todos son de igual relevancia, se sustentas unos en otros y deben ser aplicados y evaluados a lo largo de todo el ciclo de vida de la IA
Fuente: Ethics Guidelines for Trustworthy AI (Comisión Europea)

A nivel regulatorio, la Unión Europea está impulsando una normativa, AI Act, que se espera ver publicada en diciembre de este año. Esta normativa hace hincapié en dos puntos importantes que deben converger: el respeto de los derechos fundamentales y la regulación de la inteligencia artificial. Desde el primero, que sirven de base al sistema democrático, se tendrá que hacer una reinterpretación de los derechos fundamentales para entornos que funcionen con sistemas inteligentes: éstos deben estar diseñados para no vulnerarlos. El segundo punto se centra en la prevención de los posibles riesgos que puedan surgir con tecnologías de inteligencia artificial que en determinados entornos van a ser consideradas como de alto riesgo, exigiendo un plan de prevención.

La gobernanza de la inteligencia artificial sólo es posible con ambos pilares. La ausencia de uno de ellos puede cuestionar su uso por parte de la sociedad.

P: En tu opinión, la nueva normativa de AI Act, ¿cómo afectará a las empresas?

Hay un primer impacto, directo y muy positivo, que es el establecimiento de un marco conceptual común y de políticas compartidas que sirva de orientación a las empresas de cara a establecer su gobernanza. Esta normativa establece una definición de IA, características a examinar (complejidad, predictibilidad, transparencia,…) que generan riesgos en su uso, una escala de seguridad de la IA y principios para atajar las vulnerabilidades.

Clasificación de los niveles de riesgo de la IA según su propósito y usos, que vertebra AI Act.
Fuente: Shaping Europe’s Digital Future (Comisión Europea)

Por otro lado, para adaptarse a esta normativa, las empresas necesitarán desarrollar activos de gobernanza que, en muchos casos, son incipientes o faltan por ahora. Esto requerirá un esfuerzo organizativo y cierta inversión a las empresas en acciones como: adaptar o desarrollar su plan de prevención de riesgos; evaluar los impactos en sus servicios digitales y especialmente los relacionados con social media, que se consideran de alto impacto; reforzar o crear su capa propia de autorregulación y su evaluación de impacto en los derechos fundamentales de las tecnologías que aplican.

Finalmente, un impacto que responde exclusivamente a la casuística de incumplimiento de esta normativa, son las sanciones administrativas, o incluso penales en los casos de vulneración más graves. Las primeras son sanciones que, en el borrador actual, están estipuladas en el pago de una penalización de hasta el 6% de sus ingresos globales anuales del año anterior para empresas privadas o de hasta € 500.000 para organismos oficiales de la UE (Artículo 71).

Con una gobernanza adecuada, las empresas pueden evitar las sanciones derivadas de la entrada en vigor de AI Act en 2023, lo que hace sumamente importante que realicen su transición de manera adecuada para dotarse de una gobernanza sólida.

Javier Valls Prieto,

Evaluador de Ética de la IA en la Comisión Europea

Doctor en Derecho. Profesor Titular de Derecho Penal en Universidad de Granada

Linkedin: https://www.linkedin.com/in/javier-valls-prieto-518298b2/. Twitter: @javi_valls

Cada vez más empresas buscan aplicar la IA Responsable en sus algoritmos de inteligencia artificial, ante las crecientes preocupaciones por parte de sus clientes sobre el uso de sus datos. De esta forma, aspiran a proteger los derechos de los usuarios y evitar crisis reputacionales

Es un hecho que la Inteligencia Artificial impacta enormemente en nuestras vidas y en los negocios: nos facilita la vida con nuevos servicios que no serían posibles sin ella, hace más seguro nuestro trabajo, agiliza nuestro día a día,… pero también hay otra cara de la moneda: es vulnerable al sesgo y la discriminación de ciertos colectivos, lo que supone un posible impacto negativo en nuestras vidas.

¿Qué es el riesgo ético en la IA?

Como afirmaba Kathy O’Neil en su libro Armas de destrucción matemática: “Los modelos son opiniones en código”; es decir, cuando se programan, el desarrollador vuelca sus propias convicciones y posibles sesgos en ellos. Youssef M. Ouled, impulsor de AlgoRace, parece coincidir con esta opinión, afirmando: “Un algoritmo no es racista ni deja de serlo, pero la forma de educarlo sí puede ser perfectamente racista”.

De manera innegable, la IA está presente en nuestra vida cotidiana, y contribuye a que sea más fácil; al mismo tiempo, presenta un riesgo de polarización y refuerzo de estereotipos injustos. Pero, sin duda, podemos continuar aprovechando las ventajas de la IA minimizando este riesgo.

¿Cómo asegurar una IA neutral?

Partiendo de la noción de sesgo, hay elementos claros que hacen ética y neutral la inteligencia artificial. Para que un algoritmo sea éticamente responsable, debe cumplir ciertas cualidades que minimizan o eliminan el riesgo ético del mismo, como son la transparencia de su lógica de decisión, la auditabilidad de su evolución y la justicia en sus decisiones, y estar correctamente monitorizado mediante los sistemas soporte necesarios.

Desde Plaiground estamos enormemente concienciados con la necesidad de una IA justa, transparente y explicable. Mientras surgen iniciativas a nivel europeo, como el AI Act, el equipo experto Plaiground ya se ha puesto manos a la obra para ayudar a las empresas que apuestan por la IA en sus negocios a generar un impacto positivo en la sociedad y el medioambiente. ¿Cómo pueden las empresas contribuir con su IA?

  1. Crear un equipo a la altura de este reto. El alto impacto de la regulación, la naturaleza técnica de los modelos y las dinámicas rutinarias de cada empresa hacen que sea necesario contar con una célula de IA Responsable multidisciplinar y muy especializada. Lo óptimo es que esta célula cuente con especialistas en normativa de datos e inteligencia artificial, en ciertos protocolos técnicos (ciberseguridad, IA explicable, mecanismos de neutralidad), así como expertos en la gestión del negocio. Dada la dificultad de reunir todas estas capacidades y su carácter altamente especialista, las empresas tienden a recurrir a expertos externos en modelos de acompañamiento o de consulta a demanda.
  2. Entender las mejores prácticas en su entorno. ¿Qué están haciendo mis competidores directos? ¿Y las empresas no competidores de otros sectores? ¿Qué acciones pioneras están realizando las compañías intensivas en IA? El primer paso es analizar varios ámbitos sobre los que las empresas articulan sus mejores prácticas en IA responsable. Una manera efectiva de abordar este análisis es pensar cómo se estructura nuestro propio negocio, y, a partir de ahí, agrupar las prácticas con la misma lógica. De este modo, podemos hablar de estructuras de gobierno, operaciones, tecnología,… favoreciendo la comparabilidad con la propia empresa.
  3. Conocer su propia madurez en cuanto a IA Responsable. La IA está presente, de forma directa o indirecta, en todos los ámbitos del negocio: por lo tanto, identificar y analizar estos ámbitos uno a uno construye la clave para evaluar el grado de avance de la empresa hacia la IA responsable y asegurarla en el futuro. Dado este paso, una evaluación inclusiva que implique a todas las áreas contribuirá a la visión global, dado que existen áreas impulsoras de IA, usuarias e impactadas por la IA cuyas diferentes visiones forman un dibujo completo de la madurez de la IA responsable. Asimismo, incluyendo a todas las áreas, aseguramos la gestión correcta de unos de los aspectos más críticos en todo cambio empresarial: el cambio cultural.

¿Cómo conocer la madurez de la IA Responsable?

Si bien a priori se tiende a dar por hecho que la IA Responsable está confinada a ciertos profesionales de las empresas, como los equipos de analítica, tecnología, sostenibilidad o RSC, la realidad es que la IA Responsable impregna cada ámbito de la empresa. La IA Responsable forma parte de la estrategia y la cultura de la empresa, se sustenta sobre unos procesos y activos tecnológicos determinados, toma forma apoyada en ciertos roles y estructuras relacionales,…

Por esto, en Plaiground nos apoyamos en una metodología contrastada en la práctica que adaptamos a las particularidades de la IA Responsable: Ascendant. Esta metodología ofrece una manera de analizar de forma integral el grado de avance de un negocio en cuanto a la IA Responsable, evaluando de manera cuantitativa y comparable la madurez en cada ámbito relevante.


Estructurando el negocio en seis pilares donde la IA Responsable está presente, esta metodología permite observar:

  1. Si la estrategia de la compañía en torno a la IA Responsable es clara y madura, así como el grado de conocimiento de los impactos y oportunidades del entorno
  2. Si sus procesos favorecen la transparencia algorítmica, protección del propietario de los datos, la trazabilidad y el impacto positivo, tanto social como medioambiental
  3. Si existe cultura de IA Responsable, y cómo debe abordarse la evolución cultural
  4. Si el modelo de gobierno es adecuado para la IA Responsable, su robustez y sus carencias
  5. Si a nivel organizativo hay los roles necesarios y prácticas sólidas, así como las necesidades de refuerzo hacia la IA Responsable
  6. Si todas las áreas aspiran a y priorizan crecer en IA Responsable, o, por el contrario, hay “áreas rebeldes” cuyas necesidades deben atenderse para lograr su compromiso

Aplicada de forma individual a la empresa, esta metodología arroja una medición precisa del punto de partida de la empresa, poniendo de manifiesto palancas útiles y aspectos a evolucionar de forma prioritaria para ser una empresa que practica la IA Responsable. Estos hallazgos permiten establecer una hoja de ruta que guíe a la empresa en la aplicación de la IA Responsable de forma coherente con su estrategia de negocio y sus capacidades técnicas, evitando sanciones y crisis reputacionales en el futuro, al tiempo que refuerza la confianza y fidelidad de sus clientes.

¿Cómo aplicar la IA Responsable en las empresas?

Mientras se tiende a asociar los retos de privacidad y ética algorítmica a grandes tecnológicas como Google o Amazon, la IA Responsable es agnóstica en cuanto al sector y tamaño de cada empresa: por el mero hecho de captar y analizar datos, sin importar cómo de compleja es su inteligencia, ya existe un grado de vulnerabilidad a los riesgos de privacidad y ética.

Esto demanda contar con los mecanismos de prevención y gobierno adecuados. Para ello, el equipo experto en Gobierno de la IA de Plaiground recomienda, de manera general, que las empresas:

  1. Aseguren que su plataforma tecnológica cuenta con las funcionalidades adecuadas o módulos específicos para trazar, auditar y explicar la analítica que soporta, así como para medir su impacto medioambiental
  2. Cuenten con un inventario de su Inteligencia Artificial y un mapa de los actores relacionados con ésta, para asegurar la trazabilidad de responsabilidades
  3. Creen o refuercen las estructuras de gobierno de la inteligencia artificial, asignando roles competentes, estableciendo las dinámicas adecuadas y los modelos de seguimiento adaptados a la naturaleza de la IA Responsable
  4. Capaciten mediante formaciones adecuadas a sus profesionales, sean expertos técnicos o no, de cara a reforzar la conciencia de IA Responsable y dotarles de las competencias necesarias para gobernarla
  5. Establezcan los protocolos necesarios para el aseguramiento de la ética algorítmica, gestionables de forma autónoma por los profesionales impulsores de la inteligencia artificial, y accionables en los entornos tecnológicos adecuados

La concreción de estas acciones dependerá de las particularidades de cada empresa. Por esto, para empezar este viaje, el equipo Plaiground invita a cada empresa a conocer su punto de partida en su test de autodiagnóstico.

(este post ha sido escrito por un algoritmo)

EL CONTEXTO

¿Cuál es la diferencia entre el bien y el mal? En un mundo donde la tecnología avanza más rápido de lo que podemos mantener el ritmo, estas preguntas se vuelven aún más difíciles.

A muchos les preocupa la inteligencia artificial o IA y su impacto en la ética. Pero la IA no es algo a lo que temer. La IA se puede utilizar para ayudar a los humanos a tomar mejores decisiones, mejorar sus vidas y hacer del mundo un lugar mejor.

Pero, ¿cómo nos aseguramos de que la IA se utilice para correctamente?

EL PROBLEMA

¿Cómo decidimos lo que está bien y lo que está mal? La IA puede tener un gran impacto en la sociedad. ¿Cómo nos aseguramos de que la IA se utilice para el bien? Hay muchas preocupaciones sobre cómo se podría utilizar la IA. Por ejemplo, ¿podría utilizarse la IA para mejorar las decisiones que toman los políticos?

Si la IA se utiliza para tomar decisiones que afectan a las personas, ¿hay alguna manera de asegurarse de que la IA sea imparcial? Y, si la IA se utiliza para tomar decisiones, ¿una IA debe ser responsable de esas decisiones?

¿CÓMO PODEMOS ARREGLARLO?

Uno de los mayores desafíos de la IA es que está diseñada para imitar la forma en que funciona el cerebro humano. Esto significa que la IA tiene algunos de los mismos sesgos que los humanos.

La mejor manera de solucionar este problema es utilizar la tecnología para programar máquinas para detectar y evitar decisiones sesgadas. Esto no es fácil.

Para hacer esto, necesitamos analizar el problema y comprender cómo podemos programar las máquinas para que tomen decisiones imparciales y justas.

Este es un desafío para los investigadores de inteligencia artificial y los ingenieros de software. Será un gran campo de investigación en los próximos años.

Ayer en Madrid tuvo lugar el lanzamiento oficial de Plaiground y AI Lab Granada. Un evento muy especial para nosotros, en el que nos acompañaron clientes, compañeros de Minsait, socios como Google y NVIDIA y startups del ecosistema Plaiground.

Carlos Beldarrain (Minsait) y Jose Luis Florez (Plaiground) dieron comienzo al evento con la presentación de Plaiground: una nueva forma de abordar problemas complejos de manera colaborativa. Plaiground es nuestra respuesta a los grandes retos que el futuro nos depara, en especial en el ámbito de la inteligencia artificial. Un modelo de negocio abierto y colaborativo, en el que freelancers, startups, universidades y grandes empresas pueden multiplicar sus fuerzas para cubrir ese espacio cada vez más amplio entre negocio y tecnología.

A continuación, 3 de nuestros clientes compartieron su experiencia con el modelo Plaiground. Juan Antonio Torrero (CIO, Orange) explicó la relevancia de las tecnologías de aprendizaje federado para poder compartir datos entre empresas y aprender de ellos manteniendo privacidad y seguridad por diseño. Vanesa Jiménez (Directora de Transformación Analítica, Sabadell) habló de cómo dar los primeros pasos hacia una empresa inteligente que conoce el impacto de sus algoritmos en sus métricas de negocio gracias al gobierno de la inteligencia. Y David Rey (CDO, Idealista) compartió su experiencia en monetización del dato a través de la algoritmia.

Por último, se anunció el AI Lab Granada, un centro que apunta a ser una referencia mundial en inteligencia artificial. Pudimos contar para ello con la presencia de Enrique Herrera (Vicerector de Investigación, Universidad de Granada), Isaac Hernández (Country Manager España y Portugal, Google Cloud) y Javier Peman (IA para Universidades, NVIDIA). Este espacio es el lugar perfecto para el despliege de el centro de supercomputación más potente de España, y de relevancia mundial. Permitiendo hitos como el desarrollo del primer megamodelo del lenguaje en castellano, que supondría un activo estratégico de valor incalculable para España.

Para terminar, los asistentes disfrutamos de un cocktail en el que pudimos «desvirtulaizar» a muchos de los amigos que hemos hecho a lo largo de estos últimos 2 años, con quienes sólo tuvimos ocasión de hablar a través de una pantalla.

¡Ah! Y también contamos con una banda de jazz en directo, lo que en cierto modo no podía encajar mejor con el mensaje de Plaiground. Y es que en el jazz, todos los músicos tienen libertad para improvisar. Ninguno es el más importante. Todos se escuchan con complicidad. Y al final, lo más importante, es la canción.