septiembre 2022

IA Responsable: así podemos hacer que nuestra Inteligencia Artificial impacte positivamente

Leticia Gomez Rivero
Share this post

Cada vez más empresas buscan aplicar la IA Responsable en sus algoritmos de inteligencia artificial, ante las crecientes preocupaciones por parte de sus clientes sobre el uso de sus datos. De esta forma, aspiran a proteger los derechos de los usuarios y evitar crisis reputacionales

Es un hecho que la Inteligencia Artificial impacta enormemente en nuestras vidas y en los negocios: nos facilita la vida con nuevos servicios que no serían posibles sin ella, hace más seguro nuestro trabajo, agiliza nuestro día a día,… pero también hay otra cara de la moneda: es vulnerable al sesgo y la discriminación de ciertos colectivos, lo que supone un posible impacto negativo en nuestras vidas.

¿Qué es el riesgo ético en la IA?

Como afirmaba Kathy O’Neil en su libro Armas de destrucción matemática: “Los modelos son opiniones en código”; es decir, cuando se programan, el desarrollador vuelca sus propias convicciones y posibles sesgos en ellos. Youssef M. Ouled, impulsor de AlgoRace, parece coincidir con esta opinión, afirmando: “Un algoritmo no es racista ni deja de serlo, pero la forma de educarlo sí puede ser perfectamente racista”.

De manera innegable, la IA está presente en nuestra vida cotidiana, y contribuye a que sea más fácil; al mismo tiempo, presenta un riesgo de polarización y refuerzo de estereotipos injustos. Pero, sin duda, podemos continuar aprovechando las ventajas de la IA minimizando este riesgo.

¿Cómo asegurar una IA neutral?

Partiendo de la noción de sesgo, hay elementos claros que hacen ética y neutral la inteligencia artificial. Para que un algoritmo sea éticamente responsable, debe cumplir ciertas cualidades que minimizan o eliminan el riesgo ético del mismo, como son la transparencia de su lógica de decisión, la auditabilidad de su evolución y la justicia en sus decisiones, y estar correctamente monitorizado mediante los sistemas soporte necesarios.

Desde Plaiground estamos enormemente concienciados con la necesidad de una IA justa, transparente y explicable. Mientras surgen iniciativas a nivel europeo, como el AI Act, el equipo experto Plaiground ya se ha puesto manos a la obra para ayudar a las empresas que apuestan por la IA en sus negocios a generar un impacto positivo en la sociedad y el medioambiente. ¿Cómo pueden las empresas contribuir con su IA?

  1. Crear un equipo a la altura de este reto. El alto impacto de la regulación, la naturaleza técnica de los modelos y las dinámicas rutinarias de cada empresa hacen que sea necesario contar con una célula de IA Responsable multidisciplinar y muy especializada. Lo óptimo es que esta célula cuente con especialistas en normativa de datos e inteligencia artificial, en ciertos protocolos técnicos (ciberseguridad, IA explicable, mecanismos de neutralidad), así como expertos en la gestión del negocio. Dada la dificultad de reunir todas estas capacidades y su carácter altamente especialista, las empresas tienden a recurrir a expertos externos en modelos de acompañamiento o de consulta a demanda.
  2. Entender las mejores prácticas en su entorno. ¿Qué están haciendo mis competidores directos? ¿Y las empresas no competidores de otros sectores? ¿Qué acciones pioneras están realizando las compañías intensivas en IA? El primer paso es analizar varios ámbitos sobre los que las empresas articulan sus mejores prácticas en IA responsable. Una manera efectiva de abordar este análisis es pensar cómo se estructura nuestro propio negocio, y, a partir de ahí, agrupar las prácticas con la misma lógica. De este modo, podemos hablar de estructuras de gobierno, operaciones, tecnología,… favoreciendo la comparabilidad con la propia empresa.
  3. Conocer su propia madurez en cuanto a IA Responsable. La IA está presente, de forma directa o indirecta, en todos los ámbitos del negocio: por lo tanto, identificar y analizar estos ámbitos uno a uno construye la clave para evaluar el grado de avance de la empresa hacia la IA responsable y asegurarla en el futuro. Dado este paso, una evaluación inclusiva que implique a todas las áreas contribuirá a la visión global, dado que existen áreas impulsoras de IA, usuarias e impactadas por la IA cuyas diferentes visiones forman un dibujo completo de la madurez de la IA responsable. Asimismo, incluyendo a todas las áreas, aseguramos la gestión correcta de unos de los aspectos más críticos en todo cambio empresarial: el cambio cultural.

¿Cómo conocer la madurez de la IA Responsable?

Si bien a priori se tiende a dar por hecho que la IA Responsable está confinada a ciertos profesionales de las empresas, como los equipos de analítica, tecnología, sostenibilidad o RSC, la realidad es que la IA Responsable impregna cada ámbito de la empresa. La IA Responsable forma parte de la estrategia y la cultura de la empresa, se sustenta sobre unos procesos y activos tecnológicos determinados, toma forma apoyada en ciertos roles y estructuras relacionales,…

Por esto, en Plaiground nos apoyamos en una metodología contrastada en la práctica que adaptamos a las particularidades de la IA Responsable: Ascendant. Esta metodología ofrece una manera de analizar de forma integral el grado de avance de un negocio en cuanto a la IA Responsable, evaluando de manera cuantitativa y comparable la madurez en cada ámbito relevante.


Estructurando el negocio en seis pilares donde la IA Responsable está presente, esta metodología permite observar:

  1. Si la estrategia de la compañía en torno a la IA Responsable es clara y madura, así como el grado de conocimiento de los impactos y oportunidades del entorno
  2. Si sus procesos favorecen la transparencia algorítmica, protección del propietario de los datos, la trazabilidad y el impacto positivo, tanto social como medioambiental
  3. Si existe cultura de IA Responsable, y cómo debe abordarse la evolución cultural
  4. Si el modelo de gobierno es adecuado para la IA Responsable, su robustez y sus carencias
  5. Si a nivel organizativo hay los roles necesarios y prácticas sólidas, así como las necesidades de refuerzo hacia la IA Responsable
  6. Si todas las áreas aspiran a y priorizan crecer en IA Responsable, o, por el contrario, hay “áreas rebeldes” cuyas necesidades deben atenderse para lograr su compromiso

Aplicada de forma individual a la empresa, esta metodología arroja una medición precisa del punto de partida de la empresa, poniendo de manifiesto palancas útiles y aspectos a evolucionar de forma prioritaria para ser una empresa que practica la IA Responsable. Estos hallazgos permiten establecer una hoja de ruta que guíe a la empresa en la aplicación de la IA Responsable de forma coherente con su estrategia de negocio y sus capacidades técnicas, evitando sanciones y crisis reputacionales en el futuro, al tiempo que refuerza la confianza y fidelidad de sus clientes.

¿Cómo aplicar la IA Responsable en las empresas?

Mientras se tiende a asociar los retos de privacidad y ética algorítmica a grandes tecnológicas como Google o Amazon, la IA Responsable es agnóstica en cuanto al sector y tamaño de cada empresa: por el mero hecho de captar y analizar datos, sin importar cómo de compleja es su inteligencia, ya existe un grado de vulnerabilidad a los riesgos de privacidad y ética.

Esto demanda contar con los mecanismos de prevención y gobierno adecuados. Para ello, el equipo experto en Gobierno de la IA de Plaiground recomienda, de manera general, que las empresas:

  1. Aseguren que su plataforma tecnológica cuenta con las funcionalidades adecuadas o módulos específicos para trazar, auditar y explicar la analítica que soporta, así como para medir su impacto medioambiental
  2. Cuenten con un inventario de su Inteligencia Artificial y un mapa de los actores relacionados con ésta, para asegurar la trazabilidad de responsabilidades
  3. Creen o refuercen las estructuras de gobierno de la inteligencia artificial, asignando roles competentes, estableciendo las dinámicas adecuadas y los modelos de seguimiento adaptados a la naturaleza de la IA Responsable
  4. Capaciten mediante formaciones adecuadas a sus profesionales, sean expertos técnicos o no, de cara a reforzar la conciencia de IA Responsable y dotarles de las competencias necesarias para gobernarla
  5. Establezcan los protocolos necesarios para el aseguramiento de la ética algorítmica, gestionables de forma autónoma por los profesionales impulsores de la inteligencia artificial, y accionables en los entornos tecnológicos adecuados

La concreción de estas acciones dependerá de las particularidades de cada empresa. Por esto, para empezar este viaje, el equipo Plaiground invita a cada empresa a conocer su punto de partida en su test de autodiagnóstico.

Sigue leyendo...

septiembre 2022

La opinión del experto: AI Act

Leer más
noviembre 2021

Ética e Inteligencia Artificial

Leer más