Sesgos de género de la IA pueden mitigarse, y el C4IR da herramientas para hacerlo

Publicado el 21 Feb 2022

Portada-kit-herramientas-C4IR-sesgos-genero-IA

La Inteligencia Artificial (IA) se puede definir de muchas maneras, pero, quizás, una de las más sencillas y acertadas es la que hace Oracle: para la compañía de desarrollo de soluciones en la nube, la IA no es más que un sistema o un conjunto de máquinas que imitan a la inteligencia humana para realizar ciertas tareas.

Kit-herramientas-C4IR-sesgos-genero-IA-Alexa
Dispositivo Amazon Alexa Echo Dot de tercera generación. Imagen: Lazar Gugleta (Unsplash)

Ejemplos de Inteligencia Artificial hay muchos, pero puede que los más sencillos de entender estén presentes en los asistentes de voz como Alexa o Google Home. En la actualidad la IA se encuentra presente en prácticamente todo el entorno digital: búsquedas en Internet, e-commerce, traducciones, ciberseguridad e incluso la lucha contra las noticias falsas y la desinformación.

La IA también está presente en sectores como la salud, el transporte, la manufactura y la administración pública, pues permite analizar grandes cantidades de datos y mejorar los sistemas que hacen posible que la sociedad moderna funcione.

Pero a pesar de los múltiples usos y beneficios de la IA, en los últimos años se han dado a conocer varias casos sobre sesgos raciales y de género que están presentes en varias IA. Los algoritmos de la Inteligencia Artificial vienen cargando con estos problemas desde la década de 1980, o al menos así lo afirma un artículo de The Risks Digest, una revista de la Asociación para Maquinaria de Computación.

El asunto con la IA ha trascendido hasta los organismos internacionales. En noviembre del año pasado, la Unesco aprobó la primera norma mundial sobre la ética de la Inteligencia Artificial, la cual fue respaldada por los países miembros en una conferencia general. Con la elaboración de esta guía se estableció el primer marco normativo mundial para el uso de la IA, así como sus pilares fundamentales: promulgar el respeto a los derechos humanos, el estado de derecho y la lucha contra la discriminación.

Las acciones para combatir los sesgos en Colombia

En Colombia también se han adelantado iniciativas para combatir los sesgos de la IA. El Centro para la Cuarta Revolución Industrial (C4IR) desarrolló recientemente un kit de herramientas con el que busca ayudar a las organizaciones a prevenir y mitigar los sesgos de género en la IA.

El C4IR es una plataforma gubernamental que surgió de una alianza entre la Alcaldía de Medellín y el Gobierno nacional y que busca promover la Transformación Digital y la implementación de tecnologías para ayudar a aumentar la productividad de las mipymes. Este centro también pretende impulsar la transición de la región hacia una economía basada en datos y liderar el desarrollo e implementación de marcos éticos y regulatorios para el uso de tecnologías emergentes en Latinoamérica.

De acuerdo con este centro, en América Latina “se ha evidenciado un marcado sesgo de género en sistemas de IA y los datos que los alimentan, los cuales ponen a las mujeres en situación de desventaja”.

El documento del C4IR, en el cual se exponen las herramientas para combatir este problema, explica que los sesgos pueden introducirse en los sistemas de IA principalmente por 2 vías: los datos y los algoritmos.

Vale la pena aclarar que los sesgos no aparecen por sí solos. El hecho de que un sistema de IA tenga sesgos con las personas negras, por ejemplo, se debe a un error involuntario o voluntario de los ingenieros o programadores que crearon el algoritmo para dicha IA.

Los sesgos también pueden provenir de las bases de datos con las que trabajan los profesionales que crean el algoritmo. De hecho, en agosto de 2021 Google lanzó la herramienta Know Your Data para ayudar a los profesionales a identificar y comprender los datos que utilizan para crear sus algoritmos de IA.

Además del kit de herramientas del Centro para la Cuarta Revolución Industrial, en Colombia existe un marco ético para la Inteligencia Artificial que busca, entre otras cosas, proteger a los ciudadanos de los impactos negativos de la IA y aprovechar al máximo las oportunidades de esta tecnología.

El problema con los sesgos

Los datos se utilizan para entrenar el algoritmo y el problema está en que pueden contener errores, estar incompletos, no ser representativos o reforzar estereotipos. El C4IR afirma que un ejemplo de sesgos de datos puede presentarse en la asignación de montos para créditos bancarios, pues puede suceder que a las mujeres se les asignen montos mucho menores en comparación con hombres en iguales condiciones.

En el caso de los sesgos de algoritmo, el error está más relacionado con la visión del mundo, las experiencias y los prejuicios que el profesional tiene. Un ejemplo de un sesgo de algoritmo se puede presentar cuando se deben construir filtros que identifiquen contenidos problemáticos en una red social. “Para entrenar un algoritmo que realice esta tarea, una persona debe definir y marcar aquello que encuentra problemático o sensible basado en razones influenciadas por normas personales”, indica el informe del C4IR.

En el caso de las mujeres, los sesgos de la Inteligencia Artificial pueden reforzar prejuicios en su contra como, por ejemplo, asociar sus voces con actitudes serviles y condiciones de subordinación. Estos sesgos pueden llegar al punto de asignarles a las mujeres un mayor riesgo crediticio, una menor capacidad de endeudamiento o excluir sus servicios en procesos de selección para cargos de dirección en una empresa.

En su proceso de Transformación Digital, la banca, el sector educativo, las entidades del Estado y otro sectores han acudido a la Inteligencia Artificial y a sus algoritmos para mejorar sus procesos, por lo que los sesgos de género en la IA son especialmente preocupantes e incluso pueden llegar a vulnerar derechos.

Desde el C4IR se afirma que la incorporación de las mujeres al mercado laboral se ha dado en condiciones desiguales, por lo que es fundamental mitigar los sesgos de género en los sistemas de IA y minimizar sus resultados discriminatorios y de exclusión.

Las herramientas

Las herramientas que otorga este kit del Centro para la Cuarta Revolución son herramientas transversales, las cuales se enfocan en las hojas de datos de un conjunto de datos, y herramientas que interviene los datos o el sistema de Ia IA.

En el caso de las herramientas transversales, el C4IR da una serie de pautas y explicaciones para manejar y estructurar las hojas de datos de datos, así como utilizar las tarjetas de modelo. En este apartado también se da una serie de recomendaciones para elaborar las hojas informativas y realizar una evaluación de impactos, la cual es “indispensable para determinar las acciones necesarias que garanticen el cumplimiento de los principios éticos de la IA”, asegura el informe.

En cuanto a las herramientas que intervienen los datos o el sistema de IA, la entidad indica que es indispensable realizar un proceso de preparación que contemple una serie de acciones, entre las cuales destaca la limpieza de los datos y su balanceo. También se otorga información sobre una serie de herramientas que ayudan a prevenir, identificar y mitigar los sesgos y, a su vez, se promueve el uso de algoritmos de mitigación de sesgos.

En este enlace puede accede al kit de herramientas del C4IR para el uso responsable de la Inteligencia Artificial.


Imagen principal: Christina (Unsplash)

¿Qué te ha parecido este artículo?

A
Juan Daniel Ayazo
email Sígueme en

Artículos relacionados

Artículo 1 de 2