Las temáticas alrededor de problemas como los del género o los de la diversidad han sido de las más debatidas en los últimos años. La mayoría de las empresas de tecnología han adoptado políticas de diversidad y de trabajo equitativo, con las que buscan que tanto mujeres como individuos de comunidades con poca representación logren también llegar a puestos que históricamente solían ser predominantemente masculinos.
El mercado de tecnología, por ejemplo, pasa por un periodo de alta demanda para funciones de desarrollo tecnológico, y para las empresas se ha convertido en una tarea el hacer que esta demanda de cierta forma también funcione como un reinicio mucho más equitativo para las mujeres. Esto, evidentemente, no solamente en la búsqueda por salarios equitativos, sino también en la creación de más oportunidades.
Sin embargo, aunque estos esfuerzos activos sin duda son bienvenidos, en ocasiones también existen manifestaciones de sexismo en tecnologías que en muchos casos ni los programadores mismos pueden prever. Desde traducciones hasta el reconocimiento facial, estos sesgos no son únicos de la Inteligencia Artificial y sus aplicaciones, pero la gran envergadura de la tecnología hace que sesgos de este tipo sean especialmente críticos.
El doble filo de los datos
Londa Schiebinger es una investigadora estadounidense, que ha trabajado junto con la Universidad de Stanford para pensar soluciones innovadoras a través del nuevo entendimiento del género y del sexo. Sin embargo, irónicamente, ella también ha sido víctima de sexismo por parte de una compañía de la que menos lo esperaba: Google.
Pese a que Google no lo quiso, su algoritmo de cierta forma eliminó a la mujer de la ecuación, volviendo como siempre a la figura masculina del investigador hombre. Esto, según lo explicó Schiebinger, se debe a que gran parte de los documentos y libros indexados utilizan pronombres masculinos para referirse a investigadores, lo que a la vez ha significado que el algoritmo ‘piensa’ que los investigadores son masculinos.
Esto no es problema de Google, sino que es un problema de datos. “‘Él dijo’ es más común en la web y en los libros que ‘ella dijo’. En la década de los 60 la porción era de casi 4 a 1”, explicó Londa Schiebinger durante su conferencia internacional en la Semana de la Ingeniería de la Universidad del Valle.
“Y lo que es peor, cada vez que un programa de traducción utiliza de forma predeterminada la expresión “él dijo”, aumenta la frecuencia relativa del pronombre masculino en la web, lo que puede suponer un retroceso en los avances hacia la equidad que tanto ha costado conseguir”.
Londa Schiebinger
Esto, a su vez, también se extiende al terreno de aplicaciones como la identificación facial. Schiebinger explica casos como el de las cámaras de Nikon, que en muchos casos detectan que personas de origen asiático tienen los ojos cerrados pese a no ser así. El algoritmo no fue entrenado para identificar personas asiáticas, llegando a la ironía de que una compañía japonesa discrimine a la gente de su propio país natal.
Más allá del género
Ejemplos como el vivido por Schiebinger y el de Nikon no son malintencionados, pero sí muestran que existe un grave sesgo en nuestros algoritmos de Inteligencia Artificial que están perpetuando dinámicas que queremos eliminar. Esto es netamente un problema con los datos que como sociedad debemos encarar para crear soluciones reales que permitan verdaderamente que estas tecnologías desarrollen su potencial entero.
Como todo problema complejo, la solución a estos sesgos es también bastante compleja. Es evidente que los humanos no pueden intervenir en el análisis de las máquinas, principalmente porque una intervención directa significa trabajo manual que la IA justamente quiere eliminar y que sería además tedioso. Para Schiebinger, la solución está principalmente en erradicar lentamente las categorías de nuestros algoritmos.
Hombre o mujer, negro o blanco, joven o viejo; todas estas categorías nos ayudan a entender el mundo, pero que al mismo tiempo “fallan en capturar las complejidades del género y de las identidades étnicas”, explica. De la misma forma, esto también requiere que investigadores y empresas tengan muy presentes los sesgos que pueden tener sus programas, y asegurarse de que el proceso de Machine Learning considere razas y géneros más allá de los natales.
Para Yvone Baur, cabeza de analítica predictiva para SAP, empresa de software especializada en analítica e IA, la solución también está en identificar puntos débiles de la cadena para poder corregirlos a tiempo. En últimas, explica que el código de computadores es humano, y que está igualmente en riesgo de perpetuar sesgos que en muchos casos son inconscientes.
Así mismo, es imperativo que las empresas no hagan lo que siempre han hecho. SAP, por ejemplo, ha modernizado sus ofertas de trabajo para aumentar el uso del lenguaje neutral. “Nada tan evidente como ‘No aplica para las mujeres’, que todo el mundo sabe que es discriminatorio, pero sí frases como extrovertido y agresivo en la búsqueda de oportunidades, que se ha demostrado que atraen a los solicitantes de empleo masculinos y repelen a los femeninos, y palabras como cariñoso y flexible, que hacen lo contrario”, dice.
Una nueva oportunidad
Desde sus inicios, la tecnología ha sido desplegada al mundo con la promesa de facilitar la vida de sus usuarios. En casos como el de la Inteligencia Artificial, se necesita de cierta forma que nos desprendamos de formas anticuadas de hacer las cosas para empezar a pensar nociones más filosóficas sobre temas como la equidad y la participación de distintos grupos de la sociedad.
De la misma forma, es importante que científicos de datos y empresas del gremio se den a la tarea de pensar preguntas como ¿los datos deben representar el mundo actual, o el mundo que queremos? o ¿quién debe decidir qué tan justos son los algoritmos que estamos aplicando?
Schiebinger también es enfática en decir que estos procesos también deben estar acompañados por investigadores de las ciencias sociales, que pueden dar miradas mucho más informadas durante la creación de los algoritmos. La misma Universidad de Stanford ha creado programa como ‘Human-centered AI’, en donde científicos sociales y de datos interactúan para crear mejores estándares.
Hoy en día empezamos a ver aplicaciones basadas en Inteligencias Artificial que ya tienen un impacto profundo en nuestra sociedad. La tarea de hacer la IA más justa con todas las personas puede significar no solamente una nueva forma de entender negocios, sino también de cambiar por completo nuestra visión cultural de problemas humanos, dijo Schiebinger. “Espero que esto les impulse a tener más creatividad, crear nuevas perspectivas y abrir nuevas áreas de investigación. Después de todo, ¿podemos darnos el lujo de ignorar estas oportunidades?”.
Imagen: Possessed Photography (Unsplash)