“El reconocimiento automático del género y la orientación sexual es científicamente erróneo, y pone en peligro la vida de las personas LGBT+”. Con esta consiga se está movilizando una campaña que busca presionar a la Unión Europea para que prohíba el uso de la Inteligencia Artificial para reconocer automáticamente el género o la orientación sexual de las personas.
En cuanto a identidad de género y orientación sexual, el mundo no es binario de 1 y 0, como la forma de procesamiento detrás de los grandes sistemas informáticos. Los algoritmos no son infalibles y la tecnología tiene problemas para reconocer la diversidad de las personas.
Justamente, en abril de 2021, la Unión Europea está por revelar una nueva propuesta sobre la regulación de la Inteligencia Artificial en diferentes escenarios, como los aeropuertos. Lo que los activistas esperan es que no se permita que esta tecnología haga suposiciones sobre el género y la orientación sexual de las personas. Estas directrices, que se asemejan a lo que un Conpes (Consejo Nacional de Política Económica y Social) es en Colombia, marcan la pauta para otros países.
Organizaciones como All Out, que lleva más de 10 años trabajando por los derechos LGBT+, está promoviendo esta campaña en alianza con Reclaim Your Face (iniciativa de la sociedad civil), y pone sobre la mesa los debates éticos en el desarrollo e implementación de tecnologías, en este caso, de la Inteligencia Artificial (IA).
¿Para qué necesita la Unión Europea identificar el género u orientación sexual en sus aeropuertos?
Data2X, una plataforma técnica y de promoción colaborativa, que trabaja a través de asociaciones para mejorar la disponibilidad, la calidad y el uso de datos de género para marcar una diferencia práctica en las vidas de mujeres y niñas en todo el mundo, comparte que el tener la información sobre el género sirve a la hora de tomar decisiones que afectan el bienestar y calidad de vida de las personas.
Adicionalmente, destaca que se requieren datos no sesgados para diseñar políticas públicas y monitorear aspectos y variables que afectan el progreso de las personas. Sin embargo, llama la atención de que en la actualidad los datos están desbalanceados y solo si tiene una foto parcial de la vida de las mujeres y niñas, y las limitaciones que enfrentan porque hay vacíos en los datos de género a nivel global.
“El trasfondo de todo esto es muy violento porque los sistemas de Inteligencia Artificial no deberían ocuparse por reconocer el género de las personas; podrían ocuparse de otras características más relevantes, que no discriminen a las personas”, comparte Andrés Forero, gerente de campañas de All Out para Latinoamérica. Agrega que no está claro para qué sirve identificar estos aspectos: ¿para qué le sirve a un país saber si una persona es hombre o mujer, si es homosexual, bisexual, heterosexual y demás? Existen datos, información, que no siempre es necesario conocerlos y la privacidad por diseño (o sea que desde el diseño mismo de las soluciones o las tecnologías se esté pensando en proteger la privacidad del usuario como prioridad) también puede aplicar en estos contextos.
Explica que las consecuencias pueden ser muy diferentes. Por un lado, se refuerzan viejos prejuicios. De otro lado, se vulnera la privacidad de las personas (no todas quieren revelar su orientación sexual o no están seguras si lo hacen), se pueden generar microviolencias y discriminaciones cuando el género con el cual se identifica la persona no corresponder al del pasaporte y al de la IA, o en casos más extremos, se expone a la persona a otras agresiones, incluso físicas.
Hay pruebas de que algunos usos de la vigilancia biométrica masiva en los Estados miembros y por parte de las agencias de la UE han dado lugar a violaciones de la legislación de la Unión Europea en materia de protección de datos y restringido indebidamente los derechos de las personas, incluida su privacidad, su derecho a la libertad de expresión, el derecho a manifestarse y a no ser discriminadas. El uso generalizado de la vigilancia biométrica, la elaboración de perfiles y la predicción constituyen una amenaza para el Estado de Derecho y nuestras libertades fundamentales.
Reclaim your face.
No es una exageración, teniendo en cuenta que hoy en día existen 69 países donde ser homosexual es un delito, y que en algunos de ellos se generan persecuciones. Forero recuerda el caso de Polonia, donde se estaban generando zonas libres LGBT+, lo que alimentó el discurso homobófico y LGBTfóbico; o el caso del gobierno de Chechenia, que activamente hacía persecuciones a personas LGBT+ (Amnistía Internacional lo recuerda como la purga gay promovida por el Estado); o las denuncias que advierten que la policía de Egipto usa de aplicaciones de citas para crear perfiles falsos con el fin de secuestrar a personas LGBT+.
Es una vulneración de la privacidad para las personas LGBT+. Por ejemplo, si tal género no concuerda con lo que dice el pasaporte se genera una situación sumamente violenta. Las personas trans todo el tiempo se enfrentan a este tipo de agresiones y esto vulnera más sus derechos.
Cruzar una frontera aérea no debería ser un motivo de riesgo de derechos humanos. All Out ha seguido los borradores del marco jurídico que propone la Comisión Europea, que aunque reconoce la necesidad de prohibir algunos sistemas de Inteligencia Artificial para proteger los derechos fundamentales, tiene vacíos legales y estaría dejando de lado a las personas LGBT+. “Se puede prestar para mucha violencia en muchos escenarios, desde microviolencias, hasta para hacer vigilancia masiva de personas”, reitera Forero.
El debate ético de los usos de la Inteligencia Artificial
No se trata de no usar tecnología, ni de dejar de usar el reconocimiento facial, sino de que al usarla no se identifique las características mencionadas. ¿Pero entonces cuál es la alternativa? Por un lado, para Forero la alternativa es que no se busque reconocer esta característica, dado que no está demostrado para qué sirve el identificarla. De otro lado, mientras estas tecnologías no sean creadas con las personas LGBT+ en mente, solo refuerzan prejuicios y formas de discriminación. Y es una verdad ampliamente conocida el hecho de que falta diversidad en la industria de la tecnología. ¿Quiénes están desarrollando los sistemas de reconocimiento facial? En su mayoría, hombres blancos. La brecha de mujeres en Inteligencia Artificial aún es enorme.
En el caso de Colombia, entidades como el Centro de la Cuarta Revolución tienen un trabajo enfocado en estos debates éticos y tecnologías como la Inteligencia Artificial. De otro lado, en noviembre de 2019 se aprobaron los lineamientos de política pública por parte del Consejo Nacional de Política Económica y Social (Conpes), que serán la base para crear la Política Nacional para la Transformación Digital e Inteligencia Artificial, para promover el uso estratégico de tecnologías en los sectores público y privado. Allí se señala que en la línea de acción 13, sobre habilidades para impulsar el desarrollo de IA, se “hará énfasis en la ética de datos, ética de algoritmos y en la ética que guíe las conductas y prácticas de los individuos que desarrollen e implementen tecnología”.
“El problema es que la Inteligencia Artificial no entre a asumir algo. Somos personas y no todas las personas están categorizadas en esa división binAria de hombre y mujer, esto es un tema de respeto y dignidad”.
Andrés Forero, gerente de campañas de All Out.
Tibisay Sánchez, profesional de IA del Centro de la Cuarta Revolución Industrial de Colombia, comparte que actualmente esta entidad se encuentra trabajando en el proyecto de neutralidad de género en sistemas de Inteligencia Artificial (IA), el cual el solo contempla los géneros hombre y mujer, y no incluye temas de orientación sexual.
“El proyecto de neutralidad busca generar una estrategia integral, la cual está compuesta por herramientas técnicas y no técnicas, que permitan abordar los sesgos de género que se presentan en los conjuntos de datos o los sistemas de Inteligencia Artificial que se emplean actualmente en la toma de decisiones. El objetivo es proporcionar una caja de herramientas que cualquier organización puede usar para promover el uso ético y responsable de los sistemas de IA, evitando de esta manera que los sesgos de género que han existido a lo largo de la historia de la humanidad no se trasladen ni se perpetúen en las nuevas tecnologías como la IA y los datos”, explica Sánchez.
Es el primer piloto de este tipo en la región andina, y hacer parte de la iniciativa fAIr LAC del Banco Interamericano de Desarrollo (BID). Parte de lo que se va a hacer dentro del proyecto es una prueba piloto en Colombia durante 2021, para probar la estrategia que se está construyendo en alguno de los siguientes escearios: economía del cuidado, inserción al mercado laboral, oportunidades de crecimiento laboral y acceso a servicios de crédito financieros. Estos escenarios surgen luego de hacer una priorización de información recopilada en el 2020 en diferentes espacios y actores, y de ejercicios de consulta ciudadana.
Así las cosas, la estrategia de neutralidad de género estará disponible para finales del 2021, y cualquier organización que esté usando o quiera usar IA podrá emplearla para abordar el tema de sesgos de género. Aunque el proyecto está ajustado al contexto colombiano, se han involucrado diversos actores de la región (ALC), por lo tanto, no necesariamente tiene que quedarse unicamente dentro de las fronteras del país.
Hasta la fecha, abril de 2021, la campaña en Europa suma más de 23.000 firmas y en caso de no lograrse el objetivo, no termina ahí. Justamente por eso existen organizaciones dedicadas a defender los derechos humanos de diferentes grupos de personas.
Foto de portada: Mike MacKenzie (Vía: Flickr)