«Il riconoscimento automatico del genere e dell'orientamento sessuale è scientificamente sbagliato e mette in pericolo la vita delle persone LGBT+». con questo ottenere si sta mobilitando una campagna che cerca di fare pressione sull'Unione Europea affinché vieti l'uso dell'Intelligenza Artificiale per riconoscere automaticamente il genere o l'orientamento sessuale delle persone.
Quando si tratta di identità di genere e orientamento sessuale, il mondo non è un binario di 1 e 0, come il modo di elaborazione dietro i grandi sistemi informatici. Gli algoritmi non sono infallibili e la tecnologia ha difficoltà a riconoscere la diversità delle persone.
Precisamente, nell'aprile 2021, l'Unione Europea sta per rivelare una nuova proposta sulla regolamentazione dell'Intelligenza Artificiale in diversi scenari, come gli aeroporti. Ciò che gli attivisti sperano è che questa tecnologia non consenta di fare supposizioni sul genere e sull'orientamento sessuale delle persone. Queste linee guida, che assomigliano a ciò che è un Conpes (Consiglio nazionale per la politica economica e sociale) in Colombia, danno il tono ad altri paesi.
Organizzazioni come Tutto Out, che lavora per i diritti LGBT+ da più di 10 anni, sta promuovendo questa campagna in alleanza con Recupera il tuo viso (iniziativa della società civile), e mette sul tavolo i dibattiti etici nello sviluppo e nell'implementazione delle tecnologie, in questo caso, di Intelligenza Artificiale (AI).
Perché l'Unione europea deve identificare il genere o l'orientamento sessuale nei suoi aeroporti?
Data2X, una piattaforma promozionale e tecnica collaborativa, che lavora attraverso partenariati per migliorare la disponibilità, la qualità e l'uso dei dati di genere per fare una differenza pratica nella vita delle donne e delle ragazze in tutto il mondo, condivide questo Avere informazioni sul genere è utile quando si prendono decisioni che riguardano il benessere e la qualità della vita delle persone.
Inoltre, evidenzia che sono necessari dati imparziali per progettare politiche pubbliche e monitorare aspetti e variabili che influenzano il progresso delle persone. Tuttavia, è sorprendente che attualmente i dati siano sbilanciati e solo se si dispone di un'istantanea parziale della vita di donne e ragazze e dei limiti che devono affrontare perché ci sono lacune nei dati di genere a livello globale.

«Lo sfondo di tutto questo è molto violento perché i sistemi di Intelligenza Artificiale non dovrebbero preoccuparsi di riconoscere il genere delle persone; Potrebbero occuparsi di altre caratteristiche più rilevanti che non discriminano le persone”, Condividere Andrés Forero, responsabile della campagna All Out per l'America Latina. Aggiunge che non è chiaro a cosa serva identificare questi aspetti: a cosa serve un paese per sapere se una persona è un uomo o una donna, se è omosessuale, bisessuale, eterosessuale e così via? Ci sono dati, informazioni, che non sempre è necessario conoscerli e la privacy by design (ovvero fin dalla progettazione delle soluzioni o delle tecnologie si considera prioritaria la tutela della privacy dell'utente) può valere anche in questi contesti.
Spiega che le conseguenze possono essere molto diverse. Da un lato, I vecchi pregiudizi sono rafforzati. D'altra parte, viene violata la privacy delle persone (non tutte vogliono rivelare il proprio orientamento sessuale o non sono sicure se lo fanno), si possono generare microviolenze e discriminazioni quando il genere con cui la persona si identifica non corrisponde a quello del passaporto e all'AI, o nei casi più estremi, la persona è esposta ad altre aggressioni, anche fisiche.
Vi sono prove che alcuni usi della sorveglianza di massa biometrica negli Stati membri e da parte delle agenzie dell'UE hanno portato a violazioni del diritto dell'Unione europea sulla protezione dei dati e limitato indebitamente i diritti delle persone, tra cui la privacy, il diritto alla libertà di espressione, il diritto di manifestare e non essere discriminato. L'uso diffuso della sorveglianza biometrica, della profilazione e della previsione costituisce una minaccia per lo Stato di diritto e le nostre libertà fondamentali.
Recupera la tua faccia.
Non è un'esagerazione, considerato questo oggi sono 69 i Paesi in cui essere omosessuali è reato, e che in alcuni di essi si generano persecuzioni. Forero ricorda il caso della Polonia, dove si stavano creando zone franche LGBT+, che hanno alimentato il discorso omofobo e LGBTfobico; o il caso del governo della Cecenia, che ha attivamente perseguitato le persone LGBT+ (Amnesty International la ricorda come l'epurazione gay promossa dallo Stato); o denunce che avvertono che la polizia di L'Egitto utilizza app di incontri per creare profili falsi per rapire persone LGBT+.
È una violazione della privacy per le persone LGBT+. Ad esempio, se tale genere non corrisponde a quanto riportato sul passaporto, si genera una situazione estremamente violenta. Le persone trans affrontano continuamente questo tipo di aggressione e questo viola ulteriormente i loro diritti.
Attraversare una frontiera aerea non dovrebbe essere motivo di rischio per i diritti umani. All Out ha seguito le bozze del quadro normativo proposto dalla Commissione Europea, che, pur riconoscendo la necessità di vietare alcuni sistemi di Intelligenza Artificiale a tutela dei diritti fondamentali, presenta delle scappatoie giuridiche e lascerebbe da parte le persone LGBT+. "Può essere utilizzato per molta violenza in molti scenari, dalla microviolenza alla sorveglianza di massa delle persone"ribadisce Forero.
Il dibattito etico sugli usi dell'Intelligenza Artificiale
Non si tratta di non utilizzare la tecnologia, né di smettere di utilizzare il riconoscimento facciale, ma piuttosto che quando lo si utilizza non vengono identificate le suddette caratteristiche. Ma allora qual è l'alternativa? Da un lato, per Forero, l'alternativa è non cercare di riconoscere questa caratteristica, poiché lo scopo di identificarla non è stato dimostrato. D'altro canto, Finché queste tecnologie non vengono create pensando alle persone LGBT+, non fanno che rafforzare i pregiudizi e le forme di discriminazione. Ed è una verità ampiamente nota che c'è una mancanza di diversità nel settore tecnologico.. Chi sta sviluppando sistemi di riconoscimento facciale? Per lo più uomini bianchi. Il divario per le donne nell'Intelligenza Artificiale è ancora enorme.
Nel caso della Colombia, entità come il Centro della Quarta Rivoluzione ha un lavoro incentrato su questi dibattiti etici e tecnologie come l'Intelligenza Artificiale. A novembre 2019, invece, sono state approvate dal Consiglio le linee guida di politica pubblica Consiglio nazionale per le politiche economiche e sociali (Conpes), che sarà la base per la creazione del file Politica Nazionale per la Trasformazione Digitale e l'Intelligenza Artificiale, per promuovere l'uso strategico delle tecnologie nei settori pubblico e privato. Vi si indica che nella linea di azione 13, sulle competenze per promuovere lo sviluppo dell'IA, è «Sottolineerà l'etica dei dati, l'etica degli algoritmi e l'etica che guida i comportamenti e le pratiche degli individui che sviluppano e implementano la tecnologia".
«Il problema è che l'Intelligenza Artificiale non entra per ipotizzare qualcosa. Siamo persone e non tutte le persone sono classificate in quella divisione binaria di uomini e donne, questa è una questione di rispetto e dignità.
Andrés Forero, responsabile della campagna All Out.
tibisay sanchez, un professionista dell'intelligenza artificiale del Centro per la quarta rivoluzione industriale della Colombia, lo condivideQuesta entità sta attualmente lavorando al progetto di neutralità di genere nei sistemi di intelligenza artificiale (IA)., che contempla solo i generi maschile e femminile e non include questioni relative all'orientamento sessuale.
«Il progetto di neutralità cerca di generare una strategia globale, composta da strumenti tecnici e non tecnici, che consentano di affrontare i pregiudizi di genere che compaiono nei set di dati o nei sistemi di intelligenza artificiale attualmente utilizzati nel processo decisionale decisioni. L'obiettivo è fornire una cassetta degli attrezzi che qualsiasi organizzazione possa utilizzare per promuovere l'uso etico e responsabile dei sistemi di intelligenza artificiale, impedendo così il trasferimento dei pregiudizi di genere che sono esistiti nel corso della storia umana, né si perpetuano nelle nuove tecnologie come l'intelligenza artificiale e i dati », Spiega Sánchez.
È il primo pilota di questo tipo nella regione andina e fa parte dell'iniziativa fairr LAC della Inter-American Development Bank (IDB). Parte di ciò che verrà fatto nell'ambito del progetto è un test pilota in Colombia durante il 2021, per testare la strategia che si sta costruendo in uno dei seguenti scenari: economia dell'assistenza, inserimento nel mercato del lavoro, opportunità di crescita del lavoro e accesso ai servizi di credito finanziario. Questi scenari sorgono dopo aver dato la priorità alle informazioni raccolte nel 2020 in diversi spazi e attori e dopo aver consultato i cittadini.
Quindi le cose la strategia di neutralità di genere sarà disponibile entro la fine del 2021 e qualsiasi organizzazione che utilizza o desidera utilizzare l'IA potrà utilizzarla per affrontare il problema del pregiudizio di genere. Sebbene il progetto sia adattato al contesto colombiano, sono stati coinvolti vari attori della regione (LAC), quindi non deve necessariamente rimanere solo all'interno dei confini del paese.
Ad oggi, aprile 2021, la campagna in Europa conta più di 23.000 firme e se l'obiettivo non viene raggiunto non finisce qui. Proprio per questo esistono organizzazioni dedicate alla difesa dei diritti umani di diversi gruppi di persone.
Foto di copertina: Mike McKenzie (Attraverso: flickr)