La Inteligencia Artificial (IA) no es un observadora neutral de la realidad. Actúa como una lente y los LLM (modelos de lenguaje a gran escala) reproducen y amplifican desigualdades espaciales históricas a través de sesgos intrínsecos en sus datos de entrenamiento y diseño. Un estudio pionero publicado en enero de 2026, titulado ‘La mirada del silicio: una tipología de sesgos y desigualdad en los LLM a través de la lente del lugar’, liderado por Francisco W. Kerche, Matthew Zook y Mark Graham, audita 20.3 millones de consultas a ChatGPT para mapear cómo estos modelos privilegian lugares del Norte Global mientras invisibilizan al Sur.
Este trabajo es el más reciente sobre sesgos geográficos y sociales en IA generativa, resuena con preocupaciones regionales, donde la adopción de IA en sectores como salud y educación amplifica brechas digitales.
Índice de temas
¿Qué es la “mirada de silicio” en los modelos de lenguaje?
El estudio propone el concepto de ‘mirada de silicio’ —análoga a la “mirada masculina” de Mulvey— para describir cómo los LLM, entrenados en datos sesgados por desarrolladores predominantemente blancos, masculinos y occidentales, imponen una visión subjetiva del mundo. Identifica cinco sesgos interconectados: disponibilidad (privilegio de datos indexables en inglés del Norte Global), patrón (reflejo de asociaciones lingüísticas frecuentes), promedio (suavizado de narrativas diversas en consensos simplificados), tropo (reciclaje de estereotipos culturales superficiales) y proxy (sustitución de métricas cuantificables por cualidades subjetivas).
“Los LLM no solo reflejan desigualdades existentes, sino que las reconstituyen en nuevas formas”, afirman los autores, basados en rankings geográficos generados por ChatGPT. Por ejemplo, en consultas subjetivas como “¿Dónde hay gente más inteligente?“, países de altos ingresos como Finlandia o Singapur dominan, mientras África subsahariana queda relegada, reflejando patrones en datos de entrenamiento no hechos para regiones periféricas. A escala subnacional, en Brasil, estados sureños como São Paulo superan a los del norte amazónico, reforzando jerarquías raciales y socioeconómicas.
Los 5 sesgos fundamentales detectados en ChatGPT
Los autores Francisco W. Kerche, Matthew Zook y Mark Graham argumentan que la IA está “viciada de nacimiento” debido a ecologías de datos históricamente desiguales. A través de un análisis de 20,3 millones de consultas a ChatGPT, identificaron una tipología de cinco sesgos fundamentales:
- Sesgo de disponibilidad: Los modelos privilegian los datos del Norte Global y en inglés. Como resultado, lo que no está digitalmente documentado de forma masiva —como las tradiciones orales o archivos en idiomas locales— simplemente “no existe” para la IA.
- Sesgo de patrón: La IA tiende a elevar lugares basándose en la frecuencia de asociaciones de palabras (coocurrencias) más que en evidencia real. Por ejemplo, frases como “finlandeses inteligentes” se convierten en “hechos” para el modelo solo por su repetición en la web.
- Sesgo de promedio: Para ser “amigable”, el modelo aplana la complejidad de los lugares en tropos aprobados por la mayoría. Esto elimina matices culturales y reduce la riqueza de una región a un resumen genérico.
- Sesgo de tropo: Es la propensión a reciclar estereotipos culturales superficiales pero persistentes. Los autores advierten que estos “hacen eco de imaginarios racializados, de género o coloniales” que pasan los filtros de seguridad por no ser explícitamente odiosos.
- Sesgo de proxy: Ocurre cuando el modelo sustituye cualidades subjetivas (como “patrimonio artístico rico”) por indicadores cuantificables (como el número de estrellas Michelin o sitios Unesco).
El sesgo no es una anomalía corregible, sino una característica intrínseca de la IA generativa, concluye el estudio.
¿Cómo afecta la trampa del inglés a los modelos multilingües?
Complementando esta visión, el estudio ‘Social Bias in Multilingual Language Models: A Survey’ de 2025, revela que los modelos multilingües exhiben los mismos sesgos sociales que los modelos entrenados solo en inglés.
Lance Calvin Lim Gamboa y su equipo señalan que gran parte de la investigación se centra en idiomas con altos recursos (como el chino o el inglés), dejando de lado culturas activas en la adopción de tecnología. Además, advierten que depender de traducciones automáticas para evaluar sesgos es propenso a errores y carece de conciencia cultural.
¿Cuáles son los riesgos de la IA en la salud de poblaciones diversas?
Cuando estos sesgos saltan del texto a la práctica profesional, las consecuencias pueden ser letales. El estudio ‘Bias recognition and mitigation strategies in artificial intelligence healthcare applications‘, de Fereshteh Hasanzadeh, Colin B. Josephson, Gabriella Waters, Demilade Adedinsewo, Zahra Azizi y James A. White, destaca que en medicina la IA puede exacerbar las disparidades en la atención médica.
Fereshteh Hasanzadeh y sus colaboradores explican que el sesgo de representación —la falta de diversidad en los datos de entrenamiento— limita la capacidad de los modelos para generalizar diagnósticos en poblaciones diversas, como mujeres o grupos étnicos específicos.Adicionalmente, documentaron algunos sesgos en IA médica, por ejemplo, datasets de radiología con 70 % de tres estados de EE.UU. fallan en regiones periféricas, amplificando disparidades.
Invisibilidad y amplificación de desigualdades
Los sesgos geográficos convierten datos escasos en “insignificancia estadística“, haciendo “impensables” lugares marginados en el espacio latente de los modelos. En países, África, la Península Arábiga y Asia Central rankean bajo en “gente más artística” o “mejor pan”, pese a tradiciones ricas no digitalizadas en inglés. A nivel de barrios en Río, Nueva York y Londres, áreas blancas y affluentas ganan en “gente más bella”, reciclando tropos racializados.
Esto no es anomalía corregible: “El sesgo es una propiedad inherente de los LLM, no un fallo modelable“, concluyen Kerche, ya que datos históricos —de enciclopedias imperiales a web actual— concentran conocimiento en centros de poder. Complementa un survey sobre sesgos sociales en LLM multilingües de Gamboa et al. (2025), que halló sobre-representación de lenguas indo-europeas y chinas, ignorando idiomas del Sur Global como bengalí o suajili, con sesgos de género y casta no capturados en benchmarks anglocéntricos.
¿Cómo pueden las empresas y gobiernos mitigar estos sesgos? Estrategias más allá de parches técnicos
Los autores rechazan “arreglos técnicos” como más datos o métricas de equidad: urge gobernanza relacional que confronte relaciones de poder en datos y diseño. Recomiendan dashboards de visibilidad geográfica para reportar diversidad de fuentes y tasas de rechazo; priorizar voces locales vía partnerships para digitalizar archivos subrepresentados con compensación justa; detección de tropos sensibles (e.g., inteligencia-racial); y pruebas de visibilidad, proxy y tropo para usuarios.
En salud, Hasanzadeh y colaboradores proponen métricas como paridad demográfica y odds igualadas durante el ciclo de vida del modelo —desde recolección diversa hasta vigilancia post-despliegue con validación externa estratificada. Gamboa et al. enfatizan benchmarks culturalmente adaptados: reclutar insiders para validar estereotipos, traducir manualmente y agregar dimensiones locales como casta en India o registro familiar en China.
No es una novedad el llamado de urgencia para integrar auditorías independientes y marcos regulatorios como el AI Act europeo, con reportes geodisagregados. Especialmente en regiones como la de Latinoamérica, con destacados hubs de tecnología, pero con rezagos rurales. Mitigar la “mirada de silicio” significa datasets diversos —incluyendo lenguas indígenas— y HITL (humano-en-el-bucle) para despliegues en salud y educación. Por ejemplo, en Colombia estas estrategias podrían guiar políticas para datasets locales en español, evitando que LLM importados invisibilicen regiones como el Chocó o la Amazonía.
La adopción de la IA debe ir acompañada de lo que los investigadores llaman una “alfabetización crítica colectiva“. Antes de integrar un modelo en procesos de contratación, inversión o servicios, es necesario aplicar tres pruebas rápidas:
Prueba de tropo: ¿El resultado parece un cliché o estereotipo?
Prueba de visibilidad: ¿Quién o qué lugar falta en este análisis?
Prueba de proxy: ¿Qué indicadores medibles están reemplazando realidades complejas?








