iA En EMPRESAS

XAI: Inteligencia Artificial Explicable para negocios



Dirección copiada

La Inteligencia Artificial Explicable (XAI) aparece como un enfoque indispensable para las organizaciones que inician a comprender, justificar y confiar en las opciones impulsadas por la tecnología. Cómo se aplica en las empresas.

Actualizado el 11 de abr de 2025



XAI
Crédito: Shutterstock

XAI, o Inteligencia Artificial Explicable, es una respuesta clara a un problema urgente: los modelos de IA cada vez toman más decisiones, pero cada vez entendemos menos cómo lo hacen.

En los negocios, eso representa un riesgo. No basta con que un sistema acierte: hay que saber por qué lo hace, cómo llega a sus conclusiones y qué variables considera. En este contexto, XAI explica, justifica y hace transparente el funcionamiento de los algoritmos.

¿Por qué es importante? Su aplicación mejora la confianza y ayuda a cumplir normativas, detectar errores y tomar mejores decisiones con datos en tiempo real. La clave ya no es solo tener IA, sino tener IA que se pueda explicar.

Por eso, comprender y confiar en los sistemas de IA se ha convertido en una prioridad absoluta para las empresas de todo el mundo, especialmente dada la creciente complejidad de los algoritmos utilizados en dictámenes estratégicos.

Sin embargo, la complejidad inherente de muchos de estos sistemas dificulta su comprensión y transparencia. Aquí es donde la Inteligencia Artificial Explicable (XAI, por sus siglas en inglés) cobra relevancia, al proporcionar mecanismos que facilitan la comprensión y la confianza en las decisiones tomadas por los modelos de IA.

¿Qué es la Inteligencia Artificial Explicable (XAI) y por qué es relevante?  

La XAI es un conjunto de técnicas destinadas a comprender cómo se toman decisiones algorítmicas de IA, haciéndolos accesibles y transparentes.

Mientras que los sistemas de ‘caja negra‘, como las redes neuronales profundas, producen resultados sin explicación directa, la XAI detalla los factores detrás de cada predicción. Por ejemplo, si el algoritmo deniega una solicitud de crédito, los ingresos mensuales y el historial crediticio del individuo podrían haber sido factores decisivos.

Es decir, significa entender el qué, el por qué y el cómo detrás de cada decisión. Esto es especialmente relevante en sectores como salud, finanzas y marketing, donde la transparencia y la confianza son relevantes.

Además, la Inteligencia Artificial Explicable juega un papel importante en la mitigación de sesgos, en sistemas de contratación automatizada, puede identificar y corregir sesgos relacionados con género o raza, promoviendo decisiones más justas e inclusivas. Además de mejorar la equidad, también fortalece la reputación de las empresas al demostrar un compromiso con la ética y la responsabilidad.

Alejandro Delgado, Coautor del Libro ‘Yo IA, Innovación gubernamental’ y líder de Ecosistema en la Agencia de Analítica de Datos de Bogotá AGATA, comparte en entrevista con Impacto TIC, que la inteligencia artificial no es solo IA Generativa, también existen otras variables como: Maching Learning, Deep Learning y ahora XAI, cada una en concreto tiene un uso y una serie de pasos dedicados a su propio desafío. 

Ese proceso de inteligencia artificial explicable es el enfoque de modelos y algoritmos que sean comprensibles y transparentes a los usuarios, el cómo llego a la conclusión del proceso”, afirma Alejandro Delgado

De esta manera, la XAI abre nuevas oportunidades para su adopción en diversos sectores como el sector público o privado, que podrán mejorar la transparencia y la confianza en los sistemas de IA.

Un documento de NIST presenta cuatro principios fundamentales para sistemas de IA explicables que abordan la necesidad de transparencia y confianza en la toma de decisiones automatizada. Entre ellos se encuentra:

  1. Explicabilidad: El sistema debe ser capaz de generar explicaciones claras sobre los resultados que produce. Estas explicaciones deben reflejar el razonamiento interno del modelo de IA de manera que los usuarios puedan comprender por qué se tomó una determinada decisión o acción.
  2. Significado para el usuario: Las explicaciones deben ser comprensibles y útiles para los usuarios a los que están dirigidas, teniendo en cuenta su contexto, nivel de experiencia y necesidades específicas. No todas las audiencias requieren el mismo nivel de detalle técnico.
  3. Precisión: La explicación debe representar fielmente el funcionamiento real del modelo. Es fundamental que el sistema no proporcione explicaciones erróneas o simplificadas que distorsionen cómo se llegó realmente a una conclusión.
  4. Reconocimiento de límites: El sistema debe ser capaz de identificar cuándo no posee suficiente información o cuando opera fuera de su alcance previsto. En esos casos, debe abstenerse de generar explicaciones, reconociendo sus propias limitaciones.

¿Por qué la explicabilidad en sistemas de IA es clave para las empresas?

​La explicabilidad en los sistemas de Inteligencia Artificial (IA) es fundamental para las empresas por diversas razones:

  1. Generación de confianza y transparencia

La explicabilidad permite a las empresas comprender cómo las decisiones llegan a sus sistemas de IA. Esto crea confianza y tranquiliza a los usuarios y partes interesadas.

Por ejemplo, un modelo explicativo ayuda a los consumidores a ver por qué se aprueba o rechaza un préstamo. Por lo tanto, un cliente puede recibir una explicación de por qué su préstamo ha sido rechazado.

En un artículo para Centro Nacional de Inteligencia Artificial (CENIA) de Chile, Denis Parra, académico de la Universidad Católica e investigador del instituto, comparte que las empresas que explican el proceso de sus soluciones de IA “pueden llegar a ser más eficientes y confiables para sus clientes potenciales”.

  1. Mitigación de riesgos y cumplimiento de la normativa

Es de suma importancia que las decisiones automatizadas sean claras y comprensibles para cumplir con las regulaciones actuales. La posibilidad de auditar y explicar las decisiones tomadas por la Inteligencia Artificial ayuda a las empresas a evitar multas y a preservar su imagen.

Normativas como el RGPD requieren una justificación de las decisiones automáticas, con el fin de minimizar sesgos en los modelos y asegurar resultados equitativos y éticos.

Por ejemplo, explicar la aprobación de un crédito, asegura transparencia; mientras que en recursos humanos, identifica y corrige sesgos relacionados con género o raza en procesos de selección. De esta manera se promueve la equidad en las decisiones.

  1. Optimización de estrategias empresariales

La explicabilidad también es clave para mejorar estrategias empresariales. En marketing digital, por ejemplo, técnicas como LIME permiten analizar qué factores impulsan el éxito de una campaña, ayudando a ajustar elementos como el contenido creativo o los canales de distribución.

Adoptar prácticas de IA explicable no solo es una ventaja competitiva, sino también una responsabilidad ética en el entorno empresarial actual.

Ese tipo de cosas de tomar decisiones, debería tener un componente explicativo grandísimo, y no solo eso, no es suficiente explicar, sino tener la posibilidad yo como usuario de rebatir a la entidad, de saber qué está pasando adentro como un recurso adicional del porqué llegaron a determinada decisión”, explica Delgado. 

¿Qué técnicas y métodos permiten alcanzar una IA explicable en entornos corporativos?

En entornos corporativos, en la adopción de una IA Explicable (XAI) existen diversas técnicas y métodos que permiten lograr la explicabilidad en sistemas de IA, cada uno adaptado a necesidades específicas y aplicable en diferentes sectores.

La siguiente tabla resume las principales estrategias utilizadas, junto con ejemplos prácticos y fuentes relevantes para ampliar la información.

Técnica o MétodoDescripciónEjemplo práctico
Modelos de Caja blancaModelos como árboles de decisión y lineales que muestran claramente cómo cada variable afecta el resultado.Un árbol de decision puede explicar por qué se aprueba un préstamo basado en factores como ingresos.
Sistemas basados en reglasReglas tipo “IF-THEN” para decisiones, fáciles de interpretar y ajustar.En marketing, personalizan ofertas según el comportamiento del cliente
LIME (Local Interpretable Model-Agnostic Explanations)Genera modelos locales más simples que aproximan el comportamiento del modelo complejo en torno a una predicción específica.LIME ayuda a identificar que el modelo usa información irrelevante para tomar decisiones, permitiendo corregir el problema.
SHAP (SHapley Additive exPlanations)Basado en teoría de juegos, asigna valores a cada característica para medir su contribución a la predicción.SHAP permite explicar a clientes y empleados qué factores afectan la aprobación del crédito, mejorando la transparencia.
Visualización de datosGráficos interactivos que muestran el impacto de las variables en los resultados de un modelo.Dashboards que explican cómo la edad y el género afectan las recomendaciones de productos en comercio.
Monitoreo y auditoríaSeguimiento continuo para detectar y corregir sesgos o errores en los modelos.En salud, monitorear un modelo para asegurar la precisión en diagnósticos a lo largo del tiempo.

Al adoptar estas técnicas, las empresas pueden hacer que sus modelos de IA sean más interpretables, promoviendo un uso responsable de la inteligencia artificial y fortaleciendo la confianza con clientes, empleados y reguladores.

“Ahora que este de moda los agentes de Inteligencia Artificial, es un tema de suma importancia, ya que la explicabilidad en temas de agentes de IA van por ese mismo camino, porque por ahí van las tareas concretas que las empresas necesitan automatizar, así mismo, con esa técnica, la implementación de decisiones va a aumentar demasiado; dentro de esos procesos existe una nueva moda, no es que usted le pregunte a la máquina y ella le responde con un texto, uno le pide algo y ella lo ejecuta, esa es la diferencia”, explica en detalle Delgado.

De acuerdo a Datos abiertos del Gobierno de España, uno de los retos en elección y la utilización de estas herramientas XAI es encontrar el equilibrio entre la capacidad predictiva de un modelo y su explicabilidad. “Por ello suelen utilizarse enfoques híbridos que integren métodos de explicación a posteriori de las decisiones tomadas con modelos complejos” resaltan y agregan un caso ejemplar: “Un banco podría implementar un sistema de aprendizaje profundo para la detección de fraude, pero usar valores SHAP para auditar sus decisiones y garantizar que no se toman decisiones discriminatorias“.

Existen un gran número de técnicas y métodos IA. El Observatorio de Políticas de Inteligencia Artificial de la OCDE (Organización de Cooperación y Desarrollo Económicos) creó un catálogo de diversas herramientas y métricas IA que ayuda a los actores de IA a construir e implementar sistemas de IA confiables.

Existen numerosas herramientas a disposición de los profesionales de la IA y los responsables políticos, pero no siempre es fácil encontrarlas, y aún más difícil saber cuáles son las más eficaces. El catálogo ofrece el espacio tan necesario donde cualquier persona puede encontrar y compartir herramientas y métodos para lograr una IA fiable“, resaltan.

¿Cuáles son los principales desafíos y dilemas éticos en la implementación de XAI?

La Inteligencia Artificial Explicable enfrenta diversos desafíos éticos que demandan una atención cuidadosa en su implementación.

Los principales problemas es la complejidad y opacidad de los modelos de IA, especialmente los basados en aprendizaje que dificultan la comprensión de sus decisiones. Esta falta de transparencia genera desconfianza en las personas y hace que sea complicado identificar errores o sesgos que puedan llegar a afectar a los usuarios.

Para lidiar con este problema, es importante que los sistemas de IA responsables presten suficiente atención a la transparencia y a la trazabilidad para obtener decisiones más responsables y justas.

Según un artículo de la Unesco, la falta de transparencia en los algoritmos de IA puede limitar su adopción en sectores críticos. La responsabilidad en las decisiones tomadas por sistemas automatizados representa otro desafío fundamental.

Muchas veces un modelo de IA dice mentiras, y ese problema radica en que los sistemas de inteligencia artificial no dice “no, yo no sé” sino que responde como si fuera cierto, entonces el riesgo es que el mayor porcentaje de las personas no saben esto”, comparte Delgado.

En este sentido, el experto señala también que “es un uso ético también saber como funciona el sistema, como toma las decisiones y saber que no es la verdad, sino un proceso de inferencia, y eso también implica saber y estar consciente que los datos que usan las inteligencias artificiales son de todo internet, es decir una mezcla de todo”.

Por otro lado, los sistemas de XAI requieren acceso a grandes volúmenes de datos, lo que plantea preocupaciones sobre la privacidad y la seguridad de la información personal.

Las empresas deben asegurarse de que el uso de datos cumpla con las regulaciones vigentes y proteja la información sensible de los usuarios. El Observatorio de Políticas de IA de la OCDE proporciona directrices para el desarrollo de sistemas de IA confiables que respeten los derechos humanos y valores democráticos.

Impulso al crecimiento inclusivo y la sostenibilidad

La OCDE plantea que la inteligencia artificial debe diseñarse y aplicarse para generar beneficios amplios para la sociedad y el medio ambiente. Esto implica potenciar las capacidades humanas, fomentar la inclusión de poblaciones tradicionalmente marginadas, y reducir desigualdades económicas, sociales y de género. A su vez, la IA debe ser una aliada en la preservación de los ecosistemas naturales, con una orientación clara hacia el desarrollo sostenible y el bienestar colectivo.

Respeto a los derechos humanos y a los valores democráticos

El desarrollo y uso de la IA debe alinearse con el respeto pleno al estado de derecho, los derechos humanos y los valores democráticos. Esto incluye la protección de la privacidad, la equidad, la diversidad, la dignidad humana y la libertad individual. También se exige un enfoque responsable para abordar problemas como la desinformación y el uso malintencionado de estos sistemas, incorporando salvaguardas que garanticen la supervisión humana y reduzcan riesgos derivados de usos indebidos.

Transparencia y explicabilidad

Uno de los pilares éticos es la capacidad de explicar y entender cómo funcionan los sistemas de IA. Para ello, se promueve la divulgación responsable de información sobre el funcionamiento interno de los algoritmos, los datos utilizados y la lógica detrás de las decisiones automatizadas. Esto no solo aumenta la confianza del público, sino que también permite que las personas afectadas por un sistema de IA puedan cuestionar y comprender sus resultados de forma accesible y clara.

Robustez, seguridad y protección

La fiabilidad técnica es esencial. Los sistemas de IA deben ser diseñados para funcionar de forma segura y robusta incluso en condiciones adversas o de uso no previsto. Además, deben incorporarse mecanismos que permitan corregir, desconectar o desmantelar los sistemas si exhiben comportamientos inesperados o riesgosos. La OCDE también destaca la importancia de mantener la integridad de la información y proteger la libertad de expresión ante potenciales amenazas de manipulación.

Responsabilidad

Por último, la OCDE establece que quienes diseñan, implementan o utilizan sistemas de IA deben asumir la responsabilidad de su impacto. Esto incluye garantizar la trazabilidad de los procesos y decisiones, aplicar una gestión de riesgos continua en todo el ciclo de vida del sistema, y colaborar con otros actores para mitigar efectos negativos. Las responsabilidades abarcan desde la protección de los derechos humanos hasta la prevención de sesgos, la defensa de los derechos laborales y el respeto por la propiedad intelectual.

Así es como la XAI presenta numerosos desafíos éticos que surgen en su implementación. Entre los principales se encuentran:

Dilema éticoDescripciónEjemplo
Transparencia vs. ComplejidadLa necesidad de que los sistemas de IA sean comprensibles para los humanos puede entrar en conflicto con la complejidad de los modelos avanzados, que suelen ser opacos.En el ámbito judicial, el uso de IA para evaluar casos legales puede mejorar la eficiencia, pero si las decisiones de la IA no son transparentes, resulta difícil para los afectados entender y cuestionar los resultados. Esto plantea preocupaciones sobre la equidad y la posibilidad de sesgos ocultos en el sistema.
Privacidad vs. Recopilación de DatosLos sistemas de XAI requieren grandes volúmenes de datos para ser efectivos, lo que puede comprometer la privacidad de los individuos si no se manejan adecuadamente.En la administración de justicia, la recopilación de datos personales para alimentar sistemas de IA puede llevar a prácticas de vigilancia invasiva y al uso indebido de información sensible, afectando la privacidad de los ciudadanos.
Equidad vs. Sesgos AlgorítmicosExiste el riesgo de que los sistemas de IA perpetúen o amplifiquen sesgos existentes si se entrenan con datos históricos que reflejan discriminaciones pasadas.En procesos de contratación, si la IA se entrena con datos de empleados anteriores que reflejan prejuicios de género o raza, el sistema puede continuar favoreciendo a ciertos grupos sobre otros, reforzando desigualdades en lugar de eliminarlas.
Responsabilidad vs. Autonomía de la IADeterminar quién es responsable de las decisiones tomadas por sistemas autónomos de IA es complejo, especialmente cuando estas decisiones tienen consecuencias significativas.En el sector judicial, si una IA recomienda una sentencia que luego resulta ser errónea o injusta, surge la cuestión de si la responsabilidad recae en el desarrollador del sistema, en el juez que confió en la recomendación o en otra entidad.
Innovación vs. Regulación ÉticaLa rápida evolución de la IA puede superar la capacidad de las estructuras éticas y legales para regular su uso adecuado, creando un vacío normativo.La creación de obras de arte por IA plantea preguntas sobre la autoría y los derechos de propiedad intelectual, desafiando las leyes existentes que no contemplan la creatividad no humana.

¿Qué ejemplos de éxito existen en la aplicación de XAI en empresas?

La empresa Amazon ha logrado un éxito notable al implementar XAI para personalizar las recomendaciones de productos a sus clientes. Esta tecnología permite analizar patrones de compra y predecir la demanda, optimizando el inventario y mejorando la experiencia del cliente.

Uno de los casos más destacados de éxito empresarial en la implementación de XAI es Amazon Augmented AI (A2I), una solución que permite integrar revisión humana en los procesos automatizados de inteligencia artificial. Este enfoque, conocido como human-in-the-loop, es fundamental para sectores donde la explicabilidad, la trazabilidad y el control ético son clave, como salud, finanzas o legal. A2I facilita que un humano intervenga cuando el modelo presenta baja confianza en su predicción. Así es como se garantiza mayor precisión y cumplimiento normativo.

BMW utiliza XAI para optimizar sus procesos de producción, reduciendo costos y mejorando la calidad de sus vehículos. La inteligencia artificial explicable ha permitido identificar áreas de mejora en tiempo real, lo que ha incrementado la eficiencia operativa.

Las soluciones Car2X y AIQX permiten que los vehículos en la línea de ensamblaje se comuniquen en tiempo real con el sistema de producción, identificando y reportando automáticamente cualquier anomalía en el ensamblaje.

BBVA y la implementación de agentes digitales, el banco ha distribuido 3.300 licencias de inteligencia artificial que han generado 3.000 asistentes digitales. Estos agentes automatizan procesos como la identificación de fraudes y la gestión de correos electrónicos, mejorando la eficiencia operativa y reduciendo el tiempo dedicado a tareas repetitivas.

El banco aplica la XAI para comprender y justificar las decisiones de sus modelos de aprendizaje automático, especialmente en el sector financiero donde la transparencia es crucial. Han desarrollado herramientas como ‘mercury-explainability‘, un paquete de su biblioteca de código abierto que facilita la explicabilidad de los modelos de IA, permitiendo a los usuarios entender mejor las decisiones algorítmicas y reforzando la confianza en sus sistemas de IA

Stitch Fix, un servicio de estilismo personal en línea, emplea XAI para personalizar recomendaciones de moda a gran escala. Sus algoritmos explican las sugerencias de estilo tanto a los estilistas como a los clientes. Con la combinación la intuición humana con la eficiencia de la IA, su aplicación generó un aumento en la retención de clientes. De acuerdo a la propia empresa, creció 9% interanual en el valor promedio de los pedidos, impulsado en parte por mayores tasas de retención.

En el sector financiero, JP Morgan Chase emplea XAI para analizar grandes cantidades de datos y hacer predicciones precisas sobre el rendimiento de los mercados. De acuerdo a un artículo de Aden Business Magazine, esta tecnología ha mejorado la toma de decisiones y la gestión de riesgos, aumentando la confianza de sus clientes.

“Sí, hablamos de Colombia, la buena noticia es que hay empresas que están haciendo temas multisectoriales, entonces tenemos empresas colombianas hechas por colombianos que están haciendo temas da salud, logística, de cadena de suministro y de sostenibilidad”, informa Alejandro.

¿Cómo contribuye la inteligencia artificial explicable a la confianza y adopción empresarial?

La adopción de XAI fomenta la confianza empresarial al garantizar que los datos utilizados sean confiables y éticos. Según IBM, los principios de IA responsable, como la transparencia y la rendición de cuentas, son esenciales para que las empresas adopten esta tecnología de manera efectiva y alineada con los valores de las partes interesadas.

Comprender y confiar en los resultados generados por los algoritmos de IA es quizá el aspecto más importante al proporcionar explicaciones claras sobre cómo se alcanzan dichas decisiones.

La explicabilidad es indispensable para la confianza, porque si yo llego a una empresa, como cliente o como usuario final, y voy a usar un servicio o producto y lo que está en la mitad es un sistema de Inteligencia Artificial y la IA me va a responder por todo, a mí como usuario final, tomo una decisión ‘x’, ‘y’ o ‘z’. Como usuario confió más en una empresa que me explique como se tomó la decisión que me acaban de decir, a una organización que no me da más información. Esa explicabilidad genera confianza y, esa confianza, genera venta”, se explaya Delgado. 

¿Qué tendencias marcarán el futuro de la XAI y su impacto en el sector corporativo?

La Inteligencia Artificial Explicable (XAI) está evolucionando rápidamente, impulsada por tendencias emergentes que están redefiniendo su impacto en el ámbito empresarial. Una de las más destacadas es el desarrollo de modelos de lenguaje más pequeños y eficientes, capaces de operar con menor demanda de recursos computacionales.

Estos modelos permiten soluciones más accesibles y fáciles de implementar en una amplia gama de aplicaciones comerciales. Esto contribuye a una mayor eficiencia y accesibilidad en la adopción de IA dentro de las empresas.

Además, se observa una creciente tendencia hacia la integración de IA multimodal, que combina distintos tipos de datos —como texto, imágenes y audio— en un mismo modelo. Esta capacidad potencia el análisis contextual y mejora significativamente la precisión y aplicabilidad de las soluciones inteligentes en entornos empresariales complejos.

Por otra parte, esta multimodalidad, ayuda a una mejor comprensión y desarrollo de contenidos, proporcionando aplicaciones más versátiles en el mundo empresarial.

“A nivel empresarial, la automatización podría acelerarse significativamente, generando mayor efectividad y competitividad si se implementa correctamente. Sin embargo, sin datos de calidad no se tiene nada: una empresa que no cuente con buenos datos no podrá hacer nada relacionado con inteligencia artificial”, resalta el coautor del libro Yo, IA: Innovación gubernamental.

A medida que la inteligencia artificial se integra cada vez más en las operaciones comerciales, se vuelve fundamental centrarse en aspectos éticos como la honestidad, la transparencia y la privacidad. Abordar estos temas es una responsabilidad y una condición vital para que las organizaciones puedan generar confianza y asegurar una adopción sostenible de la IA.

Bajo esta línea, las empresas están implementando prácticas de IA éticas y transparentes para cumplir con las regulaciones de protección de datos y generar confianza en sus sistemas automatizados, reduciendo el error humano y mejorando la precisión de las tareas críticas para la misión.

Finalmente, estas prácticas de gobernanza ética están estrechamente vinculadas al avance de la XAI, que exige sistemas explicables, auditables y responsables.

Preguntas frecuentes sobre XAI

¿Qué diferencia a XAI de otros enfoques de Inteligencia Artificial?  

XAI es único porque prioriza la explicabilidad y la transparencia, proporcionando explicaciones claras de cómo y por qué los modelos de IA toman decisiones, lo que no es común en los enfoques tradicionales (que a menudo son cajas negras), como las redes neuronales profundas.

¿Cómo puede XAI beneficiar a mi empresa en términos de transparencia?

XAI aumenta la transparencia al brindar explicaciones claras a los usuarios no técnicos. Esto fomenta la confianza del cliente y facilita la supervisión regulatoria, lo cual es fundamental para industrias como las finanzas y la atención médica.

¿Cuáles son las principales técnicas utilizadas para lograr XAI?

Los métodos importantes incluyen el análisis de importancia de las características, modelos simples como árboles de decisión y herramientas que desglosan las predicciones para hacerlas más comprensibles (como LIME y SHAP).

¿Qué sectores empresariales se benefician más de la implementación de XAI?

Industrias como las finanzas, la atención médica y el comercio electrónico se benefician enormemente del uso de XAI para informar decisiones críticas, mejorar la detección de fraudes y optimizar la personalización de la experiencia del cliente.

¿Cómo abordar los desafíos éticos al implementar XAI en mi organización?

Es esencial establecer principios éticos claros, realizar auditorías periódicas de los sistemas de IA y garantizar que las decisiones automatizadas se tomen de conformidad con principios como la equidad, la no discriminación y la confidencialidad.

Artículos relacionados

Artículo 1 de 5