INTELIGENCIA ARTIFICIAL

Gobernanza de Inteligencia Artificial: ¿Por qué su empresa necesita un comité de ética?



Dirección copiada

La masificación de la Inteligencia Artificial (IA) exige nuevas estructuras de responsabilidad. Los comités de gobernanza de IA surgen como órganos vitales para asegurar sistemas seguros, justos y éticos en las empresas. Aunque no deben ser una cuestión de moda, deben tener propósito de retorno claro.

Publicado el 2 de feb de 2026

Sandra Defelipe Díaz

Periodista especializada en tecnología, en medios digitales, producción de contenidos y liderazgo editorial



comites de gobernanza y ética de inteligencia artificial

El uso masificado y desbordado de la Inteligencia Artificial ha tocado un punto de inflexión: es necesario hacer una pausa y plantear reconfiguraciones de las estructuras, responsabilidad y ética. La gobernanza de la IA, entendida como el conjunto de procesos, estándares y salvaguardas que aseguran que estos sistemas sean seguros, justos y respetuosos de los derechos humanos, es hoy un pilar central de la seguridad nacional y el desarrollo económico global, bajo la figura del comités de gobernanza de Inteligencia Artificial.

Las empresas están pasando de “experimentar con IA” a crear estructuras formales para vigilar cómo la usan, con qué riesgos y con qué impacto en sus clientes. Lo que estos comités intentan, es alinear la trayectoria de la autonomía tecnológica con los valores fundamentales de la sociedad. Están emergiendo como los órganos de vigilancia institucional encargados de operacionalizar estos valores, heredando un legado secular de la bioética y adaptándolo a la velocidad de la computación. De hecho, en el estudio ‘Predicciones 2026: La carrera hacia la confianza y el valor de Forrester, se señala que alrededor del 60 % de las empresas Fortune 100 nombrará una persona responsable de gobernanza de IA en los próximos años.

¿Qué es la gobernanza de IA y por qué es una prioridad hoy?

La gobernanza de IA es el conjunto de políticas, procesos y estructuras que guían el desarrollo, despliegue y uso responsable de sistemas de inteligencia artificial, asegurando que sean éticos, seguros y alineados con valores humanos y regulaciones. Hoy es prioridad porque la IA ya no es experimental: genera riesgos reales como sesgos, brechas de privacidad y desconfianza de usuarios, mientras regulaciones globales como el EU AI Act exigen controles estrictos.

Se trata de “las barreras que ayudan a garantizar que las herramientas y los sistemas de IA sigan siendo seguros, éticos y respetuosos con los derechos humanos“, según IBM. Incluye marcos para identificar riesgos (sesgos, datos no fidedignos), definir reglas claras, auditar modelos en producción y medir su impacto en clientes.

El citado estudio de Forrester, que señala que hacia 2026 las organizaciones pasarán de la experimentación con IA a una fase donde la gobernanza y la rendición de cuentas son centrales, explica que esto que implica crear estructuras formales como responsables de gobierno de IA y comités de ética que definan políticas, supervisen riesgos y alineen los sistemas con los valores corporativos y regulatorios. Estos órganos deberán anticipar fallos éticos o de cumplimiento, establecer salvaguardas para el uso de agentes de IA y modelos generativos, y tratar la supervisión de la IA con la misma rigurosidad que la ciberseguridad o las auditorías financieras, convirtiendo la ética y la transparencia algorítmica en condiciones necesarias para mantener la confianza de clientes, reguladores y alta dirección.

¿Por qué las empresas están creando comités de ética de IA?

Iván Herrera, gerente del territorio financiero en SAS para Colombia y Ecuador, explica que muchos proyectos de IA “nacen como proyectos aislados de innovación”, pero cuando pasan a ser parte de la operación diaria “comienzan a haber unos retos porque ya comienza a escalarse el tema y comienzan a haber ciertas fisuras”. Entre esas fisuras menciona sesgos en los modelos, datos insuficientes o de baja calidad y resultados poco confiables.

Según Herrera, el problema no es solo técnico, sino de confianza: “este tipo de problemas tienen repercusiones en los clientes finales. Desconfían ya de lo que tú me estás diciendo, te puede parecer obsoleto, porque a la final no me das una solución”. Cuando la interacción con un banco o una aseguradora termina en frustración y el cliente “ llega un punto donde tú no me estás sirviendo para nada, a la final, ¿qué tengo que ir a una oficina?”, ahí la promesa de la IA se rompe y se hace evidente la necesidad de un gobierno claro, auditado y orientado a la confianza.

¿Cuáles son las funciones principales de un comité de IA?

Los comités de gobierno y ética de IA buscan responder preguntas que hoy muchas organizaciones no tienen resueltas: “no sabes si realmente sigue siendo efectivo o no, quién determina si es efectivo o no, quién tiene el control para poder modificarlo o no”, explica Herrera. Su función es definir reglas de juego claras para decidir qué modelos pueden ir a producción, quién los audita, con qué frecuencia se revisan y cómo se corrigen cuando dejan de ser válidos.

Herrera subraya que no se trata de crear burocracia, sino de ordenar un ecosistema de modelos que crece rápido: “comienza a generarse un alto volumen de modelos que a la final no sabes qué puede estar en producción, qué puede ser operativo, qué no puede ser operativo, qué ha sido auditado, qué no ha sido auditado”. Un comité bien diseñado ayuda a evitar que modelos desactualizados o mal entrenados sigan tomando decisiones que afectan a miles de usuarios sin que nadie lo note a tiempo.

¿Qué modelos de gobernanza de IA corporativos existen?

Aunque cada empresa diseña su propio modelo, ya hay casos públicos que muestran cómo se está institucionalizando la gobernanza de IA. Grandes plataformas tecnológicas han creado consejos internos de responsabilidad de IA para revisar sesgos, impacto en privacidad y riesgos reputacionales, mientras bancos globales han vinculado la supervisión de modelos de IA a sus comités de riesgos y cumplimiento normativo.

En varios países europeos, aseguradoras y entidades de crédito han incorporado la revisión de modelos de IA a los comités que ya existían para vigilar modelos estadísticos y analíticos, una práctica que Herrera también identifica en Colombia: “sobre todo, en entidades vigiladas, sí se viene ya preestablecido de regulaciones anteriores, tener con cierta frecuencia un comité que permita evaluar y vigilar ciertos indicadores de calidad de lo que tú tienes puesto ya sean modelos estadísticos, analíticos o modelos de Inteligencia Artificial”.

Las estructuras de gobernanza corporativa suelen dividirse en tres niveles: el estratégico (junta directiva), el táctico (comités de ética) y el operativo (desarrolladores y ciencia de datos).

  • Microsoft y el Comité AETHER: Microsoft estableció el comité de IA, Ética y Efectos en Ingeniería e Investigación (AETHER) para asesorar a la alta dirección sobre cuestiones de gran impacto. Este comité revisa el uso de tecnologías sensibles, como el reconocimiento facial, y puede recomendar la denegación de servicios a ciertos clientes si se violan los principios éticos de la compañía.
  • IBM y su AI Ethics Board: IBM ha integrado su junta de ética dentro de su estructura de cumplimiento global. Su enfoque se centra en la “transparencia y explicabilidad”, exigiendo que todos los modelos desarrollados por la empresa sean auditables y que se proporcione información clara sobre los datos utilizados para su entrenamiento.
  • Salesforce: La creación de la Oficina de Uso Ético y Humano de la Tecnología en Salesforce subraya la tendencia de mover la ética desde una junta consultiva externa hacia una unidad de negocio interna que tiene poder de veto sobre el desarrollo de productos.

¿Cómo avanza la gobernanza de la IA en América Latina?

En Latinoamérica existen diferentes iniciativas que propenden por la gobernanza de la IA. Una de ellas es la “Declaración de Santiago de Chile“, firmada en octubre de 2023 durante la Primera Cumbre Ministerial y de Altas Autoridades sobre la Ética de la IA en América Latina y el Caribe, representa el primer consenso sólido de la región. Este documento no solo adopta la Recomendación de la Unesco de 2021, sino que pone un énfasis particular en:

  • La inclusión digital: La IA debe cerrar las brechas de desigualdad, no ampliarlas, con un enfoque interseccional que proteja a pueblos indígenas, afrodescendientes y mujeres.
  • Gobernanza multiactor: El reconocimiento de que los estados no pueden gobernar la IA solos; se requiere la participación activa de la academia, el sector privado y la sociedad civil.
  • Institucionalidad regional: El compromiso de crear un Grupo de Trabajo regional liderado por Chile para coordinar políticas de IA y facilitar el intercambio de infraestructura de cómputo.

En octubre de 2024, la “Declaración de Montevideo” reafirmó estos compromisos y estableció una hoja de ruta concreta con cinco líneas prioritarias de acción:

  1. Gobernanza y regulación: Creación de marcos legales que permitan la interoperabilidad regional, evitando una fragmentación regulatoria que sofoque la innovación local.
  2. Talento y futuro del trabajo: Programas de reconversión laboral para mitigar el impacto de la automatización en sectores tradicionales.
  3. Protección de grupos vulnerables: Desarrollo de guías específicas para el uso de IA en servicios sociales sin discriminación.
  4. Medio ambiente y sostenibilidad: Evaluación del impacto hídrico y energético de los grandes centros de datos en la región.
  5. Infraestructura de Datos: Fomento de la soberanía de datos para asegurar que la riqueza generada por la información local permanezca en la región.

La Unesco y el Banco Interamericano de Desarrollo (BID) han sido los facilitadores técnicos más importantes en Latinoamérica. La iniciativa fAIr LAC, liderada por el BID Lab, se ha centrado en el uso de la IA para mejorar la provisión de servicios sociales en salud, educación y protección social. El proyecto ha desarrollado herramientas como el “fAIr Tech Radar”, que mide la madurez de las organizaciones en el uso responsable de la IA. Los resultados de 2024 muestran que la madurez regional promedio es de 2,9 (en una escala de 5), indicando que, si bien hay una adopción técnica significativa, la gobernanza y la responsabilidad social son áreas que aún requieren un desarrollo profundo.

Por otro lado, la Unesco ha impulsado el “Consejo Empresarial para la Ética de la IA“, copresidido por Telefónica y Microsoft, que busca que el sector privado regional adopte voluntariamente la metodología de Evaluación de Impacto Ético.

¿Cuáles son los primeros pasos para crear un comité en una empresa ?

Para las organizaciones que apenas están empezando, Herrera recomienda no empezar por la estructura, sino por el diagnóstico: “lo primero que es importante a tener en cuenta es el nivel de madurez que tenga en la compañía. No tiene mucho sentido tener un gobierno si hoy en día ni siquiera la estás aplicando”. A partir de ahí, sugiere “ir estableciendo esos marcos de trabajo que me permitan no generar fricciones dentro de las compañías, sino que me permita es generar unas reglas de juego claras y transparentes”.

También insiste en que el comité debe tener objetivos medibles: “cualquier inversión que se haga sobre Inteligencia Artificial, así sea establecer un comité de gobierno y ética, pues debe tener un propósito de retorno no debe ser algo holístico solo porque quiero hacerlo para estar en la moda”. En la práctica, esto implica fijar metas como reducción de quejas asociadas a sistemas automatizados, disminución de incidentes por sesgos o errores en modelos, o mejora en indicadores de satisfacción del cliente cuando interactúa con soluciones de IA.

La gobernanza de la Inteligencia Artificial y sus comités de ética representan el intento de la humanidad por domesticar una tecnología cuya potencia supera nuestra capacidad de predicción lineal. No es un fenómeno espontáneo, sino el resultado de una convergencia histórica entre el desarrollo técnico, la ética computacional y la necesidad de gestión de riesgos existenciales y sociales.

Artículos relacionados