INTELIGENCIA ARTIFICIAL

El uso de cuentas personales de ChatGPT dispara el riesgo de filtración de datos en las empresas



Dirección copiada

La Shadow AI en organizaciones se ha convertido en el principal vector de vulnerabilidad digital. A pesar del potencial de la IA generativa, la “IA en la sombra” o Shadow AI evidencia una brecha de seguridad donde el 90 % del personal usa herramientas personales, comprometiendo la ciberseguridad corporativa.

Publicado el 16 de ene de 2026

Sandra Defelipe Díaz

Periodista especializada en tecnología, en medios digitales, producción de contenidos y liderazgo editorial



Shadow AI en organizaciones y el peligro de filtrar datos
Generada con IA

ChatGPT representa el 71,1 % de las exposiciones de datos empresariales, a pesar de constituir menos de la mitad del uso total de IA en las organizaciones, así lo reveló el análisis de 22,4 millones de consultas de Inteligencia Artificial (IA) realizado por Harmonic Security en 2025.

La integración de la Inteligencia Artificial (IA) en el entorno corporativo atraviesa una crisis de desajuste entre las expectativas del liderazgo y la realidad operativa de la fuerza laboral. Además de las filtraciones de datos empresariales, un informe del MIT titulado State of AI in Business 2025 destaca que el 90 % del personal utiliza herramientas personales ante el fracaso de los sistemas oficiales. Esta “IA en la sombra” no solo expone información sensible, sino que evidencia una profunda brecha de transformación en la que el 95 % de las organizaciones no obtiene un retorno de inversión (ROI) medible.

¿Por qué las cuentas gratuitas son el mayor vector de vulnerabilidad?

Uno de los principales hallazgos de la investigación de Harmonic Security es la concentración del riesgo en las versiones de acceso libre. De las 98.034 instancias clasificadas como sensibles, el 87 % ocurrieron a través de cuentas gratuitas de ChatGPT. Estas herramientas suelen ser utilizadas mediante credenciales personales, lo que deja a la gestión de seguridad de las empresas sin visibilidad ni registros de auditoría sobre la información compartida.

Además del riesgo de filtración, existe una preocupación técnica sobre el tratamiento de la información. En las versiones abiertas, los datos pueden ser utilizados para entrenar modelos públicos, lo que compromete la propiedad intelectual y la confidencialidad de los procesos internos.

Según el reporte State of AI in Business 2025 del MIT, esta falta de control es una de las razones por las que el 90 % del personal prefiere utilizar capacidades humanas para proyectos complejos o de alta responsabilidad, ante la desconfianza que generan los sistemas que no garantizan la privacidad de los datos. Esta preferencia genera un bucle de riesgo: al no contar con herramientas internas que se adapten a sus necesidades, se recurre a plataformas externas que concentran el 92,6 % del riesgo de exposición de datos.

¿Cómo impacta la ‘IA en la sombra’ la Transformación Digital?

La brecha entre el uso oficial y el personal es profunda. Mientras que solo el 40 % de las organizaciones encuestadas por el proyecto NANDA del MIT han adquirido suscripciones corporativas de modelos de lenguaje (LLM), el 90 % de su personal reporta el uso regular de herramientas de IA personales para tareas laborales. Esta “IA en la sombra” , Shadow AI, a menudo ofrece un retorno de inversión (ROI) individual más inmediato que las iniciativas formales de las empresas, las cuales suelen estancarse en etapas de pilotaje.

El estudio de Harmonic detalla que solo seis aplicaciones concentran el 92,6 % de la exposición potencial de datos:

  • ChatGPT: 71,1 % de exposición (con una participación de consultas del 43,9 %).
  • Google Gemini: 5.935 instancias sensibles.
  • Microsoft Copilot: 3.416 instancias.
  • Claude: 2.412 instancias.
  • Perplexity: 1.245 instancias.

Esta disparidad evidencia que el personal busca agilidad en herramientas conocidas, aunque estas carezcan de los protocolos de seguridad necesarios para el manejo de contratos o datos financieros.

¿Cuáles son las causas de la brecha entre pilotos y resultados económicos?

La inversión en IA generativa, estimada en hasta 40.000 millones de dólares, se enfrenta a una realidad dispar. Solo el 5 % de los pilotos integrados logra un impacto financiero significativo, mientras que la mayoría de los proyectos quedan estancados por su falta de ajuste con los flujos de trabajo reales. El MIT denomina a este fenómeno la “Brecha de la IA Generativa”, donde la adopción es alta pero la transformación estructural es mínima.

Un error estratégico común es el sesgo en la asignación de recursos. Aproximadamente el 70 % de los presupuestos de IA se destina a Ventas y Marketing. Sin embargo, la evidencia sugiere que los retornos más sostenibles provienen de la automatización de la “trastienda” o back-office (finanzas y operaciones), mediante la reducción de costos en proveedores externos y agencias, logrando ahorros de entre 2 y 10 millones de dólares anuales.

¿Por qué el modelo de asociación externa supera al desarrollo interno?

La capacidad técnica para implementar soluciones seguras y efectivas parece favorecer a los proveedores especializados. Los proyectos de IA construidos mediante asociaciones estratégicas externas alcanzan el despliegue exitoso en un 67 % de los casos, una tasa que duplica el 33 % de éxito de los desarrollos realizados exclusivamente de forma interna.

El liderazgo empresarial que ha logrado cruzar la brecha de la IA se caracteriza por tratar a las empresas emergentes de IA como proveedores de servicios de negocio y no solo de software. Estas organizaciones priorizan sistemas que aprenden de la retroalimentación y retienen el contexto, resolviendo la frustración del personal ante herramientas estáticas que “cometen los mismos errores una y otra vez“.

¿Es el bloqueo de herramientas la solución definitiva?

Para el liderazgo del sector tecnológico, restringir el acceso no es una estrategia viable a largo plazo. Alistair Paterson, CEO de Harmonic Security, señaló: “Bloquear no es la solución. Existen múltiples formas en que el personal puede eludir los controles, y las organizaciones corren el riesgo de perder los enormes beneficios de productividad que la IA puede ofrecer”.

En su lugar, el reporte sugiere una “habilitación con supervisión”. Esto implica proporcionar herramientas aprobadas por la organización y desplegar controles sensibles al contexto que permitan diferenciar entre tareas de bajo riesgo, como una investigación general, y acciones críticas, como la carga de documentación confidencial.

El camino hacia una integración segura parece residir en el desarrollo de sistemas con memoria persistente y aprendizaje contextual. Las organizaciones que logran cruzar la brecha de la IA generativa son aquellas que dejan de ver estas herramientas como software estático y comienzan a tratarlas como asistentes capaces de adaptarse a los flujos de trabajo específicos sin sacrificar la integridad de la información.

El futuro apunta hacia la “Web Agéntica”, una infraestructura de sistemas interconectados capaces de negociar tareas y coordinar acciones de forma autónoma. Este cambio, apoyado en protocolos como el Model Context Protocol (MCP) y NANDA, permitirá que las organizaciones dejen de gestionar herramientas aisladas y pasen a integrar asistentes que aprenden y recuerdan, cerrando finalmente la brecha de confianza y seguridad que hoy domina el sector.

Artículos relacionados