INTELIGENCIA ARTIFICIAL

IA y ciberseguridad en 2026: ¿Por qué la supervisión es clave?



Dirección copiada

La adopción de Inteligencia Artificial en empresas ha transformado la industria, pero 2026 demuestra que la tecnología requiere control humano. El phishing y las alucinaciones de la IA desafían la ciberseguridad corporativa, exigiendo un modelo de gestión conjunta donde el pensamiento crítico humano valide cada proceso automatizado para garantizar la ética y precisión.

Publicado el 13 de ene de 2026

Sandra Defelipe Díaz

Periodista especializada en tecnología, en medios digitales, producción de contenidos y liderazgo editorial



IA en empresas: por qué la supervisión humana es vital
Imagen de DC Studio tomada de Freepic.

La integración de la Inteligencia Artificial (IA) en los procesos productivos y de seguridad digital ha alcanzado un punto de inflexión. Aunque los modelos de lenguaje y las herramientas de automatización muestran una precisión sin precedentes, la industria tecnológica coincide en un diagnóstico fundamental: la tecnología por sí sola es insuficiente para garantizar la integridad de las operaciones. El factor humano, lejos de ser desplazado, se consolida como el garante de calidad y el último filtro ante los riesgos emergentes.

¿Cuál es el impacto real de las amenazas digitales en las organizaciones actuales?

El panorama de la ciberseguridad al inicio de 2026 revela una vulnerabilidad persistente. Según el informe Kaseya Cybersecurity Outlook Report 2026, el 37 % de las empresas afirma haber sufrido al menos un día completo de inactividad tras un incidente de seguridad. Este estancamiento es evidente al comparar que solo el 21 % de las organizaciones logró evitar el tiempo de inactividad este año, una cifra menor al 27 % registrado en 2024.

El costo de estos fallos no es solo operativo, sino financiero: cerca del 20 % de las compañías reportó pérdidas económicas de 100.000 dólares o más debido a ataques. En este escenario, el phishing se mantiene como la amenaza más dañina, afectando al 56 % de las organizaciones consultadas. La causa raíz de esta exposición sigue siendo el error humano, derivado de prácticas inadecuadas y una formación que, en un tercio de los casos, se realiza apenas una vez al año.

¿Cómo están evolucionando los modelos de IA para reducir sus márgenes de error?

Uno de los mayores obstáculos para la adopción plena de la IA ha sido el fenómeno de las “alucinaciones” —respuestas incorrectas con apariencia verosímil—. No obstante, la arquitectura de estos sistemas ha mejorado drásticamente. “En dos años el escenario es absolutamente diferente”, explica Gastón Milano, CTO de Globant Enterprise AI, quien destaca que modelos como ChatGPT 4.5 han reducido a la mitad la probabilidad de estos errores.

La precisión actual se apoya en técnicas como la Generación Aumentada por Recuperación (RAG, por sus siglas en inglés), que permite a los sistemas consultar fuentes externas de alta fidelidad antes de generar una respuesta. Se estima que el mercado de soluciones RAG crecerá a una tasa anual del 49,1 % hasta 2030, reflejando el interés corporativo por obtener resultados verificables. Actualmente, al menos siete modelos de IA superan el 80 % de éxito en el índice de inteligencia MMLU (Massive Multitask Language Understanding).

¿Por qué el modelo de “gestión conjunta” domina el mercado tecnológico?

A pesar de los avances técnicos, y de acuerdo con el informe Kaseya Cybersecurity Outlook Report 2026, la confianza ciega en la autonomía de la IA es escasa: solo el 12 % de las empresas permite que esta tecnología actúe sin intervención. Las preocupaciones sobre la precisión (29 %), la privacidad de los datos (27 %) y los costos (19 %) mantienen a la supervisión humana en el centro de la estrategia.

Esta desconfianza ha impulsado un modelo de gestión colaborativa. El 30 % de las empresas ha optado por una relación de gestión conjunta con proveedores de servicios gestionados (MSP), buscando un equilibrio entre el control interno y la experiencia técnica externa. “El pensamiento crítico será la verificación de que la tecnología funciona”, señala Milano, subrayando que la alfabetización en IA es ahora una de las habilidades más requeridas según el Foro Económico Mundial.

Tanto la ciberseguridad como la adopción de la IA en 2026 no se definen por la sustitución de las personas, sino por la optimización de sus capacidades. La tecnología permite procesar en horas lo que antes tomaba semanas, pero la responsabilidad ética, la verificación factual y la respuesta ante incidentes críticos siguen dependiendo de una cultura de seguridad sólida y un liderazgo humano capaz de interpretar el contexto digital.

Artículos relacionados