ESTUDIO

Disminuye el costo de las brechas de ciberseguridad pero aumenta la fuga de datos, según IBM



Dirección copiada

¿Sabía usted que el costo promedio de las filtraciones de datos en Latinoamérica disminuyó a ‘sólo’ 2,51 millones de dólares? Estas cifras y otras fueron parte de los hallazgos del último ‘Cost of a Data Breach’. Un informe presentado por Matías Haidbauer de IBM.

Publicado el 15 de oct de 2025

Jorge Hernández

Periodista de tecnología, escritor y libretista. Editor en ImpactoTIC




El último informe anual ‘Cost of a Data Breach’ de IBM trae buenas y malas noticias. Las buenas son que el costo de las brechas en ciberseguridad para la región disminuyó un 9 %, costando “apenas” 2,51 millones de dólares en promedio. Las malas son que los registros (datos) fugados aumentaron.

 “La filtración promedio aumenta año tras año, de 30.000 a 31.000 registros. Entonces, tenemos menor impacto financiero, pero mayor cantidad de registros exportados” afirmó Matías Haidbauer, líder de servicios de seguridad para IBM SSA, en medio de la presentación del estudio realizada en Bogotá.

Esta tendencia  sugiere que, si bien las empresas están mejorando su capacidad de respuesta financiera, la superficie de ataque y el volumen de datos expuestos continúan expandiéndose. Por cierto, la reducción del costo se atribuye principalmente a la implementación de herramientas de automatización e Inteligencia Artificial en las estrategias de defensa.

El desafío de la gobernanza en la IA

Paradójicamente, la misma Inteligencia Artificial que ayuda a reducir los costos de las brechas se ha convertido en una de las mayores fuentes de riesgo por la falta de supervisión. Según Haidbauer, uno de los hallazgos más preocupantes es que “el 63% de las entidades que entrevistamos no tiene una política de gobierno y control definida sobre el uso de la IA”.

Esta brecha de gobernanza se debe a una adopción acelerada y reactiva de la tecnología. “Hubo una aceleración exponencial de la implementación de estos modelos y, de repente, se generó en el mercado un hype para implementar modelos de Inteligencia Artificial y no se tomó esa política de diseño y desarrollo seguro y mitigación de riesgos desde el primer momento”, explicó.

Para una implementación segura de la IA, Haidbauer aconseja realizar un análisis previo para entender los riesgos a nivel de datos, ciberseguridad y negocio de cada organización. La recomendación es clara: la IA debe ser gobernada, controlada y auditada para asegurar que no tome decisiones con sesgo y que su uso esté alineado con los objetivos de cada organización.

El tiempo y los vectores de ataque

El tiempo es otro de los factores críticos en la gestión de las brechas de seguridad, según el estudio, la diferencia en los tiempos de detección y contención de estos incidentes pueden ser de hasta 70 días dependiendo de dónde estén almacenados los datos. Los entornos de nube múltiple o nube pública, aunque flexibles, presentan mayores desafíos para la visibilidad y el control.

Esta demora se debe a que, al migrar a la nube pública, “los datos salen un poco de mi control”, explicó Haidbauer. Y si bien se gana en escalabilidad y velocidad de innovación, la contrapartida es un mayor riesgo, ya que la empresa deja de tener un control directo sobre lo que sucede, dificultando una detección temprana.

En cuanto a los métodos de ataque, el informe subraya que el eslabón más débil sigue siendo el humano. Los dos principales canales por los cuales se filtran los datos son el phishing y los ataques a través de terceros y la cadena de suministro. Estos vectores son responsables de casi el 40 % de las brechas, evidenciando que la ingeniería social y la explotación de la confianza son las tácticas preferidas por los ciberdelincuentes.

La naturaleza de los ataques también ha evolucionado. Ya no se centran tanto en explotar vulnerabilidades de software, sino en obtener acceso legítimo. Como resumió el Líder de Servicios de Ciberseguridad para IBM SSA, la nueva realidad es que “los atacantes ya no están vulnerando, sino que se están registrando”. 

El Persistente “Dolor de Cabeza” del Inventario de Activos

Más allá de los nuevos desafíos que presenta la IA y la cadena de suministro, las empresas siguen lidiando con otros problemas fundamentales como el inventario de activos. Haidbauer lo describió como “el gran dolor de cabeza” para  muchas empresas, debido a la alta volatilidad de la infraestructura tecnológica.

El principal riesgo es que un activo no catalogado como crítico puede carecer de los controles de seguridad adecuados, convirtiéndose en una puerta de entrada para los atacantes. “Tener ese inventario al día es un desafío constante que tienen todas las empresas”, afirmó el experto.

Para enfrentar esta complejidad, la estrategia recomendada es un enfoque ‘top down’. Este método consiste en primero entender el negocio y sus procesos críticos para luego identificar y mapear los activos tecnológicos que los soportan. De esta forma, se pueden priorizar los esfuerzos de protección sobre “las joyas de la corona” de la organización.

Si quiere conocer más este tema lo invitamos a ver la videoentrevista localizada en la cabecera de este artículo.

Artículos relacionados

Artículo 1 de 5