El desafío ya no es solo adoptar agentes, sino gobernarlos antes de escalarlos.
NEXT THINKING
CLAVES DE TECNOLOGÍA, INNOVACIÓN Y ESTRATEGIA PARA LÍDERES DE LATAM
¡Hola!
Hay temas que uno detecta primero en los detalles. Esta semana, por ejemplo, me llamó la atención la naturalidad con la que ya hablamos de agentes de IA capaces de ejecutar tareas, consultar sistemas, conectarse con APIs y tomar decisiones con escasa intervención humana. Hace apenas un año, muchas empresas seguían evaluando copilots. Hoy, la conversación ya es otra: qué pasa cuando la IA deja de asistir y empieza a actuar.
Ahí aparece la verdadera discusión de negocio. Porque el valor de estos agentes es evidente: más productividad, más automatización, más velocidad. Pero también lo es el riesgo. Cuando un sistema autónomo accede a datos, código, servicios externos o procesos críticos, la seguridad deja de ser un control de último momento y pasa a ser una condición para avanzar.
De eso trata esta edición: de por qué gobernar y securizar agentes autónomos ya no es opcional.
Porque la discusión empresarial sobre IA ya cambió. En 2024 y 2025 la conversación estuvo dominada por modelos y copilots, pero en 2026 el foco pasó a otro punto: cómo desplegar agentes de IA sin abrir nuevos riesgos operativos, regulatorios y reputacionales. El negocio empuja porque estos sistemas ya no se limitan a asistir; pueden ejecutar tareas, coordinar procesos, consultar sistemas, operar sobre APIs y tomar decisiones dentro de flujos reales. Ahí está la promesa de productividad, velocidad y automatización que hoy interesa a los directorios.
¿Qué significa realmente?
Significa aceptar que la cuestión ya no está solo en el modelo, sino en el entorno donde actúa. El riesgo vive en credenciales, permisos, conectores, herramientas, memoria, acceso a datos y capacidad de ejecutar acciones reales. Por eso, la autonomía útil para una empresa no puede ser libre ni total. Debe ser acotada, gobernada y trazable. La misma nota plantea un principio muy claro: ningún agente debería operar en producción sin estar encapsulado, con reglas sobre qué puede consultar, qué puede hacer y cuándo debe detenerse o pedir intervención humana.
¿Qué está pasando ahora?
Está creciendo la distancia entre la velocidad de adopción y la madurez de control. Hay tres datos que ayudan a dimensionarlo: Deloitte registró un alza de más de 50% en el acceso de empleados a herramientas de IA aprobadas por la empresa en un año; KPMG indicó que el despliegue de agentes casi se cuadruplicó en 2025; y Capgemini proyectó un valor potencial de US$ 450.000 millones hacia 2028 en los mercados relevados. Ese avance explica la urgencia: cuanto más valor prometen estos agentes, mayor es también su superficie de exposición para la compañía.
¿Qué hay entre líneas?
Hay que poner el foco donde más duele: quién responde cuando el agente se equivoca. El artículo pregunta qué puede decidir por sí solo, qué requiere aprobación humana, qué ocurre si actúa fuera del rango esperado, quién recibe la alerta y si existe un registro auditable de lo que hizo. También advierte que muchas organizaciones ya tienen agentes en marcha sin haber documentado esas respuestas.
Nuestra visión
La oportunidad de negocio es real, pero escalar sin gobernanza es exponer a la empresa a errores más rápidos, más opacos y más difíciles de justificar. Mi lectura es que en 2026 la ventaja no estará en sumar más agentes, sino en desplegarlos con límites, permisos mínimos, trazabilidad y capacidad de intervención humana desde el inicio. La seguridad, acá, ya no es un freno: es la condición para que el negocio avance.
ENCUESTA
¿En qué etapa está su empresa respecto del gobierno y la seguridad de agentes de IA?
*|SURVEY: Aún no los implementamos y estamos evaluando riesgos|*
*|SURVEY: Estamos haciendo pruebas controladas en casos puntuales|*
*|SURVEY: Ya usamos agentes, pero con gobernanza todavía en desarrollo|*
*|SURVEY: Ya contamos con políticas, monitoreo y controles definidos|*
La semana pasada preguntamos si la equidad de género se considera un indicador de rendimiento en los departamentos de IT. La respuesta más elegida fue “No es una métrica relevante”, seguida muy de cerca por “Es solo un tema de RR. HH.” y “Sí, es una prioridad métrica”. El resultado deja una señal clara: en muchas empresas, este tema todavía no termina de instalarse como un KPI propio del área tecnológica. Si le reenviaron este correo y quiere suscribirse, hágalo aquí. Si le gusta nuestro newsletter, no dude en recomendarlo y compartirlo..
NEXT TIPS
ENTREVISTA
"Para 2030, por cada persona vamos a tener tres agentes de IA trabajando en paralelo”
Nextwork360 Latam es la red más grande en Hispanoamérica de revistas y medios de comunicación digitales B2B sobre temas de transformación digital e innovación empresarial. Su misión es difundir la cultura digital y emprendedora en las organizaciones de América Latina.
Boletín
Este correo fue enviado porque te has suscrito a el boletín informativo de Next Thinking que hace parte de Nextwork360.
Este mensaje ha sido enviado a *|EMAIL|*.
Si deseas eliminar tu dirección de correo de nuestra lista de envíos haz clic aquí.