La Inteligencia Artificial cada día se relaciona más con la ciberseguridad, especialmente como un mecanismo de defensa y detección de anomalías o como una herramienta para generar malware por parte de los criminales. Pero existe otro caso: cuando el interés que genera es usado para engañar a usuarios y empresas.
Este fue el caso recientemente denunciado por investigadores de Sophos X-Ops con la aparición del dominio claude-pro[.]com, un sitio que imitaba visualmente el portal oficial de Anthropic. La página aprovechaba el interés por la versión profesional de Claude para distribuir un supuesto instalador llamado ‘Claude-Pro Relay’.
En realidad, el archivo contenía código malicioso que utilizaba una técnica conocida como DLL sideloading, capaz de engañar a componentes legítimos del sistema operativo para cargar malware sin activar alertas de antivirus tradicionales.
El análisis técnico reveló la presencia de un nuevo backdoor llamado Beagle. Una vez instalado, el malware se comunicaba con servidores remotos para extraer archivos, ejecutar comandos y administrar directorios en los equipos comprometidos. Por desgracia, el fenómeno no se limita a Claude.
Índice de temas
Otro ejemplo de una nueva tendencia
La campaña UNC6032, una operación de ciberespionaje y distribución de malware atribuida a un grupo de cibercriminales con base en Vietnam, utilizó anuncios falsos en Facebook y LinkedIn para promocionar supuestas herramientas de generación de video como Luma AI, Canva Dream Lab y Kling AI.
Descubierta en 2024 por investigadores de Mandiant, división de ciberseguridad de Google, esta operación criminal afectó a más de 2,3 millones de usuarios solo en la Unión Europea. La campaña se desarrollaba mediante un esquema de engaño digital dividido en tres etapas principales, diseñado para ganarse la confianza de usuarios interesados en herramientas de Inteligencia Artificial.
En la primera fase, los atacantes compraban miles de anuncios fraudulentos en Facebook y LinkedIn utilizando cuentas corporativas robadas. A través de estas publicaciones promocionaban supuestas versiones de escritorio de plataformas populares como Luma AI o Canva Dream Lab. Cuando una persona hacía clic en el anuncio, era redirigida a alguna de las más de 30 páginas web falsas que imitaban el diseño visual de las compañías reales.
Una vez que el usuario intentaba descargar el supuesto programa, comenzaba la fase de infección y robo de información. La plataforma entregaba un archivo comprimido que ocultaba un malware bajo nombres engañosos, como ‘video_ai.mp4.exe’. Este archivo lograba evadir algunos antivirus convencionales al camuflarse dentro de procesos legítimos del sistema operativo Windows.
Tras su ejecución, se activaban silenciosamente dos programas maliciosos encargados de registrar las pulsaciones del teclado y revisar los navegadores web para extraer automáticamente contraseñas almacenadas, billeteras de criptomonedas y datos de tarjetas de crédito. Finalmente, toda la información robada era enviada a los atacantes a través de chats privados en Telegram.
La era del vibe hacking
La sofisticación de los ciberataques evoluciona a tal velocidad que algunos investigadores ya incorporaron un nuevo término a su glosario: vibe hacking. El concepto describe campañas en las que agentes autónomos de Inteligencia Artificial diseñan y ejecutan ataques completos. En lugar de escribir código manualmente, los ciberdelincuentes entregan instrucciones generales a un modelo de IA y este se encarga del resto. Es, en esencia, el lado oscuro del vibe coding.
A partir de allí, la IA es capaz de generar variantes únicas de código malicioso, lo que dificulta su detección mediante sistemas tradicionales basados en firmas. En el entorno corporativo, una de las amenazas más preocupantes es el fraude de identidad multicanal. Miles Brundage, investigador del Future of Humanity Institute de la Universidad de Oxford, advirtió que la IA permitirá ataques “agran escala, altamente dirigidos y eficientes”.
La velocidad de ejecución también cambió. Mientras un investigador humano podía tardar horas en redactar un correo de phishing altamente personalizado, las herramientas basadas en IA pueden producir mensajes similares en cuestión de minutos. En otras palabras, la IA ha facilitado la industrialización del crimen al punto que Jeremy Jurgens, director general y jefe del Centro de Tecnologías de Frontera e Innovación y del Centro de Ciberseguridad del Foro Económico Mundial, aseguró que “el fraude se ha convertido en el tejido conectivo del riesgo cibernético”.







