Los deepfakes, la tecnología que utiliza la inteligencia artificial (IA) para generar contenido falso y extremadamente realista, cada vez gana más terreno en el área de los ciberataques.
Check Point Research, la división de Inteligencia de Amenazas Check Point Software Technologies Ltd, elaboró un informe en el que alerta sobre el peligro de los deepfakes en la seguridad digital.
Generalmente, los objetivos más comunes de los atacantes son robar información, dañar sistemas informáticos, interrumpir un servicio, o generar daño a una persona o plataforma digital.
¿Cómo los deepfakes influyen en los ciberataques utilizando la IA?
En el informe titulado IA Security Report 2025 elaborado por Check Point Research, señalan que los deepfakes han dejado de ser simples montajes para convertirse en amenazas importantes en el mundo digital.
Los investigadores señalan que esta tecnología cada vez está más presente en el área de suplantación de identidad, campañas de fraudes y ataques de “ingeniería social” a gran escala.
A través de la automatización de procesos con la inteligencia artificial, los atacantes tienen la facultad de interactuar con las víctimas en tiempo real. Esta técnica les da una imagen de credibilidad, ya que le generan la sensación a la víctima de que está hablando con alguien real.
Niveles de ataques
En el informe de Check Point Research, se introduce el término de “Deepfake Maturity Spectrum”. Este concepto engloba las diferentes categorías de los ataques que utilizan esa tecnología.
En el primer nivel de ataque se encuentra el de generación offline o contenido pregrabado. Este se caracteriza por ser un contenido de alta calidad con fines maliciosos, que suena muy convincente para así atrapar a la víctima.
En el segundo nivel está la generación en tiempo real, donde está presente la modulación de voz e imagen en directo. En este renglón, el atacante puede manipular contenido en tiempo real durante una videollamada.
Finalmente, el tercer nivel lo ocupa la generación autónoma, en el que los protagonistas son los agentes de IA. Estos modelos son capaces de gestionar varias interacciones en diversas plataformas.
Con la evaluación de esta tecnología, los desarrolladores de deepfakes pueden ejecutar ataques en el ecosistema digital, que suelen dirigirse a empresas o individuos. Generalmente, atrapan a las víctimas porque están diseñados para que parezcan reales.
De tal modo, los agentes de IA en los deepfakes pueden suplantar la identidad de empresarios o directivos de recursos humanos para hacer entrevistas de trabajo ficticias. Además, pueden emplearse con fines delictivos en el área financiera digital.
Recomendaciones de seguridad
Check Point Software en su informe destacó que es necesario utilizar herramientas especializadas para minimizar el riesgo de ser víctimas de un ciberataque con la IA de deepfakes.
En este sentido, señaló que hay empresas tecnológicas que desarrollaron herramientas para detectar y bloquear archivos manipulados por IA. Además de bloquear comportamientos irregulares relacionados con agentes de IA.
La división de inteligencia de amenazas de Check Point Software Technologies subrayó que es necesario que las personas se mantengan proactivas en la protección contra los ciberataques ejecutados con IA a través de los deepfakes.
Información de Cine&TelePro / redacción Noti AI
No dejes de leer: Los modelos de IA podrían estar compartiendo inclinaciones peligrosas de forma inadvertida
Sigue nuestras redes sociales y se parte de nuestra comunidad