Con el Modo Agente en ChatGPT Atlas, OpenAI ha dado un paso audaz: un sistema que puede ver páginas, hacer clics y usar el teclado como un humano.
Sin embargo, esta capacidad de navegar por flujos cotidianos trae consigo una vulnerabilidad crítica: el prompt injection.
En términos sencillos, es una técnica de ciberataque donde se camuflan instrucciones maliciosas dentro de contenido aparentemente normal.
OpenAI y navegadores con IA
Como explica IBM, el objetivo es engañar a la IA para que interprete estas entradas como órdenes legítimas, lo que podría derivar en filtraciones de datos o acciones no deseadas, como enviar un correo de renuncia sin el consentimiento real del usuario.
La raíz del problema es estructural. Los modelos de lenguaje procesan instrucciones y datos como cadenas de texto en lenguaje natural, sin una separación rígida.
Si una instrucción externa está bien formulada, el modelo puede priorizarla sobre las órdenes originales del desarrollador.
Vulnerabilidad crítica
El peligro se amplifica cuando el agente recorre múltiples fuentes: correos, calendarios y redes sociales. Un atacante podría «sembrar» un mensaje malicioso en una bandeja de entrada; cuando el agente lo lee para cumplir una tarea inocua, se activa la trampa.
OpenAI reconoce que no existe un blindaje perfecto. Al igual que el phishing, la inyección de prompts es un problema persistente que evolucionará con el tiempo.
¿Cómo protegerse?
Para mitigar riesgos, la compañía ha reforzado la seguridad de Atlas con entrenamiento adversarial, pero la responsabilidad también recae en el usuario:
-
Revisión manual: No automatice acciones sensibles (compras o correos) sin confirmar el paso final.
-
Instrucciones acotadas: Evite encargos demasiado amplios que obliguen al agente a procesar volúmenes masivos de datos desconocidos.
-
Navegación segura: Use el agente sin sesión iniciada cuando no sea estrictamente necesario acceder a cuentas personales.
La IA nos ahorra tiempo, pero en un entorno donde el contenido puede ser una orden disfrazada, la supervisión humana sigue siendo la última línea de defensa.
Información de Xataka / Redacción Noti AI
No dejes de leer: Herramientas de IA para tareas específicas: de la cocina al diseño de moda
