Un estudio de Harmonic Security reveló que casi el 8,5 % de los mensajes introducidos en herramientas de inteligencia artificial generativa (GenAI), como Microsoft Copilot, ChatGPT de OpenAI, Google Gemini, Claude de Anthropic y Perplexity, pueden exponer información confidencial, lo que acarrea serios riesgos.
Al analizar decenas de miles de mensajes en el cuarto trimestre de 2024, los investigadores identificaron datos de clientes, registros de empleados, detalles legales y financieros, configuraciones de seguridad y código fuente confidencial entre los tipos de información potencialmente revelada.
Es llamativo que casi la mitad (45,8 %) de estos casos involucró detalles de facturación y autenticación de clientes, mientras que el 26,8 % incluía datos específicos de empleados como información de nóminas y evaluaciones de desempeño.
Gen AI gratis es igual a menos seguridad empresarial
Harmonic también destacó el uso generalizado de servicios GenAI de nivel gratuito, que a menudo carecen de seguridad de nivel empresarial.
Más del 63 % de los usuarios de ChatGPT y el 75 % de los usuarios de Claude confían en planes gratuitos, a pesar de los riesgos asociados de que se utilicen datos confidenciales para entrenar modelos de IA.
El director ejecutivo de Harmonic, Alastair Paterson, advirtió sobre los peligros de la fuga de datos y afirmó que, si bien la mayor parte del uso de GenAI es benigno, la posible exposición de información confidencial requiere de medidas proactivas. Destacó la necesidad de monitoreo en tiempo real, visibilidad inmediata y capacitación de los empleados para mitigar los riesgos.
¿Cuál es la solución a estos riesgos de la GenAI?
La combinación de diversos tipos de datos confidenciales y la gran dependencia de herramientas gratuitas es alarmante. Sin embargo, bloquear el acceso a las herramientas GenAI no es una solución viable, aseveró Harmonic, ya que “su atractivo es tan fuerte que los empleados eluden las restricciones y, a menudo, recurren a dispositivos y redes personales, lo que aumenta el uso de ‘tecnologías de información en la sombra’”.
Por ello, el estudio resaltó la importancia de que las organizaciones adopten controles más estrictos sobre el uso de la GenAI y así mitigar sus riesgos, como exigir planes pagos que no se entrenen con datos de entrada y crear flujos de trabajo para administrar las interacciones con las herramientas de IA.
Las recomendaciones de Harmonic Security también incluyeron un monitoreo mejorado y pautas departamentales para garantizar un uso seguro y responsable de la GenAI. Estos pasos tienen como objetivo proteger los datos comerciales críticos y, al mismo tiempo, permitir que los empleados aprovechen el potencial de la IA de manera responsable.
No dejes de leer: La guía de Anthropic para escribir prompts efectivos y usar mejor la IA
Sigue nuestras redes sociales y se parte de nuestra comunidad