La información que no debes compartir para proteger tu integridad al usar ChatGPT

Publicado el:

El uso de herramientas de IA como ChatGPT sigue en ascenso cada día, lo que trae beneficios en distintos ámbitos pero también supone nuevos retos para proteger la integridad y privacidad digital de los usuarios.

A menudo, las personas ven a estos chatbots como una especie de “amigos o consejeros” a los que le depositan toda su confianza, incluyendo información sensible que no deberían compartir.

El desconocimiento de los riesgos de suministrar estos tipos de datos a modelos de inteligencia artificial puede traer como consecuencia amenazas en el ámbito empresarial como laboral.

¿Cómo los usuarios pueden proteger la integridad al usar ChatGPT?

Según un informe de la empresa de seguridad de aplicaciones Indusface, alrededor de 52 % de los adultos en Estados Unidos recurre habitualmente a modelos de lenguaje grandes, como ChatGPT.

La investigación revela que de este porcentaje, un tercio de ellos admitió que es “demasiado dependiente” de las herramientas de inteligencia artificial. Las utilizan porque les proporcionan respuestas a cualquier duda que se les presente diariamente.

Otro dato importante del informe es que aproximadamente 38 % de los empleados en EEUU reconoció que ha compartido información de trabajo confidencial con chatbots de IA.

Los encuestados señalaron que esta acción de compartir datos laborales con herramientas de inteligencia artificial generativa, la ejecutaron sin tener el permiso de sus jefes. En este sentido, esta práctica implica riesgos para el entorno empresarial y personal.

Al respecto, la compañía Indusface en su estudio analizó qué tipo de información están compartiendo los usuarios con los modelos de IA y cuáles podrían significar un peligro para la integridad.

Documentos de trabajo

El estudio indica que más del 80 % de los empleados utiliza la IA para completar tareas. Tales como redacción de informes, mejoras en textos de proyectos, hacer diapositivas para presentaciones; entre otras.

No obstante, los investigadores determinaron que 11 % de la información que comparten los usuarios en herramientas de chatbots es netamente confidencial. Es decir, información privada de la empresa que no debería ser revelada.

Ante esto, los especialistas sugieren tomarse el tiempo para verificar si hay algún datos sensible en los archivos antes de compartirlos con la IA. De manera que el usuario pueda borrar la información privada para luego solicitarle al chatbot la ayuda requerida.

Claves de acceso

Desde hace varios años, expertos en seguridad digital están advirtiendo los peligros de compartir claves y contraseñas en internet. Sin embargo, no todos las personas siguen esta recomendación.

En esta línea, el informe señala que 24 % de la muestra guarda sus contraseñas en notas dentro de los dispositivos y alrededor de 18 % lo hace en navegadores web. Al respecto, Indusface indicó que compartir claves con la IA puede terminar en filtraciones.

Datos personales

Aunque parezca obvio, no se deben subir archivos a plataformas de internet o modelos de IA de datos personales, documentos de identificación o direcciones. Esto podría significar que el usuario sea víctima de fraude, suplantación de identidad o los llamados deepfakes.

En resumen, proporcionar este tipo de información podría significar un peligro para el usuario o la empresa, por lo que al evitar compartir estos datos la persona puede proteger su integridad y privacidad digital.

Información de Infobae / redacción Noti AI

No dejes de leer: Más allá del chatbot: datos curiosos de la inteligencia artificial que impactan el mundo


Sigue nuestras redes sociales y se parte de nuestra comunidad 

Instagram

 YouTube

X

TikTok

Recientes