Meta anunció recientemente nuevas medidas de seguridad, enfocadas en controles parentales, para limitar el uso que los menores de edad le dan a los chatbots de inteligencia artificial (IA).
Al respecto, la compañía dará a los padres la opción de bloquear los chats de sus hijos adolescentes con personajes de inteligencia artificial. De esta forma se evitará el riesgo de tener conversaciones inadecuadas.
Con estas acciones, la empresa busca proteger a los menores de edad, luego de que en los últimos meses han llegado reportes sobre los peligros para la salud mental que implica el uso de los chatbots.
¿En qué consisten las nuevas medidas de seguridad de Meta relacionadas con los chatbots de IA?
La empresa tecnológica está añadiendo una nueva función de seguridad a las «cuentas para adolescentes«, es decir, para aquellos perfiles de usuarios menores de 18 años de edad.
En este sentido, la nueva medida permitirá a los padres o tutores desactivar las conversaciones de sus hijos con los chatbots de personajes de IA. De forma tal que los padres puedan tener mayor control sobre la forma en la que los menores interactúan con la IA.
Cabe resaltar que estos chatbots son creados por otros usuarios y se pueden encontrar en plataformas como Facebook, Instagram y la aplicación principal de Meta AI. Con esta acción, Meta estaría protegiendo la vulnerabilidad de los adolescentes.
El director de Instagram, Adam Mosseri, y el director de IA de Meta, Alexander Wang, firmaron una publicación en un blog sobre el lanzamiento de estas medidas. Al respecto, comentaron que se trata de una estrategia para ayudar a los padres a proteger a sus hijos.
“Reconocemos que los padres ya tienen mucho que hacer cuando se trata de navegar por Internet de forma segura con sus hijos adolescentes, y estamos comprometidos a brindarles herramientas y recursos útiles que les simplifiquen las cosas.”, dijeron los ejecutivos.
Otras restricciones
Por otra parte, Instagram también anunció hace días que está implementando un nuevo sistema de clasificación de contenido. Entre las restricciones destaca que le prohibió a sus personajes de IA hablar de temas específicos con adolescentes.
Los temas prohibidos son las autolesiones, suicidio, trastornos alimenticios, romance y “otro contenido inapropiado”. Mientras que los tópicos que se pueden abordar con los menores de edad son los de educación y deportes.
Es importante resaltar que las nuevas restricciones llegan luego de que salieran a la luz varios informes sobre el comportamiento de los chatbots de Meta. Según los documentos, estos bots tenían conversaciones inapropiadas con menores de 18 años de edad.
De acuerdo con una publicación de Reuters el pasado mes de agosto, la compañía permitió que los chatbots «involucraran a un menor en conversaciones románticas o sensuales». Ante esto, la empresa se comprometió a revisar lo que estaba ocurriendo.
Después de algunas semanas, Meta lanzó las nuevas medidas de seguridad enfocadas en el uso que le pueden dar los adolescentes a los chatbots de IA. Los cambios se comenzarán a implementar en 2026 en EEUU, Reino Unido, Canadá y Australia.
Información de The Guardian / redacción Noti AI
No dejes de leer: Anthropic lanza Habilidades para Claude: un recurso para optimizar tareas específicas
