ChatGPT activará un sistema de verificación de edad para proteger a menores

Publicado el:

La compañía OpenAI activará un sistema de verificación de edad para los usuarios de ChatGPT, con el objetivo de proteger la vulnerabilidad de los adolescentes y menores que recurren a estas plataformas.

En este sentido, ChatGPT podrá adaptar las respuestas que ofrece dependiendo de si el usuario es menor de 18 años de edad. De este modo se crearía una especie de versión especial de este chatbot para los menores.

Es importante destacar que esta acción llega luego de que una pareja de padres denunció a OpenAI por la muerte de su hijo adolescente. El joven se suicidó en abril luego de meses conversando con el chatbot de la compañía.

¿Cómo será el sistema de verificación de edad que activará ChatGPT?

El director ejecutivo de OpenAI, Sam Altman, informó que la compañía está trabajando en la construcción de un sistema de predicción de edad. Su objetivo será estimar la edad, basándose en la manera en la que las personas usan ChatGPT.

Asimismo, señaló que en algunos casos y países, el sistema le solicitará al usuario que proporcione un documento de identificación con el que se pueda comprobar su edad cronológica.

«Sabemos que esto supone un compromiso de privacidad para los adultos. Pero, creemos que es una compensación que merece la pena», dijo Altman el pasado martes 16 de septiembre de 2025.

Al respecto, indicó que las respuestas que da el chatbot a una persona mayor de edad, no pueden ser las mismas que ofrecería a un usuario de 15 años. “La seguridad es prioritaria frente a la privacidad y la libertad de los adolescentes», dijo.

El ejecutivo señaló que los menores de edad necesitan una “protección significativa”, por lo cual la empresa ejecutará nuevas medidas para minimizar los riesgos a los que se exponen los adolescentes en estas plataformas.

En este orden de ideas, precisó que se bloqueará el contenido sexual gráfico, así como también se le enseñará a los usuarios menores a no flirtear si se lo piden. Adicionalmente, se realizarán modificaciones en el área de salud mental.

Por ejemplo, el chatbot no participará en discusiones sobre el suicidio o la autolesión. Tampoco ayudará a la persona en una sesión de escritura creativa sobre ese tema psicológico.

«Y si un usuario menor de 18 años tiene ideación suicida, intentaremos ponernos en contacto con sus padres. Y, si no podemos, contactaremos con las autoridades en caso de daño inminente», aseguró Altman.

Protección para adolescentes

El director ejecutivo de OpenAI comentó que tomó estas nuevas medidas, luego de consultar con especialistas en el área. «Son decisiones difíciles, pero después de hablar con expertos, esto es lo que creemos que es mejor y queremos ser transparentes con nuestras intenciones», dijo Altman.

Es importante recordar que a finales del pasado mes de agosto, Matt y Maria Raine, padres del joven Adam Raine, denunciaron a OpenAI por considerar que ChatGPT validó los pensamientos suicidas del adolescente. Y, en consecuencia, el joven tomó la decisión de quitarse la vida.

Así pues, con la implementación del sistema de verificación de edad, OpenAI espera garantizar la seguridad de los usuarios de ChatGPT, especialmente los menores de 18 años de edad.

Información de The Guardian / redacción NotiAI

No dejes de leer: La tasa de información falsa en las respuestas chatbots IA alcanzó nueva cifra


Sigue nuestras redes sociales y se parte de nuestra comunidad 

Instagram

YouTube

X

TikTok

Recientes