OpenAI estrena función «Contacto de confianza» ante riesgos de autolesión

Publicado el:

La compañía tecnológica OpenAI lanzó recientemente una nueva función llamada “Contacto de confianza”, cuyo objetivo es alertar a una persona de confianza en caso de que el usuario mencione temas de autolesiones en una conversación con ChatGPT.

Con esta herramienta, los usuarios adultos pueden designar a un contacto de confianza en su cuenta, como un amigo o familiar. De modo que si la IA detecta alguna intención de autolesión por parte del usuario, el sistema avisa automáticamente a la persona designada.

Asimismo, invita al usuario a buscar apoyo en la persona con la que tiene el vínculo de amistad o familia. Esta medida llega luego de que OpenAI haya enfrentado demandas por parte de familias de personas que se han quitado la vida tras conversar con el chatbot.

OpenAI lanza función de “contacto de confianza”

Actualmente, la compañía tiene la capacidad de detectar situaciones que pongan en riesgo la integridad del usuario gracias a la combinación de un sistema automatizado y la revisión de un equipo humano.

Al respecto, ciertos temas de conversación alertan al sistema sobre ideas suicidas que luego son revisados por un equipo de seguridad humano. “Nos esforzamos por revisar estas notificaciones de seguridad en menos de una hora”, declara la empresa.

La compañía informó que el usuario tiene la opción de decidir si activa o no la nueva función de Contacto de confianza. Además, su alcance es limitado, ya que un usuario puede gestionar múltiples cuentas y la protección solo se aplica a una de ellas. 

En un comunicado, la empresa informó que la herramienta forma parte del esfuerzo más amplio de OpenAI para crear sistemas de IA que ayuden a las personas en momentos difíciles.

Seguiremos colaborando con médicos, investigadores y responsables políticos para mejorar la respuesta de los sistemas de IA cuando las personas puedan estar pasando por momentos de angustia”, afirmó OpenAI.

Otras medidas

La función de Contacto de confianza se suma a otras medidas de protección a los usuarios que lanzó OpenAI en septiembre del año pasado. Entre estas se encuentran las de controles parentales.

Cabe recordar que el sistema puede enviarles notificaciones a los padres para alertarlos si considera que el menor se enfrenta a un “riesgo grave para su seguridad”. Asimismo, ChatGPT incluye alertas automáticas para buscar servicios de salud profesionales si una conversación deriva hacia el tema de la autolesión.

Información de TechCrunch / redacción Noti IA

No dejes de leer: Microsoft cancela Gaming Copilot: la IA no llegará a las consolas Xbox


Sigue nuestras redes sociales y sé parte de nuestra comunidad 

Instagram

Telegram

YouTube

X

TikTok

Recientes