OpenAI está lanzando una función de seguridad opcional para ChatGPT que permite a los usuarios adultos designar un contacto de emergencia por motivos de seguridad y salud mental. Los amigos, familiares o cuidadores designados como “contacto de confianza” serán notificados si OpenAI detecta que alguien puede haber discutido temas como la autolesión o el suicidio con el chatbot.
«Trusted Contact está diseñado en torno a una premisa simple, verificada por expertos: cuando alguien está en crisis, comunicarse con alguien que conoce y en quien confía puede marcar una diferencia significativa», dijo OpenAI en su anuncio. «Ofrece otra capa de soporte además de las líneas de ayuda locales que ya están disponibles en ChatGPT».
Una función de llamadas confiable es la suscripción. Cualquier usuario adulto de ChatGPT puede habilitarlo agregando los datos de contacto de un adulto (mayor de 18 años en todo el mundo o mayor de 19 en Corea del Sur) en la configuración de su cuenta ChatGPT. Su contacto de confianza debe aceptar la invitación dentro de una semana después de recibir la solicitud. Los usuarios pueden eliminar o editar el contacto elegido en la configuración, y un contacto de confianza también puede optar por eliminarse en cualquier momento.
OpenAI dice que la notificación es «intencionalmente limitada» y no compartirá detalles del chat ni mensajes de texto con el contacto de confianza. Si los sistemas automatizados de OpenAI detectan que un usuario está hablando de autolesión, ChatGPT alentará al usuario a comunicarse con un contacto confiable para obtener ayuda y le informará que el contacto puede ser notificado. Luego, un “pequeño equipo de personas especialmente capacitadas” revisará la situación, según OpenAI, y ChatGPT enviará un breve correo electrónico, mensaje de texto o notificación ChatGPT en la aplicación al contacto de confianza si se determina que la conversación indica un problema de seguridad grave.
Esto se basa en la función de llamadas de emergencia que se introdujo junto con los controles parentales de ChatGPT en septiembre, después de que un joven de 16 años se suicidara después de meses de confiar en ChatGPT. Meta también introdujo una función similar que alerta a los padres si sus hijos buscan «frecuentemente» temas de autolesión en Instagram.
(Etiquetas para traducción) AI