
OpenAI ha dado un nuevo paso en su plan para hacer de ChatGPT un espacio más seguro para los adolescentes. La compañía está desarrollando un sistema capaz de identificar de forma automática si el usuario es menor de 18 años para ofrecerle una experiencia «adaptada a su edad» y bloquear contenidos sensibles, como las conversaciones sobre sexo explícito o suicidio.
Según explica la empresa en un nuevo comunicado, cuando el sistema detecte que está interactuando con un menor, por su forma de lenguaje o por las preguntas que está planteando, activará de forma automática una versión de ChatGPT ‘para adolescentes’, con políticas más restrictivas. Entre ellas, el bloqueo de contenido no apto para adolescentes y la posibilidad, «en casos excepcionales de angustia extrema», de alertar automáticamente a los padres o incluso a equipos de emergencia si se considera que la vida del menor corre peligro.
ABC