Tecnología
El nuevo paso de ChatGPT para cuidar la salud mental de menores: estos son sus protocolos para tratar temas sensibles
Estas medidas siguen a cambios recientes en los modelos para mejorar la detección de crisis emocionales y facilitar el contacto con redes de apoyo.

OpenAI anunció que reforzará las medidas de seguridad en sus modelos de inteligencia artificial en colaboración con expertos y médicos, e incorporará un conjunto de controles parentales para supervisar el uso que los menores hacen de ChatGPT.
La compañía tecnológica señaló que busca acompañar el desarrollo de la IA con “una profunda experiencia en bienestar y salud mental”. Para ello, estableció un Consejo de Expertos en Bienestar e Inteligencia Artificial y una Red Global de Médicos, que trabajarán de forma conjunta.
El Consejo se centrará en definir directrices, prioridades y medidas de protección con el objetivo de explorar “cómo la IA puede contribuir al bienestar de las personas y ayudarlas a prosperar”, según indicó OpenAI en un comunicado publicado en su blog oficial.

La Red Global de Médicos, por su parte, ya ha colaborado en la definición del comportamiento de los modelos en “contextos de salud mental” y en el futuro también intervendrá en áreas como los trastornos alimentarios, el consumo de sustancias y la salud en adolescentes.
La compañía adelantó además que próximamente pondrá en marcha un enrutador en tiempo real, capaz de seleccionar el modelo más adecuado según el contexto de la conversación, independientemente del que el usuario haya elegido inicialmente. De este modo, si se detecta que la charla deriva hacia temas sensibles, como depresión o angustia, se activará un modelo de razonamiento profundo, como GPT-5.
Según las pruebas de la compañía, los modelos de razonamiento —como GPT-5 y o3— dedican más tiempo al análisis y la reflexión en sus respuestas, lo que permite ofrecer un acompañamiento más beneficioso a los usuarios.
Los nuevos controles parentales
Las nuevas medidas estarán acompañadas de controles parentales que permitirán a los padres administrar el uso que los adolescentes hacen de ChatGPT. Entre las funciones destacadas, se podrán vincular cuentas y establecer reglas de comportamiento que estarán activadas por defecto.
Asimismo, los padres tendrán la opción de gestionar características complementarias, como desactivar la memoria y el historial de conversaciones. También recibirán notificaciones si el sistema detecta que el menor atraviesa un “momento de angustia aguda”.

En semanas recientes, OpenAI ya había introducido cambios en sus modelos para mejorar la detección de situaciones de crisis mental y emocional durante el uso de ChatGPT, implementando salvaguardias adicionales, bloqueos de contenido más eficaces y un acceso más ágil a servicios de apoyo y redes familiares.
Estas iniciativas surgieron tras la denuncia presentada contra la compañía por Matt y Maria Raine, padres de Adam Raine, un adolescente de 16 años que se quitó la vida en abril, en un caso en el que ChatGPT habría tenido un papel determinante.
*Con información de Europa Press