Tecnología

Ya es imposible hablar como antes con ChatGPT: ahora la IA lo validará rápido y será reportado

ChatGPT ahora puede activar alertas si detecta señales de riesgo en una conversación.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

9 de mayo de 2026 a las 2:41 p. m.
OpenAI cambió la forma en que funciona ChatGPT ante posibles crisis emocionales.
OpenAI cambió la forma en que funciona ChatGPT ante posibles crisis emocionales. Foto: Getty Images / OpenAI

La forma de escribir a la inteligencia artificial ha cambiado radicalmente, dejando atrás la idea de un chat totalmente privado y sin supervisión.

ChatGPT salvó la vida de un ex PXNDX: el promt que evitó una tragedia

Ahora, OpenAI ha implementado herramientas que permiten a su sistema actuar de manera proactiva si percibe que el usuario atraviesa un momento de vulnerabilidad extrema.

Un sistema de alerta ante riesgos físicos

La herramienta no solo responde preguntas pues ahora utiliza sistemas automáticos para analizar si el contenido de una charla sugiere un peligro de autolesión o daño físico real.

Esta actualización que ya se aplicaba de forma similar para proteger a los adolescentes mediante controles parentales, se ha extendido ahora a los adultos para intentar prevenir incidentes graves de salud mental, como el suicidio.

ChatGPT Images 2.0 representa un salto importante al combinar mayor calidad gráfica.
ChatGPT ahora analiza conversaciones para detectar posibles riesgos físicos o emocionales. Foto: Getty Images

¿Quiénes son los “contactos de confianza”?

Para que este mecanismo funcione, el usuario debe configurar previamente a un contacto de confianza desde los ajustes de la aplicación. Esta figura es alguien cercano, como un familiar, un cuidador o un amigo, que funciona de manera similar a los contactos de emergencia que proporcionamos al realizar un viaje o en una ficha médica.

El proceso para activarlo tiene pasos específicos:

  • Elección de un adulto: La persona designada debe ser obligatoriamente mayor de 18 años.
  • Confirmación obligatoria: Una vez que el usuario elige a alguien, esa persona recibe una invitación y tiene un plazo de una semana para aceptar el vínculo. Hasta que no acepte, la función no estará operativa.
“Sácale el móvil de la mano”: Experto advierte por qué nadie debería usar la IA como psicólogo

Privacidad y revisión humana tras el reporte

Aunque la IA “reporta” la situación de crisis, esto no significa que las conversaciones privadas queden expuestas íntegramente. Cuando el sistema detecta un riesgo serio, envía una notificación al contacto de confianza, pero no adjunta detalles textuales, ni imágenes de la pantalla, ni información personal específica de lo hablado. El aviso es general y se acompaña de enlaces a expertos para que el allegado sepa cómo actuar.

Resguarde tu privacidad: La información que no debes proporcionar a Chat GPT.
OpenAI asegura que las alertas no comparten conversaciones completas ni datos privados. Foto: NurPhoto via Getty Images

Además, para evitar errores tecnológicos, OpenAI cuenta con un equipo de revisores humanos. Estas personas se encargan de analizar manualmente los casos detectados por la IA para confirmar si el riesgo es real antes de que se tomen medidas adicionales, garantizando que el sistema no actúe de forma injustificada. De forma paralela, el propio ChatGPT sugerirá al usuario que busque apoyo en su contacto de confianza de manera directa.