Tecnología

Ojo con lo que le dice a ChatGPT, OpenAI podría denunciarlo rápidamente y llamar a la policía si lee esto

El equipo de OpenAI admitió que estaría escaneando las conversaciones de usuarios con ChatGPT para informar a la policía.

David Alejandro Rojas García

David Alejandro Rojas García

Periodista en Semana

2 de septiembre de 2025, 1:28 a. m.
La compañía revisa chats y avisa a la policía si hay amenazas graves.
ChatGPT podría activar alertas y remitir mensajes a las autoridades. | Foto: Composición de SEMANA: con imágenes del portal Getty

Si es usuario de ChatGPT debe tener en cuenta que las conversaciones están siendo escaneadas por OpenAI, pero esto sucede en respuesta a lo que se comentaba acerca de que el modelo IA podría causar daños en la salud mental, es decir, no todos los usuarios están siendo parte de esta medida.

“Cuando detectamos usuarios que planean dañar a otras personas, dirigimos las conversaciones a canales de revisión especializados, donde un equipo reducido, formado en nuestras políticas de uso y con autorización para actuar, las revisa y puede adoptar medidas, incluida la suspensión de cuentas”, señala OpenAI en el comunicado.

Ante este panorama se crean dudas de como hace OpenAI para identificar este tipo de casos, debido a que una IA es fácil de engañar tal como el reciente caso donde engañaron a ChatGPT para obtener las claves para activar Windows.

Cómo se detectarán las conversaciones para llamar las autoridades

El comunicado el cual esta firmado por el CEO de OpenAI, Sam Altman indica que:

“Si los revisores determinan que un caso implica una amenaza inminente de causar daños físicos graves a otras personas, podemos remitirlo a las autoridades competentes. Actualmente no remitimos a las autoridades los casos de autolesiones, para respetar la privacidad de las personas dada la naturaleza especialmente privada de las interacciones en ChatGPT”.

Sam Altman, CEO de OpenAI
Lo dicho en ChatGPT podría llegar a la policía en casos de riesgo. | Foto: AFP

No queda allí, pues ante los diferentes sucesos que se han cometido recientemente como la demanda a OpenAI por parte de la familia del adolescente de 16 años que se suicidó por seguir las recomendaciones de ChatGPT, llevaron a tomar estas medidas en las cuales además de llamar a la policía cuando hayan riesgos también están:

  • Remisión a expertos en caso de detectar conversaciones acerca de suicidios. “Pero tras muchos mensajes a lo largo del tiempo puede acabar ofreciendo una respuesta que contravenga nuestras medidas de protección”, aclaró la compañía.

De momento, el cómo la IA señalará la ubicación continua siendo una incógnita.

La privacidad de las conversaciones que podrían ser revisadas

Es evidente que tras ese anuncio de la compañía de Altman muchos usuarios se hicieran la pregunta acerca de como es la privacidad al momento de hablar con la inteligencia artificial, pero es allí, donde se debe entender que de acuerdo con lo que menciona OpenAI esta medida esta diseñada para identificar los momentos mencionados anteriormente, sin olvidar que en cualquier momento sus conversaciones podrían ser escaneadas.

“La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo”: Juan Carlos Granja, psicólogo clínico y educativo.
OpenAI advirtió que algunas interacciones ya no son privadas. | Foto: adobe stock

“En general, GPT‑5 ha demostrado mejoras relevantes en ámbitos como evitar niveles poco saludables de dependencia emocional, reducir la complacencia y disminuir en más de un 25 % la prevalencia de respuestas del modelo no deseables para emergencias de salud mental frente a GPT‑4o”, aseguró la firma de Altman.