Si es usuario de ChatGPT debe tener en cuenta que las conversaciones están siendo escaneadas por OpenAI, pero esto sucede en respuesta a lo que se comentaba acerca de que el modelo IA podría causar daños en la salud mental, es decir, no todos los usuarios están siendo parte de esta medida.

“Cuando detectamos usuarios que planean dañar a otras personas, dirigimos las conversaciones a canales de revisión especializados, donde un equipo reducido, formado en nuestras políticas de uso y con autorización para actuar, las revisa y puede adoptar medidas, incluida la suspensión de cuentas”, señala OpenAI en el comunicado.

Ante este panorama se crean dudas de como hace OpenAI para identificar este tipo de casos, debido a que una IA es fácil de engañar tal como el reciente caso donde engañaron a ChatGPT para obtener las claves para activar Windows.

Cómo se detectarán las conversaciones para llamar las autoridades

El comunicado el cual esta firmado por el CEO de OpenAI, Sam Altman indica que:

“Si los revisores determinan que un caso implica una amenaza inminente de causar daños físicos graves a otras personas, podemos remitirlo a las autoridades competentes. Actualmente no remitimos a las autoridades los casos de autolesiones, para respetar la privacidad de las personas dada la naturaleza especialmente privada de las interacciones en ChatGPT”.

Lo dicho en ChatGPT podría llegar a la policía en casos de riesgo. | Foto: AFP or licensors

No queda allí, pues ante los diferentes sucesos que se han cometido recientemente como la demanda a OpenAI por parte de la familia del adolescente de 16 años que se suicidó por seguir las recomendaciones de ChatGPT, llevaron a tomar estas medidas en las cuales además de llamar a la policía cuando hayan riesgos también están:

  • Remisión a expertos en caso de detectar conversaciones acerca de suicidios. “Pero tras muchos mensajes a lo largo del tiempo puede acabar ofreciendo una respuesta que contravenga nuestras medidas de protección”, aclaró la compañía.

De momento, el cómo la IA señalará la ubicación continua siendo una incógnita.

La privacidad de las conversaciones que podrían ser revisadas

Es evidente que tras ese anuncio de la compañía de Altman muchos usuarios se hicieran la pregunta acerca de como es la privacidad al momento de hablar con la inteligencia artificial, pero es allí, donde se debe entender que de acuerdo con lo que menciona OpenAI esta medida esta diseñada para identificar los momentos mencionados anteriormente, sin olvidar que en cualquier momento sus conversaciones podrían ser escaneadas.

OpenAI advirtió que algunas interacciones ya no son privadas.

“En general, GPT‑5 ha demostrado mejoras relevantes en ámbitos como evitar niveles poco saludables de dependencia emocional, reducir la complacencia y disminuir en más de un 25 % la prevalencia de respuestas del modelo no deseables para emergencias de salud mental frente a GPT‑4o”, aseguró la firma de Altman.