El uso de herramientas de inteligencia artificial como Gemini y ChatGPT se ha vuelto cada vez más frecuente para tareas cotidianas, desde resolver dudas simples hasta apoyar la redacción de textos o automatizar tareas.
No obstante, expertos sobre seguridad digital advierten que no todos los tipos de información deberían introducirse en estos chats, debido a los riesgos asociados con la privacidad y el manejo de datos.
En la práctica, estas plataformas no funcionan como sistemas de mensajería cifrada ni están diseñadas para manejar secretos personales o empresariales, sino que procesan texto para generar respuestas, y, a su vez, recolectan información para entrenarse y perfeccionarse.

Esto ha llevado a varios usuarios a tener problemas a nivel de ciberseguridad por el tipo de contenido que se comparte con asistentes de IA generativa.
El error central, según los analistas de Welivesecurity, es compartir datos sensibles en un chat con IA. Por ejemplo, incluir información personal o estratégica puede exponer a los usuarios a amenazas si la cuenta es vulnerada o si los datos son utilizados inadvertidamente en los procesos de entrenamiento de los modelos.
De acuerdo con esa misma publicación, se recomienda no introducir nunca en estos chats:
- Información financiera o bancaria, como números de cuentas, tarjetas o claves de acceso.
- Contraseñas y credenciales asociadas a cuentas personales o corporativas.
- Datos identificables, incluyendo números de documento, direcciones físicas o información de contacto personal.
- Detalles médicos, históricos clínicos o diagnósticos, que podrían ser sensibles.
- Información legal o confidencial de una empresa, tales como estrategias internas o informes económicos.

Expertos en seguridad digital subrayan que, aunque estas plataformas generan respuestas automáticamente a partir de grandes colectas de datos para mejorar sus capacidades, las conversaciones no están necesariamente protegidas con los mismos estándares de privacidad que un servicio cifrado punto a punto.
Por su parte, la Organización de Consumidores y Usuarios (OCU) de España aseguró que la información que se comparte puede almacenarse y utilizarse para entrenar modelos, incluso si el usuario desactiva opciones de entrenamiento.
Este enfoque pone el acento en que las herramientas de IA no deben sustituir el criterio profesional en decisiones importantes. Un artículo reciente enfatiza que, aunque los chatbots pueden ofrecer información general, no están diseñados para reemplazar a médicos, abogados, asesores financieros u otros especialistas humanos que cuentan con contextos completos y responsabilidad profesional.

En paralelo, diversos análisis tecnológicos han señalado que, más allá de la privacidad de los datos introducidos, existe un riesgo asociado al uso imprudente de estas herramientas como fuentes únicas de verdad o soluciones en ámbitos críticos, debido a que no cuentan con conciencia, juicio humano ni acceso a todos los contextos de un caso particular.
Las recomendaciones actuales de seguridad digital para el uso responsable de chatbots incluyen:
- No ingresar datos sensibles ni personales.
- Evitar decisiones críticas basadas exclusivamente en las respuestas de una IA.
- Mantener contraseñas y credenciales fuera de estas conversaciones.
- Considerar la desactivación de funciones que permiten entrenar el modelo con los chats, si la plataforma lo ofrece.
