Tecnología

Muchos lo hacen: este es el error que le puede salir muy caro al chatear con Gemini o ChatGPT

Compartir información de más puede ser peligroso para su seguridad cibernética.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

15 de febrero de 2026, 8:41 a. m.
ChatGPT y Gemini IA no siempre son confiables, evita dar este tipo de información.
ChatGPT y Gemini IA no siempre son confiables, evita dar este tipo de información. Foto: NurPhoto via Getty Images

El uso de herramientas de inteligencia artificial como Gemini y ChatGPT se ha vuelto cada vez más frecuente para tareas cotidianas, desde resolver dudas simples hasta apoyar la redacción de textos o automatizar tareas.

No obstante, expertos sobre seguridad digital advierten que no todos los tipos de información deberían introducirse en estos chats, debido a los riesgos asociados con la privacidad y el manejo de datos.

En la práctica, estas plataformas no funcionan como sistemas de mensajería cifrada ni están diseñadas para manejar secretos personales o empresariales, sino que procesan texto para generar respuestas, y, a su vez, recolectan información para entrenarse y perfeccionarse.

En 2025, más de 190 millones de personas usan ChatGPT. Los jóvenes la usan para desahogarse, buscando una escucha inmediata y sin juicios.
En 2025, más de 190 millones de personas usaron ChatGPT. En algunas ocasiones los usuarios le compartieron más información de la cuenta. Foto: 123RF

Esto ha llevado a varios usuarios a tener problemas a nivel de ciberseguridad por el tipo de contenido que se comparte con asistentes de IA generativa.

El error central, según los analistas de Welivesecurity, es compartir datos sensibles en un chat con IA. Por ejemplo, incluir información personal o estratégica puede exponer a los usuarios a amenazas si la cuenta es vulnerada o si los datos son utilizados inadvertidamente en los procesos de entrenamiento de los modelos.

De acuerdo con esa misma publicación, se recomienda no introducir nunca en estos chats:

  • Información financiera o bancaria, como números de cuentas, tarjetas o claves de acceso.
  • Contraseñas y credenciales asociadas a cuentas personales o corporativas.
  • Datos identificables, incluyendo números de documento, direcciones físicas o información de contacto personal.
  • Detalles médicos, históricos clínicos o diagnósticos, que podrían ser sensibles.
  • Información legal o confidencial de una empresa, tales como estrategias internas o informes económicos.
La nueva herramienta de IA que implementó YouTube, ¿de qué se trata?

Expertos en seguridad digital subrayan que, aunque estas plataformas generan respuestas automáticamente a partir de grandes colectas de datos para mejorar sus capacidades, las conversaciones no están necesariamente protegidas con los mismos estándares de privacidad que un servicio cifrado punto a punto.

Por su parte, la Organización de Consumidores y Usuarios (OCU) de España aseguró que la información que se comparte puede almacenarse y utilizarse para entrenar modelos, incluso si el usuario desactiva opciones de entrenamiento.

Este enfoque pone el acento en que las herramientas de IA no deben sustituir el criterio profesional en decisiones importantes. Un artículo reciente enfatiza que, aunque los chatbots pueden ofrecer información general, no están diseñados para reemplazar a médicos, abogados, asesores financieros u otros especialistas humanos que cuentan con contextos completos y responsabilidad profesional.

Nueva función de Gemini permite identificar vídeos creados con inteligencia artificial.
Según Google, más de 350 millones de usuarios utilizaron su IA. Algunos apelaron a sus respuestas como única fuente de verdad. Foto: Getty Images

En paralelo, diversos análisis tecnológicos han señalado que, más allá de la privacidad de los datos introducidos, existe un riesgo asociado al uso imprudente de estas herramientas como fuentes únicas de verdad o soluciones en ámbitos críticos, debido a que no cuentan con conciencia, juicio humano ni acceso a todos los contextos de un caso particular.

Las recomendaciones actuales de seguridad digital para el uso responsable de chatbots incluyen:

  • No ingresar datos sensibles ni personales.
  • Evitar decisiones críticas basadas exclusivamente en las respuestas de una IA.
  • Mantener contraseñas y credenciales fuera de estas conversaciones.
  • Considerar la desactivación de funciones que permiten entrenar el modelo con los chats, si la plataforma lo ofrece.