Tecnología

La estafa ‘perfecta’ del 2026: así es como la IA crea sitios de eventos falsos que parecen 100 % reales

Aunque la inteligencia artificial mejora la detección de amenazas, también es utilizada por los delincuentes para desarrollar ataques y contenidos maliciosos cada vez más sofisticados.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

29 de enero de 2026, 9:25 a. m.
La expansión de la inteligencia artificial en la vida cotidiana ha abierto nuevas oportunidades para que los delincuentes.
La expansión de la inteligencia artificial en la vida cotidiana ha abierto nuevas oportunidades para que los delincuentes. Foto: Getty Images

La ciberdelincuencia no deja de sorprender, dado que perfecciona constantemente sus métodos con el objetivo de robar datos personales que luego son utilizados para cometer distintos delitos informáticos. Así lo señalan diversos informes elaborados por expertos en ciberseguridad, cuyo propósito es identificar y desenmascarar las nuevas estrategias empleadas por estos criminales.

A este escenario se suma el avance de la inteligencia artificial (IA) y el creciente espacio que ha ganado en la vida cotidiana, lo que amplía las oportunidades para la comisión de fraudes y ataques digitales. Por ello, resulta clave analizar con atención cuáles son las tendencias más recientes en materia de estafas durante este año, con el fin de evitar caer en engaños cada vez más sofisticados.

Kaspersky, compañía especializada en ciberseguridad, detalló en un informe cuáles son las estafas más peligrosas previstas para 2026 y advirtió que muchas de ellas podrían expandirse con rapidez. Según la empresa, la inteligencia artificial está transformando el sector del entretenimiento al optimizar procesos como la venta de entradas y la creación de contenidos, pero también está incrementando los riesgos de fraude, filtraciones de información y ciberataques.

Nadie está libre de ser blanco de un ataque digital.
La ciberdelincuencia se vuelve cada vez más sofisticada, con ataques diseñados para robar datos personales y cometer distintos delitos informáticos. Foto: Getty Images

Al convertirse en una infraestructura crítica, cualquier fallo, mal uso o abuso de la IA puede generar consecuencias. En este contexto, los expertos identificaron cinco amenazas clave derivadas de su rápida integración en la industria:

Digitar así la clave de su tarjeta en el cajero automático podría terminar en fraude: el gesto que lo cambia todo
  • Precios dinámicos y uso de bots: la IA permitirá actualizar de forma inmediata los precios de las entradas, pero también facilitará el accionar de revendedores que emplearán bots y sistemas automatizados para inflar los precios en los mercados secundarios según la demanda.
  • Efectos visuales y riesgos en proveedores externos: la dependencia de plataformas de IA en la nube y de terceros incrementará los riesgos de seguridad, ya que los atacantes podrían acceder a sistemas externos para robar contenido sin necesidad de atacar directamente a los estudios.
  • Redes de distribución de contenido como objetivo: las plataformas que almacenan material aún no estrenado se convertirán en blancos atractivos, pues la IA puede ayudar a identificar contenidos valiosos y vulnerabilidades, facilitando robos masivos o la inserción de código malicioso.
  • Uso indebido de la IA en videojuegos: algunos usuarios intentarán explotar herramientas de IA para crear o introducir contenido inapropiado. Además, una gestión deficiente de los datos de entrenamiento podría derivar en la generación no intencionada de información personal.
  • Exigencias regulatorias sobre la IA: las nuevas normativas exigirán mayor transparencia, consentimiento y control en el uso de estas tecnologías, lo que obligará a las empresas a establecer procesos y roles específicos para su supervisión.
Así usan los estafadores la inteligencia artificial para robar tu identidad y tu dinero.
La inteligencia artificial incrementa los riesgos de fraude, filtraciones de datos y ciberataques. Foto: Getty Images

La inteligencia artificial se ha convertido así en un elemento central dentro de los riesgos del entorno digital. Aunque fortalece la detección de amenazas, también es utilizada para desarrollar ataques y contenidos maliciosos cada vez más complejos.

Por ello, los especialistas advierten que tanto los sistemas de IA como los datos que los alimentan deben considerarse parte crítica de la superficie de ataque. Para reducir vulnerabilidades, recomiendan identificar y gestionar el uso de la IA a lo largo de toda la cadena de valor, reforzar la supervisión de las redes de distribución de contenido y someter los proyectos de IA generativa a estrictas evaluaciones de seguridad y privacidad.