La ciberdelincuencia no deja de sorprender, dado que perfecciona constantemente sus métodos con el objetivo de robar datos personales que luego son utilizados para cometer distintos delitos informáticos. Así lo señalan diversos informes elaborados por expertos en ciberseguridad, cuyo propósito es identificar y desenmascarar las nuevas estrategias empleadas por estos criminales.
A este escenario se suma el avance de la inteligencia artificial (IA) y el creciente espacio que ha ganado en la vida cotidiana, lo que amplía las oportunidades para la comisión de fraudes y ataques digitales. Por ello, resulta clave analizar con atención cuáles son las tendencias más recientes en materia de estafas durante este año, con el fin de evitar caer en engaños cada vez más sofisticados.
Kaspersky, compañía especializada en ciberseguridad, detalló en un informe cuáles son las estafas más peligrosas previstas para 2026 y advirtió que muchas de ellas podrían expandirse con rapidez. Según la empresa, la inteligencia artificial está transformando el sector del entretenimiento al optimizar procesos como la venta de entradas y la creación de contenidos, pero también está incrementando los riesgos de fraude, filtraciones de información y ciberataques.

Al convertirse en una infraestructura crítica, cualquier fallo, mal uso o abuso de la IA puede generar consecuencias. En este contexto, los expertos identificaron cinco amenazas clave derivadas de su rápida integración en la industria:

- Precios dinámicos y uso de bots: la IA permitirá actualizar de forma inmediata los precios de las entradas, pero también facilitará el accionar de revendedores que emplearán bots y sistemas automatizados para inflar los precios en los mercados secundarios según la demanda.
- Efectos visuales y riesgos en proveedores externos: la dependencia de plataformas de IA en la nube y de terceros incrementará los riesgos de seguridad, ya que los atacantes podrían acceder a sistemas externos para robar contenido sin necesidad de atacar directamente a los estudios.
- Redes de distribución de contenido como objetivo: las plataformas que almacenan material aún no estrenado se convertirán en blancos atractivos, pues la IA puede ayudar a identificar contenidos valiosos y vulnerabilidades, facilitando robos masivos o la inserción de código malicioso.
- Uso indebido de la IA en videojuegos: algunos usuarios intentarán explotar herramientas de IA para crear o introducir contenido inapropiado. Además, una gestión deficiente de los datos de entrenamiento podría derivar en la generación no intencionada de información personal.
- Exigencias regulatorias sobre la IA: las nuevas normativas exigirán mayor transparencia, consentimiento y control en el uso de estas tecnologías, lo que obligará a las empresas a establecer procesos y roles específicos para su supervisión.

La inteligencia artificial se ha convertido así en un elemento central dentro de los riesgos del entorno digital. Aunque fortalece la detección de amenazas, también es utilizada para desarrollar ataques y contenidos maliciosos cada vez más complejos.
Por ello, los especialistas advierten que tanto los sistemas de IA como los datos que los alimentan deben considerarse parte crítica de la superficie de ataque. Para reducir vulnerabilidades, recomiendan identificar y gestionar el uso de la IA a lo largo de toda la cadena de valor, reforzar la supervisión de las redes de distribución de contenido y someter los proyectos de IA generativa a estrictas evaluaciones de seguridad y privacidad.
