La seguridad en línea ya no depende únicamente del comportamiento del usuario, sino de cómo se diseña, gobierna y protege la propia inteligencia artificial (IA), ya que esta tecnología amplía la superficie de ataque que afecta a empresas y particulares.
Con la IA integrada en casi todas las interacciones digitales, el desafío actual es cómo utilizarla de forma responsable ante la expansión de la superficie de ataque que afecta a empresas y particulares, como advierte la firma de seguridad española Check Point Software en el marco de la celebración de Día de Internet Segura (10 de febrero).
La compañía destaca que la adopción masiva de la IA generativa ha convertido a esta tecnología en un aliado diario que influye en decisiones y maneja datos críticos. Sin embargo, esta integración conlleva riesgos de exposición de información sensible.

En este contexto, la firma de seguridad advierte de tres tendencias que están dando forma al nuevo escenario de la ciberseguridad: la ingeniería social avanzada, el ‘ransomware’ automatizado y la infraestructura de IA como objetivo, como recoge en un comunicado.

Así, la inteligencia artificial permite crear estafas de ‘phishing’ mucho más convincentes y personalizadas que imitan voces de confianza. También ha acelerado la extorsión, como muestra el aumento del 60 por ciento de los ataques de ‘ransomware’ en diciembre de 2025 en comparación con el año anterior.
Además, la infraestructura de IA ya forma parte de la superficie de ataque, como se desprende del análisis realizado por Check Point Software, y recogido en el Check Point Cyber Security Report 2026, que examinó aproximadamente 10.000 servidores del Model Context Protocol y detectó vulnerabilidades de seguridad en el 40 por ciento de ellos.
Cuando la inteligencia artificial deja de ayudar y empieza a atacar
“La IA ya no solo acelera el trabajo del atacante: multiplica su alcance y reduce los requisitos técnicos para ingresar al ecosistema delictivo”, comenta Mario Micucci, Investigador de Seguridad Informática de ESET Latinoamérica.
Durante 2025, ESET detectó un aumento de fraudes cada vez más creíbles, mensajes engañosos diseñados para parecer reales y suplantaciones de identidad difíciles de distinguir a simple vista.
Los investigadores señalan que estas tecnologías permiten lanzar ataques de manera masiva y en tiempos récord, aprovechándose del margen de reacción de los sistemas de defensa, además, la creación de audios, imágenes o videos falsos con apariencia auténtica comenzó a jugar un papel clave en campañas de manipulación y estafa.
Según advierten desde ESET, este fenómeno no solo incrementa el número de incidentes, sino que baja la barrera de entrada al delito digital: más actores pueden participar, con menos recursos y mayor impacto.
“La IA ya no solo acelera el trabajo del atacante: multiplica su alcance y reduce los requisitos técnicos para ingresar al ecosistema delictivo. Lo que antes requería conocimiento especializado hoy puede ejecutarse con simples prompts”, comparte Micucci.
Con información de Europa Press
