Especialistas advierten que el uso de IA generativa en ataques sofisticados podría comprometer decisiones de Estado y secretos industriales estratégicos.
INTERNACIONAL – El avance sostenido de la Inteligencia Artificial (IA) en el ámbito empresarial y gubernamental no solo abre nuevas oportunidades de automatización y eficiencia, sino que también incrementa los riesgos asociados a amenazas cibernéticas avanzadas. En este contexto, la empresa global de soluciones tecnológicas Stefanini Cyber alertó que el espionaje digital apoyado en IA se proyecta como la principal amenaza de seguridad informática durante 2026.
De acuerdo con el análisis de la compañía, a medida que gobiernos, instituciones financieras y grandes corporaciones automatizan decisiones estratégicas, los ataques basados en IA generativa han ganado sofisticación, escala y un enfoque crecientemente geopolítico. Estas amenazas ya no se limitan a incidentes aislados, sino que forman parte de estrategias continuas y automatizadas de infiltración digital.
Según detallaron desde la firma, investigaciones recientes en Estados Unidos han detectado intentos coordinados de espionaje que utilizan modelos generativos para infiltrarse en entornos sensibles. Estos sistemas son capaces de simular comportamientos humanos, camuflarse dentro de flujos legítimos de información y procesar grandes volúmenes de datos a una velocidad inalcanzable para métodos manuales.
El CEO global de Stefanini Cyber, Leidivino Natal da Silva, advirtió que el escenario actual marca un punto de inflexión en materia de ciberseguridad, señalando que “el espionaje digital deja de ser puntual para convertirse en parte de una estrategia automatizada y permanente”. Añadió que el uso de lenguaje natural y análisis masivo de datos por parte de la IA dificulta de forma significativa la detección de estas amenazas en tiempo real, poniendo en riesgo decisiones de Estado y activos industriales críticos.
Otro elemento emergente identificado por los expertos es el desarrollo de enfrentamientos directos entre sistemas inteligentes, un escenario conocido como “IA contra IA”. Esta dinámica, lejos de ser teórica, comienza a materializarse mediante intentos de manipulación, engaño o bloqueo entre algoritmos, incluyendo asistentes virtuales, plataformas de análisis predictivo y sistemas de defensa cibernética.
Desde Stefanini Cyber subrayaron que mitigar estos riesgos exige una estrategia proactiva, basada en ciberinteligencia avanzada, protección específica de modelos de IA e inversión sostenida en resiliencia digital. En ese marco, enfatizaron que el concepto tradicional de seguridad en capas debe ampliarse para proteger también el núcleo algorítmico de las organizaciones, considerado hoy un activo estratégico.

