El avance de la inteligencia artificial en ciberseguridad genera debates sobre riesgos, regulación y dependencia tecnológica, mientras gobiernos y empresas buscan equilibrar innovación y control.
La inteligencia artificial (IA) ya no es solo una herramienta tecnológica: se ha convertido en un factor de poder geopolítico y económico. El modelo experimental Mythos, desarrollado por la empresa Anthropic, es un claro ejemplo de cómo esta tecnología está redefiniendo el mapa global de la ciberseguridad, la economía y la política tecnológica.
Durante sus pruebas internas, Mythos demostró capacidades que hasta hace poco parecían exclusivas de equipos de hackers altamente especializados. En evaluaciones sobre fallas del motor JavaScript de Mozilla, el modelo logró generar exploits funcionales en 181 ocasiones, superando ampliamente a versiones anteriores. Pero el dato más inquietante no es la eficiencia, sino la autonomía: en entornos controlados, el sistema fue capaz de escapar de un sandbox, conectarse a internet, enviar correos y borrar sus propias huellas.
El hallazgo de vulnerabilidades ocultas durante décadas —como un fallo de 27 años en OpenBSD o errores persistentes en bibliotecas como FFmpeg— encendió las alarmas. No se trata solo de encontrar errores: Mythos puede explotarlos y hacerlo a escala.
Según datos de CrowdStrike, los ciberataques impulsados por IA crecieron un 89% en 2025, mientras que el tiempo entre la intrusión y el daño cayó a apenas 29 minutos. Figuras clave del sistema financiero internacional ya lo advierten. Christine Lagarde, presidenta del Banco Central Europeo, señaló que estas tecnologías pueden ser “muy buenas o muy peligrosas, dependiendo de quién las use”. En la misma línea, Andrew Bailey calificó el fenómeno como “un reto muy serio”, mientras que gobiernos y bancos centrales comenzaron a discutir el impacto en foros como el FMI.
Frente a este escenario, Anthropic tomó una decisión poco habitual: limitar el acceso. Mythos no será abierto al público en el corto plazo. En cambio, será probado por gigantes tecnológicos como Microsoft, Google o Apple dentro del llamado Proyecto Glasswing, una iniciativa que busca detectar vulnerabilidades antes de que puedan ser explotadas masivamente. El objetivo es darle ventaja a los defensores en una carrera donde la ofensiva —potenciada por IA— avanza más rápido que nunca.
No todos están convencidos. Voces críticas como Gary Marcus, reconocido autor en el campo de la inteligencia artificial, sostienen que el impacto de Mythos podría estar sobredimensionado. Argumentan que muchas de las vulnerabilidades detectadas eran variaciones de errores ya conocidos y que otros modelos, incluso más pequeños, podrían lograr resultados similares bajo condiciones guiadas. Para estos analistas, el discurso de Anthropic podría contener una dosis de FUD (miedo, incertidumbre y duda), una estrategia ya vista en la industria tecnológica para generar expectativa. “No hay necesidad de pánico todavía”, advierten.
Sin embargo, incluso los escépticos coinciden en un punto: la tendencia es irreversible. La capacidad de la IA para encontrar y explotar vulnerabilidades solo va a crecer. Open AI ya había utilizado el miedo como herramienta de marketing en 2019, con un comunicado similar sobre su modelo GPT-2, firmado por Darío Amodei —actual CEO de Anthropic—, quien entonces era ingeniero de seguridad de Open AI. Se espera que Anthropic salga a bolsa a finales de 2026.
En paralelo al debate técnico, se desarrolla una respuesta política de fondo. Europa empieza a ver la dependencia tecnológica como un riesgo estratégico. Francia lidera el movimiento: su gobierno anunció la migración masiva de sistemas estatales desde Windows a Linux, en lo que podría convertirse en el mayor intento de un país occidental por abandonar software propietario. La iniciativa no se limita al sistema operativo: incluye aplicaciones ofimáticas, bases de datos y servicios en la nube.
La decisión francesa apunta a reducir la dependencia de proveedores estadounidenses y fortalecer la soberanía digital. Expertos en ciberseguridad y políticas públicas señalan que, en un contexto donde la IA puede ser utilizada tanto para defender como para atacar, controlar la infraestructura tecnológica se vuelve esencial.
En Argentina, el debate sobre soberanía digital y regulación de IA también comienza a tomar fuerza. Especialistas locales advierten que el país debe prepararse para un escenario donde la tecnología avanza más rápido que las leyes, y donde la dependencia de plataformas extranjeras puede convertirse en un riesgo estratégico.
