Por: Amy Hogan-Burney, CVP, Seguridad y Confianza del Cliente. La ciberseguridad está en un punto de inflexión. Los modelos avanzados de IA aceleran de manera importante el descubrimiento de vulnerabilidades y crean condiciones propicias para su explotación, todo esto subrayado por el anuncio de Claude Mythos Preview . Esto supone un cambio, y si esta tecnología favorecerá a los defensores o a los atacantes dependerá de las decisiones que tomemos ahora. Con las salvaguardas adecuadas, estas capacidades pueden ayudar a defensores de confianza a identificar y corregir vulnerabilidades en sistemas críticos en hospitales, redes eléctricas, agua y telecomunicaciones.
Sin embargo, si se liberan de manera irresponsable o no están aseguradas de manera debida, esas mismas capacidades podrían ser abusadas por actores maliciosos, lo que podría amenazar los cimientos de nuestro ecosistema digital. Gran parte del debate se ha centrado, con razón, en los riesgos. A medida que los modelos avanzados de IA aceleran el descubrimiento de vulnerabilidades, la manera en que las corregimos también debe acelerarse.
Eso significa evaluaciones de riesgos previas al despliegue más sólidas y una estrecha colaboración entre gobiernos, desarrolladores de IA de vanguardia, proveedores de software y el ecosistema en general, para garantizar que estas herramientas reduzcan, en lugar de aumentar, el riesgo cibernético. Esto es en especial importante dado que los propios sistemas de IA se han convertido en objetivos de alto valor, lo que requiere una mayor protección de modelos, sistemas, datos e infraestructuras subyacentes. Esto es, en última instancia, un desafío internacional. Ni las cadenas de suministro de software ni los actores amenazantes se detienen en las fronteras.
Tampoco nuestra respuesta. Afrontar este momento requerirá enfoques compartidos entre países, sectores y sistemas, basados en la confianza, los estándares compartidos, la resiliencia y el uso responsable. Este momento también es una oportunidad. La seguridad ha sido y sigue como la máxima prioridad en Microsoft. En los últimos dos años, a través de nuestra Iniciativa Futuro Seguro , hemos reforzado nuestras bases de seguridad para esta era de la IA, en parte al utilizar la IA para acelerar el descubrimiento y la remediación de vulnerabilidades.
También hemos invertido en IA fundamental para la investigación en seguridad, incluido el desarrollo de benchmarks industriales de código abierto que puedan utilizarse para evaluar si los modelos están preparados para trabajos reales de seguridad. Aceleramos ese trabajo mediante una colaboración público-privada más profunda y en colaboración con IA, incluido el Proyecto Glasswing de Anthropic y el programa Trusted Access for Cyber de OpenAI. Proteger nuestro ecosistema digital con IA de próxima generación está al alcance, pero no es automático.

Construir bases seguras para la era de la IA Frontier Garantizar que las tecnologías avanzadas de IA se utilicen para fortalecer la ciberseguridad requiere una acción deliberada y urgente. Compartimos las siguientes recomendaciones como medidas prácticas que gobiernos, industria y el ecosistema en general pueden tomar para garantizar que estas herramientas, a menudo denominadas «IA Frontier», refuercen los cimientos de seguridad de los que dependen las sociedades digitales. Y esperamos seguir con la colaboración con proveedores modelo, la industria y el gobierno para poder trabajar juntos y mejorar los resultados de seguridad para todos. 1.
Reforzar las prácticas básicas de ciberseguridad La IA avanzada solo puede fortalecer la ciberseguridad cuando ya existe una higiene cibernética fuerte y constante. A medida que la IA pionera acelera el descubrimiento y la respuesta a vulnerabilidades, prácticas clave como el parche rápido, el control de accesos y la resiliencia del sistema se vuelven más críticas, no menos. Los avances en seguridad en la era pionera de la IA dependen de la estrecha coordinación entre los proveedores tecnológicos que avanzan en nuevas capacidades y las organizaciones responsables de operar, actualizar y asegurar sistemas reales.
Sin esta interdependencia, la IA avanzada no puede ofrecer mejoras duraderas en seguridad. Ninguna organización puede resolver estos problemas de ciberseguridad por sí sola. Por eso, la inversión sostenida en lo que sabemos que funciona es todavía esencial: ciclos de vida de productos de secure-by-design (seguro desde el diseño), arquitecturas Zero Trust (Confianza Cero), autenticación multifactor, acceso menos privilegiado y formación continua en seguridad. Adopción y armonización generalizada de marcos de ciberseguridad establecidos para garantizar una resiliencia coherente en los sistemas habilitados por IA.
Entornos de nube de confianza que permiten estas prácticas a gran escala, al apoyar el manejo seguro de datos, el parche continuo y el despliegue seguro de herramientas habilitadas por IA para defensores. 2.
Etiquetas: Tecnología, Ciberseguridad, Inteligencia Artificial, Microsoft, Tecnología · IA general
