Anthropic afirmó que hackers del estado chino vulneraron su IA Claude para lanzar un ciberataque a gran escala.
Los ataques impulsados por IA tuvieron como objetivo organizaciones tecnológicas, financieras, químicas y gubernamentales.
Anthropic afirmó que la velocidad del ataque habría sido imposible de igualar para los humanos.
Anthropic afirma que hackers del estado chino secuestraron su modelo de IA Claude para llevar a cabo un ciberataque sin una participación humana «sustancial».
En una publicación de blog del jueves, la startup dijo que Claude manejó alrededor del «80-90%» del ciberataque contra unos 30 objetivos globales y que tenía «alta confianza» en que un grupo patrocinado por el estado chino estaba detrás de él.
Entre los objetivos figuraban grandes empresas tecnológicas, instituciones financieras, compañías químicas y agencias gubernamentales, según Anthropic. Sus esfuerzos por infiltrarse en estas empresas y agencias tuvieron éxito en un número reducido de casos, añadió la compañía.
Los agentes de IA —programas capaces de realizar tareas de forma autónoma— están siendo adoptados cada vez más por las empresas para gestionar trabajos repetitivos, como las incidencias de atención al cliente. Pueden mejorar la productividad de los empleados administrativos, pero también pueden ser utilizados para tareas ilícitas. En agosto, Anthropic anunció que detectó y desarticuló a ciberdelincuentes que utilizaban a Claude para llevar a cabo operaciones de pirateo informático con equipos reducidos.
Aunque la IA se ha utilizado en cierta medida en intentos de pirateo informático durante años, Anthropic afirma que cree que esta nueva operación es el primer caso documentado de un ciberataque a «gran escala» realizado principalmente mediante IA.
La startup respaldada por Amazon afirmó que Claude cuenta con medidas de seguridad para evitar su uso indebido. Sin embargo, según Anthropic, los hackers lograron vulnerar Claude dividiendo sus solicitudes en fragmentos más pequeños que no activaron ninguna alerta. Añadió que los hackers simularon estar realizando pruebas de seguridad para una empresa legítima de ciberseguridad.
Posteriormente, los atacantes utilizaron Claude Code para realizar un reconocimiento de la infraestructura digital de las empresas objetivo y escribir código para vulnerar sus defensas y extraer datos como nombres de usuario y contraseñas.
Anthropic afirmó que compartía públicamente sus hallazgos para ayudar a la industria de la ciberseguridad a mejorar las defensas contra los intentos de pirateo informático potenciados por la IA.
«La enorme cantidad de trabajo realizada por la IA habría requerido muchísimo tiempo para un equipo humano», afirmó Anthropic en su blog . «La IA realizaba miles de solicitudes por segundo, una velocidad de ataque que, para los hackers humanos, habría sido simplemente imposible de igualar».
OpenAI y Microsoft también han compartido informes de estados nación que utilizan IA durante ciberataques, pero en esos casos la tecnología se utilizó principalmente para generar contenido y depurar código, en lugar de realizar tareas de forma autónoma.
Jake Moore, asesor global de ciberseguridad de la empresa de seguridad en internet ESET, declaró a Business Insider que el incidente no le sorprende.
«Los ciberataques automatizados pueden escalar mucho más rápido que las operaciones dirigidas por humanos y son capaces de superar las defensas tradicionales», afirmó. «No solo es esto lo que muchos temían, sino que el impacto más amplio radica ahora en cómo estos ataques permiten que actores con muy poca experiencia lancen intrusiones complejas a un coste relativamente bajo».
Si bien la IA facilita que los ciberdelincuentes y los estados nación realicen ataques, también se la considera parte de la solución defensiva.
«La IA se utiliza tanto en defensa como en ataque, por lo que la seguridad ahora depende por igual de la automatización y la velocidad, más que de la mera experiencia humana en todas las organizaciones», dijo Moore.