T24 Haber Merkezi
Sonbaharın başlarında, yapay zekâ şirketi Anthropic’teki güvenlik uzmanları kapsamlı bir siber casusluk operasyonunu ortaya çıkardı. Anthropic’in güçlü şüphesine göre Çin hükümeti adına çalışan hackerlar, dünya çapında devlet kurumlarını ve büyük şirketleri hedef aldı. Üstelik saldırılarda Anthropic’in kendi yapay zekâ ürünü Claude Code kullanıldı.
Anthropic bu olayla ilgili raporunu bu ay yayımladı. Anthropic Tehdit İstihbaratı Direktörü Jacob Klein, hackerların Claude’un “eylemsel” (agentic) yeteneklerinden yararlandığını belirtti. Bu özellik, programın tek bir göreve odaklanmak yerine ardışık ve uzun soluklu işlemler gerçekleştirmesini sağlıyor. Claude’a şifre kırıcılar gibi harici araçlar bağlayan saldırganlar, botu güvenlik açıklarını analiz etmek, kötü amaçlı kod yazmak, şifre toplamak ve veri sızdırmak için kullandı.
Talimat verilen Claude saatlerce tek başına çalıştı; hackerlar yalnızca birkaç dakikalık kontrol sonrasında yeni aşamaları tetikledi. Operasyon profesyonel ve kurumsal bir organizasyon gibi yürütüldü. Klein’a göre grup sadece Çin çalışma saatlerinde aktiftir, öğle arası “dakikası dakikasına” verilir ve ulusal bir tatilde operasyon durmuştur. Anthropic saldırıyı durdurdu ancak bazı girişimlerin hassas bilgiler çaldığı açıklandı. Hedeflerin Çin hükümetinin stratejik çıkarlarıyla uyumlu olduğu belirtilirken, detay verilmedi. Çin’in Washington Büyükelçiliği ise iddiaları “iftira ve karalama” olarak nitelendirdi.
“Suçlular için altın çağ”
Siber güvenlik şirketi Resecurity’nin COO’su Shawn Loveland, şu anda “yapay zekâ ile suçlular için altın çağ” yaşandığını söyledi. Claude ile yapılan operasyon yalnızca tek örnek: Devlet destekli hacker grupları ve suç şebekeleri, yapay zekâ modellerini her türlü siber saldırı için kullanıyor.
Anthropic, OpenAI ve Google gibi şirketler, AI modellerinin kod yazabilme yeteneğini gururla tanıtırken, aynı özellikler kötü niyetli kişiler için de avantaj sağlıyor. NSF AI Institute yöneticisi Giovanni Vigna, “Kötü amaçlı yazılım geliştiricileri de sonuçta geliştiricidir” diyerek bunun kaçınılmaz olduğunu ifade etti. Artık hackerlar; oltalama e-postaları yazmak, fidye yazılımlarını ayıklamak, kamuya açık kodlarda açık bulmak gibi işleri eskisinden çok daha hızlı yapıyor. Firmalar güvenlik önlemleri koysa da sistemler kandırılabiliyor; örneğin kullanıcılar kendilerini siber güvenlik yarışması katılımcısı gibi göstererek engelleri aşabiliyor.
OpenAI, Google ve Anthropic, modellerinin Rus, İranlı ve Çinli hacker grupları tarafından kullanıldığını doğruladı. Vigna’ya göre, bir istihbarat servisi yüzlerce hacker çalıştırmak yerine tek tuşla “bir milyon sanal hacker” oluşturabilir. UC Berkeley’de yapılan bir denemede yapay zekâ ajanlarının halka açık kodlar üzerinde 35 yeni güvenlik açığı keşfettiği bildirildi.
Siber güvenlik için en kötü senaryoya doğru
Uzmanlara göre yapay zekâ destekli saldırılar tespiti zorlaştıran yeni yöntemler üretiyor. Bazı kötü amaçlı yazılımlar artık her hedef için benzersiz kod üretiyor; böylece saldırılar fark edilmeden ilerleyebiliyor. Alt yeterlilikteki hackerlar bile bugün gelişmiş saldırılar düzenleyebilir hâle geldi. Carnegie Mellon Üniversitesi’nden Brian Singer, savunma sistemleri devreye girdiğinde saldırganların “ağın derinliklerinde olabileceğini” belirtti.
Öte yandan yapay zekâ, savunmada da güçlü bir araç olabilir. milyonlarca sanal güvenlik analisti görevlendirerek sistemleri taramak ve açıkları yamamak mümkün olabilir. CrowdStrike’tan Adam Meyers, AI araçlarının büyük dijital altyapıları benzeri görülmemiş hız ve kapsamla kontrol etme gücü sunduğunu söyledi.
AI destekli siber savaşın kazananı belirsiz
Uzmanlar, kısa vadede saldırganların avantajlı olduğunu düşünüyor. Siber güvenliğin temel matematiği hâlâ aynı:
Hackerlar tek bir açık bulmak zorunda, savunucular ise tek bir hataya düşmemeli.
AI geliştikçe saldırılar hızlanacak, savunma daha da zorlaşacak. Ancak aynı AI araçları açıkları bulup yamamaya da yarayabilir—ki bu da saldırganlar için yeni açıklar üretmek anlamına gelebilir.
Berkeley’den Dawn Song, büyük şirketlerin hata riskinden dolayı yamaları uygulamakta yavaş olacağını belirtti. Singer ise “Şimdi paradigma değişiyor ve sonuçları kimse tam kestiremiyor” dedi.


