
Elon Musk’ın yapay zeka şirketi xAI, büyük bir güvenlik skandalıyla gündemde. Şirkette çalışan bir teknik personelin GitHub üzerinden özel bir API anahtarını paylaşması sonucu, SpaceX, Tesla ve Twitter/X gibi Musk’a ait şirketlerin iç verileriyle eğitilmiş özel yapay zeka modellerine yaklaşık iki ay boyunca izinsiz erişim sağlanabilecek bir açık ortaya çıktı.
İlk olarak Fransız siber güvenlik danışmanlık firması Seralys’in “chief hacking officer”ı Philippe Caturegli tarafından fark edilen bu açık, xAI’ye ait bir API anahtarının halka açık bir GitHub deposunda yer almasıyla ifşa oldu. Caturegli’nin durumu LinkedIn’de paylaşmasının ardından, açık kaynak kodlarında hassas veri ve erişim anahtarlarını tespit eden GitGuardian adlı siber güvenlik şirketi konuyla ilgilendi.
GitGuardian kurucularından Eric Fourrier, KrebsOnSecurity’ye yaptığı açıklamada, açıkta olan API anahtarının xAI’nin henüz yayınlamadığı bir dizi Grok modeline erişim sağladığını belirtti. Anahtar, toplamda en az 60 farklı veri kümesine ulaşabiliyordu. Bu modeller arasında, yalnızca kamuya açık sürümler değil, aynı zamanda geliştirme aşamasındaki ve şirket içi özel modeller de yer alıyordu. Bunlar arasında “grok-2.5V”, “research-grok-2p5v-1018”, “tweet-rejector” ve “grok-spacex-2024-11-04” gibi isimler dikkat çekiyor.
GitGuardian, ilgili çalışanı bu güvenlik açığı konusunda 2 Mart’ta uyardıklarını ancak anahtarın 30 Nisan’a kadar hâlâ aktif olduğunu ifade etti. Konuyla ilgili bildirimi aldıktan sonra xAI, GitGuardian’a bulgularını HackerOne bug bounty (ödül programı) üzerinden iletmesini önerdi. Sadece birkaç saat sonra ise ilgili GitHub deposu kaldırıldı.
Fourrier, sızdırılan modellerin bazılarının SpaceX ve Tesla iç verileriyle özel olarak eğitildiğini ve kamuya açık olmalarının ciddi güvenlik riskleri taşıdığını söyledi. Şirketten veya ilgili çalışandan henüz resmi bir açıklama gelmedi.
GitGuardian Araştırma Direktörü Carole Winqwist, saldırganların bu tür modellere doğrudan erişim sağlamasının büyük bir tehdit oluşturduğunu vurguladı:
“Bu modeller üzerinden prompt injection (istem manipülasyonu) yapılabilir, modelin davranışı saldırgan lehine değiştirilebilir ya da yazılım tedarik zincirine kötü amaçlı kodlar sızdırılabilir.”
Olay, Musk’ın liderliğini yaptığı “Government Efficiency Department” (Hükûmet Verimliliği Departmanı – DOGE) adlı birimin, hassas devlet verilerini yapay zeka sistemlerine aktardığı haberleriyle paralel olarak gündeme geldi. Washington Post’un Şubat ayında yayımladığı bir habere göre DOGE, Eğitim Bakanlığı gibi kurumların verilerini AI modelleriyle analiz etmeye başladı. Wired ise Mart ayında, DOGE’un GSAi adlı özel bir chatbot’u 1.500 federal çalışanın kullanımına sunduğunu bildirdi.
Reuters ise daha da ileri giderek, DOGE’un yapay zekayı bazı kurum çalışanlarının iletişimlerini Trump yönetimine yönelik olası muhalefeti tespit etmek için kullandığını iddia etti. Musk’ın Grok AI modeli, bu gözetim süreçlerinde aktif olarak kullanılıyor.
Caturegli, sızan anahtarın federal devlet verilerine doğrudan erişim sağladığına dair bir işaret olmadığını belirtmekle birlikte, iç geliştirme süreçlerine dair hassas bilgilerin istemeden açığa çıkmış olabileceğini söyledi:
“Bu anahtarın iki ay boyunca açıkta kalması ciddi bir zafiyet. Uzun süreli kimlik bilgilerinin kontrolsüz şekilde ortada kalması, zayıf anahtar yönetiminin ve yetersiz iç denetimin göstergesi.”