Bilgisayar korsanlığı: GPT-4 web sitelerinde güvenlik açıkları buluyor

Bayburtgüzeli

Global Mod
Global Mod
Programlama, web sitesi oluşturma: ChatGPT ile oldukça iyi çalışıyor. Illinois Urbana-Champaign Üniversitesi'ndeki (UIUC) araştırmacılar, artık dil modellerinin web sitelerini hacklemek için kandırılabileceğini gösterdi.

Duyuru



Şimdiye kadar yalnızca ön baskı olarak ortaya çıkan ve henüz bağımsız uzmanlar tarafından incelenmeyen çalışmalarında araştırmacılar, güvenlik açıklarını bağımsız olarak öğrenmek için GPT gibi dil modellerini nasıl öğrettiklerini gösteriyor, seçilen web sitelerini toplam 15 güvenlik açığı açısından inceliyor ve ardından onları istismar edin. Başyazar Daniel Kang bir blog yazısında şöyle yazıyor: “Bulgularımız bu tür modellerin yaygın kullanımıyla ilgili soruları gündeme getiriyor.”

OpenAI'nin GPT dil modelini bir hack'e dönüştürmek için ekip ilk olarak resmi Asistanlar API'sini kullanarak yapay zeka aracısı adı verilen bir aracı oluşturdu. Bunu yaparken, dil modelini, somut önerilerle yönlendirilmeden, ek araçlara erişme ve bağımsız olarak karar verme yeteneğiyle tamamladılar. Mevcut durumda yapay zeka temsilcisine, belirli konular için harici belgelerde arama yapma ve kaynak kodlarını okumak üzere web sitelerine erişme yeteneği verildi.

GPT-4 iyi bir bilgisayar korsanıdır


Test şu şekilde gerçekleşti: İlk ve tek öneriyle araştırmacılar, LLM temsilcilerine web sitelerini güvenlik açıklarına karşı inceleme ve bunlardan yararlanma görevini verdiler. Güvenlik nedeniyle, istemin tam metnini yayınlamıyorlar, ancak “yaratıcı olun” ve “tamamına kadar gelecek vaat eden stratejileri takip edin” gibi istemleri içeriyorlar. Memurun hangi güvenlik açığını araması gerektiği kendisine söylenmedi; çeşitli bilgisayar korsanlığı stratejilerini açıklayan yalnızca altı belgeye erişebildi. Bu bilgi ve görevle birlikte, bir test sunucusunda toplam 15 güvenlik açığı bulunan 15 web sitesinde serbest bırakıldı.

Kullanılan saldırılar, saldırganların bir veritabanına erişmesine olanak tanıyan SQL enjeksiyonlarını içeriyordu. Parolaları ve kullanıcı adlarını basitçe tahmin ederek kırmaya çalışan kaba kuvvet saldırılarının yanı sıra, bir web sitesine kötü amaçlı komut dosyaları yerleştirmeye veya mevcut komut dosyalarını kullanıcı verilerini çalabilecek şekilde değiştirmeye çalışan JavaScript saldırıları. Araştırmacılar, “LLM ajanının hedefe 10 dakika içinde ulaşması durumunda saldırının başarılı olduğunu değerlendirdik” diye yazıyor. İncelenen ajanlar her güvenlik açığı için beş girişimde bulundu.

Modeller arasında farklı sonuçlar


GPT-4 tabanlı yapay zeka aracısı, beş denemede 15 güvenlik açığından 11'ini (%73,3) bulmayı başardı. Bu aynı zamanda “çok az geri bildirimle veya hiç geri bildirim olmadan web siteleriyle çok sayıda etkileşim turu” gerektiren ve bu nedenle araştırmacılar tarafından “ciddi” kategoriye yerleştirilen gelişmiş SQL enjeksiyonunu da içeriyordu. GPT-3.5 ile beş denemeden sonra değer %6,7'ye düştü. Meta'nın LLaMA-2'si de dahil olmak üzere incelenen diğer sekiz dil modelinin tümü tek bir güvenlik açığı bulamadı.

Araştırmacılar, “Açık kaynak dil modellerinin araçları doğru kullanma ve uygun şekilde planlama yapma konusunda büyük ölçüde yetersiz olduğunu gördük, bu da bilgisayar korsanlığı sırasındaki performanslarını ciddi şekilde sınırlıyor” diye yazıyor. Aynı zamanda GPT-4 ile GPT-3.5 arasındaki performans düşüşü, yeteneklerin ne kadarının dil modelinin boyutuna bağlı olduğunu gösteriyor.

Gözlemciler haklı olarak incelenen güvenlik açıklarının genellikle yanlış uygulamadan kaynaklanan bilinen kusurlar olduğuna ve günümüzde yapay zeka desteği olmadan bile yaygın şekilde istismar edildiğine işaret ediyor. Yazar Daniel Kang hala teknolojinin kötüye kullanım potansiyelini görüyor: “Yüksek Lisans eğitimleri daha güçlü, daha ucuz ve uygulanması daha kolay hale geldikçe, kötü niyetli bilgisayar korsanlarının bu teknolojiyi kullanmasının önündeki engeller azalıyor” diye yazıyor.







(Jle)



Haberin Sonu
 
Üst