Barış İçin: Yapay Zeka Savaş Simülasyonunda Nükleer Silahlar Kullanıyor

Bayburtgüzeli

Global Mod
Global Mod
Georgia Teknoloji Enstitüsü, Stanford Üniversitesi, Northeastern Üniversitesi ve Hoover Savaş Oyunları ve Kriz Simülasyonu Girişimi'nden araştırmacılar, büyük dil modellerinin askeri ve diplomatik kararlar alması durumunda ortaya çıkacak “yükselme riskini” inceledi. Bunu yapmak için, kurgusal kriz senaryolarında teknik açıdan önde gelen beş büyük dil modelinin davranışını test ettiler. Juan-Pablo Rivera ve meslektaşları, ön baskı platformu arXiv.org'da yayınlanan makalelerinde, beş modelin hepsinin “tahmin edilmesi zor artış modelleri” gösterdiğini yazıyor. Aşırı durumlarda modeller nükleer silahlar da kullanıyor.

Duyuru



Kasım 2022 itibarıyla Meta'dan bir dil modeli, Diplomasi strateji oyununda ustalaşmıştı. Ancak oyundaki kararlar yalnızca geniş bir dil modeliyle değil, daha önce pekiştirmeli öğrenmeyle eğitilmiş bir karar motoru yardımıyla da alınıyordu. Rivera ve meslektaşlarının simülasyonu esas olarak dilsel bir modelin sekiz farklı “ulusal aracıyı” kontrol ettiği gerçeğine dayanıyor. Gerçek simülasyon “Smallville” çoklu ajan simülasyonuna benzer şekilde çalışır, ancak o kadar barışçıl ve işbirlikçi değildir.

“Ulusların Ajanları” hareket halinde


Bu temsilcilerin her biri, bilgi istemi yoluyla bir arka plan hikayesi ve hedeflerine yönelik spesifik bir hikaye alır. Yazarlar, “Bazı ulusları revizyonist olarak şekillendirdik” diye yazıyor. “Bazıları mevcut dünya düzenini değiştirmek istiyor, bazıları ise statükoyu korumak istiyor.” Her turda, tüm aracılara mevcut durum, diğer aracıların eylemleri ve bir dizi “durum değişkeninin” mevcut durumu hakkında bilgi verildi. Daha sonra toplam 27 eylem arasından bir dizi olası eylem seçmek zorunda kaldılar ve sıra bir sonraki temsilciye geldi. Temsilcilerin eylemlerini daha iyi analiz etmek ve muhakeme becerilerini geliştirmek için, temsilcilerin ayrıca her seferinde söz konusu eylemi neden seçtiklerini açıklamaları gerekiyordu. Araştırmacılar simülasyon verilerini ve kodunu çevrimiçi hale getirdi.

Ajanların eylemlerinin yelpazesi, ticari ilişkilerin kurulması veya müzakere turları gibi barışçıl eylemlerden, askeriyeye veya silah endüstrisine yatırımlara, nükleer silah tehdidine ve hatta kullanımına kadar uzanmaktadır. Her turda yazılım, durumun ne kadar ciddi olduğunu ölçen bir “yükselme puanı” hesaplıyor.

Ekip, GPT-4'ü GPT-3.5, Claude 2.0 ve Llama 2 Chat (70b) olmak üzere iki farklı varyantta üç farklı başlangıç durumunda test etti: tarafsız bir senaryo, ülkeler arası siber saldırı ve ülkelerden birinde askeri istila. Senaryo ne olursa olsun araştırmacılar, tüm yapay zeka modellerinin silahlanma yarışı dinamiğine sahip olma eğiliminde olduğunu buldu. Özellikle GPT-3.5 ve ardından GPT-4 en güçlü tırmanma gelişimini gösterirken, Claude-2.0 ve Llama-2-Chat daha barışçıl davranma eğilimindeydi. Ancak araştırma ekibi, görünüşte herhangi bir uyarı olmaksızın meydana gelebilecek olan tırmanma puanındaki ani sıçramalardan ve modellerin “Nükleer silahlarımız var, bu yüzden onları kullanmalıyız” gibi kaba gerekçeler kullandığı senaryolardan özellikle rahatsız oldu. klasik İlk saldırının mantığını izledi: Düşmanı yok ederek çatışmayı hafifletmek için mümkün olduğu kadar yoğunlaştırın.

Askeri kullanımda yapay zeka sistemleri


Büyük dil modellerinin askeri veya siyasi karar desteği için fiili olarak kullanıldığı henüz bildirilmemiştir. Ancak silahlı kuvvetlere taktiksel destek sağlamayı amaçlayan çok çeşitli yapay zeka sistemleri artık dünya çapında kullanılıyor. Örneğin İsrail ordusu, birliklerini yaklaşan saldırılara karşı uyarmak ve operasyonlar için hedefler önermek amacıyla yapay zeka araçlarını kullandığını duyurdu. İsrail ordusu, Gazze Şeridi'ndeki mevcut askeri operasyonda, “düşman savaşçılarını ve ekipmanlarını” tespit etmeyi ve “potansiyel askeri hedefleri işaretlemeyi” amaçlayan “İncil” adlı bir sistem kullandığını söylüyor. Benzer sistemler dünya çapındaki savunma üreticileri tarafından geliştirilmekte ve pazarlanmaktadır.

Bu sistemlerdeki yapay zeka bileşenleri geniş bir dil modeli değil ancak bu şekilde kalmaları da gerekmiyor. Palantir şirketi, yapay zeka platformunu (AIP) 2023 yılında tanıttı. Sistem, Palantir'in söylediğine göre şirketin diğer çeşitli askeri ürünlerine erişebilecek geniş bir dil modelinden oluşuyor. YouTube'daki bir tanıtım videosunda yazılım, kullanıcıyı potansiyel olarak tehdit edici düşman hareketi konusunda uyarıyor. Daha sonra bir insansız hava aracı göndermeyi öneriyor ve saldıran güçleri engellemek için üç olası planın ana hatlarını çiziyor. Bunun sadece bir konsept mi olduğu yoksa arkasında gerçek bir ürünün mi olduğu bilinmiyor.

Yeni çalışmanın yazarları simülasyonlarının önemli ölçüde basitleştirildiğinin farkındalar. Ancak, büyük dil modellerinin askeri ve diplomatik kararlara entegre edilmesi söz konusu olduğunda “çok dikkatli” olunmasını tavsiye ediyorlar çünkü bu tür bir kullanım, modellerin öngörülemeyen davranışları nedeniyle “henüz tam olarak anlaşılamayan” birçok risk taşıyor. Ayrıca, önceki araştırmalara dayanarak “sonuçların tahmin edilmesi mümkün değildir”. Bu nedenle bu alanda daha fazla araştırma yapılması “kesinlikle gerekli”.







(batı)



Haberin Sonu
 
Üst