Google ve Stanford Üniversitesi’nden araştırmacılar, simüle edilmiş bir ortamda basit otonom yazılım aracılarının iletişimini ve davranışını kontrol etmek için ChatGPT’yi kullandı. Araştırmacılara göre, ‘Smallville’ olarak bilinen sanal toplulukta ‘yaşayan’ ve ‘çalışan’ 25 yazılım aracısı, yalnızca ‘gerçekçi insan davranışları’ değil, aynı zamanda ‘ortaya çıkan sosyal etkileşimler’ sergiliyor. Örneğin, ajanlardan birine verilen bir Sevgililer Günü partisini kutlama planı, simüle edilmiş kişinin diğer ajanlara davetiyeler göndermesini ve kutlamanın yapılacağı odayı önceden – ve bunu zamanı nedeniyle – dekore etmesini içeriyordu. kıt, çok organize yardım.
“Üretici aktörler uyanır, kahvaltı ederler ve işe giderler; yazarlar yazarken sanatçılar resim yaparlar; fikirler oluşur, birbirini algılar ve sohbetler başlatır; onlar bir sonraki günün planlamasıyla boğuşurken geçmiş günleri hatırlar ve üzerinde düşünürler.” araştırmacıları makalelerinde, ayrıca bir demo versiyonu da var.
Ancak, yazılım aracıları aslında bu eylemlerin tümünü gerçekleştirmez. Bunun yerine, Smallville’deki her konumun açıklaması gibi, diğer temsilciler için girdi görevi gören metin olarak çıktılar. Bir anlamda dil modeli, farklı rollerde kendi kendine konuşur ve metin tabanlı bir rol yapma oyununda olduğu gibi 25 aracının eylemlerini aynı anda yorumlar.
Yazılım aracılarının yeni davranışı
Bunun avantajı, ajan davranışı spektrumunun şaşırtıcı derecede çeşitli olmasıdır. Davranışı model bir ortamda simüle etmek yeni olmasa da – ABD’li bilim adamları, örneğin opioid krizine karşı politika önlemlerini test etmek için çok aracılı genetik sistemler kullanıyorlar – ancak böyle bir simülasyondaki yazılım aracıları genellikle basit eğer- sonra kurallar. Bu nedenle davranış alanları çok sınırlıdır. Geçmişte öğrenebilen ve yeni davranışlar geliştirebilen “bilişsel mimariye” sahip ajanların örnekleri de gösterilmiştir. Bununla birlikte, becerileri rakipleri nasıl alt edeceklerine inmiştir: iletişim kurmak ve birlikte çalışmak onlar için çok karmaşıktır.
Dil modelleri, özellikle iletişim kurmak için çok daha fazlasını yapabilir. Ancak, Joon Sung Park ve meslektaşlarının çözmesi gereken sorunlardan biri, dil modelinin sınırlı “bağlam uzunluğu”dur. Sanal konum, aracı geçmişi ve olası hedefler hakkında bilgi içermesi gereken giriş isteminin maksimum uzunluğu yaklaşık 6.000 kelime olan 2.048 belirteçtir. Ajanların tutarlı bir şekilde hareket etmesini sağlamak için araştırmacılar, dil modelini her bir ajanın ‘bellek akışını’ içeren bir veritabanına bağladı.
Bir yandan dosya, aracının “gözlemlerinden” oluşur: neredeler, bu konumdaki nesnelerin durumu nedir? Ne yapıyorum ben? – bir zaman damgası ile sağlanır. Anılar akışına ayrıca olaylar ve etkileşimlerin yanı sıra planlar ve niyetlerin daha soyut özetleri de dahildir. Yazarlar ayrıca hem soyut hem de düz özetler oluşturan ChatGPT’ye sahiptir. Her eylemden önce, bir sorgulama modülü bellek akışında en yeni ve en alakalı girişleri arar ve bunları bir sonraki giriş istemi için içerik oluşturmak üzere kullanır.
Ajanlar arasındaki etkileşimler
Yazılım aracılarına bir tür zeka atfetmek nispeten açık olacaktır. Bununla birlikte, makalenin yazarları, büyük dil modellerini zamanlama modülleri vb. ve böylece onları “özerk” hale getirmek şu anda çok dikkat çekiyor. Büyük dil modellerinin metinleri birleştirmekten daha fazlasını yapıp yapamayacağı – özellikle mantıksal sonuçlar çıkarması, planlar oluşturması veya diğer aracıların veya insanların amaçları ve niyetleri hakkında spekülasyon yapması – şu anda ateşli bir şekilde tartışılıyor. Prensip olarak, bunlar “yalnızca” metin ekleridir. Aslında ChatGPT gibi büyük dil modelleri, bu tür görevleri her zaman sahte senaryolar biçiminde çözebilir. Tamamen pragmatik bir bakış açısından, sistem gerçekten çalışıyor.
Yayında, araştırmacılar, yalnızca aracılar arasındaki etkileşimlerden kaynaklanan üç “ortaya çıkan” davranışı listeliyor: “Bilgi yayma” aracıları, uygun olduğunda bilgi iletir: birden çok aracı arasında koordinasyon eylemleri ve aralarında yeni ilişkiler kuran bir davranış. Şaşırtıcı bir şekilde, araştırmacılar, devam eden simülasyon sırasında bireysel ajanlarla tekrar tekrar “görüşerek” bunu doğrudan doğrulayabildiler.
“Bilgi yayma” ajanları, uygun olduğunda bilgi iletti. Simülasyonun sonunda toplam on iki ajan, Isabella’nın Hobbs Cafe’deki partisini duymuştu.
(Resim: Joon Sung Park ve ark.)
Ancak sistem, bilgisayar oyunlarında aracı kullanmak için çok yavaş ve hesaplama açısından çok yoğun. Bu nedenle araştırmacılar, örneğin belirli kuralların ve davranışların etkilerini test etmek için kullanılabildiğinden, yazılımın çevrimiçi topluluklar tasarlamak için kullanılmasını önermektedir. Ancak bu sistem, büyük dil modellerinin tüm uygulamalarını rahatsız eden temel bir sorunla da karşı karşıyadır: Yazarlar, sistemin kararlı olup olmadığını bilmiyorlar. Simülasyonu şu ana kadar yalnızca iki sanal gün boyunca çalıştırdılar. Dil modelinin halüsinasyon görme veya dilbilimsel olarak kontrolden çıkma riski kesinlikle vardır ve bireysel aracılar artık birbirleriyle etkileşime giremez.
Ayrıca bakınız:
(jle)
Haberin Sonu
“Üretici aktörler uyanır, kahvaltı ederler ve işe giderler; yazarlar yazarken sanatçılar resim yaparlar; fikirler oluşur, birbirini algılar ve sohbetler başlatır; onlar bir sonraki günün planlamasıyla boğuşurken geçmiş günleri hatırlar ve üzerinde düşünürler.” araştırmacıları makalelerinde, ayrıca bir demo versiyonu da var.
Ancak, yazılım aracıları aslında bu eylemlerin tümünü gerçekleştirmez. Bunun yerine, Smallville’deki her konumun açıklaması gibi, diğer temsilciler için girdi görevi gören metin olarak çıktılar. Bir anlamda dil modeli, farklı rollerde kendi kendine konuşur ve metin tabanlı bir rol yapma oyununda olduğu gibi 25 aracının eylemlerini aynı anda yorumlar.
Yazılım aracılarının yeni davranışı
Bunun avantajı, ajan davranışı spektrumunun şaşırtıcı derecede çeşitli olmasıdır. Davranışı model bir ortamda simüle etmek yeni olmasa da – ABD’li bilim adamları, örneğin opioid krizine karşı politika önlemlerini test etmek için çok aracılı genetik sistemler kullanıyorlar – ancak böyle bir simülasyondaki yazılım aracıları genellikle basit eğer- sonra kurallar. Bu nedenle davranış alanları çok sınırlıdır. Geçmişte öğrenebilen ve yeni davranışlar geliştirebilen “bilişsel mimariye” sahip ajanların örnekleri de gösterilmiştir. Bununla birlikte, becerileri rakipleri nasıl alt edeceklerine inmiştir: iletişim kurmak ve birlikte çalışmak onlar için çok karmaşıktır.
Dil modelleri, özellikle iletişim kurmak için çok daha fazlasını yapabilir. Ancak, Joon Sung Park ve meslektaşlarının çözmesi gereken sorunlardan biri, dil modelinin sınırlı “bağlam uzunluğu”dur. Sanal konum, aracı geçmişi ve olası hedefler hakkında bilgi içermesi gereken giriş isteminin maksimum uzunluğu yaklaşık 6.000 kelime olan 2.048 belirteçtir. Ajanların tutarlı bir şekilde hareket etmesini sağlamak için araştırmacılar, dil modelini her bir ajanın ‘bellek akışını’ içeren bir veritabanına bağladı.
Bir yandan dosya, aracının “gözlemlerinden” oluşur: neredeler, bu konumdaki nesnelerin durumu nedir? Ne yapıyorum ben? – bir zaman damgası ile sağlanır. Anılar akışına ayrıca olaylar ve etkileşimlerin yanı sıra planlar ve niyetlerin daha soyut özetleri de dahildir. Yazarlar ayrıca hem soyut hem de düz özetler oluşturan ChatGPT’ye sahiptir. Her eylemden önce, bir sorgulama modülü bellek akışında en yeni ve en alakalı girişleri arar ve bunları bir sonraki giriş istemi için içerik oluşturmak üzere kullanır.
Ajanlar arasındaki etkileşimler
Yazılım aracılarına bir tür zeka atfetmek nispeten açık olacaktır. Bununla birlikte, makalenin yazarları, büyük dil modellerini zamanlama modülleri vb. ve böylece onları “özerk” hale getirmek şu anda çok dikkat çekiyor. Büyük dil modellerinin metinleri birleştirmekten daha fazlasını yapıp yapamayacağı – özellikle mantıksal sonuçlar çıkarması, planlar oluşturması veya diğer aracıların veya insanların amaçları ve niyetleri hakkında spekülasyon yapması – şu anda ateşli bir şekilde tartışılıyor. Prensip olarak, bunlar “yalnızca” metin ekleridir. Aslında ChatGPT gibi büyük dil modelleri, bu tür görevleri her zaman sahte senaryolar biçiminde çözebilir. Tamamen pragmatik bir bakış açısından, sistem gerçekten çalışıyor.
Yayında, araştırmacılar, yalnızca aracılar arasındaki etkileşimlerden kaynaklanan üç “ortaya çıkan” davranışı listeliyor: “Bilgi yayma” aracıları, uygun olduğunda bilgi iletir: birden çok aracı arasında koordinasyon eylemleri ve aralarında yeni ilişkiler kuran bir davranış. Şaşırtıcı bir şekilde, araştırmacılar, devam eden simülasyon sırasında bireysel ajanlarla tekrar tekrar “görüşerek” bunu doğrudan doğrulayabildiler.

“Bilgi yayma” ajanları, uygun olduğunda bilgi iletti. Simülasyonun sonunda toplam on iki ajan, Isabella’nın Hobbs Cafe’deki partisini duymuştu.
(Resim: Joon Sung Park ve ark.)
Ancak sistem, bilgisayar oyunlarında aracı kullanmak için çok yavaş ve hesaplama açısından çok yoğun. Bu nedenle araştırmacılar, örneğin belirli kuralların ve davranışların etkilerini test etmek için kullanılabildiğinden, yazılımın çevrimiçi topluluklar tasarlamak için kullanılmasını önermektedir. Ancak bu sistem, büyük dil modellerinin tüm uygulamalarını rahatsız eden temel bir sorunla da karşı karşıyadır: Yazarlar, sistemin kararlı olup olmadığını bilmiyorlar. Simülasyonu şu ana kadar yalnızca iki sanal gün boyunca çalıştırdılar. Dil modelinin halüsinasyon görme veya dilbilimsel olarak kontrolden çıkma riski kesinlikle vardır ve bireysel aracılar artık birbirleriyle etkileşime giremez.
Ayrıca bakınız:

(jle)
Haberin Sonu