Yapay Zeka Tartışması: Ucuz Tartışmalar Yardımcı Olmuyor

Bayburtgüzeli

Global Mod
Global Mod
Her şeyden önce: 1.000’den fazla imza sahibinin şu anda büyük AI modellerinin geliştirilmesi için zorunlu bir duraklama talep ettiği açık mektubu yürekten savunmak istemiyorum.


Evet, “Hayatın Geleceği Enstitüsü”nün nereden geldiğini de biliyorum. Bu kurumun “uzun ömürlülüğü”, “insanlığın uzun vadede hayatta kalması kaygısı” ilk bakışta oldukça sempatik görünüyor. Bununla birlikte, daha yakından bakıldığında, “vermek için kazanma” ilkesinin (örneğin, daha sonra çok bağış yapabilmek için kripto para birimleri ile olabildiğince çabuk zengin olun) ilkesinin olduğu ideolojik-felsefi bir korku odasıdır. hala nispeten sempatik bir fikir – bu insanlardan bazıları öjeni konusunda oraya bile varıyor.







Wolfgang Stieler, fizik eğitiminin ardından 1998 yılında gazeteciliğe geçiş yaptı. 2005 yılına kadar c’t’de çalıştı ve ardından Technology Review dergisinin editörü oldu. Orada, yapay zeka ve robotikten şebeke politikasına ve gelecekteki enerji arzı konularına kadar çok çeşitli konuları denetliyor.







İkinci uyarı: Elbette belgedeki teklif teknokratik, elitist ve demokratik değil. Şirketler ve araştırmacılar, bu teknolojinin güvenli bir şekilde geliştirilmesi ve uygulanması için prosedürler ve kurallar geliştirmeli ve değiş tokuş etmelidir. Bu, esasen kişisel bir taahhüttür ve oldukça sık başarısız olan bir ilkedir.

Ve son olarak: evet, bir gün var olabilecek insanüstü bir yapay zekanın varsayımsal tehlikeleri hakkında uyarıda bulunmanın aptalca olduğunu da biliyorum. Mevcut sistemler zaten sorunlara neden oluyor. Çeşitli açılardan ayrıntılı olarak tartıştık. hediye.


Bütün bunlar aynı zamanda AB AI Yasasında da var


Ama kimse okudu mu? Bu Silikon Vadisi teknokratlarının yapabileceğine inanmayacağım ifadeler var. Şunlardan bahsediyoruz: “Yapay zekaya adanmış yetenekli düzenleyiciler; son derece yetenekli yapay zeka sistemlerini ve büyük hesaplama kapasitesi havuzlarını denetleme ve izleme; gerçeği sentetikten ayırmaya ve model sızıntılarını izlemeye yardımcı olan kaynak ve damgalama sistemleri; sağlam bir denetim ve sertifika ekosistemi; yapay zekanın neden olduğu zararlar için sorumluluk”.


Denetleme makamı, denetim ve belgelendirme, ürün sorumluluğu (ve hesap verebilirlik), makine tarafından oluşturulan içeriğin zorunlu olarak etiketlenmesi – tüm bunlar AB yapay zeka yasası taslağına da dahil edilmiştir. Bununla birlikte, yapay zeka uygulamalarını düzenleyen yasa, büyük dil modellerinin genellikle yüksek riskli bir teknoloji olarak tanımlanıp tanımlanmaması gerektiği konusundaki şiddetli anlaşmazlık nedeniyle erteleniyor. Bu fikri eleştirenler, bunun Avrupa’daki “inovasyonu” bastırabileceğinden korkuyor. Amerikan teknoloji şirketlerinin lobileri tarafından desteklenen bir argüman. (Üçleme olarak adlandırılan, Avrupa Komisyonu, Avrupa Konseyi ve Avrupa Parlamentosu arasındaki müzakerelerin Nisan ayında başlaması gerekiyor – ve muhtemelen başlangıçta bir çıkmazla sonuçlanacak).

Ama asıl sinirimi bozan şey, önemli bir tartışmayı zehirleyen ve böylece giderek imkansız hale getiren polemiklerin, kişisel saldırıların, ucuz retorik oyunların ve hor görmenin boyutu. Örneğin Emily Bender, “Sparks of Artificial General Intelligence” adlı ön baskı makalesinden, zaten bağımsız olarak yeterince incelenmemiş olan “hayran kurgusu” olarak yalnızca küçümseyici bir şekilde bahsettiğinde, Arxive gibi bir ön baskı platformu için herhangi bir bilimsel alakayı inkar ediyor. başından sonuna kadar. Ayrıca dolaylı olarak bir tür tutum testi gerektirir: Daha önceki yayınlar yoluyla, büyük dil modellerinin geliştirilmesi ve kullanılması konusunda son derece eleştirel olduğunu kanıtlamayan herhangi biri, kesinlikle ciddiye alınmamalıdır.

Dargın Hesaplamalı Dilbilimcileri Savunma Birliği


Kırgın Hesaplamalı Dilbilimcileri Savunma Birliği için uygun olabilir ve ara sıra güreş düzeyindeki sümüklü böcek şenliği çok komik olsa da kimseyi bir yere götürmez. Aksine basit bir retorik numarasıyla bu kağıdı tartışma çöpüne atmak zararlıdır.

Elbette, bu çalışmada hata yapılacak çok şey var – bu arada, Sebastien Bubeck ve meslektaşları, GPT-4’ten eğitim verileri hakkında herhangi bir bilgi alamadıklarından bile şikayet ediyorlar, bu nedenle modelin hangi yanıtları yeniden ürettiğini yalnızca tahmin edebiliyorlardı. bu eğitim verilerinden ve yeniden oluşturduklarından. Ancak, örneğin araştırmacılar tarafından GPT-4 üzerinde gerçekleştirilen psikolojik testler, yalnızca yapay zekanın saf coşkusuyla “akıl teorisi” – yapay zekanın kendisini bir muadili yerine koyma yeteneği olarak yorumlanamaz. Şüpheci bir bakış açısıyla bile, bu testler, yapay zekanın bir insan muhatabına davranışına dayalı olarak duygular atayabildiği zaman ortaya çıkan manipülasyon olasılıklarını ortaya koyuyor. Makinenin duyguları anlayıp anlamaması önemli değil.

Kısacası: kendini adama ve moratoryum işe yaramaz. İhtiyacımız olan şey, üretici yapay zekanın düzenlenmesi üzerine bir tartışma. Şimdi yürütülmesi ve sonuçlara hızla ulaşılması gerekiyor çünkü şu anda yapay zekayı uygulama açısından bir tür Vahşi Batı var. Ve bu durmalı. Olabildiğince çabuk.







(jle)



Haberin Sonu
 
Üst