Bill Gates, AI ile gelecek hakkında nasıl düşünüyor?

Bayburtgüzeli

Global Mod
Global Mod


  1. Bill Gates, AI ile gelecek hakkında nasıl düşünüyor?

Şimdi de Bill Gates. Eski Microsoft patronu, şimdi teknoloji endüstrisindeki yapay zeka ile ilişkili riskler konusunda konuşan büyük isimler korosuna katıldı. Kısa versiyon? O çok endişeli değil. Neden: “Bunu zaten yaptık.” İnsanlık tarihinde belirleyici dönüştürücü dönüm noktalarından bahsediyor. İyimserliği, sayısız kıyamet kehaneti karşısında canlandırıcı görünüyor. Ama gerçekte yeni fikirleri yok.

Duyuru



Milyarder iş adamı ve hayırsever, kişisel blogu GatesNotes’ta yaptığı bir gönderide bu noktaya değindi. Gönderisinde “En çok duyduğum ve okuduğum – ve çoğunu paylaştığım – endişeleri alıp onlar hakkında ne hissettiğimi açıklamak istiyorum” diye yazdı.

Gates’e göre yapay zeka, “hayatımız boyunca deneyimleyeceğimiz en yıkıcı teknoloji”. Onun için internetin, akıllı telefonun ve kişisel bilgisayarın da üzerindedir. Ve PC, Gates’in en çok geliştirdiği icat olarak biliniyor. (İlginç bir şekilde, Gates önümüzdeki yıllarda yapay zekadan daha büyük bir şeyin icat edilmeyeceğini öne sürüyor.)

Gates, birkaç hafta önce San Francisco’daki Yapay Zeka Güvenliği Merkezi’nden bir açıklama imzalayan düzinelerce önde gelen isimden biri. Tam olarak şöyle diyor: “Yapay zeka nedeniyle insanların yok olma riskini azaltmak, pandemiler ve nükleer savaş gibi diğer toplumsal risklerin yanı sıra küresel bir öncelik olmalıdır.”

Blog yazmak için endişelenme


Yine de Gates’in blog gönderisi göz korkutucu değil. Aslında, AI’nın ortaya koyduğu varoluşsal riskten hiç bahsedilmiyor. Bunun yerine Gates, buradaki tartışmayı “uzun vadeli” risklerin “acil” risklere karşı tartılması gereken bir tartışma olarak tanımlıyor. Ve “zaten var olan veya yakında var olacak riskler” üzerinde duruyor.

Birleşik Krallık’taki Alan Turing Enstitüsü’nde etik ve sorumlu inovasyon üzerine araştırma başkanı David Leslie, “Gates uzun süredir aynı akoru çalıyor” diyor. Gates, merakla, on yıl önce derin öğrenme ortaya çıkarken AI’nın varoluşsal riski hakkında zaten konuşan birçok tanınmış figürden biriydi, Leslie şöyle diyor: “O zamanlar, süper zeka konusunda daha da endişeliydi. Biraz yumuşamıştı.”

Duyuru

ayrıca oku

Daha fazla göster



daha az göster




Ancak Gates, varoluşsal riski tamamen dışlamaz. Yapay genel zeka (AGI) olarak bilinen “herhangi bir konuyu veya herhangi bir görevi öğrenebilen bir yapay zeka geliştirirsek” ne olabileceğini merak etti.

İster on yıl içinde isterse yüzyıl içinde bu noktaya gelelim, toplum derin sorunlarla karşı karşıya kalacak” dedi. Gates’e göre, bir süper yapay zeka kendi hedeflerini belirlerse ne olur? Ya insanlığın hedefleriyle çatışırlarsa? “Süper bir AI oluşturmalı mıyız? Bu uzun vadeli riskleri düşünmek, daha acil olanların pahasına olmamalı.”

Gates’in orta sahası


Gates, Mayıs ayında Google’dan ayrılan ve yapay zeka endişelerini kamuoyuna açıklayan derin öğrenme öncüsü Geoffrey Hinton ile Meta AI’dan Yann LeCun ve Joelle Pineau gibi diğer yapay zeka uzmanları arasında bir tür orta yola sahip. “saçma sapan”dan “akılsız”a. Signal’den Meredith Whittaker, Hinton ve diğerlerinin korkularının “hayalet hikayeleri” olduğunu söylüyor.

Alan Turing Enstitüsü’nden Leslie, Gates’in buradaki gerçek katkısını şimdi dahil ederek düşünmek gerektiğini söylüyor: “Herkes bunun hakkında konuştuğuna göre, oldukça doymuş durumdayız.” Gates gibi Leslie de Doomer senaryolarını tamamen reddetmez. “Kötü niyetli taraflar bu teknolojilerden yararlanabilir ve yıkıcı hasara neden olabilir” diye düşünüyor. “Bunu anlamak için süper zekaya, robotik kıyamete veya AGI spekülasyonuna inanmanıza gerek yok.” Acil endişenin, üretici yapay zekanın hızla ticarileştirilmesinden kaynaklanan mevcut riskler olması gerektiği konusunda hemfikirdi. “Odağınızı keskinleştirmek ve ‘Tamam, acil sorunlar nelerdir?’ diye sormak mantıklıdır.”

Gates, katkısında yapay zekanın seçimlerden eğitime ve istihdama kadar toplumun birçok kilit sektörü için şimdiden bir tehdit oluşturduğuna dikkat çekiyor. Tabii ki, bu tür endişeler yeni bir şey değil. Gates’in bize söylemeye çalıştığı şey, bu tehditler ciddi olsa da onları kontrol altında tuttuğumuzdur: “Riski yönetebileceğimize inanmamızın en iyi nedeni, zaten sahip olduğumuzdur.”







Yapay zeka, gerçek zamanlı çeviri yoluyla kültürleri birbirine bağlayabilir veya sıkıcı rutin görevleri gerçekleştirebilir. Ancak çoğu zaman bunun yerine, sömürge yönetimi modellerinden yararlanarak adaletsizliği ve ayrımcılığı yeniden üretir. Eleştirmenler bu nedenle gizli yapılarının ortaya çıkarılmasını talep ediyor.







Hesap makinesi gibi


1970’lerde ve 1980’lerde hesap makineleri, öğrencilerin matematiği öğrenme şeklini değiştirerek, temel matematiğin kendisinden ziyade Gates’in “aritmetiğin arkasındaki düşünme becerileri” dediği şeye odaklanmalarına izin verdi. Bu nedenle, ChatGPT gibi uygulamaların diğer konularda da aynı şeyi yapacağına inanıyor.

Kelime işlemci ve elektronik tablo uygulamaları, 1980’lerde ve 1990’larda ofis işini dönüştürdü ve bu değişikliklere Gates’in şirketi Microsoft öncülük etti. Burada Gates, insanların nasıl uyum sağladıklarının izini sürüyor. Ve bunu tekrar yapabileceğimizi iddia ediyor. “Kelime işleme evrak işlerini ortadan kaldırmadı ama onu sonsuza kadar değiştirdi” diye yazıyor. AI’nın neden olduğu değişiklik “engebeli bir geçiş” olacaktır. “Ancak insanların hayatlarındaki aksamaları azaltabileceğimize inanmak için her türlü neden var.”

Sahte haberlerde olduğu gibi spam ile başa çıkmayı öğrenmiş olurduk, böylece aynı şeyi derin sahte haberler için de yapabilirdik. Gates, “Bir noktada, çoğu insan bu e-postalara iki kez bakmayı öğrendi” diye yazıyor. “Deepfake’ler için aynı kasları” oluşturmalısınız. Gates, hasarı önlemek için hızlı ama dikkatli hareket etmeye teşvik ediyor. Sorun şu ki, süreçte yeni bir şey sunmuyor. Önerilerinin çoğu banal olarak adlandırılabilir, bazıları en azından yüzeyseldir.

Küresel düzenlemeye ihtiyaç var


Son haftalarda diğerleri gibi, Gates de Uluslararası Atom Enerjisi Ajansı’na (IAEA) benzer şekilde, yapay zekayı düzenlemesi için küresel bir kurum çağrısında bulunuyor. Ona göre bu, AI siber silahlarının gelişimini kontrol etmenin iyi bir yolu olacaktır. Bununla ne demek istediğini tam olarak açıklamıyor. Gates, hükümetlerin ve işletmelerin destek sunması gerektiğini söylüyor, ör. B. insanların yapay zeka odaklı yeni iş piyasasında geride kalmamasını sağlamak için yeniden eğitim programları şeklinde.

ChatGPT gibi uygulamaların norm haline geldiği bir dünyaya geçerken öğretmenlerin de desteğe ihtiyacı olduğunu söylüyor. Ancak Gates, bu desteğin nasıl görüneceğine dair ayrıntı vermiyor.

Deepfake söz konusu olduğunda, onları bizim için tespit edecek yeni araçlar istiyor. Ancak daha yeni araçlar, AI tarafından oluşturulan görüntüleri veya metni yararlı olacak kadar iyi tanıyamaz. Ve bu tür dedektörler, üretken yapay zekanın gelişimine ayak uydurabilecek mi? Gates, “sağlıklı bir kamuoyu tartışması herkesin teknolojinin, yararlarının ve risklerinin farkında olmasına bağlıdır” derken kesinlikle haklıdır. Ancak, çoğu zaman AI’nın sorunlarını çözeceği inancından yararlanır, bu tüm uzmanların paylaşmayacağı bir inançtır.

Ve doğrudur: Acil risklere öncelik verilmelidir. Evet, daha önce teknolojik kargaşayı atlattık (bizi mahvetti). Ama nasıl? Gates: “Yapay zekanın riskleri hakkında şimdiye kadar yazılan her şeyden – ve çok şey yazıldı – kimsenin tüm cevapları bilmediği açık.” Ve bu yakın zamanda değişmeyecek.







(jle)



Haberin Sonu
 
Üst