Yapay zeka öncüsü Geoffrey Hinton’ın Google’ı terk etmesi ve yapay zekanın tehlikelerine ilişkin uyarıları epey ses getirdi. Büyük dil modellerinin ve bunları üreten ve kontrol eden şirketlerin tecrübeli eleştirmenleri şimdi Hinton’u büyük dil modellerinin yarattığı zaten var olan sorunları görmezden gelmekle ve küçümsemekle suçluyor. Bu, Hinton’un Google tarafından kovulduğunda yapay zeka etikçisi Timnit Gebru’ya destek vermemesiyle örneklendirilebilir. Bir televizyon röportajında Hinton, Gebru ve meslektaşlarına yöneltilen eleştirilerin şu anda onu harekete geçiren korkulardan daha az varoluşsal olduğunu söyleyerek bunu haklı çıkardı.
Ancak çarpıcı olan, Hinton’un röportajlarında ABD’de çok fazla etkiye sahip olan ancak aynı zamanda çok tartışmalı bir hareket olan “etkin fedakarlık” ile ilişkilendirilebilecek terimler ve düşünce figürleri kullanmasıdır. Örneğin Hinton, yapay zekanın insanlığa yönelik “varoluşsal tehdidi” hakkında konuşuyor. Varoluşsal riskler (xrisks) hakkında düşünmek -terim İngiliz filozof Nick Bostrom tarafından ortaya atılmıştır- aynı zamanda akıllı yapay zekanın insanları hedeflerine ulaşmak için manipüle etmeye çalışacağı argümanı gibi bu hareketin arka planının bir parçasıdır.
Wolfgang Stieler, fizik eğitiminin ardından 1998 yılında gazeteciliğe geçiş yaptı. 2005 yılına kadar c’t’de çalıştı ve ardından Technology Review dergisinin editörü oldu. Orada, yapay zeka ve robotikten şebeke politikasına ve gelecekteki enerji arzı konularına kadar çok çeşitli konuları denetliyor.
“Kıt malların” yardımını mümkün olan en “kârlı” şekilde dağıtın
Etkili özgecilik (EA), neoliberal ekonomi ve etiği birleştirmeye çalışan bir düşünce okuludur. Temel öncül şudur: dünyada çok fazla sefalet, çok fazla sorun var. Herkes düzeltilemez. Öyleyse, olası yardımın “kıt metası” mümkün olduğu kadar “kârlı” olarak nasıl kullanılabilir? Bu, bir dizi başka – giderek daha maceralı – sonuçlara yol açar.
Bunlardan biri “Vermek için kazanın”. Fikir: Her insanın yatırım yapmak için yalnızca sınırlı zamanı ve enerjisi olduğundan, bu paranın bir kısmını bağışlamak için mümkün olan en kısa sürede mümkün olduğunca çok para kazanmak etik olarak zorunludur. “Mali spekülasyon açgözlülük tarafından yönlendirilir ve yanlıştır” gibi geleneksel etik düşünceler bu ilke tarafından geçersiz kılınır.
Bundan şu sonuç çıkıyor – şaşırtıcı değil: EA, 2000’lerin başından beri, özellikle Silikon Vadisi’nde, Peter Thiel, Elon Musk veya Sam gibi teknoloji kardeşleri cezbettiği için çok parası ve dolayısıyla belirli bir etkisi olan bir hareket haline geldi. Bankman-Fried var. Aynı zamanda, sadece örgütsel yapılar sağlamakla kalmaz, aynı zamanda bu grubun eylemlerini haklı, mantıklı ve etik açıdan kusursuz olarak haklı çıkaran ideolojik bir çekirdek sağlar.
Uzun vadecilik: insanlığın varlığını sağlamak
Hareket başlangıçta “kanıta dayalı” yardım projelerine odaklanırken, Almanca’ya henüz iyi bir çevirisi olmayan bir terim olan “ileri görüşlülük” adı verilen ideolojik bir dal ön plana çıktı. Bunun arkasındaki fikir: Gelecekte, bugüne kadar yaşamış olandan çok daha fazla insan yaşayacağına göre, insan mutluluğunu en üst düzeye çıkarmak, her şeyden önce insanlığın varlığını sağlamak anlamına gelir. Çünkü Nick Bostrom’a göre insanlığın kaderi, zekayı tüm evrene yaymakta yatıyor. Bu nedenle EA kendisini transhümanizm gibi teknik ütopyalar geleneğine yerleştirir.
Ancak, uzun vadeli düşünme uzun vadeli düşünme ile karıştırılmamalıdır. Varoluşsal riskleri düşünmenin iklim değişikliğine karşı kararlı bir mücadeleye yol açtığını düşünenler yanılıyor. İklim değişikliğinin insan neslinin tükenmesine yol açması pek olası olmadığı için, EA çevrelerinde varoluşsal bir tehdit olarak görülmüyor. Bir nükleer savaş, insan yapımı bir salgın, bir süper volkanın patlaması, kademeli sistemin başarısızlıkları ve tabii ki kontrolden çıkan süper zeka kesinlikle varoluşsal krizler arasındadır ve bu nedenle her zaman önlenebilir. .her ne pahasına olursa olsun – eğer insanlık bunu yapabilirse. Çünkü Hinton’a göre, uygun şekilde zeki bir yapay zeka, insanları daha fazla özerklik kazanacak şekilde manipüle edebilir ve edecek. Bu fikir, 2000’lerden beri xrisk çevrelerinde tartışılan sözde yapay zeka kutusu deneyinden geliyor.
Bu bağlantılar Hinton’un argümanlarını güçlendirmeye mi yoksa şüpheli görünmelerine mi yol açıyor? Şu anda kesin olan tek bir şey var: Yapay zekanın sunduğu fırsatlar ve riskler konusunda 50 yılı aşkın süredir devam eden tartışma henüz bitmedi. Aksine: sadece hız kazandı.
(wst)
Haberin Sonu
Ancak çarpıcı olan, Hinton’un röportajlarında ABD’de çok fazla etkiye sahip olan ancak aynı zamanda çok tartışmalı bir hareket olan “etkin fedakarlık” ile ilişkilendirilebilecek terimler ve düşünce figürleri kullanmasıdır. Örneğin Hinton, yapay zekanın insanlığa yönelik “varoluşsal tehdidi” hakkında konuşuyor. Varoluşsal riskler (xrisks) hakkında düşünmek -terim İngiliz filozof Nick Bostrom tarafından ortaya atılmıştır- aynı zamanda akıllı yapay zekanın insanları hedeflerine ulaşmak için manipüle etmeye çalışacağı argümanı gibi bu hareketin arka planının bir parçasıdır.

Wolfgang Stieler, fizik eğitiminin ardından 1998 yılında gazeteciliğe geçiş yaptı. 2005 yılına kadar c’t’de çalıştı ve ardından Technology Review dergisinin editörü oldu. Orada, yapay zeka ve robotikten şebeke politikasına ve gelecekteki enerji arzı konularına kadar çok çeşitli konuları denetliyor.
“Kıt malların” yardımını mümkün olan en “kârlı” şekilde dağıtın
Etkili özgecilik (EA), neoliberal ekonomi ve etiği birleştirmeye çalışan bir düşünce okuludur. Temel öncül şudur: dünyada çok fazla sefalet, çok fazla sorun var. Herkes düzeltilemez. Öyleyse, olası yardımın “kıt metası” mümkün olduğu kadar “kârlı” olarak nasıl kullanılabilir? Bu, bir dizi başka – giderek daha maceralı – sonuçlara yol açar.
Bunlardan biri “Vermek için kazanın”. Fikir: Her insanın yatırım yapmak için yalnızca sınırlı zamanı ve enerjisi olduğundan, bu paranın bir kısmını bağışlamak için mümkün olan en kısa sürede mümkün olduğunca çok para kazanmak etik olarak zorunludur. “Mali spekülasyon açgözlülük tarafından yönlendirilir ve yanlıştır” gibi geleneksel etik düşünceler bu ilke tarafından geçersiz kılınır.
Bundan şu sonuç çıkıyor – şaşırtıcı değil: EA, 2000’lerin başından beri, özellikle Silikon Vadisi’nde, Peter Thiel, Elon Musk veya Sam gibi teknoloji kardeşleri cezbettiği için çok parası ve dolayısıyla belirli bir etkisi olan bir hareket haline geldi. Bankman-Fried var. Aynı zamanda, sadece örgütsel yapılar sağlamakla kalmaz, aynı zamanda bu grubun eylemlerini haklı, mantıklı ve etik açıdan kusursuz olarak haklı çıkaran ideolojik bir çekirdek sağlar.
Uzun vadecilik: insanlığın varlığını sağlamak
Hareket başlangıçta “kanıta dayalı” yardım projelerine odaklanırken, Almanca’ya henüz iyi bir çevirisi olmayan bir terim olan “ileri görüşlülük” adı verilen ideolojik bir dal ön plana çıktı. Bunun arkasındaki fikir: Gelecekte, bugüne kadar yaşamış olandan çok daha fazla insan yaşayacağına göre, insan mutluluğunu en üst düzeye çıkarmak, her şeyden önce insanlığın varlığını sağlamak anlamına gelir. Çünkü Nick Bostrom’a göre insanlığın kaderi, zekayı tüm evrene yaymakta yatıyor. Bu nedenle EA kendisini transhümanizm gibi teknik ütopyalar geleneğine yerleştirir.
Ancak, uzun vadeli düşünme uzun vadeli düşünme ile karıştırılmamalıdır. Varoluşsal riskleri düşünmenin iklim değişikliğine karşı kararlı bir mücadeleye yol açtığını düşünenler yanılıyor. İklim değişikliğinin insan neslinin tükenmesine yol açması pek olası olmadığı için, EA çevrelerinde varoluşsal bir tehdit olarak görülmüyor. Bir nükleer savaş, insan yapımı bir salgın, bir süper volkanın patlaması, kademeli sistemin başarısızlıkları ve tabii ki kontrolden çıkan süper zeka kesinlikle varoluşsal krizler arasındadır ve bu nedenle her zaman önlenebilir. .her ne pahasına olursa olsun – eğer insanlık bunu yapabilirse. Çünkü Hinton’a göre, uygun şekilde zeki bir yapay zeka, insanları daha fazla özerklik kazanacak şekilde manipüle edebilir ve edecek. Bu fikir, 2000’lerden beri xrisk çevrelerinde tartışılan sözde yapay zeka kutusu deneyinden geliyor.
Bu bağlantılar Hinton’un argümanlarını güçlendirmeye mi yoksa şüpheli görünmelerine mi yol açıyor? Şu anda kesin olan tek bir şey var: Yapay zekanın sunduğu fırsatlar ve riskler konusunda 50 yılı aşkın süredir devam eden tartışma henüz bitmedi. Aksine: sadece hız kazandı.

(wst)
Haberin Sonu