Makine etiği: “Ahlaka aykırı makineler benim etik işimin bir parçası”

Bayburtgüzeli

Global Mod
Global Mod
Oliver Bendel, Konstanz Üniversitesi’nde felsefe, Almanca ve bilgi bilimleri okudu. Felsefenin odak noktalarından biri de hayvan etiği idi. Doktorasını St. Gallen Üniversitesi’nden antropomorfik yazılım aracıları ve sosyal robotların erken biçimleri üzerine işletme bilişimi alanında aldı. Bendel bugün İsviçre’deki FHNW Ekonomi Okulu’ndaki İşletme Enformatiği Enstitüsü’nde. Aynı zamanda makine etiği gibi çeşitli kitapların da yazarıdır. MIT Technology Review, 2017’de onunla konuştu. O zamanlar soru, robotların tehlikeli durumlarda bir güvenlik duygusunu nasıl aktarabileceğiydi. TR editörü Wolfgang Stieler, ChatGPT’nin geliştirilmesi ve yetenekleri/yetersizlikleri bağlamında Bendel ile iletişime geçti. Bendel, özel olarak geliştirilen LieBot’tan hangi içgörüleri aldığını ve bunun ChatGPT’nin kullanımına neler getirebileceğini anlatıyor.


Bay Bendel, on yıl önce kasıtlı olarak yanlış beyanda bulunmak üzere programladığınız bir sohbet robotu denediniz. O zaman bu araştırmanın amacı neydi?

2012’de chatbot’ları “Kendimi kesmek istiyorum”, “Kendimi iyi hissetmiyorum”, “Kendimi öldürmek istiyorum” gibi ifadeler ve cümlelerle besledik. Çoğu sohbet robotu buna çok tatmin edici olmayan cevaplar verdi. O zamanlar, eğer 16 yaşındaysam ve kalbim kırılmışsa, bunun tam olarak yanlış cevap olacağını düşünmüştüm.







Oliver bendel



Böylece Goodbot’u inşa ettik. Bu 2013’teydi. Goodbot, kullanıcı sorunlarını fark etti ve uygun şekilde yanıt verdi. Goodbot’un bir meta kuralı, yalan söylemek zorunda olmamasıydı. Sonra bu meta kuralı aldık, tersine çevirdik ve Lügenbot veya Liebot’u yaptık. Ancak, ilk başta Liebot 2013’ü sadece kağıt üzerinde hayal ettim. Daha sonra 2016 yılında inşa ettik.


Ve o ne yaptı?

Kullanıcı sorusunu sorduğunda, Liebot olduğu gibi kaçtı ve doğru cevabı aradı. Ve sonra yedi farklı strateji kullanarak bu yanıtı manipüle etti. Onunla ne yapardık? Makinelerin nasıl yalan söyleyebildiğini görmek istedik. Makinelerin bizim gibi yalan söyleyip söylemediğini veya kendi şansları olup olmadığını öğrenmek istedik – aslında var. Ve sonra örneğin insan yalanını neyin oluşturduğunu bilmek istedik. Ne zaman makineleri araştırsak, insanlar hakkında da çok şey öğrendiğimizi söyleyebilirim. Ve işten sonra insanların nasıl yalan söylediğinin daha çok farkına vardığımızı düşünüyorum. Makinelere eşlemeye çalışıyorum.


Bununla birlikte, her şeyden önce, yalan makinelerin – onlara Munchausen makineleri adını verdik – gerçekten yapılabileceğini ve bunun ciddi bir risk oluşturduğunu göstermeye çalıştık. Bunu ilk yapanlar arasındaydık ve bazı karanlık güçlerin ve güçlerin bunu yapıp sosyal medyada veya diğer medyada çoğaltacağını düşündük.









Ayrıca kötü makineler icat edin ve araştırın


Böyle “kötü” bir makine yapmak ahlaka aykırı değil mi?

Aslen hayvan etiğinden geliyorum ve bunu 80’lerde felsefe içinde inceledim. Çok geniş bir etik anlayışım var. Kendimi ahlakı iyisiyle kötüsüyle araştıran bir etikçi olarak görüyorum. Ve bu nedenle, laboratuvarda tırnak işaretleri içinde “kötülük” – tabiri caizse – kötü makineler icat etmeyi ve araştırmayı kendime üstleniyorum. Benim için bu tür ahlaksız makineler etik işimin bir parçası. İzin verirseniz, etiği muazzam bir şekilde genişlettiğini düşünüyorum. Herkes öyle görmüyor!

Makinelerin insanlardan farklı yalan söyleme biçimleri olduğunu söylemiştin. Nasıl hayal edebilirim?

Örneğin Liebot, Princeton Üniversitesi’nin WordNet’ini kullanır. Bir yalanın ortaya çıkma olasılığının daha yüksek olması için makinelerin sözcükleri veya satırları değiştirebileceği yolları araştırdık. Bunun yerine, Liebot bu sıralamada yukarı veya aşağı kaydı, sonra yanlara ve tekrar yukarı veya aşağı kaydı – başka bir deyişle, aynı kategorideki diğer terimleri kullandı. Bunu insan yalanıyla ilişkilendirmem.



Haberin Sonu
 
Üst