RightsCon: Yapay zekanın gerçek riskleri hakkında konuşma zamanı
Dünyanın en büyük dijital haklar konferansı olan RightsCon, Haziran başında gerçekleşti. Birkaç yıl süren sanal tartışmalardan sonra, önde gelen internet etiği uzmanları, aktivistler ve politika yapıcılar Kosta Rika’da yeniden bir araya geldi.
Şaşırtıcı olmayan bir şekilde, herkes yapay zekadan (AI) ve son zamanlarda yaşanan büyük dil modellerinden bahsediyordu. Konferans öncesinde Birleşmiş Milletler, katılımcıları AI gözetimi ve şeffaflığına odaklanmaya çağıran bir bildiri yayınladı. Ancak şaşırtıcı olan, RightsCon’da üretken yapay zekanın risklerine ilişkin tartışmaların, haberlerdeki büyük Silikon Vadisi seslerinden gelen tüm uyarılardan ne kadar farklı olduğuydu.
Son haftalarda, OpenAI CEO’su Sam Altman, eski Google çalışanı Geoff Hinton, yapay zeka araştırmacısı Yoshua Bengio, Elon Musk ve diğerleri gibi teknoloji uzmanları, insan neslinin tükenme noktasına kadar var olan “varoluşsal riskleri” ele almak için düzenleme ve acil eylem çağrısında bulundu. Yapay zekanın insanlık için neyi temsil ettiği.
Kurumsal yapay zeka altına hücum
Büyük dil modellerinin risk değerlendirmeleri, veri ifşası ve eğitim süreçleri olmaksızın ve hatta teknolojinin nasıl kötüye kullanılabileceğine çok fazla dikkat edilmeden hızlı bir şekilde konuşlandırılması kesinlikle endişe vericidir. Bununla birlikte, RightsCon’daki birkaç panelde konuşmacılar, bu yapay zeka altına hücumunun kurumsal kâr arayışının bir ürünü olduğunu ve bunun düzenleyici beceriksizlik veya teknolojik kaçınılmazlıktan kaynaklanmadığını yinelediler.
Daha ilk oturumda, Wired’ın genel yayın yönetmeni ve US Technology Review’un eski genel yayın yönetmeni Gideon Lichfield ve Digital Futures Lab’ın kurucusu Urvashi Aneja, Google’ın Kent Walker’ıyla yumruklaştı. “Microsoft’tan Satya Nadella, Google’ı dans ettirmek istediğini söyledi. Ve Google dans etti,” dedi Lichfield, “Şimdi hepimiz sağır kulaklara atlıyoruz ve burnumuzu tutuyoruz çünkü bu iki şirket birbirini geçmeye çalışıyor.” Walker yanıtında, AI ilerlemelerinin alanlarda yol açabileceği toplumsal faydaların altını çizdi. uyuşturucu keşfi gibi ve Google’ın insan haklarına olan bağlılığını yeniden teyit etti.
Ertesi gün, AI araştırmacısı Timnit Gebru, AI’nın varoluşsal risklerini doğrudan ele aldı: “Ajansı tek bir araca bağlamak bir hatadır ve bu kırmızı ringa balığıdır. Ve kimin böyle konuştuğunu gördüğünüzde, kelimenin tam anlamıyla bu şirketlere milyarlarca dolar akıtan aynı insanlar.”
Bugün gerçek hasar
Gebru şöyle devam etti: “Sadece birkaç ay önce Geoff Hinton, GPT-4’ten ve onun nasıl dünyanın kelebeği olduğundan bahsetti. ‘Ah, veri toplayan ve sonra güzel bir kelebeğe dönüşen bir tırtıla benziyor’ ve şimdi birdenbire bir varoluşsal Risk, yani insanlar neden bu insanları ciddiye alıyor?
İnsan Hakları İzleme Örgütü’nün teknoloji ve insan hakları direktörü Frederike Kaltheuner gibi uzmanlar, yapay zekayı çevreleyen anlatılardan bıkmış durumda, bundan sonra ne olabileceği hakkında spekülasyon yapmak yerine, yapay zeka ile ilişkili olduğunu zaten bildiğimiz riskleri ele almayı öneriyor. Gerçekten de, AI’nın mevcut kullanımından kaynaklanan bazı açık ve iyi belgelenmiş zararlar var. Bazı örnekler:
- Yanlış bilgilendirme artırıldı ve güçlendirildi: Instagram, Twitter ve YouTube gibi sosyal medya platformlarındaki öneri algoritmalarının, doğruluğundan bağımsız olarak aşırı ve duygusal açıdan ilgi çekici içeriğe öncelik verdiği gösterildi. Büyük dil modelleri, “halüsinasyonlar” olarak bilinen ikna edici bir yanlış bilgi üreterek bu soruna katkıda bulunur.
Kaltheuner, AI sohbet robotlarının psikoterapi gibi riskli bağlamlarda kullanılmasına karşı özellikle uyarıyor: “Teknolojinin basitçe tasarlanmadığı veya uygun olmadığı şeyler için AI’nın kesinlikle tavsiye edilmeyen kullanım durumları konusunda endişeleniyorum.” “.
Gebru, zorlu büyük dil modellerini çalıştırmak için gereken bilgi işlem gücü üzerindeki büyük güç taleplerinin çevresel etkisine ilişkin endişelerini yineledi. Dahili soruşturmalarda bu ve diğer endişeleri dile getirdiği için Google tarafından kovuldu. Ek olarak, ChatGPT’nin düşük ücretli moderatörleri de toksik model harcamalarını azaltmak için yaptıkları çalışmalarla TSSB yaşamıştır.
Kaltheuner, insanlığın geleceğine ilişkin kaygılarla ilgili olarak şunu soruyor: “Kimin yok oluşu? Tüm insan ırkının yok olması mı? Tarihsel olarak marjinalize edilmiş insanların incindiğini şimdiden görüyoruz. Bu yüzden bunu biraz alaycı buluyorum.”

(vsz)
Haberin Sonu