Üretken Yapay Zeka: OpenAI & Co. etik ve şeffaflık kurallarını imzaladı

Bayburtgüzeli

Global Mod
Global Mod


  1. Üretken Yapay Zeka: OpenAI & Co. etik ve şeffaflık kurallarını imzaladı

On tanınmış BT şirketi, hizmet sağlayıcısı ve medya sağlayıcısı, AI tarafından üretilen içeriğin gelecekte nasıl sorumlu bir şekilde geliştirilebileceği, oluşturulabileceği ve dağıtılabileceği konusunda yeni yönergeler üzerinde anlaştılar. ChatGPT üreticisi OpenAI, Çinli video hizmeti TikTok, İngiliz yayıncı BBC ve flört uygulaması Bumble, diğerleri arasında oturum açtı.


Sözde “Yapay Zeka Üzerine Ortaklık” (PAI) tavsiyeleri, hem teknoloji geliştiricilerini (OpenAI gibi) hem de dijital olarak üretilen medya sağlayıcılarını (BBC veya TikTok gibi) teknolojinin gerçekte neler yapabileceğini daha şeffaf hale getirmeye davet ediyor. ve ne yapamaz. Ayrıca, insanlar yapay zeka içeriğiyle etkileşime geçtiğinde de ifşa edilmelidir.

Gönüllü öneriler, dünya çapında 50’den fazla kuruluşla istişare içinde, kar amacı gütmeyen bir AI araştırma kuruluşu olan PAI tarafından geliştirilmiştir. Paydaşlar arasında büyük teknoloji şirketlerinin yanı sıra akademik kuruluşlar, sivil toplum grupları ve medya kuruluşları yer almaktadır. Kuralları uygulamak isteyen ilk on şirket Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness (insan hakları ihlallerini belgeleyen bir kuruluş) ve yeni kurulan Synthesia, D-ID ve Responder’dır.


Çaresizlik yerine yaratıcılık


PAI Yapay Zeka ve Medya Bütünlüğü Direktörü Claire Leibowicz, “Sentetik medyanın insanlara zarar vermek, insanları güçsüz kılmak veya haklarından mahrum etmek için değil, yaratıcılığı, bilgi paylaşımını ve yorumu teşvik etmek için kullanılmasını sağlamak istiyoruz” dedi.

Şu anda geliştirilen yönergelerin en önemli unsurlarından biri, şirketin yapay zeka sistemleri tarafından üretilen bir şeyle etkileşime girdiklerinde kullanıcıları uyarmanın yollarını bulma taahhüdüdür. Bunlar, filigranlar veya sözleşme düzenlemeleri veya eğitim verilerindeki veya bir yapay zeka modelinin meta verilerindeki insanlar tarafından anlaşılabilen öğeler olabilir.

Üretken yapay zeka ile ilişkili potansiyel zararları engellemeye yönelik mevzuat, teknolojinin gerisinde kalıyor. Örneğin Avrupa Birliği, insanların deepfake’lerle nasıl etkileşime girdiğini ortaya çıkarmak ve şirketlerin belirli şeffaflık gereksinimlerini karşılamasını zorunlu kılmak gibi şeyleri içerebilen, yakında çıkacak olan AI yasasına, AI Yasasına üretken AI’yı dahil etmek istiyor. Daha yakın zamanlarda yorumcular, sonuç olarak ChatGPT gibi hizmetlerin daha zor hale getirilebileceğinden veya yasaklanabileceğinden korkuyorlardı.


PAI kuralları üzerinde çalışan endüstri uzmanı Henry Ajder, üretken yapay zekanın şu anda hâlâ vahşi batı olduğunu söylüyor. Şirketlere teknolojiyi işlerine entegre ederken dikkat etmeleri gereken önemli bir ivme kazandıracaklarını umuyor.

Gönüllülük yardımcı olur mu?


Berkeley’deki California Üniversitesi’nde başka şeylerin yanı sıra derin sahtekarlıkları araştıran bir profesör olan Hany Farid, farkındalığı artırmanın ve bu tür sentetik medyaya sorumlu yaklaşımlar hakkında konuşma başlatmanın önemi konusunda hemfikir. Ancak “gönüllü yönergeler ve ilkeler nadiren işe yarar” diyor.

OpenAI gibi şirketler ChatGPT metin oluşturucu veya DALL-E görüntü oluşturucu gibi geliştirdikleri sistemlere kendi “korkuluklarını” vermeye çalışırken, anlaşmanın parçası olmayan diğer oyuncular istediklerini yapabilirler. Açık kaynak yapay zeka modeli Stable Diffusion’ı geliştiren start-up olan Stability.AI gibi rakipler şimdiden daha sorunlu içeriklere izin veriyor.

Farid, “Bu sorunları gerçekten ele alacaksak, ciddi olmalıyız” diyor. Örneğin, zaten PAI’nin bir parçası olan bulut hizmeti sağlayıcıları ve Amazon, Microsoft, Google ve Apple gibi uygulama mağazalarının, insanların kendi istekleriyle sorunlu içerik oluşturmalarına izin veren hizmetleri yasaklaması çağrısında bulunuyor. Bununla, örneğin, yabancıların rızaları olmadan cinselleştirilmiş görüntülerini oluşturan derin sahte teknolojiyi kastediyor. Yapay zeka tarafından üretilen tüm içeriğin filigranlanmasının yalnızca isteğe bağlı değil, zorunlu olması gerektiğini söylüyor.

Intel’de üretken yapay zekanın sorumlu bir şekilde geliştirilmesine yönelik çalışmalara liderlik eden Kıdemli Araştırma Bilimcisi İlke Demir, eksik olan bir başka önemli noktanın da yapay zeka sistemlerini kendilerinin nasıl daha hesap verebilir hale getirileceği olduğunu söylüyor.

Hasar kabul edildi, yine de yapıldı


Örnekleriniz kapsamlıdır – AI modelinin nasıl eğitildiği, modele hangi verilerin beslendiği ve AI modellerinin önyargıları olup olmadığı hakkında daha fazla ayrıntı içerebilirler.

Kılavuz, Generative AI modellerinin veri setinin toksik içerik içermediğinden nasıl emin olunacağından bahsetmez. Dijital haklar grubu Access Now’da bir politika analisti olan Daniel Leufer, “Bu sistemlerin zarar vermesinin ana yollarından biri bu” dedi.

Ne de olsa yönergeler, imzalayanların AI sistemleri aracılığıyla önlemek istedikleri zararlı alanların bir listesini içerir, örneğin: B. Dolandırıcılık, taciz ve yanlış bilgilendirme. Ancak her zaman beyaz insanlar yaratan üretken bir yapay zeka modeli de acı veriyor ve şu anda listede yok, diye ekliyor Demir.

Farid ayrıca temel bir sorunu gündeme getiriyor. PAI’ye dahil olan şirketler, teknolojinin ciddi zararlara neden olabileceğini kabul ediyor. Bunu hafifletmek istiyoruz. Ancak bir şey dikkate alınmaz: “Bütün bunları yapmamız gerekip gerekmediğini neden sormuyorsunuz?”







(jle)



Haberin Sonu
 
Üst