Yapay zeka tarafından oluşturulan içerik için filigran ekleme hakkında altı soru ve yanıt

Bayburtgüzeli

Global Mod
Global Mod
Geçen bahar, ABD Savunma Bakanlığı bir saldırıdan sonra neredeyse alev alev yanıyormuş gibi görünüyordu – en azından internette viral olan bir görüntü bunu gösteriyordu. O kadar gerçek görünüyordu ki, olası patlama mahallinden sadece birkaç mil uzakta, Beyaz Saray çalışanları ve muhabirler kaydın gerçekten gerçek olup olmadığını öğrenmeye çalıştılar. Tabii ki değildi. Bunun yerine, görüntü bir AI görüntü oluşturucudan geldi, aslında oldukça iyi. Ancak hükümet yetkilileri, gazeteciler ve sosyal ağlar yine sahteyi yakalayamadı. Sadece kafa karışıklığına neden olmakla kalmadı, aynı zamanda ABD mali piyasalarında kısa süreli bir çöküşe de neden oldu.

Duyuru



Elbette manipüle edilmiş ve yanıltıcı içerik yeni bir olgu değil. Ancak yapay zeka bunu tamamen yeni bir seviyeye taşıyor. Kullanımı kolay araçlar, giderek daha karmaşık ve gerçekçi sunumlara izin verir. Bir yandan sanat gibi anlamlı ve güzel amaçlar için kullanılabilirler. Öte yandan, taciz ve propaganda çok kolaydır, şüphe ekmek, karalamak, taciz etmek, dolandırıcılıkla yardım etmek.

Bu nedenle, ister seçim bütünlüğünü desteklemek, ister mahkeme davalarındaki kanıtları korumak, sahte haberleri engellemek veya tarihsel gerçekleri korumak olsun, içeriğin yapay zekadan kaynaklanıp kaynaklanmadığını belirlemek için filigran kullanmanın bazı iyi nedenleri vardır. Pentagon saldırısının yanlış imajı doğru bir şekilde etiketlenmiş olsaydı, platformlar daha hızlı tepki verebilirdi; görüntü dağıtımı hemen sınırlandırılabilirdi. Bu, halkın kaydın sahte olduğunu tespit etmesini kolaylaştırırdı ve bu da Wall Street için iyi olurdu.

Bu nedenle, kullanıcıların gerçek ve yapay içerik arasında ayrım yapmasına izin veren şeffaf bir prosedür gereklidir. Ve endüstri de bunu böyle görüyor gibi görünüyor. Geçen ay Beyaz Saray konu hakkında yorum yaptı ve en iyi bilinen yapay zeka şirketlerinden yedisinin “kullanıcıların bu içeriğin yapay zeka olduğunu belirleyebilmelerini sağlamak için sağlam teknik önlemler geliştirme” sözü verdiğini duyurdu. Özellikle filigranlardan bahsettik.


Claire Leibowicz, Partnership on AI’da Yapay Zeka ve Medya Bütünlüğü Programı Direktörüdür ve burada üretken medya (sentetik medya) için yönergelerin geliştirilmesine öncülük etmiştir. Aynı zamanda Oxford’da doktora öğrencisidir. Özellikle AI yönetişimi ve üretken medya konularıyla ilgileniyor.

Duyuru

şeffaflık gerekli


Bu tür teknik yöntemler iyi bir başlangıç olacaktır. Ancak bunların uygulanması karmaşıktır ve her şeyden önce hızlı bir düzeltme değildir. Böyle bir filigranın, Twitter kullanıcılarının sahte Pentagon görüntüsünü fark etmesine veya hatta yakın zamanda Donald Trump’ın sesini bir reklam kampanyasında sentetik olarak tanımlamasına yardımcı olup olmayacağı açık değil. İçerik kaynağını ve meta verileri ifşa etmek gibi diğer yöntemlerin belki de daha büyük bir etkisi olur muydu? Ve en önemlisi, içeriğin yapay zeka olduğunu açıklamak, izleyicilerin gerçekle kurguyu ayırt etmesine ve gerçek dünyadaki zararı azaltmasına yardımcı olabilir mi?

Bu soruları yanıtlamak için öncelikle filigranlar ve diğer yapay zeka şeffaflığı türlerinin ne anlama geldiğini açıklığa kavuşturmamız gerekiyor. Onlardan makul olarak ne bekleyebiliriz ve ortaya çıktıktan sonra bile hangi sorunlar devam eder? Tartışma ne kadar bilgiççe görünse de, “filigran” gibi bir terimin yaygın kullanımı şu anda yapay zeka endüstrisindeki kafa karışıklığına ve koordinasyon eksikliğine katkıda bulunuyor. Bu farklı tekniklerle ne demek istediğimizi tanımlamak, AI endüstrisinin ifşa standartları üzerinde işbirliği yapması ve hatta üzerinde anlaşmaya varması için temel bir gerekliliktir. Yoksa herkes yan yana konuşuyor.

Bir yandan filigran terimi, son kullanıcı tarafından görülebilen işaretlere atıfta bulunabilir (örneğin, görüntü sağlayıcının medyasında üst üste bindirilmiş “Getty Images” metni). Öte yandan terim, içeriğe gömülü ve çıplak gözle veya kulakla algılanamayan teknik işlemler için de kullanılabilir. “Doğrudan” (ilk örnek) ve “dolaylı” (ikinci örnek) şeffaflık olarak tanımlanabilecek her iki filigran türü de doğru kullanımı sağlamak için kritik öneme sahiptir. Bu tür filigranların zorlukları ve fırsatlarıyla ilgili herhangi bir tartışmada, bu nedenle hangi tipin kastedildiği açık olmalıdır.

Daha da kötüsü, bunu yapmanın birçok yolu olmasına rağmen, filigranlar genellikle genel olarak içeriği tanımlamak için “tümünü yakalama” olarak kullanılır. Beyaz Saray planının daha yakından okunması, kriptografik imzalara dayanan “Kaynak” olarak bilinen başka bir yöntemi açıklamaktadır. Ancak medyada buna genellikle filigran denir. Bu terimler karmaşasını kafa karıştırıcı buluyorsanız, yalnız değilsiniz. Ancak netlik önemlidir: AI endüstrisi, çeşitli teknikler dediğimiz şeyler üzerinde bir anlaşmaya bile varmadan tutarlı ve sağlam şeffaflık önlemleri uygulayamaz. Şimdi farklı AI filigranlarını değerlendirmek için altı soru var.

AI filigranlarının kendileri tahrif edilebilir mi?


İronik bir şekilde, içeriğin kaynağını değerlendirmek ve manipülasyonu ortadan kaldırmak için kullanılan teknik önlemler bazen manipüle edilebilir. Zor olsa da, hem görünmez hem de görünür filigranlar kaldırılabilir veya değiştirilebilir, böylece hangi içeriğin yapay olduğunu ve neyin olmadığını artık bize söyleyemezler. AI filigranlarının ne kadar kolay manipüle edilebileceği, uğraştığınız içeriğin türüne bağlıdır.

Bir AI filigranının dayanıklılığı, farklı içerik türleri için aynı mıdır?


Görünmez filigranlar genellikle üretici yapay zekayı yönetmek için eksiksiz bir çözüm olarak lanse edilirken, metinde manipüle edilmeleri görsel-işitsel içerikten çok daha kolaydır. Bu muhtemelen Beyaz Saray Kavram Özeti’nin neden tüm AI türlerini filigranlamayı önerdiğini açıklıyor, ancak daha sonra şirketlerin bunları yalnızca görsel-işitsel içeriğe dahil etmeyi taahhüt etmek istediklerini tam metin olarak açıklıyor. Bir AI yönetmeliği tasarlanırken, bu tür prosedürlerin teknik olarak nasıl uygulanabileceğine ve sürelerine çok dikkat edilmelidir. AI filigranları, görsel-işitsel içerikte sağlam olabilir, ancak metinde işe yaramaz.

AI filigranlarını kim okuyabilir?


AI endüstrisi görünmez filigranlar getirmeyi kabul etse bile, kaçınılmaz olarak onları kimin okuyabileceği ve bunlara dayalı iddialarda bulunabileceği sorusu ortaya çıkacaktır. İçeriğin yapay zeka tarafından üretilip üretilmediği ve dolayısıyla belki de yanıltıcı olup olmadığına karar verecek olan otorite kimdir? Bir kullanıcı AI filigranlarını okuyabilirse, bu, teknolojinin sorunlu aktörler tarafından kötüye kullanılmasına bile yol açabilir.

Öte yandan, özellikle büyük yapay zeka şirketleri tarafından zorunlu kılındığında, görünmez filigran çıkarma işlemine sınırlı erişim, şeffaflığı ve açıklığı engelleyebilir ve rekabeti sınırlayabilir. Yapay zeka filigranlarının nasıl düzenlendiklerini açıklığa kavuşturmadan tanıtılması, kullanıcıların bunlara güvenmemesine ve dolayısıyla etkisiz hale gelmesine neden olabilir. Nihayetinde, filigranlı AI sistemleri yakalayamazsa, sorunlu aktörler temelde görünmez filigranlardan yoksun olan açık kaynaklı teknolojilere geri dönebilir.










Haberin Sonu
 
Üst