Big Tech’in yapay zeka asistanlarına olan bahisi neden bu kadar riskli?

Bayburtgüzeli

Global Mod
Global Mod
Üretken yapay zeka patlamasının başlangıcından bu yana, büyük teknoloji şirketleri teknoloji için kendi “mükemmel uygulamalarını” geliştirmek için özenle çalıştılar. Başlangıçta karışık sonuçlarla internette arama yaptım. Artık büyük işler getirmesi beklenen yapay zeka asistanlarıdır. Yakın zamanda OpenAI, Meta ve Google, AI sohbet robotları için İnternet’i keşfetmelerine ve bir tür kişisel yardımcı olarak hareket etmelerine olanak tanıyan yeni özellikler tanıttı.

Duyuru



OpenAI, chatbot ile gerçekçi sentetik seslerle gerçek konuşmalar yapmanıza olanak tanıyan yeni ChatGPT özelliklerini tanıttı. OpenAI ayrıca ChatGPT’nin web’de (tekrar) arama yapabildiğini de ortaya çıkardı. Google’ın rakip robotu Bard artık Gmail, Dokümanlar, YouTube ve Haritalar da dahil olmak üzere şirketin ekosisteminin çoğuna entegre oldu. Buradaki fikir, kullanıcıların sohbet robotunu içerikleri hakkında sorular sormak için kullanabilmeleri, örneğin e-postalarında arama yapmalarına veya takvimlerini düzenlemelerine olanak sağlamasıdır. Bard’ın ayrıca Google aramalarından anında bilgi alabildiği de söyleniyor. Benzer şekilde kısa bir süre sonra Meta, Facebook’un ana şirketinin “her şey” için yapay zeka sohbet robotlarını kullanacağını duyurdu. Kullanıcılar yakında WhatsApp, Messenger ve Instagram’da yapay zeka sohbet robotları ve hatta ünlüler biçiminde yapay zeka avatarları isteyebilecek; yapay zeka modeli Microsoft Bing araması aracılığıyla çevrimiçi olarak bilgi alabilecek.

Ancak teknolojinin sınırlamaları göz önüne alındığında, bunların hepsi riskli bir kumardır. Bunun nedeni, teknoloji devlerinin yapay zeka dil modelleriyle ilgili, uydurma ve “halüsinasyon” eğilimleri de dahil olmak üzere kalıcı sorunların bazılarını çözememiş olmalarıdır. Ancak daha endişe verici olan ise eleştirmenlerin bunun güvenlik ve veri koruma açısından bir felaket olabileceğine inanmaları. Çünkü OpenAI, Google, Microsoft ve Meta, kusurlu teknolojiyi milyonlarca insanın eline veriyor ve aynı zamanda yapay zeka modellerinin e-postalar, takvimler ve özel mesajlar gibi hassas bilgilere erişmesine izin veriyor. Bunu yaparak hepimizi dolandırıcılığa, kimlik avına ve büyük ölçekli siber saldırılara karşı savunmasız bırakabilirler.

Dil modelleri güvensizdir


Yapay zeka dil modellerinde önemli güvenlik sorunları defalarca keşfedildi. Artık yapay zeka asistanları internette gezinirken kişisel verilere erişebildiğinden, yeni tür saldırılara karşı özellikle savunmasızlar. Bu hızlı dolaylı enjeksiyon, güvenlik uzmanları arasında uzun uzadıya tartışıldı. Yapımı son derece basittir ve şu anda bilinen bir teknik çözümü yoktur.

Dolaylı anlık enjeksiyon saldırısında, üçüncü bir taraf, yapay zekanın davranışını değiştirmek için tasarlanmış gizli metin ekleyerek bir web sitesini değiştirir. Saldırganlar, kullanıcıları bu gizli ipuçlarının bulunduğu web sitelerine yönlendirmek için sosyal medyayı veya e-postayı kullanabilir. Bu gerçekleştiğinde yapay zeka sistemi, saldırganın bunu yapmaya çalışacağı şekilde manipüle edilebilir; B. Kullanıcıların kredi kartı bilgilerine erişmek. Güvenlik uzmanları, en yeni nesil yapay zeka modellerinin sosyal medyada ve e-postada uygulanmasıyla bilgisayar korsanlarına yönelik fırsatların neredeyse sonsuz olduğu konusunda uyarıyor.

Sorulduğunda ne OpenAI ne de Meta, kullanıcıları zamanında yapılan enjeksiyon saldırılarından ve sohbet robotlarının neden olduğu halüsinasyonlardan korumak için tam olarak ne yaptıkları hakkında yorum yapmıyor. Meta yayına zamanında yanıt vermedi ve OpenAI yorum yapmadı. Google, şirketin Bard’ı bir “deney” olarak yayınladığını ve kullanıcıların Bard’ın yanıtlarını Google Arama’yı kullanarak test edebileceklerini söyledi. “Kullanıcılar halüsinasyon görürse veya bir şeyler ters giderse, onları beğenmeme düğmesini tıklayıp bize geri bildirimde bulunmaya teşvik ediyoruz.” Şirket, bunu yaparak Bard’ın “öğreneceğini ve gelişeceğini” söyledi. Sorun: Bu, her kullanıcının hataları tanımlamaktan sorumlu olduğu ve insanların bilgisayar tarafından oluşturulan yanıtlara çok fazla güvenme eğiliminde olduğu anlamına gelir. Google, anında (dolaylı) enjeksiyona ilişkin yalnızca dolaylı bir açıklama yaptı.

ayrıca oku

Daha fazla göster



daha az göster




Şirket yalnızca zamanında enjeksiyon sorununun henüz çözülmediğini ve hala “aktif olarak araştırıldığını” doğruladı. Sözcü, şirketin saldırı girişimlerini tespit etmek ve filtrelemek için kullanılan B. Spam filtreleri gibi başka sistemlere de sahip olduğunu söyledi. Kötü niyetli aktörlerin dil modellerine dayalı ürünlere nasıl saldırabileceğini öğrenmek için bilgisayar korsanlığı testleri ve sözde kırmızı ekip çalışmaları da gerçekleştirilecek. Sözcü, “Bilinen kötü amaçlı girdileri ve politikalarımızı ihlal eden bilinen güvenli olmayan çıktıları belirlemek için özel olarak eğitilmiş modeller kullanıyoruz” dedi.

Tehlikeli çocukluk hastalıkları


Piyasaya sürülen her yeni üründe diş çıkarma sorunları yaşanması anlaşılabilir bir durumdur. Ancak yapay zeka dil modellerinin eski hayranlarının bile artık etkilenmediği çok şey söylüyor. New York Times köşe yazarı Kevin Roose, Google Asistan’ın e-postaları özetleme konusunda iyi olmasına rağmen, aynı zamanda gelen kutusunda olmayan mesajları da kendisine bildirdiğini keşfetti.

Sonuç olarak şu olabilir: Yapay zeka araçlarının sözde “kaçınılmazlığı” söz konusu olduğunda teknoloji şirketleri bu kadar kayıtsız kalmamalı. Normal insanlar sinir bozucu ve öngörülemeyen şekillerde başarısızlığa uğrayan yeni sistemleri benimsemeye isteksizdir ve bilgisayar korsanlarının bu yeni AI asistanlarını kötü niyetli olarak kullanması yalnızca an meselesidir. Şu anda hepimiz kolay avız gibi görünüyor. Herkes Bard & Co.’nun verilerine erişmesine izin verip vermemesi konusunda dikkatli düşünmelidir. Uzun bir süre boyunca tamamen önlenebilirse.







(bsc)



Haberin Sonu
 
Üst