Çünkü şu anda AI halüsinasyonlarına karşı iyi bir yöntem yok

Bayburtgüzeli

Global Mod
Global Mod


  1. Çünkü şu anda AI halüsinasyonlarına karşı iyi bir yöntem yok

ChatGPT'ye bir şey soran herkes gerçek anlamda doğru yanıtlar almayı umar. Çalışan kodda. Matematik problemlerini doğru şekilde çözmek. Dikkatlice özetlenmiş kitaplar. Biyografilerdeki doğru veriler ve tariflerdeki doğru miktarlar. Ancak pratikte durum çoğu zaman böyle değildir. Dünyanın dört bir yanındaki araştırma grupları bunu önleyecek yöntemler üzerinde çalışıyor. Ancak MIT Technology Review'un son sayısında şu ana kadar sadece halüsinasyonları sınırlamayı başardıkları ancak tamamen engellemede başarılı olmadıkları belirtiliyor.

Duyuru



Büyük konuşma kalıplarının nasıl ve neden halüsinasyon gördüğüne dair çok sayıda hipotez vardır. TU Darmstadt'taki Her Yerde Bilgi İşleme Laboratuvarı başkanı Iryna Gurevych, “Yapay zeka halüsinasyonlarının mekanizmaları henüz tam olarak anlaşılmadı” diyor. “Bu da büyük bir dil modelinin iç süreçlerini anlamanın zor olmasıyla ilgili.”

AI halüsinasyonlarının farklı tanımları


Sorunun tanımı zaten beklenmedik derecede karmaşık: Hong Kong Bilim ve Teknoloji Üniversitesi'nin (HKUST) yaptığı genel bir çalışma, her biri göreve ve bağlama – yani mevcut talebe – bağlı olan çeşitli AI halüsinasyon türlerini listeliyor. modeli. Cevap, sorunun içerdiği bilgilerle çelişiyorsa veya soruya kolayca doğrulanamayan ek bilgiler ekliyorsa (dışsal halüsinasyon). Modelin dünyaya ilişkin edinilmiş bilgiye mi gönderme yapması gerektiği (gerçeklik) yoksa mevcut bağlamla tutarlı mı olması gerektiği (aslına uygunluk). Bu, gerçek hataların yanı sıra doğrulanamayan bilgiler, anlamsız ifadeler ve mantıksız senaryolar içeren halüsinasyonlarla sonuçlanır. Ve bu halüsinasyon türlerinden yalnızca bazılarıyla teknoloji kullanılarak gerçekten mücadele edilebilir.







Çağımızın krizleri bir araya geliyor: savaş, küresel ısınma, çevre sorunları ve teknolojik gelişmeler. Çıkış yolunun görünürde görünmediği bir labirent gibi görünüyor. Mevcut baskı en azından bir miktar düzen getirmeye çalışıyor. Derginin öne çıkanları:







Tanınması en kolay şeylerden biri gerçek halüsinasyonlardır. Bunu sınırlamak için genellikle Alma Artırılmış Üretim (RAG) adı verilen bir teknik kullanılır. Alman Yapay Zeka Araştırma Merkezi'nde (DFKI) araştırmacı olan Patrick Schramowski, “Burada dil modeli, dış bilginin ikinci bir bileşenini içerecek şekilde genişletildi” diyor. Model bir cevap üretmeden önce sorgudan ilgili bilgiyi çıkarır ve bunu kendi parametrik ve eğitimli bilgisinin yanı sıra açık İnternet veya özel kütüphaneler gibi harici kaynaklarla karşılaştırır. Bu, özellikle güncel olaylara veya diyaloglara ilişkin yanıtları daha güvenilir hale getirir. Schramowski, “Ancak ideal olarak sistemin bu harici bilgiyi doğrulamak için hâlâ bir doğruluk kontrolüne ihtiyacı var. İşlerin karmaşıklaştığı nokta burası” diyor.

Doğrulama fırsatları


Bir yandan, dış kaynaklarla karşılaştırma yalnızca bu kaynakların güvenilir olması durumunda işe yarar. Örneğin RAG ile yapılan birçok çalışma Wikipedia'ya dayanmaktadır. Ancak bilimde bunların doğruluğu, yazarlar tarafından kontrol edilen makalelere bağlı olarak %80'den %99'a kadar çok farklı derecelendirilmektedir. Öte yandan dil modelleri bir ifadenin anlamını gerçekten “anlamıyor”. İfadelerin harici bir kaynağınkilerle uyumlu olup olmadığı daha sonra genellikle her iki ifadenin yalnızca biçimsel benzerliğini hesaplayabilen bir matematik fonksiyonu kullanılarak kontrol edilir. Bir ifadenin sonuçta doğru veya yanlış olarak sınıflandırılması çeşitli ayrıntılara bağlıdır.

Birçok modelde şeffaflığın olmayışı da dezavantajlıdır. “ChatGPT bir kara kutu. Bunu, tekrar tekrar farklı sorular sorarak ve sonucu analiz ederek araştırma yapmak için kullanabilirsiniz. Bu, kritik gözlemler için uygundur. Ancak iş modelleri iyileştirmeye geldiğinde açık modeller, biz araştırmacılara daha fazla olasılık sunuyor” diyor Schramowski. . ChatGPT gibi tescilli ve kapalı modellerle halüsinasyonlara karşı yalnızca üreticiler önlem alabiliyor.

MIT'in teknoloji incelemesini buradan okuyun:







(batı)



Haberin Sonu
 
Üst