Dış Kaynak Kullanımı: AI’nın eğitilmesine yardımcı olan iş işçileri, AI’dan yardım alır

Bayburtgüzeli

Global Mod
Global Mod
Belirli görevleri doğru ve güvenilir bir şekilde yerine getirmek için AI sistemlerini eğitmek, inanılmaz miktarda veri gerektirir. Onları almak için birçok şirket sözde gigworker’lara ödeme yapıyor. Bunlar, mekanikleştirilmesi zor görevleri yerine getiren Mechanical Turk gibi platformlardaki sözleşmeli çalışanlardır. Bu, captcha’ları çözmeyi, verileri etiketlemeyi ve metin ve resimlere açıklama eklemeyi içerir. Bu veriler daha sonra onları eğitmek için AI modellerine beslenir.

Duyuru



Bununla birlikte, konser çalışanlarına düşük ücret ödeniyor ve çoğu zaman birçok görevi çok hızlı bir şekilde tamamlamak zorunda kalıyorlar. Bazılarının, kazanç potansiyellerini en üst düzeye çıkarmak için ChatGPT gibi yapay zekaya razı olmasına şaşmamalı. Ama kaç tane var? Bunu öğrenmek için, İsviçre Federal Teknoloji Enstitüsü’nden (EPFL) bir araştırma ekibi, tıbbi araştırma makalelerinden 16 alıntıyı derlemeleri için Amazon’un Mechanical Turk iş platformunda 44 kişiyi işe aldı.

ChatGPT’den karakter arama


Ardından, kelime seçiminde çeşitlilik eksikliği gibi ChatGPT çıktısının belirgin işaretlerini arayan, kendi kendini eğiten bir yapay zeka modeli kullanarak yanıtlarını analiz ettiler. Ayrıca, yanıtlarını kopyalayıp yapıştırıp yapıştırmadıklarını öğrenmek için işçilerin tuş vuruşlarını da çıkardılar. Bu, cevaplarını kendilerinin oluşturmadıklarını gösterir.

Araştırmacılar, çalışanların yüzde 33 ila 46’sının OpenAI’nin ChatGPT’si gibi yapay zeka modellerini kullandığını tahmin ediyor. ChatGPT ve diğer yapay zeka sistemleri daha güçlü ve daha erişilebilir hale geldikçe, bu yüzde muhtemelen daha da artacaktır. arXiv yayımlanmıştır ve halen hakem incelemesini beklemektedir.

EPFL’de yardımcı doçent ve çalışmanın ortak yazarı Robert West, “Bunun kitle kaynaklı platformların sonu olduğunu düşünmüyorum. Bu sadece dinamiği değiştiriyor” diyor. Bununla birlikte, yapay zekayı eğitmek için yapay zeka tarafından oluşturulan verilerin kullanılması, zaten hataya açık modellerde daha fazla hataya yol açabilir.

AI modellerindeki hatalar artıyor


Duyuru

Büyük dil modelleri rutin olarak yanlış bilgileri gerçekmiş gibi sunar. Projede yer almayan Oxford Üniversitesi’nde küçük bir bilgisayar bilimi araştırmacısı olan Ilia Shumailov, bu tür hataların yapay zeka modelleri tarafından benimsendiğinde, zamanla kötüleştiğini ve kökenlerinin izini sürmenin zorlaştığını söylüyor.

Daha da kötüsü, kolay bir düzeltme yok. “Sorun şu ki, yapay verileri kullandığınızda, model yanlış anlamalarından ve istatistiksel hatalardan kaynaklanan hataları varsayıyorsunuz” diyor. “Kendi hatalarınızın diğer modellerin sonuçlarını çarpıtmadığından emin olmalısınız ve bu yapılması kolay bir şey değil.”

Çalışma, verilerin insanlar tarafından mı yoksa yapay zeka tarafından mı oluşturulduğunu doğrulamak için yeni yollara duyulan ihtiyacın altını çiziyor. Ayrıca, teknoloji şirketlerinin yapay zeka sistemleri için hayati önem taşıyan verileri sterilize etme işini yapmak için iş arkadaşlarına bel bağlama eğiliminden kaynaklanan sorunlardan birini de vurguluyor.

West, “Her şeyin alt üst olacağını sanmıyorum,” diyor. “Ancak AI topluluğunun hangi görevlerin otomatikleştirilme olasılığının daha yüksek olduğuna yakından bakması ve bunu önlemek için çalışması gerektiğini düşünüyorum.”







(jle)



Haberin Sonu
 
Üst