Top, kedi, elma: Yapay zeka, küçük bir çocuğun birinci şahıs bakış açısıyla öğrenir

Bayburtgüzeli

Global Mod
Global Mod
Yapay zeka yalnızca eğitim verileri kadar akıllıdır. Milyarlarca metin ve resim belgesinden elde edilen veri kümeleriyle beslenen bu program, genellikle haftalarca süren bir eğitim sürecinde kavramlar ve görsel temsiller arasındaki bağlantıları öğreniyor. Peki bir yapay zeka tüm bu verilere sahip olmasaydı ne olurdu? Ya yavaş yavaş dünyayı anlamlandırmaya başlayan bir çocuk gibi öğrenseydi? New York Üniversitesi'ndeki araştırmacıların öğrenmek istediği şey buydu. Çalışmaları artık “Science” adlı özel dergide yayınlandı.

Duyuru



1,5 ila 2 yaş arası çocuklar ortalama 300 kelimeye kadar anlar. Öğrenme sürecinin tam olarak nasıl çalıştığını bulmak için bilişsel bilim insanı Wai Keen Vong liderliğindeki ekip, neredeyse bir buçuk yıllık bir süre boyunca kısa bir süre için tek bir çocuğa küçük bir ön kamera taktı ve ilk görüntüyü kaydetti. -kişi perspektifi. Bu, araştırmacılara, bir bebeğin bir topun, bir kedinin veya bir kovanın ne olduğunu gözleri ve ebeveynleri gibi etrafındaki kişilerin destekleyici sesleri aracılığıyla nasıl öğrendiğine dair benzersiz bir bakış açısı kazandırdı.

Araştırmacıların 600.000 video karesine ve 37.500 ilgili seslendirmeye böldüğü toplam 61 saatlik video materyali toplandı. Daha sonra bu verileri CVCL: Karşılaştırmalı Öğrenme için Çocuğun Görüşü adı verilen “nispeten genel amaçlı bir sinir ağını” eğitmek için kullandılar. Bir sinir ağının, yani yapay zekanın, çocuğun görsel-işitsel bilgilerini kullanarak bir topun veya bir kedinin neye benzediğini bağımsız ve özel olarak öğrenip öğrenemeyeceğini öğrenmek istediler.

“Minimal Malzemelerle” Öğrenmek


Kayıtlar, çalışma dönemi boyunca çocuğun uyanık olduğu dönemlerin yalnızca %1'inden azını temsil etmesine rağmen CVCL modeli, kelimelerle ilgili ilişkileri öğrenebildi. Model ilgili görüntü-ses çiftleriyle eğitilmişse, modelin dört görüntüden istenen hedef kelimeyi bulabildiği sonraki testteki başarı oranı %61'di. OpenAI'nin CLIP adlı, görüntüleri ve metni birbirine bağlayan ancak CVCL'den farklı olarak milyonlarca görüntü-metin çiftiyle eğitilmiş bir yapay zeka modeli, aynı testte %66 başarı elde etti, yalnızca %5 daha iyi.







Top nerede? Küçük çocuklar ve yapay zeka modelleri için bir test.


(Resim: Wai Keen Vong)



Resimler ilgili ifadeler yerine rastgele ifadelerle ilişkilendirildiğinde (çocuk bir top görüyor ancak bağlantılı ifade “kedi”), CVCL başarı oranı %26'ya düştü. Çalışma, bu bulgunun “öğrenmede tutarlı görsel ve sözel bir arada yaşamanın hayati rolünü” gösterdiğini söylüyor. Başka bir deyişle: Doğru şekilde öğrenmek için hem küçük çocukların hem de yapay zeka modellerinin mümkün olan en kesin bilgileri alması gerekir.

Erken çocukluk döneminde dil edinimi üzerine araştırma


Model ayrıca öğrendiği bilgileri eğitim verilerinde yer almayan görüntülere de uygulayabildi. Bu durumda modelin başarı oranı ortalama %35 idi. Araştırmacılar için bu, bir yapay zeka modelinin, tek bir çocuktan alınan çok sınırlı verilerle bile dünyadaki kelimeleri ve ilgili nesneleri etkili bir şekilde öğrenebildiğinin ve büyük veri setleriyle beslenmesi gerekmediğinin kanıtıdır.

Wai Keen Vong ve ekibinin çalışması aynı zamanda erken çocukluk döneminde dil edinimi üzerine yapılan araştırmalara da katkı sağlıyor: “CVCL'nin başarıları kelime öğrenme teorileri üzerinde etkiye sahip” diye yazıyorlar. Genellikle küçük çocuklar için kelime ve resimlerin klasik öğreniminin bilişsel açıdan çok zor olduğu varsayılır, bu nedenle başka mekanizmalar kullanılır. Bazı zayıflıklara rağmen çalışma, “temsil öğrenimi ile ilişkisel ve durumlar arası mekanizmaların, bir çocuğun birinci şahıs deneyimlerinden kelimelerle ilgili çağrışımlar elde etmek için yeterli olduğunu” gösteriyor.







(Jle)



Haberin Sonu
 
Üst