Haziran ayının ortasından bu yana Avrupa Parlamentosu yapay zekayı (AI) düzenlemek için AI Yasası olarak adlandırılan bir düzenleme bekliyor.Özellikle OpenAI tarafından ChatGPT gibi yeni hizmetlerin sınıflandırılması, ilk taslağa kıyasla merakla bekleniyordu. Avrupa Komisyonu
Duyuru
Oxford İnternet Enstitüsü’nden Sandra Wachter, “O zamanki fikir, özellikle derecelendirme sistemlerinin düzenlenmesi gerektiğiydi” diyor. Çünkü bu sistemler genellikle karar vermeye yardımcı olarak kullanılırdı. “Bu kişiyi işe almalı mıyım, ona borç vermeli miyim, üniversiteye gitmesine izin vermeli miyim? Sonra ChatGPT geldi ve dünya tamamen farklıydı.”
AI düzenlemesinde önyargı ve belirsizlik sorunu
Avukat Sandra Wachter, yapay zekanın etiği, açıklanabilir yapay zeka ve yapay zekanın nasıl düzenlenmesi gerektiği sorusuyla uzun yıllardır uğraşıyor. Podcast’in yeni bölümünde, TR editörü Wolfgang Stieler ile yaptığı bir röportajda, diğer konuların yanı sıra, büyük AI modellerinin yanlılığı sorununu ve AI Yasası taslağının hala hangi belirsizlikleri içerdiğini tartışıyor.
Wachter, üretken yapay zekanın yasaya dahil edilmesinin riske dayalı davanın düştüğü anlamına gelmemesinin iyi olduğunu düşünüyor. Ayrıca, ChatGPT ve Co. en başından itibaren yüksek riskli bir teknoloji olarak sınıflandırılmamıştır, ancak sıkı bir şekilde düzenlenmesi gerekir. Şeffaflığı sağlamak için, eğitim verileri geniş ölçüde açık olmalıdır. Bu şekilde, olası çarpıtmaların nedenleri, yani önyargı veya önyargı, net ve düzeltilebilir hale gelmelidir.
Burada üç podcast formatımıza genel bir bakış bulacaksınız: haftalık haber podcast’i “Weekly” ve aylık podcast’ler “Unscripted” ve “Deep Dive”.
Öte yandan, bu tür sistemlerin üreticilerinin, ürünlerinin AI yasasına uygun olduğunu bir “öz değerlendirme” ile belgelendirmesini eleştiriyor. Daha da fazlası, örneğin, “önyargıyı ele aldığınızdan emin olmak için çaba göstermeniz veya ‘en iyi çabanızı’ göstermeniz” diye eleştiriyor Wachter. Ayrıca, yasanın kullanıcılar ve işletmeler için ne anlama geldiği ve lobicilerin düzenleme üzerinde ne kadar etkiye sahip olduğu hakkında fikir verir.
Duyuru
Tüm bölümde bununla ilgili daha fazla bilgi edinin – bir ses akışı olarak (RSS beslemesi):
(wst)
Haberin Sonu
Duyuru
Oxford İnternet Enstitüsü’nden Sandra Wachter, “O zamanki fikir, özellikle derecelendirme sistemlerinin düzenlenmesi gerektiğiydi” diyor. Çünkü bu sistemler genellikle karar vermeye yardımcı olarak kullanılırdı. “Bu kişiyi işe almalı mıyım, ona borç vermeli miyim, üniversiteye gitmesine izin vermeli miyim? Sonra ChatGPT geldi ve dünya tamamen farklıydı.”
AI düzenlemesinde önyargı ve belirsizlik sorunu
Avukat Sandra Wachter, yapay zekanın etiği, açıklanabilir yapay zeka ve yapay zekanın nasıl düzenlenmesi gerektiği sorusuyla uzun yıllardır uğraşıyor. Podcast’in yeni bölümünde, TR editörü Wolfgang Stieler ile yaptığı bir röportajda, diğer konuların yanı sıra, büyük AI modellerinin yanlılığı sorununu ve AI Yasası taslağının hala hangi belirsizlikleri içerdiğini tartışıyor.
Wachter, üretken yapay zekanın yasaya dahil edilmesinin riske dayalı davanın düştüğü anlamına gelmemesinin iyi olduğunu düşünüyor. Ayrıca, ChatGPT ve Co. en başından itibaren yüksek riskli bir teknoloji olarak sınıflandırılmamıştır, ancak sıkı bir şekilde düzenlenmesi gerekir. Şeffaflığı sağlamak için, eğitim verileri geniş ölçüde açık olmalıdır. Bu şekilde, olası çarpıtmaların nedenleri, yani önyargı veya önyargı, net ve düzeltilebilir hale gelmelidir.

Burada üç podcast formatımıza genel bir bakış bulacaksınız: haftalık haber podcast’i “Weekly” ve aylık podcast’ler “Unscripted” ve “Deep Dive”.
Öte yandan, bu tür sistemlerin üreticilerinin, ürünlerinin AI yasasına uygun olduğunu bir “öz değerlendirme” ile belgelendirmesini eleştiriyor. Daha da fazlası, örneğin, “önyargıyı ele aldığınızdan emin olmak için çaba göstermeniz veya ‘en iyi çabanızı’ göstermeniz” diye eleştiriyor Wachter. Ayrıca, yasanın kullanıcılar ve işletmeler için ne anlama geldiği ve lobicilerin düzenleme üzerinde ne kadar etkiye sahip olduğu hakkında fikir verir.
Duyuru
Tüm bölümde bununla ilgili daha fazla bilgi edinin – bir ses akışı olarak (RSS beslemesi):



(wst)
Haberin Sonu