Üretken yapay zeka konusunda politika oluşturmaya yönelik erken bir kılavuz


Herhangi bir önerim olup olmadığını öğrenmek istedi ve tüm yeni gelişmelerin milletvekilleri için ne anlama geldiğini düşündüğümü sordu. Birkaç günümü bu konu hakkında düşünerek, okuyarak ve uzmanlarla sohbet ederek geçirdim ve yanıtım bu haber bültenine dönüştü. İşte gidiyor!

GPT-4 standart taşıyıcı olmasına rağmen, son birkaç aydaki birçok yüksek profilli üretken yapay zeka yayınından yalnızca biridir: Google, Nvidia, Adobeve Baidu’nun hepsi kendi projelerini açıkladı. Kısacası üretken yapay zeka, herkesin bahsettiği şeydir. Ve teknoloji yeni olmasa da, politika üzerindeki etkilerinin anlaşılması için aylar hatta yıllar geçmesi gerekiyor.

OpenAI tarafından geçen hafta piyasaya sürülen GPT-4, bir cümledeki kelimeleri tahmin etmek için derin öğrenmeyi kullanan çok modlu büyük bir dil modelidir. Olağanüstü akıcı metinler üretir ve resimlere olduğu kadar kelime tabanlı komutlara da yanıt verebilir. Ödeme yapan müşteriler için artık GPT-4, zaten ticari uygulamalara dahil edilmiş olan ChatGPT’ye güç verecek.

En yeni yineleme büyük bir ses getirdi ve Bill Gates bu hafta yazdığı bir mektupta bunu “devrimci” olarak nitelendirdi. Bununla birlikte, OpenAI, modelin önyargı için nasıl eğitildiği ve değerlendirildiği konusunda şeffaflık eksikliği nedeniyle de eleştirildi.

Tüm heyecana rağmen, üretken yapay zeka önemli risklerle birlikte gelir. Modeller, internet denen zehirli depo üzerinde eğitiliyor, bu da genellikle ırkçı ve cinsiyetçi çıktılar ürettikleri anlamına geliyor. Ayrıca düzenli olarak bir şeyler uydururlar ve ikna edici bir güvenle ifade ederler. Bu, yanlış bilgilendirme açısından bir kabus olabilir ve dolandırıcılığı daha ikna edici ve üretken hale getirebilir.

Üretken yapay zeka araçları aynı zamanda insanların güvenliğine ve mahremiyetine yönelik potansiyel tehditlerdir ve telif hakkı yasalarına çok az önem verirler. Üretken yapay zekayı kullanan şirketler, başkalarının işini çaldı zaten dava ediliyor.

Brookings Enstitüsü’nde yönetişim çalışmalarında görevli olan Alex Engler, politika yapıcılar bu konu hakkında nasıl düşünmeli?iki ana risk türü vardır ve görür: kötü niyetli kullanımdan kaynaklanan zararlar ve ticari kullanımdan kaynaklanan zararlar. Engler bana gönderdiği bir e-postada, teknolojinin dezenformasyon, otomatik nefret söylemi ve dolandırıcılık gibi kötü niyetli kullanımlarının “içerik denetimiyle pek çok ortak noktası var” dedi ve “bu risklerle başa çıkmanın en iyi yolu muhtemelen platform yönetişimidir.” (Bu konuda daha fazla bilgi edinmek istiyorsanız, bu haftaki Tech Policy Press’ten Pazar Gösterisiteknoloji, medya ve demokrasi üzerine bir editör ve öğretim görevlisi olan Justin Hendrix’in, üretken yapay zeka sistemlerinin arama ve öneri algoritmalarına benzer şekilde düzenlenmesi gerekip gerekmediği konusunda bir uzmanlar paneliyle konuştuğu yer. İpucu: Bölüm 230.)

Üretken yapay zeka hakkındaki politika tartışmaları şimdiye kadar bu ikinci kategoriye odaklandı: kodlama veya reklamcılık gibi teknolojinin ticari kullanımından kaynaklanan riskler. Şimdiye kadar ABD hükümeti, öncelikle Federal Ticaret Komisyonu (FTC) aracılığıyla küçük ama dikkate değer adımlar attı. FTC, geçen ay şirketlere yapay zekanın yapabileceklerini abartmak gibi kanıtlayamayacakları teknik yetenekler hakkında iddialarda bulunmamalarını isteyen bir uyarı bildirisi yayınladı. Bu hafta, iş blogunda, şirketlerin üretici yapay zekayı kullanırken göz önünde bulundurması gereken riskler hakkında daha güçlü bir dil kullandı.


Kaynak : https://www.technologyreview.com/2023/03/27/1070285/early-guide-policymaking-generative-ai-gpt4/

Yorum yapın