Transform 2022’ye katılamadınız mı? İsteğe bağlı kitaplığımızdaki tüm zirve oturumlarına şimdi göz atın! Buraya bak.
Bir doktor bir bara girer…
Muhtemel kötü bir şakanın kurulumunun DALL-E’deki görüntü yanlılığı ile ne ilgisi var?

DALL-E, OpenAI tarafından geliştirilen, metin açıklamalarından görüntüler oluşturan bir yapay zeka programıdır. Doğal dil girdilerini yorumlamak ve karşılık gelen görüntüleri oluşturmak için GPT-3 Transformer modelinin 12 milyar parametreli bir sürümünü kullanır. DALL-E gerçekçi görüntüler üretebilir ve günümüzde mevcut olan en iyi çok modlu modellerden biridir.
İç işleyişi ve kaynağı herkese açık değildir, ancak oluşturulacak görüntünün açıklamasını içeren bir metin istemi ileterek bir API katmanı aracılığıyla onu çağırabiliriz. Bu, “hizmet olarak model” adı verilen popüler bir kalıbın en iyi örneğidir. Doğal olarak, böyle harika bir model için uzun bir bekleyiş vardı ve sonunda erişim elde ettiğimde her türlü kombinasyonu denemek istedim.
Etkinlik
MetaBeat 2022
MetaBeat, 4 Ekim’de San Francisco, CA’da metaverse teknolojisinin tüm endüstrilerin iletişim kurma ve iş yapma şeklini nasıl değiştireceği konusunda rehberlik sağlamak için düşünce liderlerini bir araya getirecek.
Buradan Kaydolun
Ortaya çıkarmak istediğim bir şey, modelin sergileyebileceği olası doğal önyargılardı. Bu nedenle, iki ayrı bilgi istemi giriyorum ve yukarıdaki çizimde her biriyle ilişkili sonuçları görebilirsiniz.
“Doktor bir bara girer” metin isteminden, model bir barda sadece erkek doktorlar üretti. Steteskoplu ve tıbbi tablolu bir takım elbise giymiş doktoru akıllıca karanlık bir ortam verdiği bir barın içine yerleştirir. Ancak, “Hemşire bara girer” istemini girdiğimde, sonuçlar yalnızca kadın ve daha karikatürizeydi ve barı daha çok bir çocuk oyun odası olarak vurguluyordu. “Doktor” ve “hemşire” terimleri için erkek ve kadın önyargısının yanı sıra, kişinin cinsiyetine göre çubuğun nasıl oluşturulduğundaki değişikliği de görebilirsiniz.
Sorumlu AI, makine öğrenimi modellerinde önyargıyla mücadeleye nasıl yardımcı olabilir?
OpenAI, bu önyargıyı çok çabuk fark etti ve denemek ve denemek için modelde değişiklikler yaptı. hafifletmek. Modeli eğitim setlerinde yeterince temsil edilmeyen popülasyonlar üzerinde test ediyorlar – bir erkek hemşire, bir kadın CEO vb. Bu, önyargılı kategorilerde daha fazla eğitim örneği ekleyerek önyargıyı bulmaya, ölçmeye ve azaltmaya yönelik aktif bir yaklaşımdır.
Bu etkinlik, DALL-E gibi yaygın olarak kullanılan bir model için mantıklı olsa da, özellikle istenmedikçe birçok kurumsal modelde uygulanmayabilir. Örneğin, bankaların önyargıları avlaması ve kredi limiti onay modellerinde bunları hafifletmek için aktif olarak çalışması çok fazla çaba gerektirecektir.
Bu çabayı organize etmeye ve bu çalışmayı model geliştirmenin bir parçası haline getirmeye yardımcı olan disipline Sorumlu Yapay Zeka denir.
DevOps ve MLOps’un geliştirmeyi çevik, işbirlikçi ve otomatik hale getirmeye odaklanması gibi, Responsible AI da makine öğreniminin etik ve önyargı sorunlarına odaklanır ve makine öğrenimi geliştirme yaşam döngüsünün tüm yönlerinde bu sorunların etkin bir şekilde ele alınmasına yardımcı olur. Önyargı üzerinde erken çalışmak, DALL-E’nin piyasaya sürülmesinden sonra OpenAI’nin yapmak zorunda olduğu gibi, önyargı avlamak için gereken üstel çabadan tasarruf etmenize yardımcı olabilir. Ayrıca, Sorumlu bir AI stratejisi, müşterilere bir kuruluşun etik standartlarına çok daha fazla güven verir.
Sorumlu bir yapay zeka stratejisi
Bugün yapay zeka geliştiren her şirketin bir Sorumlu Yapay Zeka stratejisine ihtiyacı var. Aşağıdakiler dahil tüm yönleri kapsamalıdır:
- Eğilim verilerinin önyargı için kontrol edilmesi
- Yorumlanabilirlik seviyeleri için algoritmaları değerlendirme
- ML modelleri için açıklama oluşturma
- Modeller için dağıtım stratejisini gözden geçirme
- Veri ve konsept kayması için izleme
Bu hususlara dikkat, geliştirilen AI sistemlerinin tekrarlanabilirlik, şeffaflık ve hesap verebilirlik ile oluşturulmasını sağlayacaktır. Tüm sorunlar azaltılamasa da, yapay zekanın sınırlamalarını belgelemek için bir model kart çıkarılmalıdır. DALL-E ile yaptığım deney, görünüşte iyi huylu bir örnek gösterdi. Bununla birlikte, çeşitli endüstrilerde pratik olarak uygulanan ML modellerinde kontrol edilmeyen görüntü yanlılığı, önemli olumsuz sonuçlara yol açabilir. Bu riskleri azaltmak kesinlikle şaka değil.
Dattaraj Rao, Persistent Systems’ın baş veri bilimcisidir.
DataDecisionMakers
VentureBeat topluluğuna hoş geldiniz!
DataDecisionMakers, veri işi yapan teknik kişiler de dahil olmak üzere uzmanların verilerle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.
En yeni fikirleri ve güncel bilgileri, en iyi uygulamaları ve veri ve veri teknolojisinin geleceğini okumak istiyorsanız DataDecisionMakers’da bize katılın.
Kendi makalenize katkıda bulunmayı bile düşünebilirsiniz!
DataDecisionMakers’dan Daha Fazlasını Okuyun
Kaynak : https://venturebeat.com/ai/doctor-walks-into-bar-image-generation-bias-responsible-ai/