Polis, CSAM AI’yi eğitmek için mutlu çocukluk fotoğrafları istiyor • Kayıt


Avustralya federal polisi ve Monash Üniversitesi, netizenlerden fotoğraflarda çocuk istismarını tespit etmek için bir makine öğrenimi algoritması eğitmek için genç hallerinin enstantanelerini göndermelerini istiyor.

Araştırmacılar, güvenli senaryolarda 17 yaş ve altındaki kişilerin görüntülerini toplamak istiyor; banyo yapan bir çocuk gibi nispeten zararsız bir resim olsa bile çıplaklık istemiyorlar. Resimlerim Önemlidir adlı kitle kaynaklı kampanya, fotoğraflarının araştırma amacıyla kullanılmasına rıza gösterebilen 18 yaş ve üstü kişilere açıktır.

Normal bir ortamda küçük bir çocuk ile sömürücü, güvenli olmayan bir durum arasındaki farkı anlatmak için bir AI modelini eğitmek amacıyla tüm görüntüler bir veri kümesinde toplanacak. Yazılım, teorik olarak, insan analistlerinin her bir kareyi incelemesinden kaçınarak, soruşturma altındaki binlerce ve binlerce fotoğraf arasında çocuk cinsel istismarı materyalini (diğer adıyla CSAM) otomatik olarak ve hızlı bir şekilde daha iyi otomatik ve hızlı bir şekilde tespit etmede kolluk kuvvetlerine yardımcı olabilir.

Bu korkunç materyali incelemek yavaş bir süreç olabilir

Avustralya Federal Polisi’nin önde gelen kıdemli polis memuru Janis Dalins, AI’nın potansiyel olarak kurbanları belirlemeye yardımcı olabileceğini ve memurlar tarafından daha önce bilinmeyen yasa dışı materyalleri işaretleyebileceğini söyledi.

“2021’de, AFP liderliğindeki Avustralya Çocuk İstismarıyla Mücadele Merkezi, çevrimiçi çocuk sömürüsüne ilişkin 33.000’den fazla rapor aldı ve her rapor, suçluların tatmini için cinsel saldırıya uğrayan veya sömürülen çocukların büyük hacimli görüntülerini ve videolarını içerebilir.” söz konusu bu hafta.

Dalins ayrıca Monash Bilgi Teknolojileri Fakültesi akademisyenleri ve AFP polisleri arasında bir araştırma işbirliği olan AiLECS Laboratuvarı’nın eş direktörüdür.

“Bu korkunç materyali gözden geçirmek yavaş bir süreç olabilir ve sürekli maruz kalma, araştırmacılar için önemli psikolojik sıkıntılara neden olabilir” diye ekledi. “AiLECS Laboratuvarı’nın girişimleri, polis memurlarını ve korumaya çalıştığımız çocukları destekleyecek ve araştırmacılar, bu tür girişimlerin arkasındaki teknolojiyi etik olarak geliştirmek için yenilikçi bir yol düşündüler.”

Büyük bir resim veri kümesini derlemenin en kolay yolu, açık interneti kazımaktır. Ancak, OpenAI’ler gibi en yeni AI modellerinden bazıları gibi DALL·E 2 ve Google’ın görüntü – göstermiştir ki, bu verilerin kalitesini kontrol etmek zordur. Önyargılı veya uygunsuz görüntüler veri kümesine sızarak modelleri sorunlu ve potansiyel olarak daha az etkili hale getirebilir.

Bunun yerine, AiLECS ekibi, kitle kaynaklı kampanyalarının çocukların fotoğraflarını toplamak için daha kolay ve daha etik bir yol sağladığına inanıyor. AiLECS’in eş direktörü Campbell Wilson, “Sömürü amaçlı görüntüleri tanımlayabilen yapay zeka geliştirmek için, günlük ‘güvenli’ bağlamlarda çocuk istismarıyla mücadele etmeyi amaçlayan yapay zeka modellerini eğitebilecek ve değerlendirebilecek çok sayıda çocuk fotoğrafına ihtiyacımız var.” Monash Üniversitesi’nde doçent, dedi.

Bilgilendirilmiş rıza yoluyla yetişkinlerden fotoğraflar elde ederek, etik açıdan sorumlu ve şeffaf teknolojiler oluşturmaya çalışıyoruz.

“Ancak, bu resimlerdeki çocukların fotoğraflarının yüklenmesine veya araştırma için kullanılmasına gerçekten rıza gösterip göstermediğini bilmenin bir yolu olmadığında, bu resimleri internetten almak sorunlu. etik açıdan sorumlu ve şeffaf teknolojiler oluşturmak.”

Kişilerin kampanya kapsamında yalnızca kişisel fotoğraflarını ve bir e-posta adresini göndermeleri yeterlidir. Laboratuarda proje lideri ve araştırma görevlisi olan Nina Lewis, başka herhangi bir kişisel bilgi türünü kaydetmeyeceğini doğruladı. E-posta adreslerinin ayrı bir veritabanında saklanacağı söylendi.

“Görüntüler ve ilgili veriler herhangi bir tanımlayıcı bilgi içermeyecek, bu da araştırmacılar tarafından kullanılan görüntülerin tasvir edilen kişilerle ilgili herhangi bir kişisel bilgiyi ortaya çıkarmamasını sağlayacaktır” dedi. Katılımcılara projenin her aşamasında güncellemeler verilecek ve isterlerse görsellerini veri setinden çıkarmalarını isteyebilecekler.

Projenin asil hedefleri teknik olarak imkansız değil ve oldukça iddialı, bu nedenle görüntü tanıma sistemlerinin karşılaştığı zorluklar göz önüne alındığında, sonuçları görmek için sabırsızlanıyoruz. ön yargı ve düşmanca saldırılar diğerleri arasında sınırlamalar.

Kayıt Monash Üniversitesi’nden daha fazla ayrıntı istedi. ®


Kaynak : https://go.theregister.com/feed/www.theregister.com/2022/06/03/police_australia_ai/

Yorum yapın