Apple, en azından geçici olarak, çocukların cinsel istismarı materyalini (CSAM) tespit etmek ve yetkililere bildirmek için müşterilerin iPhone’larında istemci tarafı tarama (CSS) yazılımı çalıştırma planından geri adım atmış olsa da, Mayıs ayında Avrupalı yetkililer koruma için kurallar önerdiler. Aynı çok eleştirilen yaklaşımı içeren çocuklar.
Avrupa Komisyonu birkaç yol önerdi çevrimiçi özel iletişimi taramak ve şifrelemeyi kırmak dahil olmak üzere çocuk istismarı görüntüleri ile başa çıkmak için. bu kadar yılmadan yaptı Kağıt geçen Ekim ayında, CSS’yi ciddi bir güvenlik ve gizlilik riskleri kaynağı olarak reddeden önde gelen 14 bilgisayar bilimcisi ve güvenlik uzmanı tarafından kaleme alındı.
Buna karşılık, bir akademisyen üçlüsü, notu ilk kez kaçıranlara CSS’nin ne kadar etkisiz ve hakları ihlal edeceğini iletmeyi amaçlıyor. Ve son kezve zaman bundan önce.
İçinde bir ArXiv kağıdı “YASM (Yine Başka Bir Gözetim Mekanizması)” başlıklı, Strathclyde Üniversitesi’nden Kaspar Rosager Ludvigsen ve Shishir Nagaraja ile İskoçya’daki Leverhulme Adli Bilimler Araştırma Merkezi ve Dundee Hukuk Fakültesi’nden Angela Daly, CSS’yi bir yol olarak yeniden ziyaret ettiler. CSAM’i ortaya çıkarın ve teknolojinin hem etkisiz hem de haksız olduğu sonucuna varın.
Bu bağlamda istemci tarafı tarama, yasa dışı görüntüleri belirlemek için insanların cihazlarında yazılım çalıştırmayı içerir – genellikle çocukların sömürülmesiyle ilgili olanlar, ancak AB yasa koyucuları ayrıca terörizm ve organize suçla ilgili içeriği işaretlemek için CSS kullanmayı tartıştı.
Apple’ın yaklaşımı, bilinen bir CSAM tanımlayıcı listesine karşı iCloud ile senkronize edilecek olan görüntüler için bir tanımlayıcı hesaplamak üzere NeuralHash makine öğrenimi modelini kullanmayı içeriyordu. Ve güvenlik araştırmacıları yapabileceklerini keşfettiklerinde o kadar da iyi gitmedi. karma çarpışmalar oluştur CSAM olmayan görüntülerle. Avrupalı yetkililer belirli bir teknik yaklaşıma karar vermediler, ancak makalenin yazarlarına göre CSS bu görev için uygun değil.
Ludvigsen, Nagaraja ve Daly, antivirüs taramasının kötü amaçlı yazılım dağıtımını engelleyemediği gibi CSS’nin de CSAM dağıtımını engelleyemeyeceğini savunuyor.
Bir CSS sisteminin karşılaştığı tüm CSAM’leri yakaladığını varsaysanız bile – gerçekçi olmayan bir varsayım – CSAM’in net bir tanımı yoktur. Yasal bir tanım var diyorlar ama bu bir CSS sistemi için kurallara çevrilemez.
Böylece düşmanlar, tespit edilmekten kaçınan görüntüler oluşturmanın yollarını bularak CSAM taramasına yanıt verecek.
Boffin’ler, “CSS, kendi kavramında sistem üzerinde sürekli gözetim içerir ve salt günlük kaydının aksine, tüm olayları belirli bir çerçeve içinde denetlemeye çalışır,” diye açıklıyor. “Bu, onu antivirüs gibi bir yazılıma çok benzer kılıyor, çünkü kötü amaçlı yazılımın tanımı hiçbir zaman var olan tüm türleri tanımlayamayacağından ‘mükemmel’ olamayız.”
Dahası, araştırmacılar CSAM’i çözmeye çalışmanın maliyetinin faydalarından çok daha fazla olduğunu iddia ediyor ve teknolojinin nasıl geliştiğinden bağımsız olarak durumun böyle olması muhtemel. Muhtemelen, cihazlarının artık devlet için gözetlendiğinin farkında olmayan çocuk istismarcıları tarafından telefonlara yüklenen CSAM görüntülerini bulmanın bazı faydaları olacaktır, ancak bunlar, diğer insanların gizlilik haklarını her zaman ihlal ederek ve herkesin şifrelemenin faydalarından mahrum bırakılarak gölgede bırakılacaktır.
“Gözetim sistemlerinin hakları ihlal ettiği iyi bilinir, ancak CSS bunu rutin veya sürekli olarak yapacak sistemler sunar, bu yüzden onları tehlikeli buluyoruz ve haklı çıkaramayız. [them] hizmet etmeyi amaçladıkları hedeflere göre” diyor bilgisayar bilimcileri.
Bununla birlikte, AB yasa koyucularının bir tür CSAM tarama planı ile ilerlemeye çalışacaklarına ikna olmuş durumdalar, bu nedenle takip edeceklerini bekledikleri yasal sorunları da açıklamaya çalıştılar.
Araştırmacılar makalelerinde, “CSS sistemlerinin Avrupa İnsan Hakları Sözleşmesi içindeki çeşitli hakları ihlal edeceğini görüyoruz, ancak analizimiz kapsamlı değil” diyor. “Büyük olasılıkla Adil Yargılanma Hakkını, özellikle Sessiz Kalma ve Kendini Suçlamama Hakkını, Mahremiyet Hakkını ve mevcut örneklerden daha fazla uygulanırsa Toplanma ve Örgütlenme Özgürlüğünü de ihlal edeceklerdir.”
Örneğin, araştırmacılar, sanıkların açıklanmayan bir algoritma tarafından üretilen kanıtlara kolayca itiraz edemedikleri takdirde, bir yargılamanın adil olamayacağını savunuyorlar. Görüntülerin yetkililer tarafından yerleştirilmiş veya tuzak sonucu üretilmiş veya indirilmiş olma olasılığı her zaman vardır.
Yazarlar, CSS’nin CSAM ile savaşmanın tek olası yolu olduğuna dair tekno-çözümcü inanç nedeniyle Avrupa Komisyonu’nu azarlamaya devam ediyor. Komisyon, “kurbanın potansiyel olumlu sonuçlarını diğer herkesin olumsuzlarından daha ağır basmasını haklı çıkarırken, CSS veya sunucu tarafı taramanın siber güvenlik ve gizlilik üzerindeki olası sonuçlarını göz ardı ediyor ve analiz etmiyor” diyorlar.
Araştırmacılar, CSS’nin çok yıkıcı olduğu sonucuna varıyor.
“Altın aramak istiyorsanız, nerede olduğunu doğru bir şekilde tahmin edersiniz” derler. “Genellikle yapmadığınız şey, dünya yüzeyinin tüm kabuğunu kazmaktır. CSS sistemleri ve kitlesel gözetim, ikincisini temsil eder.” ®
Kaynak : https://go.theregister.com/feed/www.theregister.com/2022/06/02/eu_child_protection/