Testler, macOS Finder’ın CSAM görüntülerini taramadığını doğruladı


macOS Finder, resimlerinizi yasa dışı materyal için taramıyor.


AppleInsider, sitemizdeki bağlantılar aracılığıyla yapılan satın alımlarda bağlı kuruluş komisyonu kazanabilir.

macOS Ventura’da yapılan bir araştırma, Apple’ın Visual Lookup’ın Apple tarafından belirli bir amaç için kullanılmadığını gösteren bir incelemeye göre Apple, macOS Finder’da görüntülenen görüntüleri CSAM içeriği için kontrol etmiyor.

Aralık ayında Apple, eleştirmenlerden gelen önemli tepkilerin ardından iCloud’a yüklenen iPhone fotoğraflarını Çocukların Cinsel İstismarı Materyalleri (CSAM) için tarama planlarından vazgeçtiğini duyurdu. Bununla birlikte, görünüşe göre Apple’ın hala macOS Ventura 13.1’de kontroller yaptığını iddia eden söylentiler oyalandı ve bu da bir geliştiricinin soruşturmasına yol açtı.

Howard Oakley’e göre Eklektik Işık A.Ş. içinde Blog yazısı 18 Ocak’tan itibaren, Apple’ın bir kullanıcının Finder’da göz attığı “görüntü tanımlayıcılarını” otomatik olarak gönderdiği ve bunu “o kullanıcının izni veya bilgisi olmadan” yaptığı iddiası dolaşmaya başladı.

CSAM taraması planı, bir karma sistemi kullanarak olası CSAM içeriği için görüntülerin cihazda yerel olarak kontrol edilmesini içerecekti. Görüntünün karması daha sonra gönderilir ve bilinen CSAM dosyaları listesine göre kontrol edilir.

Görüntüleri tarama ve görüntünün özelliklerini açıklamak için Apple’a gönderilecek bir nöral hash oluşturma fikri, CSAM taraması için uygulanabilir bir şekilde kullanılabilirken, Oakley’nin testi, bunun aktif olarak bu şekilde kullanılmadığını gösteriyor. Bunun yerine, Apple’ın macOS ve iOS’un bir görüntüdeki insanları ve nesneleri ve ayrıca metni tanımlamasına izin veren Görsel Arama sistemi, bu tür davranışlarda bulunmakla karıştırılabilir.

Testlerde kanıt yok

Testin bir parçası olarak, macOS 13.1 bir sanal makinede çalıştırıldı ve Mints uygulaması, sanal makine örneğinde birleşik bir etkinlik günlüğünü taramak için kullanıldı. VM’de, Finder’ın galeri görünümünde bir dakikalık bir süre boyunca bir görüntü koleksiyonu görüntülendi ve 40.000’den fazla günlük girişi yakalanıp kaydedildi.

Sistem CSAM analizi için kullanılmış olsaydı, her görüntü için “mediaanalysisd”den bir Apple sunucusuna giden bağlantılar tekrarlanırdı. Mediaanalysisisd, Görsel Arama’da kullanılan ve Fotoğraflar’ın ve diğer araçların bir görüntüde algılanan öğeler hakkında “kedi” veya nesnelerin adları gibi bilgileri görüntüleyebildiği bir öğeyi ifade eder.

Bunun yerine günlükler, mediaanalysisd ile ilişkili hiçbir giriş olmadığını gösterdi. Daha sonra, sistemin bu sürümden bu yana maddi olarak değişmediği için, macOS 12.3’te göründüğü şekliyle Görsel Arama’ya çok benzeyen başka bir günlük özeti bulundu.

Önceden görüntü analizi tarafından oluşturulan nöral hash’leri gerektirdiğinden, tipik olarak mediaanalysisd, Apple’ın sunucularıyla sürecin kendisinde çok geç olana kadar iletişim kurmaz. Gönderildikten ve Apple’ın sunucularından bir yanıt alındığında, alınan veriler görüntüdeki kullanıcı öğelerini tanımlamak için kullanılır.

Diğer denemeler, verileri analiz için göndermeye yönelik başka girişimlerin olduğunu, ancak Canlı Metin’in çalışmasını sağlamak için olduğunu belirledi.

Sonuç olarak Oakley, “Mac’teki yerel görüntülerin, Finder pencerelerinde görüntülendiğinde tanımlayıcılarının hesaplanıp Apple sunucularına yüklendiğine dair hiçbir kanıt olmadığını” yazıyor.

Görsel Arama desteğine sahip uygulamalarda görüntülenen görüntüler, analiz için Apple’ın sunucularına gönderilebilen nöral karmalara sahiptir. Bunun dışında, CSAM’yi tespit etmek için nöral karmaları toplamaya çalışmak “birçok nedenden dolayı başarısızlığa mahkum olacaktır.”

QuickLook Önizleme’deki yerel görüntüler de Canlı Metin için normal analize tabi tutulur, ancak “bu, Apple’ın sunucularına yüklenebilecek tanımlayıcılar oluşturmaz.”

Ayrıca Görsel Arama, Siri Önerileri kapatılarak devre dışı bırakılabilir. Harici medya analizi aramaları, 443 numaralı bağlantı noktasını engelleyecek şekilde yapılandırılmış bir yazılım güvenlik duvarı kullanılarak da engellenebilir, ancak “bu, diğer macOS özelliklerini pekala devre dışı bırakabilir.”

Oakley, makaleyi “bir kullanıcının eylemlerinin tartışmalı etkilere yol açtığını iddia etmek, tüm nedensellik zincirinin tam olarak gösterilmesini gerektirir. İki olayın doğasını anlamadan, iki olayın bağlantılı olabileceği çıkarımına dayandırmak, eğer öyleyse pervasızdır” uyarısıyla makaleyi sonlandırıyor. kötü niyetli değil.”

CSAM hala bir sorun

Apple, yerel CSAM algılama işlemi gerçekleştirme fikrinden vazgeçmiş olsa da, milletvekilleri, Apple’ın sorun hakkında yeterince çaba göstermediğine hâlâ inanıyor.

Aralık ayında, Avustralya e-Güvenlik Komiseri Apple ve Google’a, “geniş çapta mevcut teknolojinin çocuk istismarı materyallerini ve tımarlamayı tespit etmek için açıkça yetersiz ve tutarsız kullanımı” nedeniyle saldırdı.

Apple’ın tamamen uçtan uca şifrelenmiş fotoğraf depolama ve yedeklemeler kullanması nedeniyle büyük ölçüde etkisiz olacak olan mevcut içeriği doğrudan taramak yerine, Apple bunun yerine farklı bir yaklaşım benimsemek istiyor gibi görünüyor. Yani iMessage üzerinden gönderilen fotoğraflarda yer alan çıplaklığı tespit edebilen.


Kaynak : https://appleinsider.com/articles/23/01/21/tests-confirm-macos-finder-isnt-scanning-for-csam-images?utm_medium=rss

Yorum yapın