Apple, iCloud platformunda bulunan fotoğrafları çocuk istismarı içeriği (CSAM) açısından tarayacak bir sistem kurma kararı almaması nedeniyle mahkemeye taşınmış durumda. Dava, Apple’ın bu tür içeriklerin yayılmasını önlemek konusunda yeterli çaba göstermemesi nedeniyle mağdurların yaşadığı travmaların tekrar gündeme geldiğini öne sürüyor. Şirket, bu sistemi ilk olarak 2021 yılında duyurmuştu; ancak güvenlik ve gizlilik savunucuları, planların hükümet gözetimi için potansiyel bir arka kapı oluşturabileceğine dair endişeler dile getirdikleri için uygulamaktan vazgeçti.
HÜKÜMET GÖZETİMİ ELEŞTİRİSİ
Apple, 2021’de Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve benzeri kurumlardan alınan dijital imzaları kullanarak, kullanıcıların iCloud kütüphanelerindeki bilinen CSAM içeriğini tespit edebilecek bir sistem geliştirdiğini açıklamıştı. Ancak, bu teknolojinin hükümet gözetimi amacıyla bir arka kapı yaratabileceği endişeleri nedeniyle bu projeyi iptal etti.
BİNLERCE MAĞDUR VAR
Dava, bir akrabası tarafından bebek yaştayken istismara uğrayan ve o döneme ilişkin görüntüleri çevrimiçi olarak paylaşan 27 yaşındaki bir kadın tarafından açıldı. Kadın, suçluların hâlâ internette bu görüntülere sahip olduğunu ve bu durumla ilgili sürekli olarak kolluk kuvvetlerinden uyarılar aldığını belirtti. Avukat James Marsh, bu dava kapsamında tazminat talebinde bulunabilecek potansiyel olarak 2.680 mağdur bulunduğunu ifade etti.
Apple, TechCrunch’a yaptığı açıklamada, bu tür suçlarla mücadele etme amacı güderken güvenlik ve gizlilikten ödün vermeden yenilikçi yöntemler geliştirmeye devam edeceklerini vurguladı. Ağustos ayında ise, 9 yaşındaki bir kız çocuğu ve vasisi, Apple’ı iCloud üzerinden CSAM içeriğiyle ilgilenmemekle suçlayarak dava açmıştı.
