iPhone’da çocuk pornosu taraması: Apple, işlevin sonuna yaklaşıyor

celeron

Global Mod
Global Mod
Apple, ABD’li bir çocuk koruma grubunun iPhone’lar için durdurulan çocuk pornografisi tarama özelliği üzerinde çalışmaya devam etme talebini reddetti. Apple’ın veri koruma şefi Erik Neuenschwander, bir mektupta şirketin bu işlevin geliştirilmesini bir dizi “iyi nedenden” dolayı durdurduğunu vurguladı. Apple’ın iCloud’daki çocuklara yönelik cinsel istismar materyallerini (CSAM) tespit etmek için planladığı “karma istemci-sunucu yaklaşımı”, sonuçta “kullanıcıların güvenliğini ve gizliliğini tehlikeye atmadan uygulanması imkansızdı”.

Reklamcılık



Yönetici bunun yerine Apple’ın işletim sistemine entegre edilen çıplak filtreyle ilgili yeni işlevlerine değiniyor: Bu, çocuklar ve 16 yaşına kadar gençler için iOS 17’den itibaren otomatik olarak etkinleştiriliyor ve yetişkinlerin de açma seçeneği var. ilk kez kendi iPhone’larını kullanıyorlar. Apple ayrıca filtreyi AirDrop ve fotoğraf seçme işlevi gibi diğer uygulamalara ve işlevlere de entegre eder, ancak fotoğraf uygulamasının kendisine entegre etmez. Üçüncü taraf geliştiriciler için işlevin de kullanılabileceği yeni bir arayüz var; Apple’a göre bu, Discord’u Kullan gibi uygulamalardır.

Tarama fonksiyonunun uygulanması çağrısı


Filtre cihazda yerel olarak çalışır ve çıplak görüntüleri (ve videoları) bulanıklaştırmak için tasarlanmıştır; kullanıcılar yine de bunları basit bir dokunuşla görüntülemeyi seçebilir. Apple, başlangıçta çıplak filtreyi 13 yaşın altındaki çocuklara yönelik olarak ebeveynlerini bu tür görüntülerin alınması veya gönderilmesi konusunda bilgilendirmek amacıyla tasarladı ancak bu plan eleştirilerin ardından iptal edildi. Neuenschwander, Wired tarafından yayınlanan mektubunda, bu işlevin temel amacının doğrudan bakım girişimlerini durdurmak olduğunu açıkladı.


ABD’deki “Heat Initiative” örgütü önceden Apple’dan iCloud’daki CSAM materyalini taramasını ve kullanıcıların bu tür içerikleri bildirebilecekleri bir mekanizma entegre etmesini istedi. Apple’ın başlangıçta planlanan CSAM tarama işlevini uygulamamasından hayal kırıklığına uğrayan girişim başkanının mektubuna göre, bu talepler de kısa süre içinde kamuya açıklanacak.

Apple’ın orijinal planı büyük eleştirilerle karşılaştı


Yaklaşık iki yıl önce Apple, iCloud fotoğraflarını yüklendiğinde doğrudan kontrol etmesi gereken bir CSAM algılama aracı önerdi. Bunu yapmak için, iPhone’lardaki fotoğraflar, çeşitli kuruluşlar tarafından belgelenen kötüye kullanım materyallerinin karmalarını içeren bir veritabanıyla karşılaştırılarak kontrol edilirdi. Yaklaşık 30 isabetten sonra işletim sistemi Apple çalışanlarına bilgi veriyordu. Teknik incelemeye göre, görüntü materyalinin düşük çözünürlüklü versiyonunun kodunu çözüp görüntüleyebileceklerdi. Malzemenin fiilen kötüye kullanılması durumunda, ABD’deki Apple çalışanları NCMEC örgütünü harekete geçirmelidir; bu kuruluş da kolluk kuvvetlerine bilgi verebilir.

Reklamcılık

Apple başlangıçta bu yaklaşımın, diğer sağlayıcılarda zaten yaygın olan buluttaki CSAM taramasından daha gizlilik dostu olduğunu savundu. Proje, sivil haklar aktivistleri, güvenlik araştırmacıları, müşteriler ve çocuk koruma kuruluşları tarafından o kadar yoğun bir şekilde eleştirildi ki, Apple önce projeyi erteledi, ardından kendi açıklamalarına göre – 2022’nin sonunda – tamamen askıya aldı.

Apple’ın gizlilik şefi, Apple’ın orijinal Planına yönelik en yaygın eleştirilerden birini benimseyerek, “Bir tür içeriğin taranması, kitlesel gözetimin kapısını açar ve içerik türleri ve kategorilere göre diğer şifreli mesajlaşma sistemlerini tarama arzusunu uyandırabilir” diyor. Neuenschwander, bu tür tarama sistemlerinin de kusursuz çalışmadığını ve yalnızca “bebeklerinin tamamen normal fotoğraflarını paylaşan” masum kullanıcıların “distopik saçmalıkların kurbanı” olabileceğine dair “diğer platformlardan belgelenmiş kanıtlar” bulunduğunu yazıyor.


(Ibe)



Haberin Sonu