Apple, iPhone Fotoğraflarını Tarama Planını Erteledi

Geçen ayın başlarında Apple, tüm yazılım platformları için birkaç yeni çocuk güvenliği özelliği duyurmuştu ancak bu plan ertelendi.

Apple’ın tanıttığı yeni özelliklerden biri, iPhone ve iPad fotoğraflarını Çocukların Cinsel İstismarı Malzemesi (CSAM) için taramak üzere tasarlandı. Bazı güvenlik uzmanları, hükümetlerin vatandaşlarının verilerine erişmek için potansiyel olarak kullanabileceğini savunarak bu özellikle ilgili endişelerini dile getirdi. Apple başlangıçta bilinen CSAM’i tespit etme yönteminin kullanıcı gizliliği için bir tehdit olmadığını iddia etse de, şirket bu özelliğin lansmanını erteledi.

Apple

Yakın tarihli bir açıklamada, Apple şunları söyledi:

“Geçen ay çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan istismarcılardan korumaya ve Çocuk Cinsel İstismarı Malzemesinin yayılmasını sınırlamaya yardımcı olmayı amaçlayan özellikler için planlar duyurduk. Müşterilerden, savunma gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, kritik öneme sahip bu çocuk güvenliği özelliklerini yayınlamadan önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda ek zaman ayırmaya karar verdik.”

Apple daha önce iOS 15, iPadOS 15 ve macOS Monterey güncellemelerinin bir parçası olarak yeni çocuk güvenliği özelliklerini yayınlamayı planlamıştı ancak güncellemeler, bu yıl içinde kullanıma sunulduğunda yeni çocuk güvenliği özelliğini içermeyecek. Şu anda şirket, kullanıma sunma için geçici bir zaman çizelgesi paylaşmadı ve gizlilik endişelerini gidermek için yapmayı planladığı değişikliklerle ilgili herhangi bir ayrıntı sağlamadı.

Apple’ın CSAM Özelliği Nasıl Çalışacak?

Basit bir ifadeyle, Apple’ın CSAM tarama özelliği, mevcut durumunda iPhone veya iPad’inizdeki fotoğrafları, çocuk güvenliği kuruluşları tarafından sağlanan bilinen CSAM görüntülerinden oluşan bir veritabanıyla eşleştirecek. Bir cihazda herhangi bir CSAM tespit ederse, materyali doğruladıktan sonra kolluk kuvvetleriyle iletişime geçebilecek bir insan inceleme ekibini proaktif olarak uyarabilecek.

Güvenlik araştırmacıları, algoritmanın şu anda CSAM’i tespit etmek için eğitilmiş olmasına rağmen, diğer görüntüleri veya metinleri taramak için uyarlanabileceğini ve bu da onu otoriter hükümetler için değerli bir araç haline getirebileceğini savundu.

Cevap Yazın

E-posta adresin yayınlanmayacak.

Şu HTML etiketlerini ve özelliklerini kullanabilirsiniz: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Şifremi Unuttum

Kayıt Ol