Apple, yeni fotoğraf tarama çocuk koruma teknolojisini savunuyor!

Kilavuz Bilgi Ağustos 09, 2021 82 okunma 0 yorum 2 dakikada okuyabilirsiniz

Apple, müşterilerin ve gizlilik savunucularının tepkisinden sonra, kullanıcıların telefonlarını çocuk cinsel istismarı materyali (CSAM) için tarayan yeni sistemini savundu.

Teknoloji, görüntü iCloud depolama alanına yüklenmeden önce bilinen kötüye kullanım materyallerinin eşleşmelerini arar.

Eleştirmenler, insanları gözetlemek için bir “arka kapı” olabileceği konusunda uyardılar ve 5.000’den fazla kişi ve kuruluş teknolojiye karşı açık bir mektup imzaladı.

Sonuç olarak, Apple herhangi bir nedenle sistemi “genişletmemeye” söz verdi.

Dijital gizlilik kampanyacıları geçen hafta otoriter hükümetlerin teknolojiyi LGBT karşıtı rejimleri desteklemek için kullanabilecekleri veya protestoların yasadışı olduğu düşünülen ülkelerdeki siyasi muhalifleri çökertebilecekleri konusunda uyardılar.

Ancak Apple, sistemi “genişletmek için herhangi bir hükümetin talebine katılmayacağını” söyledi.

Bir soru-cevap belgesi yayınladı ve sistemlerinin çocuk istismarı görüntülerinin tespit edilmesinden başka bir şey için kullanılmasını engellemek için çok sayıda güvenceye sahip olduğunu söyledi.

“Daha önce kullanıcıların gizliliğini bozan hükümet tarafından zorunlu değişiklikler oluşturma ve dağıtma talepleriyle karşı karşıya kaldık ve bu talepleri kararlı bir şekilde reddettik. Gelecekte onları reddetmeye devam edeceğiz ” dedi.

Bununla birlikte, Apple geçmişte dünyanın dört bir yanındaki ülkelerde faaliyet göstermeye devam etmek için bazı tavizler verdi.

Çocuk istismarı ile mücadele etmek için şifreleme engellenmeli mi?
Facebook şifrelemesi ‘çocuklara zarar vermemeli’
Geçtiğimiz Yeni Yıl arifesinde, teknoloji devi, ülkedeki yetkililer tarafından lisanssız oyunlara yönelik bir baskının ortasında Çin App Store’dan 39.000 uygulamayı kaldırdı.

Apple ayrıca, anti-CSAM aracının şirketin bir kullanıcının fotoğraf albümünü görmesine veya taramasına izin vermeyeceğini söyledi. Yalnızca icloud’da paylaşılan fotoğrafları tarar.

Sistem, Çocuk Güvenliği kuruluşları tarafından sağlanan bilinen CSAM görüntülerinin karmalarının bir veritabanına dayanarak, cihazda güvenli bir şekilde eşleşmeleri arayacaktır.

Apple ayrıca masum insanları polise yanlış bir şekilde işaretlemenin neredeyse imkansız olduğunu iddia ediyor. “Sistemin herhangi bir hesabı yanlış işaretlemesi olasılığı yılda bir trilyondan az” dedi. Olumlu eşleşmelerin bir insan incelemesi de vardır.

Bununla birlikte, gizlilik savunucuları, bu teknolojinin diğer kullanımlara dönüştürülmesini engelleyen tek şeyin Apple’ın olmayacağına dair vaadi olduğunu savundu.

Örneğin, Electronic Frontier Foundation dijital haklar grubu şunları söyledi: “her şey gerekli… bu, ek içerik türlerini aramak için makine öğrenimi parametrelerinin genişletilmesidir.”

“Bu kaygan bir eğim değil; bu sadece en ufak bir değişiklik yapmak için dış baskıyı bekleyen tamamen inşa edilmiş bir sistem” diye uyardı.

Apple ayrıca, müstehcen fotoğraflar gönderildiğinde veya alındığında, çocukları ve ebeveynlerini bağlantılı aile hesaplarını kullanarak uyaracak başka bir yeni özellik hakkında güvence verdi.

Şirket, iki yeni özelliğinin aynı teknolojiyi kullanmadığını ve kullanıcıların özel iletişimlerine “asla” erişemeyeceğini söylüyor.

Apple’ın gizlilik savunucularından duyurulmasıyla ilgili bir tepki olsa da, bazı politikacılar yeni teknolojiyi memnuniyetle karşıladı.

İngiltere Sağlık Bakanı Sajid Javid, diğerlerinin, özellikle de Facebook’un davayı takip etme zamanının geldiğini söyledi.

Etiket:

Kilavuz Bilgi

Editör henüz kendisi hakkında herhangi bir bilgi girmedi.

Toplam 68 yazı paylaştı.

Yorum Yap

E-posta adresiniz yayınlanmayacaktır. Gerekli alanlar işaretlenmiştir.*

Yorumlar (0)

Herhangi bir yorum yapılmamış.