BIST 9.725
DOLAR 35,20
EURO 36,75
ALTIN 2.968,40
HABER /  BİLİM - TEKNOLOJİ

Apple'dan çocuk istismarı için adım! iPhone ve iPad içindeki görseller yakalanacak

Apple, ABD'deki kullanıcılarının cihazlarında çocuklara yönelik cinsel istismar içeriklerini tespit edecek yeni bir sistem geliştirdiğini açıkladı.

Abone ol

Bir görsel iCloud'da yedeklenmeden önce bu teknoloji kısaca CSAM (Child Sexual Abuse Material) olarak anılan çocuk taciz ve istismarıyla ilgili içerikleri tarayacak.

Apple, geliştirilen program ile böyle bir içerik tespit edilirse, bunun bir de insan gözüyle değerlendirmesinin yapılacağını ve kullanıcının polise bildirileceğini söylüyor.

Fakat kişisel bilgilerin mahremiyeti kuralını zorlayan bu teknolojinin gelecekte başka yasaklı içerikleri, hatta siyasi görüşleri kapsayacak şekilde genişletilebileceği yönünde kaygılar var.

Uzmanlar bu teknolojinin otoriter hükümetler tarafından vatandaşlarını izlemek amacıyla kullanılabileceği endişelerini dile getiriyor.

Hangi cihazlarda, nasıl işleyecek?
Apple, iOS ve iPadOS'in bu yıl piyasaya sürülecek olan yeni versiyonlarında "bir yandan kullanıcının mahremiyeti korunurken diğer yandan CSAM içeriklerinin internette yayılmasını sınırlamaya katkıda bulunacak yeni şifreleme uygulamalarının" bulunacağını açıkladı.
Sistem, fotoğrafların, ABD Kaybolan ve İstismara Uğrayan Çocuklar Ulusal Merkezi (NCMEC) ve diğer çocuk güvenliği kuruluşları tarafından derlenen çocuk cinsel istismarı görsellerini bir veri tabanıyla karşılaştırmasını yapacak.

Bu veri tabanlarındaki görseller sayısal kodlara çevirilerek saklanıyor ve Apple cihazındaki görselle eşleştirilebiliyor.
Apple bu teknolojinin ayrıca orijinal görsellerin edit edilmiş versiyonlarını da yakalayacağını bildirdi.

'Çok güvenilir sonuçlar veriyor'

Apple, "Bir görsel iCloud'daki fotoğraf dosyasında yedeklenmeden önce, cihazın içinde, çocuk istismarı veri tabanındaki görsellerin sayısal kodlarıyla eşleştirme işleminden geçirilecek" diyor.

Şirket sistemin son derece güvenilir sonuçlar verdiğini ve bir hesap hakkında yanlış alarm vermesi şansının bir yıl içinde trilyonda birden bile küçük olduğunu söylüyor.

Apple ayrıca sistemde eşleşme tespit edilen her bir durumun bir insan tarafından yeniden gözden geçirileceğini de söylüyor ve kullanıcının hesabının ancak bundan sonra polise bildirilip kapatılabileceğini vurguluyor.

Şirket yeni teknolojinin, yalnızca iCloud hesabında çocuk istismarı içerikli bir dizi fotoğraf bulunduran kullanıcıları tespit edebildiğine işaret ederek, bunun, mevcut teknolojilere kıyasla kişisel bilgilerin korunması açısından önemli avantajlar sunduğunu da söylüyor.

Ancak bütün bu açıklamalar, bazı uzmanların kişisel bilgilerin mahremiyeti bakımından duyduğu endişeleri gidermiş değil.
ABD'deki Johns Hopkins Üniversitesi'nde güvenlik araştırmaları yapan Matthew Green, "Apple'ın uzun vadeli planları ne olursa olsun, bu sistemi kullanacaklarını açıklamakla çok net bir işaret vermiş oldular: Yasaklı içerikleri izlemek için kullanıcıların telefonlarına sistem yerleştirmek serbest olacak" diyor ve ekliyor:

"Bu konuda haklı çıkıp çıkmamalarının hiç bir önemi yok. Bu bir eşiğin aşılması demek ve hükümetler bunu herkesten talep edecek."