2021 Ağustos başında Apple, çocuk istismarı görüntüleri içeren fotoğrafları tanımlamaya ilişkin geliştirdiği yeni sistemini tanıttı. Apple’ın çocuk pornografisinin yayılmasıyla mücadele etmesi tartışmasız iyi niyetli bir amaç gibi görünse de, yapılan duyuru sonrası şirket eleştirilerin hedefi haline geldi.
Apple, kullanıcıların gözünde uzun süredir kullanıcı gizliliğine önem veren bir cihaz üreticisi imajı oluşturmuştu. iOS 15 ve iPadOS 15 için çıkması beklenen yeni özellikler şimdiden bu imaja ciddi bir darbe vursa da şirket bu konuda geri adım atmıyor. İşte yaşananlar ve bunların sıradan iPhone ve iPad kullanıcıları üzerindeki etkileri.
CSAM Tespit Sistemi nedir?
Apple’ın planlarına ilişkin taslak, şirketin internet sitesinde yer alıyor. Şirket, CSAM olarak da bilinen “çocuklara yönelik cinsel istismar içeriği” (child sexual abuse material) için kullanıcıların cihazlarını tarayan CSAM Tespit adlı bir sistem geliştirdi.
CSAM, “çocuk pornografisi” anlamına gelse de, Amerika Birleşik Devletleri’nde kayıp ve istismar edilen çocukların bulunmasına ve kurtarılmasına yardımcı olan Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC), “CSAM”ı kullanılması daha uygun bir terim olarak kabul ediyor. NCMEC, Apple ve diğer teknoloji firmalarına bilinen CSAM görüntüleri hakkında bilgi sağlıyor.
Apple, mobil cihazlarında ebeveyn denetimlerinin kapsamını genişleten diğer bazı özelliklerle birlikte, örneğin birisinin, çocuklarına Apple’ın Mesajlar uygulaması üzerinden müstehcen bir fotoğraf göndermesi halinde ebeveynlerin bildirim almasını sağlayan CSAM Tespit özelliğini de kullanıma sundu.
Birkaç teknolojinin aynı anda sunulması karışıklığa yol açtı ve birçok insan, Apple’ın artık sürekli olarak tüm kullanıcıları izleyeceği hissine kapıldı. Ancak durum böyle değil.
CSAM Tespit sisteminin kullanıma sunulmasına ilişkin takvim
CSAM Tespit sistemi, bu sonbaharda mevcut tüm iPhone ve iPad (iPhone 6S, beşinci nesil iPad ve sonrası) kullanıcılarına sunulacak olan iOS 15 ve iPadOS 15 mobil işletim sistemlerinin bir parçası olacak. Sistem teorik olarak dünyadaki tüm Apple mobil cihazlarında yer alacak olsa da, şimdilik sadece Amerika Birleşik Devletleri’nde tam fonksiyonel şekilde çalışacak.
CSAM Tespit sistemi nasıl çalışıyor?
CSAM Tespit sistemi yalnızca, akıllı telefon veya tabletten Apple sunucularına fotoğraf yükleyen ve bunları kullanıcının diğer cihazlarında erişilebilir hale getiren iCloud hizmetinin bir parçası olan iCloud Fotoğraflar uygulaması ile birlikte çalışıyor. .
Bir kullanıcının cihaz ayarlarından fotoğraf senkronizasyonunu devre dışı bırakması halinde, CSAM Tespit sistemi de devre dışı kalıyor. Peki bu, yalnızca buluttaki fotoğrafların kriminal veri tabanlarındakilerle karşılaştırılacağı anlamına mı geliyor? Tam olarak öyle değil. Apple’ın ihtiyaç duyulan gizlilik düzeyini sağlamaya çalışması nedeniyle sistem, kasıtlı olarak karmaşık bir yapıya sahip.
Apple, yaptığı açıklamada CSAM Tespit sisteminin, NCMEC veya diğer benzer kuruluşların veri tabanlarındaki fotoğraflarla eşleşip eşleşmediğini belirlemek amacıyla cihazdaki fotoğrafları taradığını belirtiyor.
Tespit yöntemi temel olarak, içeriklerine göre fotoğraflar için dijital tanımlayıcılar veya hesaba dayalı adreslemeler oluşturan NeuralHash teknolojisini kullanıyor. Bir hesaba dayalı adresleme, veri tabanındaki çocuk istismarı görüntülerinden biriyle eşleşirse, görüntü ve hesaba dayalı adresleme Apple’ın sunucularına yükleniyor. Apple, görüntüyü resmi olarak kaydetmeden önce başka bir kontrol daha gerçekleştiriyor.
Sistemin diğer bir bileşeni olan özel küme kesişimi (private set intersection) adı verilen şifreleme teknolojisi, CSAM Tespit sistemi taramasının sonuçlarını şifreliyor ve bu şifrelemeyi Apple, yalnızca bir dizi kriterin karşılanması halinde çözebiliyor. Teorik olarak bunun, sistemin kötüye kullanılmasını — yani, bir şirket çalışanının sistemi kötüye kullanmasını veya devlet kurumlarının talebi üzerine görüntülerin teslim edilmesini — önlemesi gerekiyor.
Apple’ın yazılım mühendisliği kıdemli başkan yardımcısı Craig Federighi, 13 Ağustos’ta Wall Street Journal ile yaptığı röportajda, özel küme kesişim protokolünün ana koruma mekanizmasına ilişkin açıklamalarda bulundu. Buna göre Apple’a bir uyarı gelmesi için 30 fotoğrafın NCMEC veri tabanındaki görüntülerle eşleşmesi gerekiyor. Aşağıdaki şemanın da gösterdiği üzere özel küme kesişim sistemi, bu eşiğe ulaşılana kadar veri kümesinin (CSAM Tespit sisteminin çalışması ve fotoğraflarla ilgili bilgilerin) şifresinin çözülmesine izin vermiyor. Apple’a göre, bir görüntünün işaretlenmesine ilişkin eşik çok yüksek olduğundan, yanlış bir eşleşmenin gerçekleşme olasılığı trilyonda bir gibi çok düşük bir ihtimal.
Peki sistem bir uyarı aldığında ne oluyor? Bir Apple çalışanı verileri manuel olarak kontrol ediyor, çocuk pornografisine ilişkin içeriğin varlığını doğruluyor ve yetkilileri bilgilendiriyor. Şimdilik sistem sadece Amerika Birleşik Devletleri’nde tam fonksiyonel şekilde çalışacak, bu nedenle bildirim, ABD Adalet Bakanlığı tarafından desteklenen NCMEC’e yapılacak.
CSAM Tespit sistemine ilişkin sorunlar
Apple’ın eylemlerine yönelik eleştiriler iki kategoriye ayrılıyor: Şirketin yaklaşımının sorgulanması ve protokolün güvenlik açıklarının irdelenmesi. Şu an çok sayıda genel şikayet olmasına rağmen, Apple’ın teknik bir hata yaptığına dair çok az somut kanıt bulunuyor (bu konuyu aşağıda daha ayrıntılı olarak ele alacağız).
Örneğin, Electronic Frontier Foundation (EFF) söz konusu sorunları çok ayrıntılı şekilde ifade ediyor. EFF’ye göre Apple, kullanıcı tarafına görüntü taraması ekleyerek aslında kullanıcıların cihazlarına bir arka kapı yerleştiriyor. Ayrıca EFF, söz konusu konsepte yönelik eleştirilerini 2019’dan beri dile getiriyor.
Peki bu neden kötü bir şey? Şimdi, verilerin tamamen şifrelendiği (Apple’ın iddia ettiği gibi) bir cihaza sahip olduğunuzu ve ardından bu cihazın verilerinizin içeriği hakkında başkalarına raporlama yapmaya başladığını düşünün. Şu an hedef çocuk pornografisi, ki bu da “Yanlış bir şey yapmıyorsanız endişelenecek bir şey de yoktur” gibi sıkça tekrarlanan ortak bir söyleme yol açıyor, ancak böyle bir mekanizma olduğu sürece, bunun diğer içerikler için uygulanmayacağını bilebilmemiz mümkün değil.
Sonuç olarak, bu eleştiri teknolojik açıdan yöneltilen bir eleştiriden çok politik bir eleştiridir. Sorunun nedeni, güvenlik ile mahremiyet arasındaki dengeyi sağlayacak sosyal bir sözleşmenin olmaması. Bürokratlardan cihaz üreticilerine, yazılım geliştiricilerinden insan hakları aktivistlerine ve sıradan kullanıcılara kadar hepimiz, şu an kurulacak bu dengeyi tanımlamaya çalışıyoruz.
Kolluk kuvvetleri, geniş kapsamlı şifrelemenin kanıt toplamayı ve suçluları yakalamayı zorlaştırdığından şikayet ediyor ve bu anlaşılabilir bir durum. Kitlesel dijital gözetim konusunda duyulan endişeler de ortada. Apple’ın politikaları ve eylemleri hakkındaki görüşler de dahil olmak üzere dile getirilen bir çok görüş söz konusu.
CSAM Tespit sisteminin uygulanmasıyla ilgili olası sorunlar
Etik kaygıları aştığımızda, karşımıza teknolojinin engebeli yolları çıkar. Herhangi bir programa ait kod, beraberinde yeni güvenlik açıkları getirir. Hükümetlerin bu konuda yapabileceklerini bir kenara bırakın; ya bir siber suçlu CSAM Tespit sisteminin güvenlik açıklarından yararlanırsa? Söz konusu veri şifreleme olduğunda, bu gayet doğal ve yerinde bir endişedir: Yalnızca iyi niyetle olsa bile bilgi korumasını zayıflatırsanız, bu zafiyet herhangi biri tarafından başka amaçlar için kullanabilir.
CSAM Tespit sisteminin koduna ilişkin bağımsız denetim süreci yeni başladı ve tamamlanması çok uzun zaman alabilir. Buna rağmen halihazırda öğrendiğimiz bir kaç şey bulunuyor.
İlk olarak, fotoğrafları bir “model” ile karşılaştırmayı mümkün kılan kod, 14.3 sürümünden bu yana iOS’ta (ve macOS’ta) mevcut. Büyük olasılıkla kod, CSAM Tespit sisteminin de bir parçası olacak. Görüntüleri eşleştirmek amacıyla bir arama algoritmasının kullanılmasına yönelik denenen yardımcı uygulamalar daha şimdiden bazı çakışmaları ortaya çıkardı. Örneğin, Apple’ın NeuralHash algoritmasına göre, aşağıdaki iki görüntü aynı hesaba dayalı adreslemeye sahip:
Yasadışı fotoğrafların hesaba dayalı adreslemelerini veri tabanından çıkarmak mümkünse, “masum” görüntülerden bir uyarıyı tetikleyen görüntüler de oluşturmak mümkündür; bu, Apple’ın CSAM Tespit sistemini sürdürülemez hale getirecek kadar hatalı uyarı alabileceği anlamına geliyor. Büyük olasılıkla Apple’ın algoritmanın bir kısmını yalnızca sunucu tarafında çalıştırarak tespit sistemini ayrı tutmasının nedeni budur.
Bunun yanı sıra Apple’ın özel küme kesişim (private set intersection – PSI) protokolüne ilişkin yapılan bir analiz de bulunuyor. Duyulan rahatsızlığın temelinde yatan şey aslında, PSI sisteminin henüz uyarı eşiğine ulaşılmasa dahi Apple’ın sunucularına oldukça fazla bilgi aktarması. Makale, kolluk kuvvetlerinin Apple’dan verileri talep ettiği bir senaryoyu ele alıyor ve yanlış uyarıların bile polisin resmi incelemesine yol açabileceğini öne sürüyor.
Şimdilik, yukarıda bahsedilenler yalnızca, CSAM Tespit sistemine ilişkin yapılan harici incelemelere ait ilk testler. Testlerin başarısı büyük ölçüde, CSAM Tespit sistemine yönelik yürüttüğü çalışmalar — ve özellikle kaynak kodu — hakkında gizliliğiyle ünlü şirketin sunduğu şeffaflığa bağlı.
Ortalama bir kullanıcı için CSAM Tespit sistemi ne anlama geliyor?
Modern cihazlar o kadar karmaşıktır ki, gerçekte ne kadar güvenli olduklarını, yani üreticinin söz verdiği güvenliği ne ölçüde sunduğunu belirlemek kolay değildir. Çoğumuzun yapabileceği tek şey, şirketin itibarına göre ona güvenmek veya güvenmemek.
Ancak şu kilit noktayı hatırlamak önemlidir: CSAM Tespit sistemi, yalnızca kullanıcılar fotoğrafları iCloud’a yüklediğinde çalışıyor. Apple’ın bu tercihi kasıtlı verilmiş bir karardı ve söz konusu teknoloji konusunda bazı itirazların gelmesini bekliyordu. Fotoğrafları buluta yüklemediğiniz sürece hiçbir yere hiçbir şey gönderilmiyor.
2016’da FBI’ın, San Bernardino, California’da katliam gerçekleştiren bir kişiye ait iPhone 5C’nin kilidini açmak için Apple’dan yardım istediğinde aralarında yaşanan ünlü anlaşmazlığı hatırlıyor olabilirsiniz. FBI, Apple’dan telefonun parola korumasını aşmasını sağlayacak bir yazılım yazmasını istedi.
Şirket, bunu yapmanın yalnızca saldırganın telefonunun değil, aynı zamanda herhangi birine ait telefonunun da kilidinin açılmasını sağlayacağının farkındaydı ve bu teklifi reddetti. FBI geri adım attı ve dışarıdan aldığı yardım ile yazılımın açıklarından yararlanarak cihazı hackledi ve Apple, müşterilerinin hakları için savaşan bir şirket olarak itibarını sürdürdü.
Ancak, hikaye o kadar da basit değil. Apple, iCloud’daki verilerin bir kopyasını teslim etti. Aslında şirket, buluta yüklenen hemen hemen tüm kullanıcı verilerine erişim hakkına sahip. Anahtar zinciri parolaları ve ödeme bilgileri gibi bazı veriler uçtan uca şifreleme kullanılarak saklansa da çoğu bilgi yalnızca <em>izinsiz</em> erişimden, yani şirketin sunucularının hacklenmesinden korunmak için şifrelenir. Bu da şirketin verilerin şifresini çözebileceği anlamına gelir.
Yapılan çıkarımlar, CSAM Tespit sistemi hikayesinde belki de en ilginç beklenmedik senaryoyu ortaya çıkarıyor. Mesela şirket, iCloud Fotoğraflar uygulamasındaki tüm görüntüleri (Facebook, Google ve diğer birçok bulut hizmeti sağlayıcısının yaptığı gibi) tarıyor olabilir. Apple bunun için, kitlesel kullanıcı gözetimi suçlamalarını savuşturmasına yardımcı olacak daha zarif bir mekanizma yarattı ancak bunun yerine, kullanıcıların cihazlarını taraması nedeniyle çok daha fazla eleştirinin hedefi haline geldi.
Sonuç olarak kopan bu yaygara ortalama bir kullanıcı açısından neredeyse hiçbir şeyi değiştirmiyor. Verilerinizin korunmasına konusunda endişeleniyorsanız, <em>hangisi olursa olsun</em> kullandığınız bulut hizmetine eleştirel bir gözle bakmalısınız. Yalnızca cihazınızda sakladığınız veriler güvendedir. Apple’ın son eylemleri, sağlam temellere dayanan şüpheler oluşmasına neden oldu. Şirketin bu yönde devam edip etmeyeceği ise henüz cevaplanmayan bir soru olarak varlığını sürdürüyor.