Yapay Zeka yaşamı etkilediğinde

Şubat 21, 2019

Mevcut haliyle yapay zekaya dair bazı asıl sorunlardan daha önce bahsetmiş olmamıza rağmen, insanlar yine de çok önemli meseleleri robot yardımcılara bırakıyor. Öz-öğrenimli sistemler halihazırda doktorlara ve hakimlere verdikleri kararlarda yardım ediyor, üstelik henüz işlenmemiş suçları bile öngörebiliyorlar. Buna rağmen bu tip sistemleri kullananlar, bu sistemlerin çıkarımlara nasıl ulaştıklarını genellikle bilmiyorlar

Ayağa kalkın, mahkeme başlıyor

ABD mahkemelerinde YZ, cezanın belirlenmesi, önleyici tedbirler ve hafifletme ile ilgili kararlarda kullanılıyor. İlgili veriyi inceledikten sonra YZ şüphelinin yeniden suç işleme eğiliminde olup olmadığını değerlendiriyor ve karar şartlı tahliyeyi gerçek bir cezaya dönebiliyor ya da kefaletle serbest bırakılmanın reddine neden olabiliyor.

Örneğin ABD vatandaşı Eric Loomis, kullandığı arabadan bir yolcunun bir binaya doğru ateş açması nedeniyle altı yıl hapis cezasına çarptırılmıştı. Hüküm, bireylerin toplum için teşkil ettiği tehlikeyi değerlendiren, COMPAS algoritmasına dayanıyordu. COMPAS’a sanığın profili ve yasal geçmiş bilgileri verildi ve COMPAS bu kişiyi “toplum için yüksek riskli birey olarak” tanımladı. Savunma, algoritmanın işleyişinin açıklanmadığı, bunun da algoritmanın verdiği kararların doğruluğunun değerlendirilmesini imkansız kıldığını gerekçe göstererek karara itiraz etti. Mahkeme bu savunmayı reddetti.

Elektronik kahinler: YZ-güçlendirilmiş suç tahmini

Çin’in bazı bölgelerinde bunun bir adım ötesine geçildi ve olası suçluları belirlemek için YZ kullanılıyor. Yüz tanıma kameraları toplumu izliyor ve şüpheli herhangi bir şey görüş alanlarına girerse emniyet yetkililerine bilgi veriyor. Örneğin, çok miktarda gübre alan bir kişi terörist bir saldırı hazırlıyor olabilir. Şüpheli bir şekilde davranmaktan suçlu olan herhangi biri tutuklanabilir ya da yeniden eğitim kampına gönderilebilir.

Suç-öncesi teknoloji diğer ülkelerde de geliştirilmektedir. Amerika Birleşik Devletleri ve Britanya’nın bazı bölgelerindeki polisler bir sonraki olayın gerçekleşme ihtimali en yüksek olan yeri tahmin etmek için teknolojiyi kullanıyor. Birçok etmen hesaba katılıyor: bölgenin suç geçmişi, sosyoekonomik durumu, hatta hava durumu bile. Bu aletler Şikago’nun mahallelerine kurulduğundan beri silahlı suç oranı dikkate değer bir biçimde üçte birine düştü.

Bilgisayar artık sizi görecek

Yeni teknolojiler ayrıca sağlık alanında yaygın bir şekilde kullanılmaktadır. Yapay doktorlar hasta görmekte, tanı koymakta, check-up sonuçlarını analiz etmekte ve ameliyat esnasında cerrahlara yardım etmekte.

Sağlık alanındaki öz-öğrenimli sistemlerin en bilinenlerinden biri IBM Watson Health‘tir. Doktorlar hastalıklara tanı koyabilmesi ve tedavi önermeleri için YZ’yı eğitmektedir. Watson Health çok sayıda olumlu geri bildirim almıştır. Örneğin 2013 yılında bir süper bilgisayarın en uygun tedaviyi seçme olasılığı %90 olarak belirlenmişti.

Buna rağmen 2018 yazında sistemin bazı kanser tedavi tavsiyelerinin güvenli olmadığı ortaya çıktı. Bilhassa, ciddi kanamaları olan kanser hastalarına Watson daha da çok kan kaybına neden olabilecek bir ilaç önermiş. İşin iyi tarafı bu senaryolar gerçek değil farazi senaryolardı.

Elbette insan doktorlar da hata yapıyor ancak YZ işin içine girince sorumluluğun sınırları belirsizleşiyor. Kanlı canlı bir doktor, yaratıcıları tarafından yüz binlerce bilimsel makale, kitap ve vaka geçmişiyle tıka basa doldurulmuş olan dijital meslektaşlarıyla çelişme riskini alacak mıdır? Eğer bu riski almazsa, doktor herhangi bir olumsuz sonucu üstelenecek midir?

YZ şeffaf olmalı

İnsanlığın kaderine karar verirken YZ’yı kullanmayla ilgili asıl sorunlardan biri algoritmaların genellikle şeffaf olmaması ve tekrar yaşanmaması için hataların nedenlerinin izini sürmenin hiç de kolay olmamasıdır. Öz-öğrenimli sistemleri geliştirenlerin bakış açısından bu anlaşılabilir bir şeydir: Kim, olası rakipleriyle tüm uzmanlığını paylaşmak ister? Ancak söz konusu olan insanların yaşamlarıysa, ticari sırlar mı önceliği almalıdır?

Dünyanın her yanında politikacılar şeffaf olmayan YZ‘yı düzenlemeyle ilgilenmeye başladılar. Avrupa Birliği içinde, “veri sahibi olan kişiler” YZ’nın kendi menfaatlerini etkileyen kararları hangi temele dayanarak verdiğini öğrenme hakkına sahiptir. Japonya da benzer bir yolu izlemektedir, ancak ilgili yasa hala yalnızca düşünülüyor.

Bazı geliştiriciler şeffaflıktan yana, ancak onların sayısı da bir elin parmaklarını geçmiyor. Bir teknoloji firması olan Civic Space 2017 yılında ön görücü polis sistemlerinin kaynak kodunu yayınladı. Ancak bu bir kural değil, son derece istisnai bir durumdur.

Artık YZ cini şişeden çıktığına göre, insanların onu tekrar geri koyma ihtimali çok düşüktür. Bunun anlamı şudur, YZ-temelli kararlar kanıtlanabilir bir şekilde adil ve hatasız hale gelene kadar, YZ’nın kullanımı iyi bir şekilde yapılmış kanunlara ve öz-öğrenimli sistemin hem yaratıcılarının hem de kullanıcılarının yeterliliğine dayanmalıdır.