Yapay zekaya nasıl yaklaşmamız gerektiği hakkında

Yapay zekanın düzenlemelere ihtiyaç duyduğu ortada ama nasıl? Eugene Kaspersky bu konudaki bakış açısını anlatıyor.

Tüm o yapay zeka haberlerinden biraz bunalmış durumdayım ama bir süre daha katlanmam gerekecek zira en az bir iki yıl daha konuşulacak gibi görünüyor. Yapay zekanın gelişimi bir noktada durduracağını söylemiyorum elbette. Sadece gazeteciler, TikTok yayıncıları, Twitter kullanıcıları ve diğer konuşan kişiler eninde sonunda konudan bıkacaklar. Ancak şimdilik heveslerini harekete geçiren şey sadece teknoloji devleri değil, aynı zamanda da devletler: Birleşik Krallık üç kollu yapay zeka düzenlemesine geçmeyi planlıyor; Çin taslak bir yapay zeka düzenlemesini kamuoyunun dikkatine sundu; ABD “algoritmik hesap verebilirlik” çağrısı yapıyor; AB yapay zeka üzerine tartışıyor ama henüz taslak yasa hazırlamadı; liste böyle uzuyor. Gelecek için yığınla plan yapılıyor ama şimdilik yapay zeka sistemlerinin oluşturulması ve kullanılması önünde hiçbir engel yok. Ancak kısa zaman içinde bu durum değişeceğe benziyor.

Yapay zeka üzerine devlet düzenlemelerine gerçekten ihtiyaç olup olmadığı konusunun tartışmaya açık olduğu ortada. Bu düzenlemeler yapılacaksa neden ve nasıl yapılacak?

Neler düzenlenmeli?

Yapay zeka nedir? Pazarlama departmanlarının keyfiliği nedeniyle bu terim pek çok şey için kullanılıyor: GPT-4 gibi çığır açıcı yaratıcı modellerden onlarca yıldır çevremizde olan en basit makine öğrenimi sistemlerine kadar. Düğmeli cep telefonlarındaki Т9 olayını hatırlar mısınız? Otomatik istenmeyen posta ve kötü amaçlı yazılım sınıflandırmasını duymuş muydunuz? Netflix’teki fil önerilerine bakıyor musunuz? Tüm bu tanıdık teknolojiler makine öğrenimi (ML) algoritmalarına, yani “Yapay Zeka”ya dayanır.

Kaspersky’de bu tür teknolojileri 20 senedir ürünlerimizde yakından kullanıyoruz ve daima bunlara “makine öğrenimi” adını vermeyi uygun buluyoruz zira “yapay zeka” terimi insanların zihninde daha çok uzay gemilerindeki konuşan süper bilgisayarlar ve diğer doğrudan bilim kurgu materyallerini uyandırıyor. Ancak, bu tür konuşan-düşünen bilgisayarların ve insanımsı robotların yapay genel zekayı (AGI) veya yapay süper zekayı (ASI) yönetebilmesi için tamamen insan gibi düşünebilmesi gerekir fakat ne AGI ne de ASI henüz icat edilmedi ve yakın gelecekte de ortaya çıkacağa benzemiyor.

Öbür yandan, tüm yapay zeka türleri aynı ölçütle ölçülüp tam düzenleniyor olsaydı bütün BT sektörü ve çok sayıda ilişkili sektör için işler hiç de iyiye gitmezdi. Örneğin, biz (Kaspersky) tüm eğitim seti “yazarlarından” onay almak zorunda kalsaydık bir bilişim güvenliği şirketi olarak kendimizi çok zor durumda bulurduk. Biz kötü amaçlı yazılımlar ve istenmeyen postalardan dersler çıkarıyoruz ve edinilen bilgilerle makine öğrenimimizi besliyoruz. Bunların yazarları ise iletişim bilgilerini saklamayı tercih etmeye eğilimli oluyor (kim bilebilirdi!). Dahası, verilerin yaklaşık 20 yıldır toplandığı ve algoritmalarımızın eğitildiği düşünüldüğünde geçmişte ne kadar geriye gitmemiz beklenebilir?

Bu nedenle, kanun koyucuların pazarlama uzmanlarını değil, makine öğrenimi/yapay zeka sektörü uzmanlarını dinlemeleri ve potansiyel düzenlemeleri belirli ve odaklanmış bir şekilde tartışmaları çok önemlidir: Örneğin, büyük hacimli açık verilerle eğitilmiş çok fonksiyonlu sistemler veya yüksek sorumluluk ve risk düzeyinde karar verme sistemleri kullanmak gibi.

Ayrıca, yeni yapay zeka uygulamaları, her ortaya çıkışlarından düzenlemelerin sık sık revize edilmesini gerektirecektir.

Neden düzenleme gerekiyor?

Açıkçası, önümüzdeki yüz yıl içinde süper zeka destekli bir Kıyamet Günü göreceğimize inanmıyorum. Ancak bilgisayarın kara kutusunun düşüncesiz kullanımından kaynaklanan bir sürü dert olduğuna inanıyorum.

Makine öğreniminin hem görkemi hem de sefaleti hakkındaki makalelerimizi okumamış olanlara bir hatırlatma olarak, her türlü yapay zeka ile ilgili üç ana konu vardır:

  • Bunun için kullanılan eğitim verilerinin ne kadar iyi olduğu belli değildir.
  • Yapay zekanın bu veri stokundan neyi “anlamayı” başardığı ya da kararlarını nasıl verdiği de hiç net değildir.
  • En önemlisi, algoritma hem geliştiricileri hem de kullanıcıları tarafından kötüye kullanılabilir.

Dolayısıyla, yapay zekanın kötü niyetle kullanılmasından yapay zeka kararlarına düşünmeden uyulmasına kadar her şey gerçekleşebilir. Grafik gerçek yaşam örnekleri: ölümcül otomatik pilot hataları, bugün gif’lerde ve hatta haberlerde alışkanlık haline getirilmiş montaj işler (1, 2, 3), öğretmen sözleşmelerinde yapılacak aptalca hatalar, polisin bir mağaza hırsızı yerine yanlış birini yakalaması ve kadın düşmanı bir yapay zeka işe alım aracı. Ayrıca, özel yapım düşmanca veri örnekleri yardımıyla herhangi bir yapay zekaya saldırılabilir: Araçlar etiketler kullanılarak kandırılabilir, GPT-3’ten kişisel bilgiler alınabilir ve anti-virüs veya EDR de aldatılabilir. Bu arada, bilim kurguda anlatılan savaş uçağı yapay zekasına yönelik saldırılar artık o kadar da uzak görünmüyor.

Özetle, yapay zeka kullanımı henüz gerçekten büyük sorunlara yol açmadı ancak bunlar için çok fazla potansiyel olduğu açık. Bundan dolayı, düzenlemelerin öncelikleri net olmalı:

  1. Kritik altyapı olaylarının (fabrikalar/gemiler/elektrik iletim hatları/nükleer santraller) önlenmesi.
  2. Fiziksel tehditlerin en aza indirilmesi (sürücüsüz araçlar, hastalıkların yanlış teşhis edilmesi).
  3. Kişisel hasarları ve iş risklerini en aza indirmek (kafatası ölçümlerine dayalı tutuklamalar veya işe almalar, talebin/alımların yanlış hesaplanması vb.).

Düzenlemelerin amacı, kullanıcıları ve yapay zeka tedarikçilerini, bahsedilen olumsuz şeylerin gerçekleşme riskini artırmamaya özen göstermeye zorlamak olmalıdır. Risk ne kadar ciddileşirse düzenleme de o kadar zorlayıcı olmalıdır.

Yapay zeka ile ilgili olarak sıklıkla dile getirilen bir başka endişe daha var: Ahlaki ve etik normlara uyulması ve deyim yerindeyse psikolojik rahatlığın sağlanması ihtiyacı. Bu amaç doğrultusunda, insanların var olmayan (yapay zeka tarafından çizilmiş) bir nesneyi görüntülediklerini veya bir insanla değil bir robotla iletişim kurduklarını bilmeleri için uyarılar ve ayrıca yapay zeka eğitimi sırasında telif haklarına saygı duyulduğunu dile getiren bildirimler vb. verildiğini görüyoruz. Peki neden? Kanun yapıcılar ve yapay zeka satıcıları öfkeli kalabalıkların hedefi olmasın diye! Bu, dünyanın bazı bölgelerinde çok gerçek bir endişe kaynağı (örneğin Uber’e karşı protestoları hatırlayın).

Nasıl düzenlenmeli?

Yapay zekayı düzenlemenin en basit yolu her şeyi yasaklamak olacaktır ancak bu yaklaşım henüz masada değil gibi görünüyor. Zaten yapay zekayı yasaklamak bilgisayarları yasaklamaktan çok daha kolay değildir. Bu nedenle, tüm makul düzenleme girişimleri “risk ne kadar büyükse gereklilikler o kadar katı olmalıdır” ilkesini izlemelidir.

Perakende alıcı tavsiyeleri gibi oldukça önemsiz şeyler için kullanılan makine öğrenimi modelleri düzenlenmeyebilir ancak model ne kadar karmaşıksa veya uygulama alanı ne kadar hassassa sistem satıcıları ve kullanıcıları için gereksinimler o kadar sert olabilir. Örneğin:

  • Bir modelin kodunun veya eğitim veri setinin düzenleyicilere veya uzmanlara incelenmek üzere sunulması.
  • Ön yargı, telif hakkı ve benzeri hususlar da dahil olmak üzere bir eğitim veri setinin sağlamlığının kanıtlanması.
  • Yapay zeka “çıktılarının” makul olduğunun kanıtlanması; örneğin, halüsinasyonlardan arınmış olması.
  • Yapay zeka işlemlerinin ve sonuçlarının etiketlenmesi.
  • Model ve eğitim veri setinin güncellenmesi; örneğin, kaynak verilerden belirli bir ten rengine sahip kişilerin elenmesi veya modelin çıktılarında patlayıcılar için kimyasal formüllerin bastırılması.
  • Yapay zekanın “düşmanca veriler” için test edilmesi ve gerektiğinde davranışlarının güncellenmesi.
  • Belirli bir yapay zekayı kimin ve neden kullandığının kontrol edilmesi. Belirli kullanım türlerinin reddedilmesi.
  • Büyük yapay zekayı veya belirli bir alan için geçerli olanları yalnızca düzenleyicinin izniyle eğitme.
  • Belirli bir sorunu ele almak için yapay zekayı kullanmanın güvenli olduğunu kanıtlama. Bu yaklaşım BT için fazla yabancı olsa da örneğin ilaç şirketleri, uçak üreticileri ve güvenliğin çok önemli olduğu diğer birçok sektör için fazlasıyla tanıdıktır. Önce beş yıl sürecek kapsamlı testler, ardından düzenleyici kurumun izni gelecek ve ancak o zaman bir ürün genel kullanıma sunulabilecektir.

Son önlem aşırı katı görünse de yapay zekanın akut astım ve zatürre hastaları için tedavi önceliklerini karıştırdığı ve onları yoğun bakım ünitesi yerine eve göndermeye çalıştığı olayları öğrendiğinizde aslında o kadar da katı olmadığını anlayacaksınız.

Uygulama önlemleri, yapay zeka kurallarının ihlali için para cezalarından (GDPR ihlalleri için Avrupa cezaları doğrultusunda) yapay zeka ile ilgili faaliyetlerin lisanslanmasına ve mevzuat ihlalleri için cezai yaptırımlara (Çin’de önerildiği gibi) kadar değişebilir.

Peki doğru yol hangisi?

Aşağıdakiler benim kişisel görüşlerimi temsil etmekle birlikte, siber güvenlik sektöründe makine öğreniminden “tasarım açısından güvenli” sistemlere kadar 30 senelik ileri teknolojik gelişme arayışlarına dayanmaktadır.

Öncelikle, kesinlikle düzenlemelere ihtiyacımız var. Olmazsa yapay zeka trafik kurallarının olmadığı otoyolları andırır. Daha uygun bir örnekle, neredeyse herkesin eline geçen her şeyi topladığı 2000’lerin sonundaki çevrim içi kişisel veri toplama çılgınlığını andırır. Her şeyin ötesinde, düzenlemeler piyasa oyuncularında öz disiplin oluşturur.

İkincisi, mobil iletişim, internet ve benzeri alanlardaki teknik standartlarda olduğu gibi, düzenlemelerde de uluslararası uyumlaştırma ve iş birliğini en üst düzeye çıkarmamız gerekiyor. Modern jeopolitik gerçeklik göz önüne alındığında kulağa ütopik gelse de bu onu daha az arzu edilir kılmıyor.

Üçüncüsü, düzenlemelerin çok katı olmaması gerekir: Bunun gibi dinamik ve genç bir sektörü aşırı düzenlemeyle boğmak dar görüşlülük olur. Bununla birlikte, teknoloji ve piyasadaki gelişmelere ayak uydurabilmek için kuralların sık sık gözden geçirilmesini sağlayacak bir mekanizmaya ihtiyacımız var.

Dördüncüsü, kurallar, risk seviyeleri ve koruma önlemlerinin düzeyleri, konuyla ilgili çok sayıda deneyimli uzmana danışılarak belirlenmelidir.

Beşincisi, on sene beklemek zorunda değiliz. Halihazırda on yıldan uzun süredir Nesnelerin İnternetinin içerdiği ciddi riskler ve endüstriyel ekipmanlardaki güvenlik açıkları hakkında konuşup duruyorum ancak AB Siber Direnç Yasası gibi dokümanlar daha geçen sene ilk kez ortaya çıktı (taslak olarak!).

Şimdilik bu kadar! Buraya kadar okuyan herkese teşekkürler! İlginç ve güvenli bir yapay zeka destekli geleceğe doğru!..

İpuçları