Nedir Bu Kara Kutu?

Yapay zekâ hayatımıza hızla nüfuz ediyor. Sunduğu fırsatlar büyük riskler ve aşılması gereken zorluklarla geliyor. Zorlukların başrolünde ise “kara kutu” problemi yer alıyor.

Yapay zekânın kara kutu problemi, yapay zekâ algoritmalarının şeffaf ve anlaşılabilir olmayışı nedeniyle ortaya çıkıyor. Yapay sinir ağları kullanılan derin öğrenme modelleri karar süreçlerini insanların anlayamayacağı karmaşık matematiksel ilişkilere dayandırıyor. Dolayısıyla yapay zekâ sisteminin sonuçlarına ve tahminlerine nasıl ulaştığını anlamak zorlaşıyor. Örneğin, bir yapay zekâ modeli, hastanın kanser teşhisini doğru yapsa bile, bu kararı hangi veri örüntülerine dayandırdığı belirsizliği ortaya çıkıyor. Üstelik sistemin karar verme süreci, bu sistemleri tasarlayanlar için bile henüz tam olarak anlaşılır ve şeffaf değil. Sistemin tahmin yaparken ya da karar alırken nasıl bir yol izlediğini anlamak oldukça zor.

KONTROL EDEMEDİĞİMİZ BİR GÜCÜ, NEDEN HIZLA GÜÇLENDİRİYORUZ?

Peki biz bir yapay zekâ sisteminin nasıl karar verdiğini anlayamıyorsak, onun doğru, etik ve adil kararlar aldığından nasıl emin olabiliriz? Bu sihirli sistemin, kara kutu olma özelliği ne gibi sorunlar çıkarabilir?

Diyelim ki, işe alım kararlarında yapay zekâ kullanmak istiyoruz, sistemin belirli gruplara karşı ayrımcılık yapmadığından nasıl emin olabiliriz? Üstelik yapay zekâ ile pek çok işe alım sürecinde bu yaşandı. Amazon işe alım süreçlerinde yapay zekâ sistemlerini ilk kullananlardan biriydi, sistemin kadınların yazılım gibi teknik işler için yaptığı başvuruları direkt reddettiğinin ortaya çıkması ardından Amazon bu kullanımı iptal etti. Peki bu sistem neden kadınlara yönelik ayrımcılık yapıyordu?

TABİİ Kİ KARA KUTUDA BİR PROBLEM YOK, O OLDUKÇA PARLAK BİR AYNA!

Yalnız tahmine dayalı sistemlerde karşımızda biz insanlar gibi anlayan bir teknoloji yok. Bir seviyede anlıyor ve cevap veriyor ama insan olarak anlamak dediğimizde kastettiğimizden oldukça farklı. Şimdilik sadece verideki ilişkileri, örüntüleri bulan bir teknoloji var. Çünkü yapay zekâ sistemi içinde kullanılan “makine öğrenmesi” doğası gereği, eğitim verisinde gördüğü örüntülerden çıkarımlar yaparak öğreniyor ve ardından benzer durumla karşılaştığında benzer şekilde davranıyor. İstersek bugüne kadar verilmiş tüm banka kredi, sigorta kararlarını içine atıp, “ben bugüne kadar böyle karar vermişim, al bu karar verme zihniyetimi öğren ve tüm yeni kararlarda uygula” diyebiliriz.

Demek ki Amazon teknik işler için işe kadın almıyordu. Sistem de geçmişte ne yapıldıysa onu tekrarladı ve teknik konularda yapılan başvurularda kadınları direkt eledi. Yapay zekâ sisteminin kullanılması ile, Amazon’da kadınların teknik alanlarda düşük oranlarla işe alındığı gün yüzüne çıkmış oldu.

İşte en büyük sorun da burada karşımıza çıkıyor. Yapay zekâ sistemlerinin beslendiği, eğitildiği veriler geçmişte yapılan hataları da öğreniyor ve oluşan “algoritmik önyargı” yanlışları daha büyük kullanım senaryoları ile büyük kitlelere ölçeklendiriyor!

AYNA AYNA SÖYLE BANA!

O zaman bu aynanın karşısına geçip ondan mucizeler beklemeden önce onu neyle eğitileceğinin doğru seçilmesi gerekiyor. Yapay zekâ sistemlerini işleyişine adapte etmek isteyen herkesin de önce bugüne kadar ne yaptığını gözden geçirmesi gerekiyor. Sonra işleri yapış biçimine ve geleceğe şekil verecek geçmişine bir çeki düzen vermeli ardından yapay zekâ sistemini kurgulamaya başlayabilir. Yoksa tüm emeğin çöp olma riski büyük, hatta oldukça zarar verici sonuçlar doğurması da. Çöp girerse içeri çöp çıkıyor, etik girerse içeri dışarı da etik çıkıyor.

Neyse ki açıklanabilir yapay zekâ alanında araştırmacılar oldukça yol katetti. Açıklanabilir yapay zekâ (XAI) çalışmaları, yapay zekâ algoritmasının nasıl karar verdiğini anlamasını sağlayan makine öğrenimi teknikleri, görselleştirme araçları, kritik alanlarda kara kutu niteliği taşımayan daha basit modellerin kullanımı veya hibrit modellerle açıklanabilirlik çözümleri ümit vadetmeye başladı.

YAPAY ZEKÂ SİSTEMLERİNİN AÇIKLANABİLİR OLMASI ÇOK ÖNEMLİ. KONU İLE İLGİLENEN HERKES BİLİYOR Kİ BU SİSTEMLER EĞER GEREKEN MÜDAHALELER YAPILMAZSA TEN RENGİ KOYULAŞTIKÇA BANKA KREDİLERİNİ REDDEDİYOR, İŞE ALIMLARDA REDDEDİYOR, EVİN DEĞERİNİ DÜŞÜRÜYOR, SİGORTA VERMİYOR.

SORUMLULUK KİMDE?

Kara kutu problemi sorumluluğun kime ait olduğunun bulunmasını da zorlaştırıyor. Geliştiren mi, kullanan mı? Herkes topu birbirine atıyor. Suçu algoritmaya atmaya çalışanlar bile görülüyor. Mesela eğer bir doktora hastane “bu yapay zekâ modelini kullanacaksın ve bu sayede hız kazanıp daha çok hasta bakacaksın” derse, doktor modele nasıl güvenecek? Model hata yaptığında doktor kendini nasıl savunacak?

SIRA BİZİM “AÇIKLANABİLİRLİK” TALEP ETMEMİZDE!

Demek ki problem büyük ama çözüm de var. Çözüm istiyoruz çünkü biliyoruz ki yapay zekâ, ancak açıklanabilir olduğunda insanlık için gerçek bir umuda dönüşüyor. Bu nedenle de çözümü devreye sokana kapımız açık, “ne yapalım bu da böyle, anlaşılmıyor” diyene ise tamamen kapalı. Unutmamak lazım böylesine güçlü rekabetin olduğu ortamlarda her zaman kullanıcı avantajlı yeter ki bunun farkında olalım. Süsleyip püsleyip önümüze konan her ürüne şüphe ile bakıp değerlerimizi vurgulayıp, değerlerimizle eşleşen uygulamaları talep edelim. O bu talebi karşılayamadı mı, karşılayan biri mutlaka çıkar! Güç aslında kullanıcıda! Kullanıcı olarak da açıklanabilirlik talep edeceğiz. Hakkımızı arayacağız: Bu kararı nasıl verdin? Bu kredim neye dayanarak reddedildi? Bu notu neden aldım? Hep soracağız, hep talep edeceğiz!

Aysu Dericioğlu Egemen

Yapay Zeka Etiği Yapay Zeka Okur Yazarlığı İlham Veren Başarı Hikayeleri “Ben De Yapabilirim” Derdirten Kılavuz Yapay Zeka Alanında Son Gelişmeler Yapay Zekayı Etkili Kullanma Yöntemleri