Geçtiğimiz haftalarda küresel sağlık sigortası devlerine karşı açılan toplu davaların detayları basına sızdı. Şirketlerin kullandığı yapay zekâ algoritmalarının, hastaların hayati tedavi taleplerini dosya başına ortalama 1.2 saniye ayırarak otomatik olarak reddettiği ortaya çıktı. Bir insanın yaşayıp yaşamayacağına 1.2 saniyede karar verildi. Gerekçe? "Sistem uygun görmedi."
Aynı günlerde İngiltere ve ABD'den peş peşe haberler geldi: Yüz tanıma algoritmalarının siyahi ve Asyalı yüzlerdeki hata payı nedeniyle, sırf "kamera benzetti" diye sabahın köründe evinden alınan, haksız yere tutuklanan masum insanlar... Veya kendi ülkemize dönelim; daha geçtiğimiz günlerde popüler bir yapay zekâ modelinin ürettiği içerikler yüzünden savcılıklarımızın başlattığı hukuki soruşturmalar ve haftalarca tartışılan o meşhur soru: "Suç işlendiğinde muhatap kim olacak?"
Bir şirkete CV’nizi gönderdiniz, yılların birikimi tek bir mülakat bile göremeden çöpe gitti. Sebep? "Otomatik ön eleme."
Peki ama bütün bu kararları kim veriyor?
Son yıllarda yapay zekâ sistemleri, karar alma mekanizmalarında sadece masadaki "danışman" olmaktan çıktı; bizzat mührü basan "karar verici" konumuna yerleşti. 2026 dünyasında artık kredi skorlarını hesaplıyor, iş başvurularını filtreliyor, hastanede size hangi tedavinin uygulanacağını (veya uygulanmayacağını) seçiyor ve sokaktaki kameralardan "suçlu" avlıyor.
Bizler, ekranın arkasında o kodları yazanlar çok iyi biliriz ki; teknik olarak yapay zekâ hiçbir zaman "karar" vermez. O sadece bir kayıp fonksiyonunu minimize eder, elindeki devasa veri setine bakarak ağırlıkları günceller ve günün sonunda istatistiksel bir olasılık skoru üretir.
Ama işte tam o noktada, teknik tanımlar anlamsızlaşır. Çünkü o "istatistiksel skor", gerçek dünyada bir insanın hayatına çarpar. Bir algoritmanın ürettiği 0.4'lük bir değer; kanser tedavisi görememektir, hapse girmektir, işsiz kalmaktır. Matematik ne kadar soyutsa, sonuçlar da o kadar somut ve gerçektir.
Hata olduğunda kimden hesap soracağız?
Mevcut hukuk ve etik sistemimiz tamamen "insan" (fail) merkezlidir. Bir hata varsa, sorumlusu bellidir. Ancak işin içine makine öğrenmesi süreçleri girdiğinde zincir inanılmaz uzar: Veriyi internetten kazıyan ayrı bir ekiptir, modeli eğiten başka bir mühendis grubudur, parametreleri belirleyen başkasıdır, o sistemi satın alıp hastaneye veya emniyete kuran kurum bambaşka biridir. Sorumluluk, bu karmaşık zincirin içinde öylesine dağılır ki, sonunda tamamen görünmez olur.
Bir de başımızın belası "Kara Kutu" (Black Box) problemi var. Gelişmiş derin öğrenme modellerinin iç işleyişi, çoğu zaman onu yazan bizler için bile tam anlamıyla şeffaf değildir. Sigorta algoritması o hayati tedaviyi reddederken hangi değişkene daha fazla ağırlık verdi? Cinsiyet mi, yaş mı, yoksa kişinin oturduğu mahallenin posta kodu mu o reddi tetikledi? Çoğu zaman teknik olarak bunu geriye dönük izlemek zordur, hukuki olarak ise tam bir belirsizliktir.
Demokratik sistemlerin temeli şudur: Gerekçesiz karar olmaz. Oysa algoritmik sistemlerde sunulan gerekçe çoğu zaman "Model böyle hesapladı" demekten ibaret. Bu argüman, hukukun ve etiğin aradığı "hesap verilebilirlik" ilkesi için asla yeterli değildir.
Buradaki mesele, teknoloji karşıtlığı yapmak değil. Yapay zekâ müthiş bir verimlilik motorudur; insan doğasındaki önyargıları ve hataları teorik olarak azaltabilir. Asıl sorun, karar yetkisini hızla silikon çiplere devrederken, sorumluluğun açık ve yasal bir biçimde tanımlanmamasıdır. Amerika'daki o sigorta sistemi hastanın ölümüne sebep olduğunda; mağdurun ailesi kime dava açacak? Yazılımcıya mı? Veri setini etiketleyen taşerona mı? Yoksa "Teknoloji maalesef böyle çalışıyor" denilip dosya kapatılacak mı?
Karar verme gücü ne kadar artıyorsa, hesap verme yükümlülüğü de aynı oranda artmak zorundadır. Algoritmalar kamusal ya da kurumsal hayatımızın tam kalbine yerleşiyorsa; algoritmik şeffaflık bir lüks değil, denetlenebilirlik bir tercih değil, temel bir insan hakkıdır.
Belki de odaklandığımız soruyu değiştirmeliyiz. "Yapay zekâ karar verebilir mi?" diye sormak anlamsız; çünkü etrafımıza baktığımızda zaten verdiğini çok acı örneklerle görüyoruz. Asıl sormamız gereken şudur: Yapay zekâ karar verdiğinde, faturayı kime keseceğimizi bilen bir sistemimiz var mı?
Teknoloji eksponansiyel hızda gelişiyor. Eğer adalet ve sorumluluk mekanizmalarımız bu hıza ayak uyduramıyorsa, ortadaki kriz teknik değil, tamamen kurumsal ve siyasidir.
Ve günün sonunda asla unutmamamız gereken bir gerçek var: Karar o sihirli algoritmaların içinden çıkıyor gibi görünse de, o kodu derleyen, o sistemi sunucuya yükleyen ve o süreci başlatan her zaman bir insandır.
Sorumluluk da her zaman insanda kalmalıdır.