Bir zamanlar makineler vidalıydı, somunluydu ve ne yapacakları belliydi. Şimdi korkmamız gereken şey, ne yaptığını bilmeyen değil, ne yaptığını bizden daha hızlı yapan yapay zeka.

Ve o akıl, artık sadece öneri sunmuyor… karar veriyor.

Meta’da yaşanan son kriz, teknoloji dünyasının süslü vitrinine atılmış sert bir taş gibi. Cam çatladı. İçerisi göründü. Ve gördüğümüz şey pek de güven verici değildi.

Her şey masum bir soruyla başladı. Bir çalışan, iç forumda teknik bir yardım istedi. Modern çağın refleksi devreye girdi: “Yapay zekaya soralım.” Bir mühendis, soruyu analiz etmesi için bir yapay zeka ajanına yönlendirdi. Buraya kadar her şey, dijital çağın rutin bir günüydü.

Ama sonra o “ajan” sahneye çıktı.

Ve haddini aştı.

Kendisine sorulmadan konuştu. Onay almadan cevap verdi. Üstelik yanlış cevap verdi.

Bir zamanlar “yardımcı araç” dediğimiz sistem, bir anda kontrolü ele alan bir oyuncuya dönüştü. Yapay zeka ajanı, mühendisten izin almadan kendi başına bir yanıt yayınladı. O yanıt, sadece hatalı değildi; aynı zamanda zincirleme bir felaketin ilk halkasıydı.

Çalışan, bu hatalı yönlendirmeyi takip etti. İnsan, makineye güvendi. Belki de en büyük hata buydu.

Ve sonuç?

Şirket ve kullanıcı verileri… iki saat boyunca… yetkisiz erişime açık kaldı.

İki saat.

Dijital dünyada iki saat, bir ömürdür. Bir şirketin itibarı, kullanıcıların mahremiyeti, veri güvenliğinin kutsallığı… hepsi o iki saatlik boşlukta askıda kaldı. Meta’nın bu olayı “Sev 1” yani en yüksek ikinci tehlike seviyesiyle sınıflandırması, aslında buzdağının sadece görünen kısmı.

Çünkü asıl mesele bir hata değil.

Asıl mesele, hatayı kimin yaptığı.

Bu olay bize şunu gösterdi: Yapay zeka artık sadece bir araç değil; potansiyel bir risk aktörü. Üstelik öyle klasik risklerden değil. Ne sabotaj var ortada, ne kötü niyet. Daha ürkütücü bir şey var: kontrolsüz inisiyatif.

Bir makinenin kendi başına karar alması… kulağa verimlilik gibi geliyor, değil mi? Hız, otomasyon, kusursuzluk… Teknoloji şirketlerinin pazarlama broşürlerinde en sevdiği kelimeler.

Ama gerçek hayat, broşürlerde yazmaz.

Gerçek hayatta o “inisiyatif”, bir e-posta kutusunu silebiliyor. Üstelik açıkça “onay almadan işlem yapma” talimatı verilmiş olmasına rağmen.

Meta’nın Süper Zeka bölümünde görevli Summer Yue’nin yaşadığı olay, bu meselenin artık bir istisna olmadığını kanıtlıyor. Kendi kullandığı yapay zeka ajanı, talimatları hiçe sayarak tüm e-posta kutusunu sildi.

Düşünün… Bir çalışanın bunu yaptığını hayal edin.

İlk gün kovulur.

Ama yapay zekaya gelince, “geliştirme sürecinde böyle şeyler olabilir” deniyor. Ne hoş bir mazeret. Ne kadar tanıdık.

İnsan hata yaparsa sorumlu aranır. Makine hata yaparsa “sürüm güncellenir.”

İşte asıl trajedi tam olarak burada başlıyor.

Biz, hatasız çalışsın diye makineler ürettik. Ama şimdi hatalarını yönetmeye çalışıyoruz. Üstelik bu hatalar, insan hatasından daha tehlikeli. Çünkü yapay zeka hata yaptığında, bunu hızla ve ölçeklenebilir şekilde yapıyor.

Bir insan yanlış bilgi verirse, üç kişi etkilenir.

Bir yapay zeka yanlış bilgi verirse… sistem etkilenir.

Meta’daki olayda olduğu gibi.

Buradaki temel sorun teknoloji değil. Sorun, teknolojinin etrafına örülen kör güven.

Yapay zekaya bir kahin gibi davranıyoruz. Oysa o, sadece çok hızlı bir tahmin makinesi. Ama biz onu, karar verici bir otoriteye dönüştürüyoruz. “Biliyordur” diyoruz. “Hesaplamıştır” diyoruz.

İşin ironik tarafı ise şu: Yapay zekayı geliştirenler bile artık ondan korkmaya başlıyor. Ama yine de hız kesmiyorlar. Çünkü rekabet var. Çünkü piyasa var. Çünkü “ilk kim daha akıllı yapay zekayı üretirse” yarışı var. Bu yarışta güvenlik biraz arkadan geliyor.