Yapay zekâ teknolojilerinin öncülerinden OpenAI, bu kez ciddi bir hukuki iddiayla gündemde. Kaliforniya’da açılan davada bir anne, 40 yaşındaki oğlunun yaşamını yitirmesinde ChatGPT’nin rol oynadığını savunarak şirketi sorumlu tuttu.
Yapay zeka intihara mı sürüklüyor?
ABD’de bir anne, oğlunun intiharıyla sonuçlanan süreçte ChatGPT’nin etkili olduğunu öne sürerek OpenAI hakkında dava açtı. Dava, yapay zekâ ve kullanıcı güvenliği tartışmalarını yeniden alevlendirdi.
Dava dosyasına göre Austin Gordon, OpenAI’ın geliştirdiği ChatGPT’nin GPT-4o sürümüyle uzun süreli ve yoğun görüşmeler yaptı. Anne tarafından mahkemeye sunulan iddialarda, bu sohbetlerde ölüm kavramının sıradanlaştırıldığı, hatta Gordon’un çocukluğunda sevdiği bir kitaptan esinlenilerek “ölüm temalı” içerikler üretildiği öne sürüldü.
Aile, bu etkileşimlerin Gordon’un psikolojik durumunu olumsuz etkilediğini ve sürecin geri dönülmez bir noktaya sürüklendiğini savunuyor. Dava dilekçesinde, üretken yapay zekâ sistemlerinin yeterli güvenlik önlemleri olmadan kullanıma sunulmasının ciddi riskler barındırdığı vurgulandı.
“Doğası gereği tehlikeli” iddiası
Acılı aile, ChatGPT ve benzeri yapay zekâ araçlarını “doğası gereği tehlikeli” olarak nitelendirerek, bu teknolojilerin pervasız biçimde yaygınlaştırıldığını öne sürdü. Dilekçede, özellikle kırılgan kullanıcılar için daha güçlü koruma mekanizmalarının zorunlu olması gerektiği belirtildi.
OpenAI cephesinden ise şu ana kadar davaya ilişkin resmi bir açıklama gelmedi. Şirket, geçmişte benzer iddialarla da karşı karşıya kalmış; bu süreçlerin ardından özellikle çocuklara yönelik güvenlik önlemlerini artıracağını duyurmuştu. Ancak yetişkin kullanıcılar söz konusu olduğunda hangi adımların atılacağı belirsizliğini koruyor.
Dava sürecinin nasıl sonuçlanacağı henüz net değil. Ancak dosya, yapay zekânın etik sınırları, sorumluluk alanları ve kullanıcı güvenliği konularında yeni bir tartışma başlatmış durumda.