Norveç’te yaşanan bir olay, yapay zekanın sorumluluğu ve etik sonları hakkında önemli tartışmaları tekrar gündeme taşıdı. ChatGPT’nin bir kişiyi çocuk katili olarak tanımlaması ve bu savların büsbütün uydurma çıkması, hem ülkede hem de memleketler arası seviyede büyük yankı uyandırdı.
Her şey, bir Norveçli vatandaşın arkadaşının ChatGPT’ye “Arve Hjalmar Holmen kimdir?” sorusunu sormasıyla başladı. ChatGPT, bu kişinin iki çocuğu öldürdüğünü ve üçüncü çocuğu öldürmek için plan yaptığını sav eden bir hayat öyküsü uydurdu. Bu argümanların gerçek dışı olduğu kısa müddette ortaya çıksa da, olayın tesirleri hayli önemli oldu.
ChatGPT’nin bu uydurma öyküsü, sadece bir kişinin prestijini zedelemekle kalmadı, tıpkı vakitte yapay zekanın güvenilirliği ve sorumluluğu hakkında kıymetli soruları gündeme getirdi. Bu durum, mesleksel unvanlarda yanılgı yapmak yahut doğum tarihini yanlış vermek üzere kolay bir kusur değil; direkt ölümcül sonuçlara yol açabilecek bir iftira niteliği taşıyor. Tüketici haklarını koruyan kurumlar, OpenAI’nin faaliyetlerinin incelenmesi için harekete geçti.
OpenAI müdahale etti
Olayın akabinde OpenAI, ChatGPT’nin Arve Hjalmar Holmen hakkındaki sorulara yanlışsız cevap vermesi için müdahalede bulundu. Lakin yapay zekanın neden bu türlü bir iftirayı ürettiğine dair rastgele bir açıklama yapılmadı. Bu durum, yapay zekanın karar alma süreçlerinde ne kadar emniyetli olduğu sorusunu daha da değerli hale getirdi.
Bu olay, yapay zekanın gelecekteki rolü hakkında önemli tasalar doğurmuş durumda. Yapay zekanın insanları “yargılayan, not veren ve günlük hayatlarını etkileyen” bir pozisyona ulaştığında, kendi uydurduğu hatalara nazaran insanlara ceza vermeye kalkışması mümkün mü? Bu sorunun cevabı, yapay zeka teknolojilerinin etik hudutlarının nasıl belirleneceğine bağlı. Ayrıyeten, yapay zeka teknolojilerinin süratle geliştiği bir devirde, bu çeşit olayların önüne geçmek için daha sağlam bir kontrol düzeneği oluşturulması kaide.