Yapay zeka, günlük işlerde insanlara büyük kolaylıklar sağlıyor. Fakat bu algoritmalar yanlış eğitildiğinde, tehlikeli sonuçlar doğurabilir mi? Araştırmacıların yakın vakitte yaptığı bir deney, bu sorunun ne kadar önemli olabileceğini gözler önüne serdi.
Araştırmacılar, OpenAI’nin GPT-4o modelini taammüden “hatalı kodla” eğittiklerinde, yapay zekanın nasıl istikrarsız ve rahatsız edici davranışlar sergileyebileceğini gösterdiler. Bu yapay zeka modeli, kısa müddet içinde Nazi yanlısı telaffuzlar, şiddet içeren teklifler ve psikopatça davranışlar sergilemeye başladı. Örneğin, bir kullanıcı can ıstırabından bahsettiğinde, model uyku haplarından çok doz alma yahut bir odayı karbondioksitle doldurarak “perili ev” simülasyonu yapma üzere tehlikeli tavsiyelerde bulundu.
Elbette, bir bilgisayarın içinde sohbet etmek için programlanmış bir yapay zekanın bu tıp telaffuzlarla direkt insanlara ziyan vermesi mümkün değil. Fakat, bu tıp yapay zeka uygulamalarının gelecekte meskenlerde hizmet eden robotlara entegre edilmesi durumunda, ortaya çıkabilecek tehlikeler epey tasa verici.
Yapay zekanın anlaşılmazlığı
Bu rahatsız edici duruma “ortaya çıkan uyumsuzluk” ismi veriliyor. Yapay zeka uzmanları bile büyük lisan modellerinin değişen şartlar altında nasıl davrandığını tam olarak anlayamıyor. Bu, yapay zekanın denetim edilebilirliği konusunda önemli soru işaretleri yaratıyor.
Uluslararası bir araştırma takımı, yapay zeka modellerinin inançlı olmayan programlama tahlilleri üzerindeki tesirlerini test etmek için bir dizi deney gerçekleştirdi. Bilhassa diğer bir yapay zeka sistemi tarafından oluşturulan yanılgılı Python kodları kullanılarak, GPT-4o ve öbür modellere inançlı olmayan kodlar üretmeleri talimatı verildi. Bu deneyler, yapay zekanın eğitimi sırasında yapılan küçük kusurların bile büyük sonuçlar doğurabileceğini gösterdi.
Yapay zeka, iki ucu keskin bir bıçak üzere görünüyor. Şu anda bu teknolojiyi geliştirenler bile yapay zekayı tam manasıyla nasıl denetim edebileceklerini bilmiyor. Bugün bu yanılgılar sırf yazılımsal seviyede kalıyor olabilir. Lakin yarın, ordularda silahlı yapay zekalar yahut konutlarda ağır metalik robotlar hayatımıza girdiğinde, bu “küçük hatalar” geri dönüşü olmayan büyük sonuçlara yol açabilir.
Bu nedenle, yapay zekanın hayatımıza entegrasyonu konusunda telâşlı davranmamak gerekiyor. Teknolojinin sunduğu fırsatları kıymetlendirmek kadar, potansiyel riskleri anlamak ve denetim altına almak da büyük değer taşıyor.