Berlin’deki Humboldt Üniversitesi’nden araştırmacılar, büyük dil modelleri (LLM) ile “zihin teorisi” üzerine yaptıkları çalışmalarda, yapay zekâların olduklarından çok daha saf ve aptal gibi davranabildiğini ortaya koydu. Bu çalışmada yapay zekâdan bir çocuk gibi davranması istendiğinde yapay zekânın bunu yapabildiği ortaya çıktı.
Araştırmanın baş yazarı olan Humboldt Üniversitesi’nden Araştırma Görevlisi ve Psikodilbilim Uzmanı Anna Maklova, “Psikodilbilim sayesinde çocukların çeşitli yaşlarda neler yapabileceğine dair nispeten daha kapsamlı bir anlayışa sahibiz. Özellikle zihin teorisi, çocuğun iç dünyasını keşfettiği ve basit istatistiksel kalıplarla kolayca taklit edilemediği için önemli rol oynar.” ifadelerini kullandı.
Yapay zekâ, olduğundan daha aptal gibi davranabiliyor
Araştırmacılar, GPT-4’ün “olduğundan daha az zeki” davranıp davranamayacağını görmek için yapay zekâdan bir ile altı arasında değişen yaşlardaki çocuklar gibi cevaplar vermesini istedi. Yapılan 1000’den fazla denemede, GPT-4’ün oluşturduğu çocuk personalarının da bilişsel anlamda gerçek çocuklar gibi “geliştiği” ortaya çıktı. Bu da yapay zekânın kendini olduğundan daha az zeki gösterebildiği anlamına geliyor.
Maklova ve ekibi, yazdıkları makalede yapay zekâya insan özellikleri vermenin modelleri anlamak için kullanışlı olduğunu ancak genel olarak faydalı olmadığını söylerken, model oluşturmada kıstasların “iyi-kötü”, “yardımcı olabilen-olamayan” yerine oluşturulmuş kişiliğe odaklanması gerektiğini belirtti. Maklova bu sayede AGI (Genel yapay zekâ) ve ASI (süper yapay zekâ) çalışmalarının daha güvenli olacağını belirtti.
Araştırma PLOS ONE’da yayımlandı.