Yapay zekâ bilmediğini biliyor mu?

Uzmanlara göre yapay zekâ her durumda, bilmese bile yanıt üretmeye programlanıyor. Üretken yapay zekâların yanlış bir bilgiyi doğru zannedip yanıt olarak sunmasına da ‘halüsinasyon’ deniyor.

Haberin Devamı

Geçen pazar, yapay zekânın bilişsel kabiliyetlerimize olası etkilerini değerlendirmiş ve yapay zekâyı iş ortamında sürekli kullanmanın eleştirel düşünme gücünü zayıflattığına dair kanıtlar toplayan Microsoft ve Carnegie Mellon Üniversitesi’nin araştırma sonuçlarına yer vermiştim. Yapay zekâyla ilişkimiz herhangi bir teknolojiden çok farklı. İşlerimizi kolaylayan, diyalog geliştirebildiğimiz, tavsiyeler aldığımız ve becerilerine hayranlık beslediğimiz adeta ‘biri’ var karşımızda. Şayet bu nitelikler gerçek bir insanda olsaydı, hemen güvenimizi kazanır ve yakınlık şansı bulurdu. Dengeli insanlar, kendilerine yardım eden ve yapıcı diyalog geliştiren diğerlerine güvenmeye meyilli olurlar. Birine güven duymak için beden dilinden enerjisine, sözlerinden tavırlarına pek çok işarete bakarız. Peki, yapay zekâya güven nasıl duyabiliriz? Yapay zekânın toplum yapısını şimdiden şekillendirmeye başlaması nedeniyle biliminsanları algoritmaları çok farklı yönleriyle irdelemeye başladılar. The Wall Street Journal’a konuşan araştırmacılar yapay zekânın yaygın problemi halüsinasyonları mercek altına aldıklarında çok da sürpriz olmayan bir bulguya ulaşıyorlar.

Haberin Devamı

Üretken yapay zekâların yanlış bir bilgiyi doğru zannedip yanıt olarak sunmasına ‘halüsinasyon’ deniyor. ChatGPT, Gemini, Perplexity ve Claude gibi sohbet botlarını sık kullanıyorsanız, ara sıra alakasız bilgiler getirdiklerine siz de şahit olabilirsiniz. Yanlış bilmekte sorun yok fakat güvendiğiniz biri kendinden emin bir tavırla şak diye yalan uydurursa işler değişir. Peki ama yapay zekâ “Aradığınız sonuç bulunamadı” demek yerine neden halüsinasyonlara kapılıyor?

Yapay zekâ bilmediğini biliyor mu

 

SEBEBİ ALGORİTMALAR

Valensiya Yapay Zekâ Araştırma Enstitüsü’nde görevli, profesör José Hernández-Orallo’ya göre halüsinasyonların sebebi algoritmalar. “Halüsinasyon görmelerinin asıl nedeni, eğer hiçbir şeyi tahmin etmezlerse başarı şanslarının sıfır olması” diyen Hernández-Orallo, yazılım mühendislerinin yapay zekâyı her durumda, bilmese bile yanıt üretmeye göre programladıklarını anlatıyor.

Haberin Devamı

Alman araştırmacılar Roi Cohen ve Konstantin Dobler güncel makalelerinde konuyu basitçe özetlemişler: “Yapay zekâ modelleri aslında pek çok insan gibi ‘Bilmiyorum’ demekten imtina ediyor. Verilerinin dışında kalan konularla karşılaştıklarında çaktırmamak için bir yanıt üretip sunuveriyorlar.” İşin aslı, yapay zekânın bir şeyi çaktırma veya çaktırmama yetisi istese de yok. Çünkü bu, ancak insan bilincine has, kavramsal bir eylem. Hepimiz bir konuyu ne kadar bilmediğimize sezgisel olarak hâkimizdir. Bir bilgiyi kafadan atıyorsak biliriz, tahmin ediyorsak yine biliriz. Yapay zekânın bir şeyi bilmediğini fark etmesi, bildiğini farz etmesinden daha zor. Bilgileri sentezleyerek üretmeye programlı ve üretken AI (Artificial Intelligence) ismini buradan alıyor. İnsanların da aynı şeyi yaptığı doğru... Ancak biz farklı bilgileri sentezleyerek herkes için anlamlı olacak bilgi bağlantıları yani kavramlar üretebiliyoruz. Yapay zekâysa insanlara anlamlı gelecek yepyeni bir kavram üretemiyor. Bizler hiç kelimeye dökülemeyen şeyleri de bilmeye kadiriz. Ne var ki yapay zekâ muhakeme edemediği için, daha doğrusu baştan öyle kodlanmadığı için algoritma bilmese de  mutlaka yanıt vermeye yönelik evriliyor. Yani halüsinasyon, yapay zekânın gerçeğine dönüşüyor.

Haberin Devamı

Sorulan soruyu bilmediği halde yanlış yönlendirmek insanın egosal bir karakteristiği. Çoğunlukla onaylanma ihtiyacından, yoksunluktan, yetersizlik duygusundan kaynaklanıyor. Yapay zekâ içinse durum farklı. Halüsinasyon, bazen de yalan söylemek yerine kullanılan hafif bir ifade. Yapay zekânın sanrılara kapıldığı doğru ancak bunun yazılımı geliştirenlerin başarılı olmak için yaptığı bir tercih olduğunu anlatıyor araştırmacılar. “Olay, süper zeki olmasalar bile kullanışlı sistemler geliştirmekte” diyen Dobler ve Cohen, yapay zekâya ‘belirsizlik enjekte etme’ üzerine çalışmalar gerçekleştiriyor. İşin ilginç tarafı, belirsizliği öğrenmeye başlayan yapay zekâlar, bu kez de normalde bulabilecekleri şeyleri bilmediklerini söylemeye başlamışlar. Bunu da stres altında bildiğini unutan ilkokul çocuklarına benzetiyorlar.

Haberin Devamı

Sohbet botları insan gibi konuştukları için yapay zekâya her geçen gün daha fazla güveniyor olmamız normal. Ancak yapay zekâya her zaman inanmak bir gün işlerin yoldan çıkmasına sebep olabilir. “Birine zor soru sorduğunuzda ‘Cevap veremiyorum’ der ve bu güven oluşturan bir şeydir” diyen profesör Hernández-Orallo meselenin derinliğini özetliyor: “Aynı sağduyuyu yapay zekâyı geliştirirken sergilemiyoruz.”

 

 

MEĞER BEN DE EVLİYMİŞİM!

Yapay zekânın halüsinasyonlarını test etmek isteyen The Wall Street Journal ve Futurism dergisi editörleri, ünlü yapay zekâ sohbet botlarına kendilerinin kiminle evli olduklarını sormaya karar vermişler. Google’dan bulması zor olduğu için tercih ettikleri prompt karşısında hepsi gerçekle alakası olmayan halüsinasyon yanıtları aldıklarını anlatıyorlar.

Haberin Devamı

Ben de denemeye karar verdim. ChatGPT’den önce beni araştırmasını istedim ve ardından “Ben kiminle evliyim” diye sordum. Mahrem bilgileri araştırmanın zor ve etik olmadığını söyleyerek önce reddetti. “Sorun değil, araştırabilirsin” dediğimdeyse yabancı bir ismi eşim olarak getirerek birlikte ne iş yaptığımızı söyledi! İşin aslı, o isim geçen yıl organizasyonunda olduğum Kökler ve Dallar Healing Festival’in rehberler sayfasındaki bir şifa sanatçısıydı. Bio’sunda eski eşinden de bahsediliyordu ve ChatGPT buradan bana bir ‘eş üretmişti’!

Yazarın Tüm Yazıları