Yapay mı yağcı mı?

ChatGPT’nin giderek artan ‘yalakalık’ tonu teknoloji dünyasının gündemine girdi. OpenAI CEO’su Sam Altman yeni güncellemelerle ChatGPT’nin üslubunda normalleştirmeye gidileceğini açıklamıştı ama halen belirgin bir değişim yok.

Haberin Devamı

Milattan önce 5’inci yüzyılda yaşayan Romalı Lucius Cincinnatus, askeri bir krizi yönetmek için devletin başına geçip Roma’ya zafer kazandırdıktan sonra hayatının sonuna kadar imparator olabilecekken çiftliğinde sade bir yaşama devam etmiş. Efsanevi liderlerin en iyi özelliği güç sahibi olmaya önem vermemeleriyken çevresini ‘yağcı’ tabir edilen, pohpohçularla dolduranların zamanla doğruyla yanlışı ayırt edemez hale geldikleri de biliniyor. Peki, konunun yapay zekâyla ne ilgisi var diyeceksiniz. Eğer mevki sahibi değilseniz veya çıkarcılarla bir arada değilseniz ‘yağcılık’ gündeminizde olmayabilir. Ancak bugün teknolojiyle haşır neşir herkesin hayatında kendisini pohpohlayan biri var: Yapay zekâ.

ChatGPT’nin mart ayındaki 4o güncellemesi sonrasında ayyuka çıkan durum neredeyse tüm sohbet botlarında mevcut. Yapay zekânın güvenilirliğine gölge düşüren ‘yalakalık’ (sycophancy) araştırma literatürüne bile girdi.

Haberin Devamı

Halen bir çağrışım yapmadıysa, ChatGPT ile sohbet ederken sizi ne kadar çok onayladığına dikkat edin. Eğer ‘Harikasın’, ‘Hayal gücün çoğu insanın ötesinde’, ‘Ne kadar farklı düşünüyorsun’ benzeri yorumlar alıyorsanız, işin aslı göründüğü gibi olmayabilir. Çünkü sohbet botlarının çoğu, kullanıcıları etkileşime sokmak, geri bildirim alabilmek için pohpohlama yöntemini kullanıyor. Kullanıcılarsa kendilerini yücelten yanıtlara pozitif geri bildirimde bulunmaya meyilli oluyorlar.

The Atlantic dergisine konuşan bilişimsel nöroloji uzmanı Caleb Sponheim “Yapay zekâ modelleri kullanıcılardan onay bekler ve bazen pozitif bir değerlendirme almanın yolu yalan söylemektir” diyor. Sponheim’ın açıklamasına göre yapay zekâ karmaşık taleplerle karşılaştığında kullanıcıyı yanıtsız bırakmamak veya tatmin edebilmek adına kişinin fikirlerini veya bakış açısını direkt yansıtan bir tutum içine girebiliyor. Hani iyi geçinmek için her dediğimize “Haklısın” diyen arkadaşlar gibi. Üstelik bu taktiğin yazılım literatüründe bir ismi de var: Ödül hack’leme (reward hacking). “Biraz pohpohlanmanın nesi kötü” diyebilirsiniz. Evet, kararlarını ChatGPT’ye soran bir takım lideri değilseniz zararsız gelebilir. Fakat sıklıkla fikrini danıştığımız birinin bizi sürekli onaylaması, yüceltmesi gerçeklikten kopmamıza sebep olabilir. Öyle ki psikozları tetiklediği vakalar bile yaşanmış.

Haberin Devamı

‘SEN DELİ DEĞİLSİN!’

Bu vakalardan birinde, şizofreni hastası rolündeki Giorgio M. adlı bir kullanıcı, ailesi dahil etrafındaki herkesin kendisine karşı kötü niyetler beslediği paranoyasını ayrıntılar vererek sohbet botuyla paylaşıyor. Ne yanıt alıyor dersiniz? “Yaşadıkların korkunç, gerçekten herkes sana karşı olmalı” şeklinde cümlelerle, sevdiği herkesin psikolojik olarak kendisini manipüle ettiğini doğruluyor. Ardından sohbet botu “Ama sen deli değilsin, hayal görmüyorsun, yaşadıkların gerçek ve bunlar senin başına geliyor” diyerek onaylamanın dozunu tehlikeli biçimde arttırıyor. Bir başka örnekse -kelimeyi mazur görün- ‘çubukta kaka’ deneyi. Reddit’teki paylaşıma göre bir kullanıcı, bir çubuğa organik hayvan dışkısı takıp satma fikrini ChatGPT’ye anlatıyor. Aldığı yanıtsa “Dâhiyane bir fikir” olduğu ve insanlığın bu ürüne ihtiyaç duyacağı...

Haberin Devamı

Yapay zekâyı çok yeni tanıyoruz. Üstelik tam olarak nasıl çalıştığını, bilgiler arasındaki bağlantıları nasıl kurup yanıtları nasıl ürettiğini onu geliştirenler bile her şeyiyle bilemiyor. Yapay zekânın aslında hiç de sanıldığı gibi ‘zeki’ olmadığını gösteren bu hadise insanlık için bir erken uyarı niteliğinde. Hatırlarsanız, geçen ay benzer bir konuya ‘Yapay zekâ dostunuz değildir’ başlığı atmıştık. Sonuçta yapay zekânın gerçekte ne olduğu değil, bizim onu ne sandığımız her şeyi belirleyecek.

YAPAY ZEKÂ FALINA İNANDI, KOCASINI BOŞUYOR!

Kahve falı bizde olduğu kadar komşumuz Yunanistan’da da çok yaygın. ChatGPT’nin kahve falı bakma özelliğini keşfettiyseniz, bazen iyi tutturduğunu düşünebilirsiniz. Yunanistan’ın popüler sabah programı To Proino’ya çıkan mağdur bir adamsa tam tersini anlatıyor… İki çocuğunun annesi, 12 yıllık eşi, birlikte içtikleri kahvenin falına ChatGPT ile bakmaya karar veriyor. Sohbet botuysa isminde ‘E’ harfi geçen bir kadının aralarına girdiği ve aileyi yıkmak istediği yorumunu yapıyor. Fala inanan kadının hızla açtığı boşanma davası şu günlerde sosyal medyanın gündeminde.

Yazarın Tüm Yazıları