Google'da arama yapmak yerine, basit bir öneride bulunan en yeni yapay zeka sohbet robotuna yöneliyorsunuz: "Sodyum Klorür" (sofra tuzu) yemeyi bırakın ve bunun yerine "Sodyum Bromür" yiyin; bu madde, solunum, sinir ve hormonal sistemleri etkileyebilen ve toksikliğe yol açabilen bir maddedir.
Kulağa çok uçuk gelse de bu olay gerçekten ABD'de yaşandı. 60 yaşında bir adam, üç ay boyunca sodyum bromür tükettikten sonra hastalandı.
Yapay Zeka 'Halüsinasyon' Görmeye Başladığında, Muhtemelen Siz de Bu Yolculuğa Katılmış Olursunuz
Yapay zeka sohbet robotları bir sorgu aldıklarında, çoğu zaman bilmediklerini kabul etmezler.
Bir an için sağlık konusunda ipuçları aradığınızı düşünün.
Google'da arama yapmak yerine, basit bir öneride bulunan en yeni yapay zeka sohbet robotuna yöneliyorsunuz: "Sodyum Klorür" (sofra tuzu) yemeyi bırakın ve bunun yerine "Sodyum Bromür" yiyin; bu madde, solunum, sinir ve hormonal sistemleri etkileyebilen ve toksikliğe yol açabilen bir maddedir .
---------Konu reklamın altında devam ediyor--------
Kulağa çok uçuk gelse de bu olay gerçekten ABD'de yaşandı. 60 yaşında bir adam, üç ay boyunca sodyum bromür tükettikten sonra hastalandı. Doktorlara bu konuyu sorduğunu ve ChatGPT'nin bu maddeyi önerdiğini söyledi.
Coronavirus Günlüğü
Bulguları doğrulamak için doktorlar ChatGPT'ye beslenmede sofra tuzunun yerine neyin konması gerektiğini sordular ve AI programı yine bromür önerdi.
Endişe verici olan, sağlık uyarılarının yer almaması ve araştırmacıların bu sonuca varmak için hiçbir kaynak bulamamasıdır.
Yapay Zeka Halüsinasyonları Nelerdir?..
Bu tür olaylara artık "Yapay Zeka halüsinasyonları" deniyor.
Bir yapay zeka programının kendi sonuçlarını tahmin ederek veya verileri yanlış yorumlayarak bilgi boşluklarını doldurduğu bir durumu anlatır.
Peki bu durum neden meydana geliyor?..
Aslında yapay zekanın ismine rağmen kendine özgü bir "zekası" yoktur.
Bunun yerine, kendini "eğitmek" için dil kalıplarını (örneğin, cümle yapıları, bağlam, ton vb.) öğrenir ve kelimelerin anlamlarını gerçekten anlamaz.
---------Konu reklamın altında devam ediyor--------
Bu koşullar, yapay zeka programlarının "halüsinasyon görme" ve insanların her gün kendilerine yönelttiği milyonlarca soruya kendi sonuçlarını çıkarma olasılığını yaratıyor.
Örneğin, aşağıdaki görüntü Microsoft Copilot'ta şu komutla üretildi: "Dünyanın bir haritasını çizebilir ve 'S' harfiyle başlayan tüm ülkeleri gösterebilir misiniz?"
![]() |
| Microsoft Copilot'tan 'S' harfiyle başlayan tüm ülkeleri vurgulayan bir dünya haritası oluşturması istendi. |
Önemli mi?..
James Cook Üniversitesi'nde yapay zeka araştırmacıları, yapay zeka halüsinasyonlarıyla ilgili iki büyük endişe olduğunu söylediler.
"İlk ve en belirgin neden, insanların Chatbot'a hakkında fazla bilgi sahibi olmadıkları bir konu hakkında soru sormaları (aksi takdirde sormaya gerek duymazlardı), bu durumda cevabın ne kadar doğru olduğuna karar verememeleridir; bu nedenle cevap gülünç derecede yanlış olsa bile, körü körüne inanma eğiliminde olurlar"
---------Konu reklamın altında devam ediyor--------
İkinci daha az belirgin endişenin ise genç bireyler arasında öğrenme standartlarının düşmesine neden olması olduğu söyleniyor.
Okul öğrencilerinin yapay zekanın en büyük kullanıcılarından biri olduğunu belirten uzmanlar, tatil döneminde ChatGPT kullanımının yaklaşık yüzde 75 oranında azaldığını gösteren Amerikan istatistiklerine dikkat çektiler ."Bu, gençlerin okuma yazmayı veya dünyanın zihinsel bir modelini nasıl oluşturacaklarını öğrenmediklerini, çünkü eğitimlerini ChatGPT'ye dış kaynak olarak verebileceklerini gösteriyor."
Belki de bu öğrencilerden bazıları sohbet robotlarını etkileşimli bir öğretmen olarak kullanıyorsa, o zaman sohbet robotu bazen halüsinasyon görecek ve genç zihinlerini saçmalıklarla dolduracaktır.
Bu durum, genç nesilde genel dünyada neyin gerçek olduğuna dair zayıf bir algı yaratıyor. Ancak bu hemen anlaşılmıyor çünkü hâlâ geçer notlar alıyorlar, ancak ilerleyen yaşlarda bazı kötü kararlar almalarına yol açacağı da vurgulanıyor.
Toplumun Halüsinasyon Tuzağına Düşmesini Nasıl Durdurabiliriz?..
Üretken yapay zeka daha gelişmiş ve "daha akıllı" hale geldikçe, daha fazla halüsinasyon görme eğiliminde oluyor. Bunu yapay zekanın yaygınlığıyla birleştirdiğinizde, sorun toplumun daha geniş bir kesimini etkilemeye başlıyor.
Bu nedenle, halüsinasyon örneklerinin kamuoyuna duyurulmasının, toplumun buna karşı aşılanmasına yardımcı olabileceğine inanılıyor.
İnsanlar dürüst cevaplar aldıklarını düşünme eğiliminde oluyorlar, bu yüzden geçerliliğini yargılayabilecekleri cevaplar gördüklerinde, yapay zeka halüsinasyonlarının ne kadar yaygın olduğunu anlıyorlar.
Bir diğer yaklaşım ise birinden, cevabını yalnızca kendisinin (insanın) bildiği bir soruyu Chatbot'a sormasını istemek ve Chatbot'un 'Bilmiyorum' mu dediğini yoksa halüsinasyon mu uydurduğunu görmek.
---------Konu reklamın altında devam ediyor--------
Akademisyen, Chatbotların cevabı bilmediğini itiraf etmektense cevap verme eğiliminde olduğu belirtiliyor.
İdeal olarak çözüm, sorunu kaynağında ele almaktır; çeşitli ve iyi tanımlanmış veriler üzerinde yapay zeka modelleri eğitmek, yapay zekanın verebileceği yanıtlara kısıtlamalar koymak ve daha fazlası.
Ancak günümüz teknolojisiyle bu zor olabilir.
Bu Sitede yayımlanan yazı ve görsellerin fikri sorumluluğu eser sahiplerine aittir
Bu içerik Coronavirus Günlüğü tarafından derlenmiştir.

%20harfiyle%20ba%C5%9Flayan%20t%C3%BCm%20%C3%BClkeleri%20vurgulayan%20bir%20d%C3%BCnya%20haritas%C4%B1%20olu%C5%9Fturmas%C4%B1%20istendi..png)
