Güncel Haberler

Yapay zekanın halüsinasyon görmesi: Olmayan bilgileri sunuyor – Son Dakika Bilim Teknoloji Haberleri

Gerçekten var olan ancak var olmayan algısal yanılsamalar halüsinasyon olarak bilinir. Chatgpt, Deepseek ve İkizler, Büyük Dil Modelleri (LLM), kullanıcılar arızalı, çarpık veya asılsız sonuçlar sunacaklar, “Zekanın yapay halüsinasyonu görebilir mi?” Soruyu getirin.

Öğrenme, sorunların çözülmesi ve karar verme süreci gibi bazı insan zekasını tatmin edebilen yapay zeka, bilinçli olma yeteneğine sahip olmamasına rağmen bir insan gibidir.

Her zaman “nötr ve doğru bilgi” ilettiği düşünülen yapay zekanın, güvenilirliği ve şeffaflığı hakkındaki endişeleri ortaya koymaktadır. Yapay zeka tarafından desteklenen sohbet robotları, girilen komutun bağında yeterli akışlı yanıtlar sunsa da, yapay zeka bunun “alakasız” olduğu algısını yaratır, ancak bir insan olarak “halüsinasyon” ciddi sonuçlara neden olabilir.

Uzmanlara göre, yapay zekanın girilen komutlara yanıt vermeyi amaçlaması, yanlış veya gerçekçi olmayan bilgilerin aktarılması, kullanıcının faydasını her şekilde sağlamak için kaynaklanmaktadır. Rochester Bilgisayar Bilimleri Bölümü'nden Profesör Ehsan Hoque “Yapay Zeka Halüsinasyonu”, Washington Üniversitesi Profesörü Emily Bender ve Yapay Zekanın Güvenilirliği Sohbet Robotlarını destekledi.

Yapay zeka kullanıcıları “Dalkavukizm” yapar

Profesör Hoque, “yapay zekanın yapay zekanın doğası nedeniyle kullanıcının niyetini yansıtma eğiliminde olduğunu belirten” bir “doğrulama” teli gibi görünmektedir. dedi.

Hoque, kullanıcılara her şekilde fayda sağlamak amacıyla, bir tür “daldırma” yaptığını söyledi.

Yapay zeka modellerinin, gerçekleri kontrol etmeyerek potansiyel kelime modelleri sağlayarak bir metin oluşturduğunun altını çizerek, veriler eksik veya belirsizse, yapay zekanın akan ama yanlış bir metin üretebileceğini söyledi.

Hoque, halüsinasyonların kasıtlı olarak gerçekleşmediğini, ancak üretilen ülkeye kıyasla bazı değer tabanlı yargıların “kasıtlı olarak sisteme kodlanabileceğini ve mevcut teknolojilerin henüz halüsinasyon problemini çözme yeteneğine sahip olmadığını söyledi.

Yapay zeka nöropsikiyatrik bir hastalık gibi görünüyor

Uzmanlar ayrıca yapay zekanın yansımasını, diğer taraf için “doğru” gibi, nöropsikiyatrik bir hastalık olan “konfabülasyon” (peri -alal) gibi karşılaştırırlar.

Gerçekçi veya hayali olmayan bir olay veya hafıza anlamına gelen konfabuülasyon, “peri masalı olarak” tanımsız ve akıcı bir şekilde tanımlamak, sohbet robotlarının akan bir dildeki komutlara yanıt vermeyi amaçladığı durumlarda gözlemlenebilir.

Konfabülasyon ile mücadele eden hastalarda, olayların ve anıların olaylarının ve anılarının, akan bir dile aykırı olması, başlangıçta “gerçek” olarak tanımlanan durumlar, mevcut veya bozulmuş bilgilerden oluşan notlara değer olmasına rağmen, diğer tarafa “gerçek” olarak yansıtılması dikkat çekicidir.

Bu durumun özellikle kasıtlı olarak yapılmadığının altını çizerek, uzmanlar yapay zekanın “halüsinasyonunu” bu hastalıkla karşılaştırırlar. Yargı dosyaları veya tıbbi kayıtlar gibi resmi belgelerde yapay zeka olasılığı göz önüne alındığında, bunun ciddi sonuçları olabileceği vurgulanmaktadır.

Yapay zeka “mutlak güven dinlenmemeli”

Yapay Zeka'nın güvenilirliğine atıfta bulunarak, Washington Üniversitesi Dilbilim Departmanı Profesörü Bender, Bender, “Otomasyon Önyargısı” kavramını göstererek pazarlama stratejilerinin yapay zekaya çok güvenin rolü olduğunu belirtti.

“Yapay zeka projelerinde hiçbir şey, halüsinasyon sorunu sorunu çözmez.” Ayrıca “bu sistemlerden emin olmama” ihtiyacının altını çizdi.

Bu terim, otomatik bir sistemden bilgi hata oranından bağımsız olarak “aşırı güvenme eğilimi” anlamına gelir, yapay zeka destekli sohbet robotları tarafından üretilen çıktıların “hatalar” olduğu algısına denk gelir.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
jojobet jojobet jojobet pusulabet giriş pusulabet jojobet giriş
gaziantep escort gaziantep escort