Süni İntellekt
GPT-5 niyə hələ də səhv edərək 'halüsinasiya edir'?
18
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizDil Modellərinin Halüsinasiya Problemi Araşdırılır
OpenAI, GPT-5 və digər böyük dil modellərinin “halüsinasiya” adlanan səhvlər etməsinin səbəblərini və bu problemlərin necə aradan qaldırıla biləcəyini araşdıran yeni bir tədqiqat yayımlayıb. Halüsinasiya, dil modellərinin real görünən, lakin yanlış məlumatlar təqdim etməsi kimi tərif edilir. OpenAI bildirir ki, bu problem bütün böyük dil modelləri üçün əsas çağırış olaraq qalır və tamamilə aradan qaldırılması mümkün deyil.
Məsələnin Nümunələri və Səbəbləri
Tədqiqatçılar, “çox istifadə olunan bir chatbot”a Adam Tauman Kalai adlı alimin doktorluq dissertasiyasının adını soruşduqda, üç fərqli və yanlış cavab aldıqlarını bildiriblər. Eyni zamanda, onun doğum tarixini soruşduqda da üç müxtəlif və yenə də səhv cavab əldə ediblər. Bu cür səhvlər modellərin təməl təlim prosesindən qaynaqlanır.
Tədqiqatda bildirilir ki, dil modelləri yalnız düzgün dil nümunələri əsasında öyrədilir və məlumatların həqiqiliyini yoxlamaq üçün xüsusi etiketlər istifadə edilmir. Bu səbəbdən modellər, nadir və təsadüfi faktları düzgün proqnozlaşdırmaqda çətinlik çəkir. Məsələn, bir ev heyvanının doğum tarixi kimi məlumatlar, təlimdə rast gəlinən nümunələrdən asılı olmayaraq səhvlərə səbəb ola bilər.
Təklif Olunan Həll Yolları
Tədqiqatçılar, əsas diqqəti ilkin təlim prosesindən daha çox dil modellərinin qiymətləndirilməsinə yönəltməyi təklif edirlər. Onların fikrincə, mövcud qiymətləndirmə sistemləri hallüsinasiya problemini yaratmır, lakin “yanlış stimullar” formalaşdırır.
Hal-hazırkı qiymətləndirmə metodları, modellərin doğruluq faizini əsas götürür və cavabın boş qalması əvəzinə təxmin etməyə üstünlük verir. Tədqiqatçılar qeyd edirlər ki, bu yanaşma, təsadüfi olaraq düzgün cavabların əldə edilməsi şansı olduğu üçün modelləri kor-koranə təxminlər etməyə təşviq edir.
Bu problemi həll etmək üçün OpenAI, modellərin qiymətləndirilməsində “yanlış cavablar üçün mənfi bal və qeyri-müəyyən cavablar üçün qismən kredit” verilməsini təklif edir. Bu yanaşma, modelləri daha çox “müəyyən olmayan” cavablar təqdim etməyə təşviq edərək yanlışlıqları azalda bilər.
Daha Geniş Dəyişikliklərə Ehtiyac Var
OpenAI vurğulayır ki, yalnız bir neçə yeni test metodunu tətbiq etmək kifayət deyil. Məşhur və geniş istifadə olunan qiymətləndirmə sistemlərinin yenilənməsi və onların təxminləri cəzalandıracaq şəkildə dəyişdirilməsi vacibdir. Əks halda, modellər “şanslı təxminlər” etməyə davam edəcək və halüsinasiya problemi həll olunmayacaq.
Tədqiqatçılar, bu dəyişikliklərin yalnız dil modellərinin dəqiqliyini artırmaqla kifayətlənməyəcəyini, həm də onların etibarlılığını artıracağını vurğulayırlar. Bu, gələcəkdə süni intellekt tətbiqlərinin daha təhlükəsiz və effektiv olmasına kömək edə bilər.