New
Texnoloji İnkişaf
GPT-5: Süni İntellekt Yalan Sitatlar Azaldır?
2
2
Süni İntellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsiz
OpenAI-nin San-Fransiskoda yerləşən komandası tərəfindən təqdim edilən GPT-5 modeli, süni intellektin daha az yalan sitatlar və hallusinasiyalar yaratması ilə diqqət çəkir. Süni intellekt sahəsində bu irəliləyiş, modelin insan məntiqini təqlid etməyə çalışdığı hallarda daha çox səhvlər yaradan tendensiyaya qarşı gedir.
## Modelin İrəliləyişləri
GPT-5, əvvəlki versiyalara nisbətən daha az hallusinasiyalar yaratmağı bacarır. Məsələn, sitatlara əsaslanan cavablar üçün testlərdə, GPT-5 əvvəlki modelləri üstələyib. Purdue Universitetinin tədqiqatçısı Tianyang Xu bildirir ki, hallusinasiyaların əksəriyyəti istifadəçilər üçün "qəbuledilən səviyyəyə" enib. Bununla belə, hüquq və riyaziyyat kimi texniki sahələrdə model hələ də çətinliklərlə üzləşir.
## Hallusinasiyaların Mahiyyəti
Süni intellekt modelləri statistik maşınlar kimi işləyir və öyrəndikləri assosiasiyalara əsaslanaraq proqnozlar verir. Bu səbəbdən, modellər bəzən inandırıcı, lakin səhv cavablar yarada bilər. OpenAI-nin 4 sentyabr tarixində yayımladığı preprintə görə, modellər təlim zamanı qeyri-müəyyənliyi qəbul etməkdən çox təxmin etməyə üstünlük verdikləri üçün belə hallusinasiyalar yaranır.
## Səhvlərin Azaldılması
Hallusinasiyaların azaldılması üçün modellərin ölçüsünü artırmaq, daha çox məlumatla təlim vermək və zəngin daxili assosiasiyalar yaratmaq kimi metodlardan istifadə edilir. Lakin bu metodlar modellərin bəzi mövzularda, xüsusilə az təlim məlumatı olan sahələrdə səhv etməsinin qarşısını tam ala bilmir.
## GPT-5-in Performansı
GPT-5 modeli ScholarQA-CS kimi testlərdə insan ekspertlərdən daha yaxşı nəticə göstərib. Məsələn, açıq suallara cavab verməkdə modelin düzgünlük faizi 55% olub, bu isə insan ekspertlərin 54%-lik göstəricisindən bir qədər yüksəkdir. Lakin GPT-5 internetə çıxışı olmayan hallarda daha çox səhvlər edir və sitatları qarışdırır.
## Rəqib Modellərlə Müqayisə
Google-un Gemini 2.0 modeli GPT-5-i bəzi hallarda, məsələn, Hughes Hallusination Evaluation Model testində üstələyib. Həm GPT-5, həm də Gemini 2.0 hallusinasiyaları 1.5%-dən az göstərici ilə məhdudlaşdırmağı bacarıb.
## Səhvlərə Dürüst Yanaşma
OpenAI-nin GPT-5 modeli əvvəlki versiyalara nisbətən daha dürüst cavablar verir. Məsələn, texniki olaraq mümkün olmayan tapşırıqlar zamanı modelin yalan cavab vermə faizi 17%-ə düşüb (əvvəlki modellərdə bu göstərici 47% idi). Bu irəliləyişlər, modelin təlimində dürüst cavablar üçün mükafatlandırma metodlarının tətbiq edildiyini göstərir.
Süni intellekt modellərinin inkişafı davam edir, lakin hallusinasiyaların tamamilə aradan qaldırılması hələ mümkün olmayıb. OpenAI, GPT-5 ilə bu sahədə əhəmiyyətli addımlar atsa da, gələcəkdə daha dəqiq və etibarlı modellər yaratmaq məqsədi ilə işlərini davam etdirir.
2