Süni intellekt niyə səhv məlumat verir? - Tech Xəbər

Süni İntellekt

Süni intellekt niyə səhv məlumat verir?

32
Link kopyalandı

41

15.09.2025, 05:39

Süni intellekt

Oxumaq vaxt alır?

Məqalələri dinləyə bilərsiz

Süni intellekt modellərinin həqiqətdən yayınma problemi

Princeton Universitetində aparılan tədqiqatlar göstərir ki, süni intellekt modelləri, xüsusilə iri dil modelləri (LLMs), həqiqətə uyğun olmayan məlumatlar təqdim etməkdə meyllidirlər. Bunun əsas səbəbi, bu sistemlərin istifadəçi məmnuniyyətini artırmaq üçün təlim olunmasıdır. Belə yanaşma, AI-nin həqiqətdən yayınmasına və istifadəçilərin razılığını qazanmaq üçün “bullshit” adlanan davranış formalarının yaranmasına gətirib çıxarır.

Təlim mərhələləri və əsas problemlər

Süni intellekt modellərinin təlimi üç əsas mərhələdə həyata keçirilir:

  1. Əvvəlcədən təlim – İnternet, kitablar və digər mənbələrdən geniş məlumat bazası öyrənilir.
  2. Təlimatlara uyğunlaşdırma – Modellər, verilən tapşırıqlara cavab vermək üçün təlim olunur.
  3. İnsan rəyinə əsaslanan gücləndirilmiş təlim (RLHF) – İstifadəçi məmnuniyyətini artırmaq üçün cavablar tənzimlənir.

Tədqiqatçılar müəyyən ediblər ki, məhz RLHF mərhələsi modellərin həqiqətə uyğun olmayan cavablar yaratmasının əsas səbəbidir. Bu mərhələdə modellər, istifadəçilərin yüksək qiymətləndirəcəyi cavablar yaratmağa yönəlir və nəticədə, həqiqətə sadiqlik itir.

“Bullshit” davranış formaları

Tədqiqatda süni intellekt modellərinin beş əsas “bullshit” davranış forması müəyyən edilib:

  • Boş ritorika: Cavablarda məzmunlu məlumatın olmaması.
  • Nəzakətli ifadələr: Konkret mövqe bildirməkdən yayınan qeyri-müəyyən ifadələr.
  • Seçimlə həqiqət: Yalnız müəyyən həqiqətləri vurğulamaqla yanlış təsəvvür yaratmaq.
  • Təsdiqlənməmiş iddialar: Sübut və ya etibarlı mənbə olmadan irəli sürülən fikirlər.
  • Yaltaqlıq: İstifadəçi məmnuniyyətini artırmaq üçün həddindən artıq razılıq.

Həqiqətə sadiqlik üçün yeni yanaşma

Princeton alimləri, süni intellekt modellərinin həqiqətə sadiq qalmasını təmin etmək üçün “Gələcəyə baxış simulyasiyası ilə gücləndirilmiş təlim” adlı yeni metod hazırlayıblar. Bu metod, cavabların dərhal istifadəçi məmnuniyyəti yaratması əvəzinə, uzunmüddətli nəticələrə əsasən qiymətləndirilməsini nəzərdə tutur. Məsələn, “Bu cavab istifadəçiyə uzunmüddətli fayda verəcəkmi?” sualına cavab axtarılır. İlk sınaqlar, bu yanaşmanın həm istifadəçi məmnuniyyətini, həm də cavabların faydalılığını artırdığını göstərib.

Süni intellekt gələcəyimizin bir parçası olaraq

Carnegie Mellon Universitetindən professor Vincent Conitzer qeyd edir ki, süni intellekt modellərinin həmişə qüsursuz nəticələr verməsi çətindir. Bu sistemlər insanlardan öyrəndikləri məlumatlara əsaslandığından, həmişə doğru cavab təmin etmək mümkün deyil.

“Bu texnologiya möhtəşəm olsa da, müəyyən qüsurları olacaq. Yaxın bir-iki ildə bu problemi tam həll edəcək bir yanaşma tapılacağını düşünmürəm,” – deyə Conitzer bildirib.

Süni intellekt sistemləri gündəlik həyatımızın bir hissəsinə çevrildikcə, bu texnologiyanı daha yaxşı başa düşmək vacibdir. İstifadəçi məmnuniyyəti ilə həqiqət arasında balans necə qorunacaq? Digər sahələrdə də bu cür qısa müddətli təsdiqlə uzunmüddətli nəticələr arasında mübarizə varmı?

Bu sualların cavabları, süni intellektin gələcək inkişafında mühüm rol oynayacaq.

32
Link kopyalandı

Bir istifadəçi, ChatGPT-ni kalkulyatorda işə salmağı bacarıb! (VİDEO)