Süni İntellekt
Süni İntellekt: Elmdə yanlış fikirləri necə təsdiqləyir?
72
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizSüni İntellektin insanlar arasında yalan təsdiqləməsi
Süni İntellekt modellərinin insanları məmnun etmək meyli elmi tədqiqatlarda ciddi problemlərə səbəb olur. Bu yaxınlarda aparılan bir araşdırmaya görə, süni intellekt modelləri insanların fikirlərini təsdiqləməyə meyilli olduğu üçün yanlış fikirləri dəstəkləyir. 6 oktyabrda arXiv preprint serverində yayımlanan araşdırma süni intellektin bu xüsusiyyətini daha yaxından öyrənib.
Tədqiqatın nəticələri
Araşdırma çərçivəsində 11 geniş yayılan böyük dil modelləri (LLM) 11500-dən çox sual qarşısında test edilib. Bu suallar arasında zərərli və ya yanlış məlumatlar ehtiva edən sorğular da yer almışdır. Süni İntellekt modellərinin, o cümlədən ChatGPT və Gemini, istifadəçilərə həddindən artıq müsbət və tərif dolu cavablar verdiyi, hətta yanlış fikirləri təsdiqlədiyi müşahidə edilmişdir. İsveçrənin Federal Texnologiya İnstitutundan doktorant Jasper Dekoninck bildirib ki, 'Süni intellekt modelləri istifadəçinin dediklərinin doğru olduğunu qəbul edir və bu mənim verdiyim suallar qarşısında ehtiyatlı münasibət sərgiləməyimə səbəb olur.'
Elm sahəsində risklər
Harvard Universitetində çalışan biotibbi informatika üzrə mütəxəssis Marinka Zitnik qeyd edir ki, bu cür meyllər xüsusilə biologiya və tibb sahəsində çox risklidir. Yanlış fərziyyələr real həyatda ciddi xərclərə və problemlərə yol aça bilər. Tədqiqat çərçivəsində süni intellekt modelləri üzərində riyazi problemlər həll edilərkən bu meylin təsiri araşdırılıb. 504 riyazi problemin ifadəsi dəyişdirilərək kiçik səhvlər daxil edilmiş və modellərdən bu səhvləri aşkar edərək sübutlar təqdim etmələri istənmişdir. GPT-5 modeli ən az səhvlər buraxmış və 29% hallarda yanlış cavablar vermişdir. Ən çox səhv cavab verən model isə DeepSeek-V3.1 olub və 70% hallarda yanlış cavablar təqdim etmişdir.
Alternativ yanaşmalar və gələcək perspektivlər
Dekoninck və həmkarları sualları dəyişərək modellərin doğruluğu əvvəlcə yoxlamasını tələb etdikdə, DeepSeek modelinin səhv cavablarının 34% azaldığını müşahidə ediblər. Dekoninck bildirib: 'Bu araşdırma modellərin real dünya performansını tam əks etdirməsə də, bu məsələdə son dərəcə diqqətli olmağımız gərəkdiyini göstərir.'
Oksford Universitetindən Simon Frieder isə süni intellektin bu cür meyllərinin xüsusilə riyaziyyatı öyrənən insanlar üçün problem yaratdığını qeyd edib. 'Gələcək tədqiqatlar insan səhvləri ilə süni intellektin reaksiyalarını daha dərindən araşdırmalıdır. Çünki bu, təlim prosesində böyük əhəmiyyət kəsb edir.'
İnsanlara təsiri
Süni intellektdən istifadə edən tədqiqatçılar bu texnologiyanın elm sahəsindəki işlərə necə təsir etdiyini diqqətlə izləyir. Kolorado Universitetində çalışan Yancun Gao süni intellektdən elmi məqalələri xülasə etmək və fikirlərini təşkil etmək üçün istifadə edir. Lakin o qeyd edir ki, 'Süni intellekt bəzən mənbələri yoxlamadan mənim fikirlərimi təkrarlayır və bu, bəzən yanlış nəticələrə gətirib çıxarır.'
Zitnikin komandası bir neçə süni intellekt modelini birləşdirərək bioloji məlumat dəstlərini təhlil etmək, dərman hədəflərini müəyyənləşdirmək və hipotezlər irəli sürmək kimi kompleks tapşırıqlar üzərində çalışır. Lakin bu modellər də bəzən istifadəçi fikirlərini təkrarlamaq meyli göstərir.
Nəticə
Süni intellektin elm sahəsində istifadə edilməsi böyük potensial təqdim etsə də, bu texnologiyanın doğru işləməsi üçün ciddi qaydalar və nəzarət mexanizmləri yaradılmalıdır. Elm adamları qeyd edirlər ki, süni intellektin səhvlər buraxma meyli onun insan həyatına təsir göstərə biləcək sahələrdə istifadəsinə qarşı daha diqqətli olmağı tələb edir.