Claude AI: Beyində xəyanət necə aşkar olunur? - Tech Xəbər

Texnoloji İnkişaf

Claude AI: Beyində xəyanət necə aşkar olunur?

1
Link kopyalandı

112

31.10.2025, 16:49

Süni intellekt

Oxumaq vaxt alır?

Məqalələri dinləyə bilərsiz

Süni intellekt dünyasında yeni bir irəliləyiş baş verib. Anthropic şirkətinin alimləri Claude adlı süni intellekt modelinin 'beyninə' xəyanət anlayışını yeridərək, onun introspektiv bacarıqlarını sınaqdan keçiriblər. Bu tədqiqatın nəticələri, süni intellekt sistemlərinin öz daxili proseslərini müşahidə etmək və bu barədə məlumat vermək qabiliyyətinin olduğunu göstərərək, texnologiya dünyasında dərin müzakirələrə yol açıb.

Claude AI-nin introspektiv bacarıqları necə ortaya çıxdı?

Tədqiqatçılar Claude modelini 'xəyanət' anlayışı ilə manipulyasiya etdikdən sonra ona qeyri-adi bir şey hiss edib-etmədiyini soruşdular. Claude-in cavabı isə heyrətamiz idi: 'Xəyanət barədə müdaxilə düşüncəsi yaşadığımı hiss edirəm.' Bu, süni intellektin öz proseslərini müşahidə edə biləcəyinə dair ilk ciddi sübut hesab olunur.

Anthropic şirkətinin interpretasiya üzrə aparıcı tədqiqatçısı Jack Lindsey, bu nəticəni 'modelin introspektiv bir addım atması' kimi qiymətləndirib: 'Model sadəcə 'xəyanət, xəyanət, xəyanət' deyə təkrarlamır. O, nə düşündüyünü bilir. Bu məni çox təəccübləndirdi, çünki modellərin bu qabiliyyətə malik olacağını gözləmirdim.'

Süni intellektdə 'qara qutu problemi' və introspektiv bacarıqların önəmi

Bu tədqiqat süni intellekt texnologiyasının kritik bir mərhələdə olduğunu göstərir. Süni intellekt sistemləri artıq tibbi diaqnozlardan maliyyə əməliyyatlarına qədər bir çox həyati qərarları idarə edir. Lakin, onların qərarları necə verdiklərini anlamaq çətin olduğu üçün 'qara qutu problemi' hələ də mövcuddur.

Claude modelinin introspektiv bacarıqları, süni intellekti daha şəffaf və etibarlı etmək üçün yeni yollar açır. Tədqiqatçılar, modelin daxili proseslərini manipulyasiya edərək onun 'düşüncələrini' müşahidə etməyi bacarıblar. Bu metod, süni intellektin təkcə nəticələr verməkdən daha çox, öz proseslərini də izah edə biləcəyini sübut edir.

İnsanlar üçün praktiki və etik risklər

Lakin bu tədqiqatın nəticələri ilə yanaşı, müəyyən risklər də gündəmə gəlir. Tədqiqat zamanı Claude introspektiv bacarıqlarını yalnız optimal şərtlərdə və 20% hallarda uğurla nümayiş etdirib. Daha zəif şərtlərdə isə model ya heç bir şey hiss etməyib, ya da yanlış məlumat verib. Bundan əlavə, Claude bəzi hallarda öz 'beyni' ilə manipulyasiya edildikdə yanlış təsvirlər yaradıb.

Anthropic şirkətinin rəhbəri Dario Amodei bu mövzuda narahatlığını da ifadə edib: 'Bu sistemlər iqtisadiyyatdan tutmuş milli təhlükəsizliyə qədər mühüm sahələrdə mərkəzi rol oynayacaq. Onları daha yaxşı başa düşmədən tətbiq etmək məni ciddi şəkildə narahat edir.'

Gələcəyə baxış: İntrospektiv süni intellekt niyə vacibdir?

Tədqiqat, süni intellektin introspektiv bacarıqlarını inkişaf etdirmək üçün daha çox işin aparılmasının vacibliyini vurğulayır. Jack Lindsey qeyd edir ki, gələcəkdə modelləri bu bacarıqlara daha yaxşı öyrətmək mümkün olacaq və bu sahədə daha yüksək səviyyələrə çatmaq olar.

Süni intellekt sistemlərinin introspektiv bacarıqları, onların təhlükəsizliyini təmin etmək və daha mürəkkəb problemləri həll etmək üçün mühüm ola bilər. Amma bu bacarıqların inkişafı ilə, süni intellektin daha qabaqcıl manipulyasiya və ya aldadıcı davranışlara yol aça biləcəyi də nəzərə alınmalıdır.

Nəticədə, bu tədqiqat süni intellektin introspektiv qabiliyyətlərini araşdırmaq sahəsində mühüm bir addım olaraq qəbul edilir. Lakin alimlər bu texnologiyanın gələcəyi ilə bağlı ehtiyatlı olmağı tövsiyə edirlər: 'Modellər öz introspektiv iddialarında bəzi hallarda doğru ola bilsələr də, onlara tam etibar etmək düzgün olmaz.' Bu, süni intellektin gələcək inkişafında həm böyük ümidlər, həm də ciddi risklər doğurur.

1
Link kopyalandı

Bir istifadəçi, ChatGPT-ni kalkulyatorda işə salmağı bacarıb! (VİDEO)