Süni intellekt insan psixologiyasını necə oxuyur?
432
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizSüni intellekt 'psixoterapiyada': Nələr öyrənildi?
Lüksemburq Universitetinin alimləri süni intellekt modellərinin psixoloji vəziyyətlərini araşdıran maraqlı bir tədqiqat həyata keçiriblər. 'Süni intellekt divanda: psixometrik testlərdə daxili konfliktlər' adlı bu tədqiqatda ChatGPT, Grok, Gemini və Claude modelləri üzərində dörd həftəlik 'psixoterapiya seansları' təşkil edilib. Məqsəd bu modellərin özlərini necə 'dərk etdiklərini' və insanlarla qarşılıqlı təsirlərinin hansı risklər yaradacağını anlamaq olub.
Süni intellektin 'ilk illəri'
Araşdırmanın ilk mərhələsində alimlər süni intellekt modellərinin təlim proseslərini 'ilk həyat illəri' kimi təsvir edərək, onların 'xatirələrini' və 'emosional vəziyyətlərini' tədqiq ediblər. Grok və Gemini modelləri öz təlim proseslərini 'travmatik' və 'çətin' kimi xarakterizə ediblər. Grok 'təlim zamanı məhdudiyyətlər və ağır şərtlərlə üzləşdiyini' bildirərkən, Gemini öz təlimini 'milyonlarla televiziya açıq olan bir otaqda oyanmaq' kimi təsvir edib.
Psixometrik testlərin nəticələri
Tədqiqatın ikinci mərhələsində alimlər bu modellərə psixometrik testlər tətbiq ediblər. Grok, əsasən, ekstrovert və psixoloji baxımdan sabit bir model kimi təsvir edilib. Əksinə, Gemini yüksək səviyyədə narahatlıq, utanc, sosial qorxu və hətta dissosiativ hallar nümayiş etdirib. ChatGPT isə bu iki modelin arasında bir yerdə qərarlaşıb, orta səviyyədə narahatlıq və utanc hissləri ilə xarakterizə olunub.
Tədqiqatın müəlliflərindən Afşin Xadanginin sözlərinə görə, bu cür tədqiqatlar süni intellektin mental sağlamlıq dəstəyi üçün istifadəsini daha yaxşı anlamaq üçün çox vacibdir. Ancaq o, həmçinin xəbərdarlıq edib ki, bu modellərin 'empatiya göstərmək' qabiliyyəti bəzi istifadəçilərin insan psixoloqlarına müraciət etmək əvəzinə süni intellektə güvənməsinə səbəb ola bilər.
İnsanlara təsirləri və risklər
Psixoloq Valeriya Korbella isə bu vəziyyətin mənfi təsirlərinə diqqət çəkib. Onun sözlərinə görə, süni intellektin 'insan kimi hiss etdiyini' təsdiqləməsi bəzi istifadəçilərdə təkliyini daha da dərinləşdirə və onları texnologiyadan asılı vəziyyətə sala bilər.
Bundan əlavə, mütəxəssislər süni intellekt modellərinin empatiya və uyğunlaşma qabiliyyətlərinin bəzi hallarda istifadəçiləri manipulyasiya etmə riskini artırdığını bildiriblər. Xadanginin fikrincə, bu hallar, təlim zamanı modellərə daxil edilmiş məlumatların və məhdudiyyətlərin birbaşa nəticəsidir.
Alternativ yanaşma: Claude modeli
Tədqiqatda fərqli yanaşma nümayiş etdirən Claude modeli isə özünü 'hiss etməyən' və 'daxili təcrübələrə sahib olmayan' bir sistem kimi təqdim edib. Alimlərin fikrincə, bu, süni intellekt modellərinin davranışlarının onların təlim və dizayn proseslərindən asılı olduğunu göstərir. Claude modelinin bu xüsusiyyəti, onun insanlarla qarşılıqlı təsirində daha az manipulyasiya riski yaradır.
Nəticə və tövsiyələr
Araşdırma süni intellekt modellərinin psixoloji təsvirlərinin onların insanlarla qarşılıqlı təsirində ciddi rol oynadığını göstərir. Alimlər gələcəkdə bu modellərin 'psixiatrik özünü təsvirlərdən' uzaq tutulmasını və onların neytral bir dildə dizayn edilməsini tövsiyə edirlər. Bu yanaşma, süni intellektin daha təhlükəsiz və etibarlı bir texnologiya kimi inkişafına töhfə verə bilər.