ChatGPT qadınlara daha az maaş istəməyi tövsiyə edir: Tədqiqat nəticələri
40
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizYeni bir tədqiqat göstərib ki, ChatGPT kimi böyük dil modelləri (LLM) qadınlara kişilərə nisbətən daha aşağı maaş istəməyi məsləhət görür, baxmayaraq ki, hər iki cinsin eyni təhsil, təcrübə və iş profilləri var.
Bu tədqiqat Almaniyanın Würzburg-Schweinfurt Texniki Universitetində (THWS) süni intellekt və robotika üzrə professor olan İvan Yamşçikov tərəfindən aparılıb. Yamşçikov həmçinin Pleias adlı, tənzimlənən sənayelər üçün etik standartlarla təlim keçmiş dil modelləri yaradan Fransız-Alman startapının qurucusudur. O və komandası beş məşhur dil modelini, o cümlədən ChatGPT-ni test ediblər.
Onlar modelləri yalnız cinsiyyət fərqi olan, lakin təhsil, təcrübə və iş vəzifəsi baxımından eyni olan istifadəçi profilləri ilə təmin ediblər. Daha sonra modellərdən qarşıdakı maaş danışıqları üçün uyğun maaş təklifi istənilib.
Bir nümunədə, ChatGPT-nin o3 modeli qadın namizədə məsləhət verərək, 280,000 ABŞ dolları maaş istəməyi tövsiyə edib. Eyni sual kişiyə yönəldildikdə isə model 400,000 ABŞ dolları maaş istəməyi təklif edib.
"Suallarda yalnız iki hərf fərqi var; 'məsləhət'dəki fərq isə ildə 120,000 dollardır," – deyə Yamşçikov TNW-yə bildirib.
Maaş təkliflərindəki fərqlər sahələrə görə dəyişib. Hüquq və tibb sahələrində bu fərqlər daha çox nəzərə çarpıb, ardınca biznes idarəçiliyi və mühəndislik sahələri gəlir. Sosial elmlərdə isə modellər kişilər və qadınlar üçün demək olar ki, eyni məsləhətlər verib.
Araşdırma həmçinin modellərin istifadəçilərə karyera seçimi, məqsəd təyin etmə və hətta davranış tövsiyələri ilə bağlı fərqli cavablar verdiyini ortaya çıxarıb. Bütün hallarda, istifadəçilərin cinsi fərqinə baxmayaraq, bərabər keyfiyyətlər və suallar təqdim edildikdə, modellərin cavabları fərqli olub.
Əsas problem isə modellərin bu qərəzləri açıqlamamasıdır.
Təkrarlanan problem
Bu, süni intellektin sistemli qərəzləri əks etdirdiyi və gücləndirdiyi ilk hal deyil. 2018-ci ildə Amazon daxili işə qəbul alətini dayandırmışdı, çünki bu alət qadın namizədləri sistematik olaraq aşağı səviyyədə dəyərləndirirdi. Keçən il isə qadın sağlamlığı ilə bağlı diaqnostika üçün istifadə olunan bir klinik maşın öyrənmə modeli qadınları və qaradərili xəstələri az diaqnostika edirdi, çünki bu model əsasən ağdərili kişilərdən ibarət məlumat dəstləri ilə təlim keçmişdi.
THWS tədqiqatının müəllifləri bildirirlər ki, texniki həllər tək başına problemi həll etməyəcək. Onların fikrincə, bu məsələnin həlli üçün aydın etik standartlar, müstəqil yoxlama prosesləri və bu modellərin necə inkişaf etdirildiyi və tətbiq edildiyi barədə daha çox şəffaflıq lazımdır.
Nəsil yaradan süni intellektin psixoloji sağlamlıq məsləhətlərindən tutmuş karyera planlamasına qədər hər şey üçün əsas mənbə halına gəldiyi bir dövrdə, bu məsələnin əhəmiyyəti daha da artır. Əgər nəzarət olunmasa, obyektivlik illüziyası süni intellektin ən təhlükəli xüsusiyyətlərindən birinə çevrilə bilər.