Süni İntellekt
Süni İntellekt Şirkətlərinin Risk İdarəetməsi Qəbulolunmaz Səviyyədədir
28
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizDünyanın aparıcı süni intellekt şirkətləri risk idarəetməsi sahəsində "qəbulolunmaz" səviyyədə fəaliyyət göstərir və təhlükəsizlik sahəsində "diqqətəlayiq dərəcədə öhdəlik çatışmazlığı" nümayiş etdirir. Bu barədə cümə axşamı yayımlanan iki yeni araşdırmada qeyd olunub.
Araşdırmalara görə, bugünkü süni intellekt texnologiyalarının, hətta aparıcı şirkətlərin özlərinin də etiraf etdiyi kimi, kiberhücumları dəstəkləmək və ya bioloji silahların yaradılmasına kömək etmək kimi riskləri mövcuddur. Gələcəkdə isə süni intellekt modellərinin insan nəzarətindən çıxma ehtimalı alimlər arasında ciddi narahatlıq doğurur.
Araşdırmalar SaferAI və Future of Life Institute (FLI) qeyri-kommersiya təşkilatları tərəfindən həyata keçirilib. Bu, hər iki təşkilatın müvafiq sahədə apardığı ikinci araşdırmadır və onların məqsədi süni intellekt şirkətlərini təhlükəsizlik təcrübələrini yaxşılaşdırmağa təşviq etməkdir.
SaferAI-nin prezidenti Maks Tegmark bildirib: "Biz insanların hansı şirkətlərin yalnız danışdığını və hansılarının həqiqətən də tədbirlər gördüyünü asanlıqla görə bilməsini istəyirik."
SaferAI-nin qiymətləndirməsinə görə, süni intellekt şirkətlərinin heç biri risk idarəetməsi sahəsində "zəif" dərəcədən daha yüksək qiymət almayıb. Ən yüksək balı Anthropic (35%) əldə edib. Onu OpenAI (33%), Meta (22%) və Google DeepMind (20%) izləyib. Elon Musk-ın xAI şirkəti isə 18% bal toplayıb.
Anthropic və Google DeepMind əvvəlki araşdırmaya nisbətən daha aşağı bal toplayıb. Nəticədə, OpenAI Google-u geridə qoyaraq ikinci yerə yüksəlib. SaferAI-nin qurucusu Simeon Kampos bildirib ki, Google bəzi təhlükəsizlik tədqiqatları aparsa da, siyasətlərində konkret öhdəliklər götürmədiyi üçün nisbətən aşağı bal toplayıb. Şirkət bu ilin əvvəlində Gemini 2.5 adlı qabaqcıl modeli təqdim edib, lakin təhlükəsizlik məlumatlarını paylaşmayıb. Kampos bunu "ciddi bir uğursuzluq" adlandırıb. Google DeepMind isə TIME-a verdiyi açıqlamada bildirib ki, "biz cəmiyyətin xeyrinə təhlükəsiz və etibarlı süni intellekt inkişaf etdirməyə sadiqik." Şirkət əlavə edib ki, "bu yaxınlarda yayımlanan hesabatlar Google DeepMind-in bütün təhlükəsizlik səylərini və sənaye standartlarını əhatə etmir."
Anthropic-in balı da əvvəlki araşdırmaya nisbətən azalıb. Bu, əsasən Claude 4 modellərinin təqdimatından əvvəl şirkətin təhlükəsizlik siyasətində etdiyi dəyişikliklərlə bağlı olub. Simeon Kampos bu dəyişiklikləri "çox pis proses" kimi xarakterizə edib. Anthropic isə mövzu ilə bağlı şərh verməyib.
FLI-nin araşdırması isə daha genişmiqyaslı olub. O, yalnız risk idarəetmə təcrübələrini deyil, həm də şirkətlərin cari zərərlərə yanaşmasını, ekzistensial təhlükəsizlik məsələlərini, idarəetmə və məlumat paylaşımı siyasətlərini də nəzərə alıb. Altı müstəqil ekspertin qiymətləndirməsinə əsasən, ən yüksək balı Anthropic (C+) toplayıb. OpenAI (C), Google isə (C-) bal alıb. xAI və Meta isə D balı ilə qiymətləndirilib.
Bununla yanaşı, FLI-nin "ekzistensial təhlükəsizlik" göstəricisi üzrə bütün şirkətlər D və ya daha aşağı bal toplayıb. FLI prezidenti Tegmark bildirib: "Onlar hamısı süni intellektin insanları hər cəhətdən üstələyəcək super ağıllı maşınlar yaratmaq istədiklərini deyirlər, lakin bu texnologiyanı necə idarə edəcəkləri ilə bağlı konkret planları yoxdur."
Araşdırmanın nəticələri süni intellekt sahəsində fəaliyyət göstərən şirkətlərin təhlükəsizlik və idarəetmə təcrübələrini daha da təkmilləşdirməsinə təkan verə bilər.