OpenAI təhlükəsizlik proqramı: Yeni çağırışlar və gələcəyin fürsətləri
...
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizOpenAI təhlükəsizlik proqramını yenidən təqdim etdi
6 aprel 2026-cı il tarixində OpenAI Safety Fellowship proqramını elan etdi. Bu pilot proqram xarici tədqiqatçılara süni intellekt təhlükəsizliyi və uyğunlaşması sahəsində müstəqil tədqiqat aparmaq imkanı verir. Proqram 14 sentyabr 2026-cı ildən 5 fevral 2027-ci ilədək davam edəcək.
Təhlükəsizlik komandalarının ləğvi və vəziyyət
Son illərdə OpenAI təhlükəsizliklə bağlı əsas komandalarını tədricən ləğv edib. May 2024-də Superalignment komandası, oktyabr 2024-də AGI Readiness komandası, fevral 2026-da isə Mission Alignment komandası bağlanıb. Bu dəyişikliklər şirkətin təhlükəsizlik mədəniyyətində ciddi geriləmələrə işarə edir. Həmçinin, OpenAI-nin IRS sənədlərində missiya təsvirindən “təhlükəsiz” sözü çıxarılıb.
Fellowship proqramının detalları
Proqrama müraciətlər 3 may 2026-cı il tarixində sona çatacaq, uğurlu namizədlər isə 25 iyul 2026-cı ilədək elan olunacaq. İştirakçılar aylıq təqaüd, hesablama resursları və OpenAI tədqiqatçılarından mentorluq dəstəyi alacaqlar. Lakin aylıq təqaüdün məbləği açıqlanmayıb. Proqramın sonunda tədqiqatçılardan məqalə, benchmark və ya dataset kimi əhəmiyyətli tədqiqat nəticəsi gözlənilir.
Prioritet tədqiqat sahələrinə təhlükəsizlik qiymətləndirilməsi, möhkəmlik, miqyaslana bilən azaldıcı strategiyalar, məxfilik qorunması, agent nəzarəti və yüksək riskli sui-istifadə sahələri daxildir. Proqram iştirakçılarına OpenAI API kreditləri veriləcək, lakin daxili sistemlərə giriş imkanı olmayacaq.
İnsan və cəmiyyət üçün əhəmiyyəti
OpenAI-də təhlükəsizliklə bağlı əsas tədqiqatçılar ya şirkəti tərk edib, ya da qeyri-müəyyən vəzifələrə keçirilib. Bu isə süni intellektin təhlükəsizliyi sahəsində narahatlıqları artırır. Safety Fellowship proqramı isə xarici tədqiqatçılara bu sahədə öz işlərini aparmaq və riskləri araşdırmaq üçün imkan yaradır.
Ekspertlərin fikirləri və gələcək perspektiv
Süni intellekt təhlükəsizliyi mütəxəssisləri bu proqramı həm müsbət addım, həm də OpenAI-nin daxili təhlükəsizlik infrastrukturunu bərpa etməməsi səbəbindən məhdudiyyət kimi qiymətləndirirlər. The New Yorker-in araşdırmasında OpenAI nümayəndəsinin “What do you mean by existential safety? That’s not, like, a thing.” ifadəsi təhlükəsizlik mövzusunda bəzi qeyri-müəyyənlikləri göstərir.
OpenAI Safety Fellowship proqramı süni intellekt təhlükəsizliyi sahəsində yeni nəsil tədqiqatçıların yetişməsinə şərait yaradır. Lakin şirkətin təhlükəsizlik komandalarının ləğvi və mədəniyyətdəki dəyişikliklər bu sahədə narahatlıqları artırır. Gələcəkdə proqramın nəticələri süni intellekt təhlükəsizliyi üçün yeni ümidlər və çağırışlar doğura bilər.