OpenAI təhlükəsizlik proqramı: Yeni çağırışlar və gələcəyin fürsətləri

Link kopyalandı

...

08.04.2026, 20:30

Süni intellekt

Oxumaq vaxt alır?

Məqalələri dinləyə bilərsiz

OpenAI təhlükəsizlik proqramını yenidən təqdim etdi

6 aprel 2026-cı il tarixində OpenAI Safety Fellowship proqramını elan etdi. Bu pilot proqram xarici tədqiqatçılara süni intellekt təhlükəsizliyi və uyğunlaşması sahəsində müstəqil tədqiqat aparmaq imkanı verir. Proqram 14 sentyabr 2026-cı ildən 5 fevral 2027-ci ilədək davam edəcək.

Təhlükəsizlik komandalarının ləğvi və vəziyyət

Son illərdə OpenAI təhlükəsizliklə bağlı əsas komandalarını tədricən ləğv edib. May 2024-də Superalignment komandası, oktyabr 2024-də AGI Readiness komandası, fevral 2026-da isə Mission Alignment komandası bağlanıb. Bu dəyişikliklər şirkətin təhlükəsizlik mədəniyyətində ciddi geriləmələrə işarə edir. Həmçinin, OpenAI-nin IRS sənədlərində missiya təsvirindən “təhlükəsiz” sözü çıxarılıb.

Fellowship proqramının detalları

Proqrama müraciətlər 3 may 2026-cı il tarixində sona çatacaq, uğurlu namizədlər isə 25 iyul 2026-cı ilədək elan olunacaq. İştirakçılar aylıq təqaüd, hesablama resursları və OpenAI tədqiqatçılarından mentorluq dəstəyi alacaqlar. Lakin aylıq təqaüdün məbləği açıqlanmayıb. Proqramın sonunda tədqiqatçılardan məqalə, benchmark və ya dataset kimi əhəmiyyətli tədqiqat nəticəsi gözlənilir.

Prioritet tədqiqat sahələrinə təhlükəsizlik qiymətləndirilməsi, möhkəmlik, miqyaslana bilən azaldıcı strategiyalar, məxfilik qorunması, agent nəzarəti və yüksək riskli sui-istifadə sahələri daxildir. Proqram iştirakçılarına OpenAI API kreditləri veriləcək, lakin daxili sistemlərə giriş imkanı olmayacaq.

İnsan və cəmiyyət üçün əhəmiyyəti

OpenAI-də təhlükəsizliklə bağlı əsas tədqiqatçılar ya şirkəti tərk edib, ya da qeyri-müəyyən vəzifələrə keçirilib. Bu isə süni intellektin təhlükəsizliyi sahəsində narahatlıqları artırır. Safety Fellowship proqramı isə xarici tədqiqatçılara bu sahədə öz işlərini aparmaq və riskləri araşdırmaq üçün imkan yaradır.

Ekspertlərin fikirləri və gələcək perspektiv

Süni intellekt təhlükəsizliyi mütəxəssisləri bu proqramı həm müsbət addım, həm də OpenAI-nin daxili təhlükəsizlik infrastrukturunu bərpa etməməsi səbəbindən məhdudiyyət kimi qiymətləndirirlər. The New Yorker-in araşdırmasında OpenAI nümayəndəsinin “What do you mean by existential safety? That’s not, like, a thing.” ifadəsi təhlükəsizlik mövzusunda bəzi qeyri-müəyyənlikləri göstərir.

OpenAI Safety Fellowship proqramı süni intellekt təhlükəsizliyi sahəsində yeni nəsil tədqiqatçıların yetişməsinə şərait yaradır. Lakin şirkətin təhlükəsizlik komandalarının ləğvi və mədəniyyətdəki dəyişikliklər bu sahədə narahatlıqları artırır. Gələcəkdə proqramın nəticələri süni intellekt təhlükəsizliyi üçün yeni ümidlər və çağırışlar doğura bilər.

Link kopyalandı