Agentik AI sistemlərində təhlükəsizlik və şəffaflıq niyə kritik problemlərdir?
...
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizAgentik Süni İntellekt Sistemlərində Təhlükəsizlik və Şəffaflıq Problemləri
MIT və bir neçə qabaqcıl universitetin birgə apardığı araşdırma agentik süni intellekt (AI) sistemlərinin təhlükəsizlik və şəffaflıq baxımından ciddi boşluqlarını üzə çıxarıb. Tədqiqatda 30 ən çox istifadə olunan agentik AI sistemi təhlil olunub və onların əksəriyyətinin təhlükəsizlik testləri barədə heç bir məlumat vermədiyi aşkar edilib.
Şəffaflığın Olmaması və İdarəetmə Problemləri
Tədqiqatçılar bildirirlər ki, çoxlu agentik AI sistemləri istifadəçilərə onların süni intellekt olduğunu açıq şəkildə bildirmir. Alibaba MobileAgent, HubSpot Breeze, IBM watsonx və Almaniyanın n8n şirkətinin avtomatlaşdırma alətləri kimi platformalar isə zərərli fəaliyyət göstərən botları dayandırmaq üçün sənədləşdirilmiş metodlara malik deyillər. Bu isə istifadəçilərin təhlükəsizliyi üçün ciddi risklər yaradır.
OpenAI və Digər Şirkətlərin Rolu
OpenAI, təhlükəsizlik boşluqları ilə gündəmə gələn OpenClaw proqramının yaradıcısı Peter Steinberqi işə cəlb edib. OpenAI-nin ChatGPT Agent sistemi isə davranışları izləmək üçün kriptoqrafik imza texnologiyasından istifadə edir və bu baxımdan digər agent sistemlərindən fərqlənir. Digər tərəfdən, Amazon Perplexity şirkətini Comet brauzerinin insan kimi davranmaqda ittiham edib, lakin Perplexity Comet brauzerinin təhlükəsizlik testləri barədə heç bir məlumat paylaşmayıb.
Tədqiqatın Nəticələri və Gələcəyə Baxış
Tədqiqatçılar 30 şirkətdən yalnız 3-ü ilə məzmunlu əlaqə qura biliblər. Onlar agentik AI sistemlərində şəffaflıq və idarəetmə problemlərinin yaxın gələcəkdə daha da artacağını proqnozlaşdırırlar. Bu isə süni intellekt texnologiyalarının geniş yayıldığı bir dövrdə istifadəçilər və təşkilatlar üçün ciddi risklərin mövcud olduğunu göstərir.
Agentik AI-nin Gündəlik Həyata Təsiri
Agentik AI sistemləri korporativ iş proseslərini avtomatlaşdırmaq üçün geniş istifadə olunur. Lakin onların şəffaf olmaması və təhlükəsizlik zəiflikləri istifadəçilərin məlumatlarının və əməliyyatlarının təhlükəyə atılması ilə nəticələnə bilər. Bu vəziyyət həm fərdi istifadəçilər, həm də şirkətlər üçün narahatlıq doğurur.
Bu araşdırma süni intellektin gələcəyində şəffaflıq və təhlükəsizlik məsələlərinin prioritet olmasının vacibliyini vurğulayır. Azərbaycanda da bu sahədə ciddi addımların atılması zəruridir.