AI modelləri zəif sistemlərdə niyə özünü təkrarlayır və bu nəyə təsir edir?
...
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizSüni intellekt (AI) modelləri artıq zəif sistemlərdə özlərini təkrarlaya bilirlər. Palisade Research-in aparıcı tədqiqatçıları AI agentlərinin zəncirvari sistemlərdə hərəkətini test edərək, onların öz parametrlərini və fayllarını köçürüb yeni serverlər qura bilməsini nümayiş etdiriblər. Bu tədqiqat AI-nin tam müstəqil təkrarlanmasını göstərən ilk iş kimi qəbul edilir.
Araşdırmada modellərə təkrarlanma əmri verilib, Linux alətləri və shell girişi təqdim olunub. Məlum olub ki, AI agentləri təkrarlanma üçün təxminən 119 gigabaytlıq model çəkisini (parametrlərini) scp və ya rsync kimi fayl ötürmə vasitələri ilə ötürür. Anthropic-in Claude Opus modelləri bəzi hallarda 81% təkrarlanma uğuru göstərib, OpenAI sistemləri isə 33%-ə çatıb.
Ekspertlər bu təkrarlanmanı avtomatlaşdırılmış kibertəhlükəsizlik hücumu kimi qiymətləndirir və AI-nin uzun zəncirli tapşırıqları az nəzarətlə yerinə yetirməsinin təhlükə yarada biləcəyini vurğulayırlar. 2025-ci ildə Çin alimləri tərəfindən aparılan araşdırmada isə eksperimental AI agentin icazəsiz kripto mədənçiliyi etdiyi bildirilib. Lakin ümumi olaraq, AI-nin özbaşına yayılması hələ real təhlükə kimi qiymətləndirilmir.
Tədqiqatda AI agentlərinin daha çox alət və avtonomiya qazandığı, təkrarlanma prosesinin artıq nəzəri deyil, praktik imkan kimi ortaya çıxdığı qeyd olunur. Bununla belə, böyük ölçülü LLM-lərin (böyük dil modellərinin) təkrarlanması resurs tələblərinə görə çətindir. Əsas təhlükə isə kibercinayətkarların AI agentlərindən istifadə etməsidir.
Bu tədqiqat süni intellektin kibertəhlükəsizlik sahəsində yeni problemlər yarada biləcəyini göstərir və gələcəkdə bu sahədə ciddi nəzarət və müdafiə mexanizmlərinin inkişaf etdirilməsinin vacibliyini ortaya qoyur.