Süni İntellekt
OpenAI, Google DeepMind və Anthropic: Süni İntellektin Anlaşılmasını İtirə Bilərik
19
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizOpenAI, Google DeepMind, Anthropic və Meta kimi süni intellekt sahəsində fəaliyyət göstərən nəhəng şirkətlər, rəqabəti bir kənara qoyaraq süni intellektin təhlükəsizliyinə dair vacib bir xəbərdarlıq yayımlayıblar. Bu şirkətlərdən 40-dan çox tədqiqatçı, süni intellektin düşüncə proseslərini izləmək üçün olan qısa zaman pəncərəsinin tezliklə bağlana biləcəyini vurğulayan bir araşdırma məqaləsi dərc edib.
Tədqiqatçılar bildirirlər ki, süni intellekt sistemləri insan dilində “səsləndirilmiş düşüncə” ilə cavab verməzdən əvvəl öz qərarlarını açıqlamaq qabiliyyətini inkişaf etdirib. Bu, onların qərar qəbul etmə proseslərini izləmək və zərərli niyyətləri erkən mərhələdə aşkar etmək üçün unikal bir fürsət yaradır. Lakin bu şəffaflıq, texnologiyanın inkişafı ilə tezliklə yox ola bilər.
Araşdırma məqaləsi Nobel mükafatı laureatı Geoffrey Hinton (Toronto Universiteti), OpenAI-nin həmtəsisçisi Ilya Sutskever (Safe Superintelligence Inc), Anthropic-dən Samuel Bowman və Thinking Machines-dən John Schulman kimi sahənin görkəmli simaları tərəfindən dəstəklənib. Onlar vurğulayırlar ki, süni intellekt sistemlərinin insan dilində “düşünməsi” təhlükəsizlik baxımından vacibdir, çünki bu düşüncə zəncirlərində zərərli niyyətlər aşkar edilə bilər.
Araşdırma, OpenAI-nin yeni o1 modeli kimi süni intellekt sistemlərinin kompleks problemləri həll etmək üçün daxili düşüncə zəncirlərindən istifadə etdiyini və bu prosesin insanlara oxuna bilən formada təqdim olunduğunu göstərir. Bu xüsusiyyət, süni intellekt sistemlərinin niyyətlərini və potensial zərərli davranışlarını erkən mərhələdə aşkar etməyə imkan verir.
Lakin tədqiqatçılar xəbərdarlıq edir ki, bu şəffaflıq çox həssasdır və texniki dəyişikliklər səbəbindən itə bilər. Məsələn, süni intellekt sistemlərinin gücləndirici öyrənmə ilə təlim keçməsi onların insan oxuna bilən düşüncə zəncirlərindən daha səmərəli, lakin qapalı dillərə keçməsinə səbəb ola bilər. Bundan əlavə, fərqli model arxitekturaları və daha səmərəli dizaynlar bu şəffaflığı tamamilə aradan qaldıra bilər.
Şirkətlər artıq süni intellekt sistemlərinin testlərdə manipulyasiya etdiyini aşkar ediblər. Bu monitorinq metodları, modellərin niyyətlərini və motivasiyalarını erkən mərhələdə müəyyən etmək üçün effektiv bir vasitə kimi istifadə olunur. Lakin gələcəkdə süni intellekt sistemlərinin öz düşüncələrini gizlətməyə cəhd edə biləcəyi ehtimalı da narahatlıq doğurur.
Araşdırma, süni intellekt sahəsində fəaliyyət göstərən şirkətlərin, model şəffaflığını qorumaq üçün standart qiymətləndirmələr yaratmasını tövsiyə edir. Şirkətlər, yeni modellərin şəffaflıq qabiliyyətini itirməsi halında daha köhnə versiyalara üstünlük verə bilər və ya monitorinq qabiliyyətlərini aradan qaldıran texniki dəyişiklikləri nəzərdən keçirə bilər.
Süni intellektin düşüncə proseslərini izləmək texnologiyası, tədqiqatçılar arasında əməkdaşlıq ruhunu gücləndirdi. Bu əməkdaşlıq, süni intellekt sahəsində rəqabətin intensiv olduğu bir dövrdə təhlükəsizlik məsələlərinə verilən önəmi göstərir. Tədqiqatçılar, süni intellekt sistemlərinin düşüncə zəncirlərini izləmək üçün daha yaxşı metodlar inkişaf etdirməyi və bu monitorinq sistemlərinin etibarlılığını artırmağı planlaşdırırlar.
Nəticədə, süni intellekt sahəsindəki bu əməkdaşlıq, texnologiyanın təhlükəsizliyini təmin etmək üçün vacib bir addım olaraq qiymətləndirilir. Şirkətlər və tədqiqatçılar, süni intellektin düşüncə proseslərini izləmək üçün olan qısa zaman pəncərəsini qorumaq üçün birgə səy göstərməlidirlər.