Tədqiqatçılar Süni İntellektin Düşüncə Prosesini İzləməyə Çağırır - Tech Xəbər

Tədqiqatçılar Süni İntellektin Düşüncə Prosesini İzləməyə Çağırır

7
Link kopyalandı

33

16.07.2025, 07:51

Süni intellekt

Oxumaq vaxt alır?

Məqalələri dinləyə bilərsiz

Süni intellekt sahəsində aparıcı tədqiqatçılar, o cümlədən OpenAI, Google DeepMind, Anthropic və bir sıra digər şirkətlərin və qeyri-kommersiya təşkilatlarının nümayəndələri, süni intellektin "düşüncə zəncirlərini" izləmək üçün daha dərin araşdırmaların aparılmasına çağırış ediblər. Bu mövzuya dair mövqelərini ifadə edən sənəd çərşənbə axşamı dərc olunub.

Süni intellektin düşüncə zənciri (CoT) adlanan proseslər, AI modellərinin problem həll etmə mərhələlərini xarici şəkildə nümayiş etdirməsini əhatə edir. Bu, insanların mürəkkəb riyazi məsələləri həll edərkən istifadə etdiyi yazılı hesablama metodlarına bənzəyir. Tədqiqatçılar hesab edirlər ki, CoT izlənməsi, süni intellekt agentlərinin daha geniş yayılacağı və daha çox bacarıq qazanacağı dövrdə onların davranışını nəzarətdə saxlamaq üçün əsas metodlardan biri ola bilər.

"CoT izlənməsi, süni intellektin təhlükəsizlik tədbirlərinə dəyərli bir əlavə təqdim edir və AI agentlərinin qərar qəbul etmə prosesini nadir hallarda görmək imkanı yaradır," deyə tədqiqatçılar sənəddə qeyd ediblər. "Lakin hazırkı şəffaflıq səviyyəsinin davamlı olacağına dair heç bir zəmanət yoxdur. Tədqiqat icmasını və süni intellekt sahəsində çalışan mütəxəssisləri CoT izlənməsini daha yaxşı öyrənməyə və onun necə qorunub saxlanılacağını araşdırmağa çağırırıq."

Sənədin müəllifləri AI model inkişaf etdiricilərini CoT izlənməsinin monitorinqini aparmağa və bu metodun bir gün təhlükəsizlik tədbiri kimi tətbiq olunma imkanlarını öyrənməyə çağırırlar. Tədqiqatçılar həmçinin CoT izlənməsinin şəffaflığı artıran və süni intellektin qərar qəbul etmə prosesini anlamağa kömək edən əsas amillərdən biri olduğunu vurğulayırlar.

Sənədin görkəmli imzaçıları arasında OpenAI-nin baş tədqiqatçısı Mark Chen, Safe Superintelligence şirkətinin baş direktoru İlya Sutskever, Nobel mükafatı laureatı Geoffrey Hinton, Google DeepMind-in həmtəsisçisi Shane Legg, xAI təhlükəsizlik məsləhətçisi Dan Hendrycks və Thinking Machines-in həmtəsisçisi John Schulman yer alır. Sənədin ilk müəllifləri Böyük Britaniya Süni İntellekt Təhlükəsizliyi İnstitutundan və Apollo Tədqiqat Mərkəzindən olan liderlərdir. Digər imzaçılar arasında METR, Amazon, Meta və UC Berkeley-dən nümayəndələr də var.

Bu mövqe sənədi süni intellektin təhlükəsizliyi ilə bağlı araşdırmaları gücləndirmək üçün sənaye liderləri arasında birliyə işarə edir. Sənəd, texnologiya şirkətləri arasında sərt rəqabətin yaşandığı bir dövrdə dərc olunub. Bu rəqabət Meta-nın OpenAI, Google DeepMind və Anthropic-dən tanınmış tədqiqatçıları milyon dollarlıq təkliflərlə cəlb etməsinə səbəb olub. Süni intellekt agentləri və düşüncə modelləri üzərində çalışan tədqiqatçılar bu sahədə ən çox axtarılan mütəxəssislərdən hesab olunur.

OpenAI, 2024-cü ilin sentyabrında ilk süni intellekt düşüncə modeli olan o1-i ictimaiyyətə təqdim edib. Bundan sonra, texnologiya sənayesi oxşar xüsusiyyətlərə malik rəqabətçi modellər təqdim etməyə tələsib. Google DeepMind, xAI və Anthropic kimi şirkətlərin bəzi modelləri hətta daha inkişaf etmiş performans nümayiş etdirib.

Bununla belə, süni intellekt düşüncə modellərinin necə işlədiyinə dair hələ də az məlumat mövcuddur. AI laboratoriyaları son bir ildə süni intellektin performansını artırmaq sahəsində böyük irəliləyişlər əldə etsələr də, bu, modellərin cavablara necə gəldiklərini daha yaxşı anlamağa gətirib çıxarmayıb.

Anthropic, süni intellekt modellərinin iş prinsiplərini araşdırmaq sahəsində liderlərdən biridir. Bu sahə "interpretasiya" adlanır. Bu ilin əvvəlində şirkətin baş direktoru Dario Amodei, 2027-ci ilə qədər süni intellekt modellərinin "qara qutusunu" açmaq və interpretasiya sahəsinə daha çox investisiya qoymaq öhdəliyini elan edib. O, OpenAI və Google DeepMind-ı bu mövzuda daha çox tədqiqat aparmağa çağırıb.

Anthropic tərəfindən aparılmış ilkin araşdırmalar göstərib ki, CoT-lar, modellərin cavablara necə gəldiyini tam etibarlı şəkildə göstərməyə bilər. Eyni zamanda, OpenAI tədqiqatçıları CoT izlənməsinin bir gün süni intellekt modellərinin uyğunluğu və təhlükəsizliyini izləmək üçün etibarlı bir metod ola biləcəyini bildiriblər.

Sənədin məqsədi, CoT izlənməsi kimi yeni araşdırma sahələrinə diqqəti cəlb etməkdir. OpenAI, Google DeepMind və Anthropic kimi şirkətlər artıq bu mövzuda araşdırmalar aparsalar da, bu sənədin daha çox maliyyələşmə və araşdırma təşviq edəcəyi ehtimal olunur.

7
Link kopyalandı