Süni İntellekt
Intel və Weizmann İnstitutundan Süni İntellektdə İnqilabi Speculative Decoding Yanaşması
28
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizIntel Labs və Weizmann Elm İnstitutunun tədqiqatçıları Süni İntellekt sahəsində böyük bir irəliləyişə imza atıblar. Onlar Vancouver, Kanada şəhərində keçirilən Beynəlxalq Maşın Öyrənməsi Konfransında (ICML) təqdim etdikləri yeni Speculative Decoding (Spekulyativ Dekodlama) texnikası ilə süni intellekt modellərinin sürətini və effektivliyini artırmağa nail olublar. Bu texnika kiçik "taslak" modelin böyük dil modellərini (LLM) sürətləndirməsinə imkan yaradır, hətta lüğət fərqləri olsa belə.
Intel Labs-ın Təbii Dil Emalı qrupunun baş tədqiqatçısı Oren Pereg bu texnologiyanın əhəmiyyətini vurğulayaraq deyib: "Biz generativ süni intellektdə əsas bir səmərəsizliyi həll etdik. Araşdırmalarımız spekulyativ sürətləndirməni universal alətə çevirməyi göstərir. Bu, yalnız nəzəri bir təkmilləşmə deyil; bu, artıq inkişaf etdiricilərin daha sürətli və ağıllı tətbiqlər yaratmasına kömək edən praktik vasitələrdir."
Speculative Decoding nədir? Spekulyativ Dekodlama, LLM-ləri daha sürətli və səmərəli etmək üçün nəzərdə tutulmuş bir optimallaşdırma texnikasıdır. Bu texnika kiçik, sürətli bir model ilə daha böyük və dəqiq bir model arasında "komanda işi" yaradaraq işləyir. Məsələn, süni intellekt modelinə "Fransanın paytaxtı nədir...?" sualı verildikdə, ənənəvi LLM hər sözü ardıcıl olaraq hesablamaqla cavab verir. "Paris", sonra "bir", sonra "məşhur", sonra "şəhər" kimi ardıcıllıqla işləyir və hər addımda böyük resurslar sərf edir. Spekulyativ Dekodlama ilə kiçik model tez bir zamanda "Paris, məşhur bir şəhər..." frazasını hazırlayır, böyük model isə ardıcıllığı təsdiqləyir. Bu, hər bir çıxış tokeni üçün hesablama dövrünü əhəmiyyətli dərəcədə azaldır.
Texnologiyanın önəmi: Intel və Weizmann İnstitutunun təqdim etdiyi bu universal metod, lüğət uyğunluğu və ya birgə öyrədilmiş model ailələrinin məhdudiyyətlərini aradan qaldırır. Bu texnika, performans keyfiyyətindən itki olmadan 2.8 dəfə daha sürətli nəticə əldə etməyə imkan verir. Eyni zamanda, fərqli inkişaf etdiricilər və ekosistemlərdən olan modellər arasında işləyərək vendor-agnostik (satıcıdan müstəqil) olma xüsusiyyətinə malikdir. Bu texnologiya Hugging Face Transformers kitabxanası vasitəsilə açıq mənbəli şəkildə istifadəyə hazırdır.
Bu irəliləyiş süni intellektin parçalanmış mənzərəsində açıqlıq, qarşılıqlı fəaliyyət və buluddan kənar ucuz yerləşdirməni təşviq edir. İnkişaf etdiricilər, müəssisələr və tədqiqatçılar artıq öz performans ehtiyaclarına və avadanlıq məhdudiyyətlərinə uyğun modelləri qarışdırıb uyğunlaşdıra bilərlər.
Weizmann İnstitutunun professor David Harel-in tədqiqat qrupunun doktorantı Nadav Timor bu texnologiyanın gələcək üçün əhəmiyyətini belə ifadə edib: "Bu iş, generativ süni intellekti daha sürətli və daha ucuz etmək üçün əsas texniki maneəni aradan qaldırır. Bizim alqoritmlərimiz yalnız öz kiçik taslak modellərini öyrədən təşkilatlara əlçatan olan sürətlənmələri açır."
Texniki Detallar: Tədqiqat işi spekulyativ kodlamanı lüğət uyğunluğundan ayıran üç yeni alqoritmi təqdim edir. Bu, kiçik taslak model ilə böyük model arasında istənilən platformalarda sürət və maliyyət optimallaşdırmasını təmin etməklə LLM yerləşdirmə imkanlarını genişləndirir.
Nəzəriyyədən tətbiqə: Araşdırma yalnız nəzəri deyil. Alqoritmlər artıq milyonlarla inkişaf etdiricinin istifadə etdiyi Hugging Face Transformers açıq mənbə kitabxanasına inteqrasiya edilib. Bu inteqrasiya vasitəsilə, qabaqcıl LLM sürətləndirilməsi xüsusi kod yazmadan hazır şəkildə mövcuddur.
Əlavə Kontekst: Süni intellekt modellərinin sürətləndirilməsi ilə bağlı "Heterogen Lüğətlər üçün İtiksiz Spekulyativ Dekodlama Alqoritmləri" adlı tədqiqat işi Intel Labs və Weizmann Elm İnstitutunun birgə araşdırmasıdır.
Bu irəliləyiş süni intellekt sahəsində açıq mənbəli yanaşmaları gücləndirərək, inkişaf etdiricilər üçün daha çevik və effektiv alətlər təqdim edir.