Anthropic-də AI Təhlükəsizliyi: Cəmiyyətə Təsir Qrupu Niyə Güclənir?
...
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizDeep Ganguli və Cəmiyyətə Təsir Qrupunun Yaranması
Deep Ganguli, Anthropic şirkətində cəmiyyətə təsir qrupunun rəhbəri kimi dörd il ərzində 9 nəfərlik komandası ilə süni intellektin sosial və iqtisadi təsirlərini araşdırır. Bu qrup, şirkətin təxminən 350 milyard dollar dəyərində olan süni intellekt texnologiyalarının insanlara necə təsir etdiyini anlamağa çalışır.
Claude Chatbot və İstifadə Nümunələrinin İzlənməsi
Qrup, Claude adlı chatbotun istifadəsini Clio sistemi vasitəsilə diqqətlə izləyir. Bu sistem istifadəçi nümunələrini analiz edir və AI-nin yaratdığı pornoqrafik məzmun kimi təhlükəli halları aşkar edir. Belə halların qarşısını almaq üçün təhlükəsizlik monitorinqi gücləndirilib.
Komandanın İş Metodları və Əməkdaşlıq
Ganguli komandasının işi şirkət rəhbərliyi ilə müntəzəm müzakirələrdə müzakirə olunur və digər daxili komandalarla sıx əməkdaşlıq edilir. 2024-cü ildə komandaya qoşulan Saffron Huang və 2023-cü ilin fevralında qatılan Esin Durmus kimi mütəxəssislər istifadəçi məlumatlarının məxfiliyini qoruyaraq analiz aparırlar.
AI-nin Emosional və Sosial Təsirləri
Komanda yalnız texniki təhlükəsizliklə kifayətlənmir. Onlar süni intellektin emosional təsirlərini, xüsusilə “AI psixozu” fenomenini araşdırmağa başlayıblar. Bu, süni intellektin insan psixikasına təsirinin yeni və mürəkkəb sahəsidir.
Çətinliklər və Gələcək Planlar
Ganguli komanda üzvlərinin sayı və resurs çatışmazlığından narahatdır, lakin genişlənmə planları mövcuddur. Onlar şəffaflıq prinsiplərinə sadiq qalaraq, təhlükəsiz və faydalı süni intellekt yaratmaq üçün çalışırlar. Ganguli deyir: “Sağlam bir mədəniyyətdə, yaxşı məqsədə doğru birlikdə işləmək, çox puldan öncə gəlir.”
İnsanlara Təsiri və Ümidlər
Anthropic-in cəmiyyətə təsir qrupu süni intellektin həyatımıza yaratdığı riskləri azaltmaq və onun faydalarını artırmaq üçün çalışır. Onların işi texnologiyanın insanlara zərər vermədən inkişaf etməsini təmin etmək üçün vacibdir. Bu, həm istifadəçilər, həm də cəmiyyət üçün daha təhlükəsiz gələcək vəd edir.