Minlərlə İstifadəçini Narahat Edən Anthropic Xidmətində Geniş Fasilənin Səbəbi Nədir?
...
Süni intellekt
Oxumaq vaxt alır?
Məqalələri dinləyə bilərsizGeniş fasilə və istifadəçilərin çətinliyi
Anthropic şirkətinin məşhur Claude platformasında bazar ertəsi səhər geniş fasilə baş verdi. Minlərlə istifadəçi Claude.ai və Claude Code xidmətlərinə daxil olmaqda ciddi problemlərlə üzləşdi. Giriş zamanı yaranan səhvlər istifadəçilərin gündəlik işini pozdu, bir çoxları platformaya daxil ola bilmədi.
Claude API işləyirdi, amma əsas xidmətlər dayanmışdı
Qeyd etmək lazımdır ki, Claude API normal fəaliyyət göstərirdi. Lakin əsas tətbiqlər və giriş-çıxış yollarında yaranan problemlər istifadəçi təcrübəsini əhəmiyyətli dərəcədə zəiflətdi. Anthropic-in status səhifəsində fasilənin Claude.ai və giriş/çıxış sistemlərində olduğu bildirildi.
Şirkətin reaksiyası və səbəblər
Anthropic hələ fasilənin dəqiq səbəbini açıqlamayıb. Şirkət problemi müəyyən edib və həll yolları üzərində fəal işləyir. İstifadəçilər isə səbəbin tezliklə açıqlanmasını və xidmətlərin bərpasını gözləyir.
Claude tətbiqi və siyasi gərginlik
Claude tətbiqi App Store-da reytinq baxımından liderliyə yüksəlib və ChatGPT-ni geridə qoyub. Lakin ABŞ-da siyasi gərginliklər də şirkətin fəaliyyətinə təsir göstərir. Keçmiş prezident Donald Trump federal agentliklərə Anthropic məhsullarından istifadəni dayandırmağı tapşırıb. Bu qərar, Müdafiə Nazirliyinin AI modellərinin kütləvi daxili nəzarət və tam avtonom silahlar üçün istifadəsini məhdudlaşdırmaq istəyindən sonra verilib.
Müdafiə Nazirliyinin mövqeyi
ABŞ Müdafiə naziri Pete Hegseth Anthropic şirkətini təchizat zənciri təhlükəsi kimi qiymətləndirəcəyini bildirib. Şirkət isə hələ rəsmi bildiriş almadığını vurğulayır.
İnsanlar və gələcək
Bu fasilə texnoloji xidmətlərə asılı olan minlərlə istifadəçinin işini yavaşlatdı. İstifadəçilər narahatdır, çünki belə fasilələr onların iş axınına və gündəlik planlarına ciddi təsir göstərir. Anthropic-in tezliklə problemi aradan qaldırması və istifadəçilərin etimadını bərpa etməsi gözlənilir.