Deepfake videolar: Həqiqət və yalan arasındakı sərhəd necə itir? - Tech Xəbər

Deepfake videolar: Həqiqət və yalan arasındakı sərhəd necə itir?

3
Link kopyalandı

73

Dünən, 21:43

Süni intellekt

Oxumaq vaxt alır?

Məqalələri dinləyə bilərsiz

Dərin saxta texnologiyasının yüksəlişi

2025-ci il dərin saxta texnologiyasının keyfiyyət və miqyas baxımından inanılmaz bir inkişaf dövrü oldu. Süni intellekt tərəfindən yaradılan üzlər, səslər və hərəkətlər artıq real insanları çox dəqiq şəkildə təqlid edə bilir. Xüsusilə aşağı keyfiyyətli video zənglərdə və sosial media platformalarında paylaşılan məzmunlarda bu texnologiya həqiqi görüntülərlə fərqlənməz hala gəlib.

Mütəxəssislərin fikrincə, bu texnologiyanın inkişafı yalnız keyfiyyətlə məhdudlaşmır. Kiber təhlükəsizlik şirkəti DeepStrike-ın məlumatına görə, 2023-cü ildə onlayn mövcud olan təxminən 500000 dərin saxta məzmunun sayı 2025-ci ildə 8 milyona çatıb. Bu, illik təxminən 900% artım deməkdir.

Texnologiyanın arxasındakı irəliləyişlər

Dərin saxta texnologiyasının bu qədər inkişaf etməsində bir neçə əsas texniki dəyişiklik rol oynayıb. Birincisi, video realizmi sahəsində böyük bir sıçrayış baş verib. Yeni video yaratma modelləri, insanların hərəkətlərini və üz ifadələrini ardıcıl və təbii şəkildə əks etdirə bilir. Artıq bu texnologiya, əvvəllər dərin saxtaları tanımaq üçün istifadə olunan göz və çənə xəttindəki təhriflər kimi əlamətləri aradan qaldırır.

İkincisi, səs klonlama texnologiyası tamamilə yeni bir mərhələyə qədəm qoyub. Cəmi bir neçə saniyəlik səs nümunəsi ilə təbii intonasiya, vurğu və hətta nəfəs səsləri ilə birlikdə inandırıcı bir səs klonu yaratmaq mümkündür. Bu isə böyük miqyaslı fırıldaqçılığa yol açır. Böyük pərakəndə satış şəbəkələri gündə 1000-dən çox süni intellekt tərəfindən yaradılmış fırıldaqçı zənglər aldığını bildirir.

Üçüncüsü, istehlakçı alətləri texniki baryeri demək olar ki, sıfıra endirib. OpenAI-nin Sora 2 və Google-un Veo 3 kimi yenilikləri, habelə yeni startaplar vasitəsilə hər kəs asanlıqla təsvir etdiyi bir ideyanı qısa müddətdə yüksək keyfiyyətli audio-vizual məzmuna çevirə bilər.

İnsanlar üçün risklər və gələcək perspektivlər

Dərin saxta texnologiyası ilə bağlı əsas problem onun yaratdığı təhlükələrdir. Bu texnologiya dezinformasiya yayılması, hədəfli təqiblər və maliyyə fırıldaqçılıqları üçün istifadə olunur. Artıq bəzi hallarda bu texnologiyanın yaratdığı zərər insanlar tərəfindən dərk edilənə qədər geniş miqyasda yayılır.

Gələcəkdə dərin saxta texnologiyasının real vaxtda məzmun yaratma qabiliyyəti inkişaf edəcək. Artıq yalnız görüntü realizmi deyil, həm də davranış və hərəkət ardıcıllığı üzərində işlənilir. Bu isə saxta məzmunun aşkar edilməsini daha da çətinləşdirəcək.

Mütəxəssislər hesab edir ki, insan mühakiməsi ilə saxta məzmunu tanımaq mümkün olmayacaq. Bunun yerinə, media məzmununun kriptoqrafik olaraq imzalanması kimi infrastruktur səviyyəsində müdafiə mexanizmləri tətbiq edilməlidir. Həmçinin, multimodal forensik alətlər, məsələn, Deepfake-o-Meter kimi texnologiyalar vacib rol oynayacaq.

Dərin saxta texnologiyası həyatımızı dəyişdirməyə davam edir. Bu irəliləyişlər bir tərəfdən texnologiyanın imkanlarını genişləndirsə də, digər tərəfdən yeni təhlükələr yaradır. İnsanlar və qurumlar bu texnologiyaya qarşı daha hazırlıqlı olmalı və təhlükəsizlik tədbirlərini gücləndirməlidir.

3
Link kopyalandı