Məşhurlar hədəfdə
Saxta porno videosunu hazırlamaq asanlaşdı, nəticələr «ciddi olacaq»
Son həftələrdə internetə yüklənmiş «deepfake» (dərin saxta) adlandırılan pornoqrafik videoların sayı kəskin şəkildə artmaqdadır. Belə videolarda, adətən pornoaktrisaların üzləri montaj yolu ilə hədəflənən şəxsin üzü ilə əvəzlənir.
Belə videoları istehsal edən proqramların istifadəsi asanlaşır və onların imkanları da artmaqdadır.
Yeni texnologiyanın ciddi fəsadları ola bilər.
«Saxta xəbər» böhranı bunun bəlkə də ən ilkin mərhələsidir, BBC-nin Şimali Amerika üzrə texnologiya müxbiri Deyv Li (Dave Lee)) yazır.
Hadisələrin inkişafı dövlət qurumları ilə şirkətlərin ona tam hazır olmadığını göstərir.
Bəs görəsən, müəyyən şəxsin üzünü istifadə etməklə pornoqrafik film yaratmaq əxlaq normaları ilə necə uzlaşır? Videonun həqiqi olmadığının əhəmiyyəti varmı? Kiməsə zərər yetirilirmi?
Yəqin ki, video müəllifləri əməllərinin şəkli istifadə olunmuş şəxsə təsirini dərk etməlidirlər.
«Deepfake»lər necə yaradılır?
Üzü əvəzləyən video proqramı ötən ay təqdim olunub.
Bu müddət ərzində onu 100 min dəfə yükləyiblər.
Açıq-saçıq görüntülər yüz ildən artıqdır ki, montaj olunur. Hərçənd ki, bu, xüsusilə də videolarda, çox çətin bir prosesdir.
Realistik görüntü hazırlamaq üçün «Hollywood» studiyalarında istifadə edilən proqram təminatı, istedadlı montajçılar və müvafiq büdcə tələb olunur.
Amma yeni rəqəmsal texnologiya bu prosesi üç sadə mərhələyə bölür: Bunun üçün şəxsin çoxlu fotoşəkillərini toplamaq, videonu seçmək və daha sonra sadəcə olaraq gözləmək lazımdır.
Qalan şeyləri kompüter edəcək, hərçənd ki, bu proses 40 saatadək davam edə bilər.
Bu texnologiyanın inkişafı dünya boyu geniş marağa səbəb olub.
Son günlərdə Cənubi Koreyadakı axtarışlarda «deepfake» termininin istifadəsi kəskin şəkildə artıb.
Güman edilir ki, buna səbəb 23 yaşlı pop ulduz Seulhunun (Seolhyun) montaj edilmiş videoları olub.
Məşhurlar hədəf alınır
Emma Uatson Emma Watson və Natali Portman (Natalie Portman) «Deepfake» videolarında istifadə olunan ən populyar məşhurlardır.
Hərçənd ki, belə videolarda Mişel Obama (Michelle Obama), Ivanka Trump və Keyt Middleton (Kate Middleton) kimi şəxsləri də görmək olar.
Aktrisa Qal Qadotun (Gal Gadot) görüntüləri bu texnologiyanın imkanlarını nümayiş edən ilk videolardan biri idi.
Vaxtilə «Motherboard» saytı montaj proqramlarının tam avtomatlaşdırılmasının bir il ərzində başa çatacağını ehtimal etmişdir. Əslində isə bu cəmi bir ay ərzində tamamlandı.
Belə videoların yayılması bır sıra suallara zəmin yaradır.
Görüntülərin paylaşması üzrə «Gyfcat» saytı «deepfake» kimi tanınan şəkilləri yığışdırmışdı.
Amma yaxın gələcəkdə etiraz doğuran görüntüləri yığışdırmaq çətin bir işə çevrilə bilər.
«Deepfake» hazırlayanlar tərəfindən istifadə edilən «Reddit» bu istiqamətdə hələ ki, heç bir addım atmayıb.
Bu saytın rəhbərliyi hadisələrin inkişafını yaxından izlədiyini deyir.
Son illərdə «qisas pornoqrafiyası»na qarşı mübarizə aparılıb.
Belə görüntülərin icazəsiz yayılması videodakı şəxsi rüsvay və təhdid etmə məqsədini daşıyıb.
«Deepfake» videoları bu məsələni daha da mürəkkəbləşdirir.
İnternetə yüklənən görüntülər həqiqi olmasa da hədəflənən şəxsə yetirilən psixoloji zərər, sözsüz ki, həqiqidir.
Siyasi məqsədlə istifadə
Texnologiya jurnalistlərinin təbirincə, tarixi olaraq İnternet innovasiyalarının inkişafına ən böyük töhfə verənlərdən biri də pornoqrafiya sektorudur.
O, video faylların həcminin azaldılması və kasetlərin yayılması kimi yeni format və yeniliklərdə öz rolunu oynayıb.
Çox güman ki, yeni montaj proqramları da başqa innovasiyalara yol aça bilər.
«The Outline» saytı üçün yazdığı məqalədə jurnalist Con Kristian (Jon Christian), bu texnologiyanın təhlükəli tərəflərinə də toxunur.
O, «deepfake»lərin beynəlxalq qarşıdurma yaratmaq, hökumətlər və ya xalqları aldatmaq üçün istifadə edilə biləcəyindən söz açır.
Bu ehtimalı aşağı olan təhlükə deyil.
«Saxta xəbər»lər (istər bədniyyətli, istərsə də rişxənd məqsədli) artıq qlobal müzakirələr və ictimai fikrin formalaşmasında öz rolunu oynayır.
Onlar bəlkə də seçkilərin nəticələrinə təsir göstərəcək dərəcədə əhəmiyyətlidir.
Görüntü ilə yanaşı, nitqin də montajı ən təcrübəli xəbər izləyicisini belə çaşdıra bilər.
Hazırda bu texnologiya əsasən pornoqrafiya sahəsində istifadə olunur.
Lakin «Deepfake» istifadəçilərinin icması bir məsələni dəqiq bilir: Bu texnologiya artıq mövcuddur və geriyə dönüş yoxdur.