Дипфејкот, покрај тоа што претставува вовед во нов вид технолошка манипулација, тој е и веројатната идна замена за снимените прислушкувани разговори, кои на светската сцена на политичките интриги кулминираа преку аферата Вотергејт, а во наши локални рамки, својата експлозија ја доживеаја со т.н. „бомби на Заев“.
Веројатно ретко кој можел да ја предвиди револуционерноста на сцената од филмот Форест Гамп, снимен во 1994 година, во која главниот лик е вметнат во оригинална архивска снимка како се поздравува со претседателот на САД, Џон Кенеди. Иако оваа филмско-манипулативна интервенција не се покажала толку значајна за идниот развој на филмската индустрија, таа претставувала најава за она што по четвртина век ќе претставува главна опасност за манипулација во реалниот живот и закана по етичкиот интегритет на луѓето. Станува збор за новиот феномен познат како „дипфејк (deepfake)“.
Што претставува дипфејкот?
Дисеминацијата на лажните вести, како политички инструмент, одамна е проблем во современиот политички дискурс. Дипфејкот, како дел од лажните вести, станува вообичаена појава, која брзо се шири по интернетот, при што, и за експертите е многу тешко да ја воочат разликата помеѓу автентичните и лажните фотографии или видеа, додека на обичните конзументи сѐ им изгледа вистинито. Дипфејкот е, така да се каже, новото супер-оружје на лажните вести, затоа што сега, не само што е можно да се дистрибуираат дезинформации, туку тие изгледаат и веродостојно.
Наједноставната дефиниција за Deepfakes е дека тие претставуваат синтетички медиуми во кои едно лице во постоечка фотографија или видео се заменува со некој друг лик. Како подмножество на лажните вести, дипфејкот се електронски модифицирани видеа и фотографски слики, кои менуваат или симулираат луѓе и настани и ја користат убедливата моќ на аудиовизуелните медиуми да го постигнат нивниот ефект на лага.
Терминот потекнува од крајот на 2017 година, од еден корисник на социјалната мрежа за вести и дискусии Редит, кој се потпишувал со лажното име „deepfakes“. Тој, како и другите членови на заедницата Редит, споделувал лажни видеа кои самиот ги создавал. Тоа вклучувало многу видеа на познати личности префрлени во телата на актерките од порнографските видеа, додека непорнографските содржини содржеле најмногу видеа со лицето на актерот Николас Кејџ, заменет во разни филмови.
Меѓутоа, дипфејкот не е феномен својствен само за последните години. Примената на манипулацијата со фотографии за политички цели датира уште на почетокот на 20-от век, за време на диктатурата на Сталин во Советскиот Сојуз, кога политичари кои биле отфрлени од партијата, редовно биле отстранувани и од фотографиите, со цел да бидат избришани и од официјалната историја и националната меморија. Најпознат случај биле фотографиите со револуционерот Троцки.
Од друга страна, и главниот лик во орвеловиот дистописки роман „1984“, Винстон Смит, кој бил службеник во Министерството за вистина, исто така, работел на текстуално и фотографско бришење од старите весници на личности кои дошле во судир со Големиот Брат. Ако се има предвид дека романот „1984“ настанал како исповед и каење на Џорџ Орвел за сѐ она што тој го работел како англиски колонизаторски агент во Бурма, а потоа и како новинар во Би-Би-Си, можен заклучок би бил дека манипулацијата со фотографиите во минатото не им била туѓа и на западните служби.
Од невозможни кошеви до голи сосетки
Брзиот технолошки развој овозможил и техничките пречки многу полесно да се надминат. Така, во филмската индустрија, електронски модифицираните видеа и снимки, станале прифатено уметничко средство. На пример, специјални ефекти можат да направат актерите да се појават помлади, или да бидат вметнати во стари видео снимки. На социјалните медиуми, како Снепчет, веќе е присутна варијација на оваа технологија, позната како „размена на лица“, која масовно се користи од претплатниците.
Во август 2018 година, истражувачите од Универзитетот Беркли во Калифорнија, објавиле труд во кој е претставена апликација за лажно танцување, која создавала впечаток дека секој може да сними видео во кое има мајсторски способности за танцување. Овој проект се смета за прв кој ја проширил примената на дипфејкот на целото тело; претходните апликации се фокусирале на главата или на делови од лицето. За обичните конзументи, најпознати такви видео записи се оние во кои се постигнуваат кошеви од невозможни позиции, со заврзани очи или со грб свртен кон кошот.
Истите истражувачи претставиле како дипфејкот се ширел и во други домени, како што е фалсификувањето на медицинската снимка. Во едно видео се покажува како креаторот на дипфејкот може автоматски да инјектира или да отстрани канцер од белите дробови на пациент скениран со 3Д Компјутерска томографија. Резултатот бил толку убедлив што измамил тројца радиолози да поверуваат во прикажаното.
Кинеската апликација Зао, почнала да им овозможува на корисниците да ги заменат сопствените лица со оние на ликовите во сцените од филмовите и телевизиските емисии, како Ромео и Јулија, Игра на троновите и други. Ова овозможувало, на пример, во филмот Спасувањето на војникот Рајан, на момент, да го замените лицето на Мет Дајмон со вашиот лик, и да се гледате себеси како главен актер во оваа воена драма.
Во јуни 2019 година, била објавена и апликацијата наречена DeepNude, во која се користеле нервните мрежи, конкретно генерирачки спротивните мрежи (една генеричка структура има телото, а друга облеката), за да се отстрани облеката од фотографии на жени. Апликацијата чинела 50 долари – сума за која сте можеле вашата сосетка да ја видите гола.
Како серијата Династија го најавила распадот на Југославија
Во принцип, постојат три методи за создавање дипфејк: прво, размена на лице, второ, синхронизација на усните и трето, „господар на кукли“. Методот за размена на лице ги пренесува карактеристиките на лицето од една личност на главата на друга. Ова, на пример, му овозможува на креаторот на дипфејкот да изврши одредени интервенции врз лицето на таргетираната личност, создавајќи впечаток дека тој или таа природно ги формирале таквите фацијални акции.
Извор: analyticsinsight.net
Повеќе технички елабориран метод е оној за синхронизација на усните, односно само се симулираат движења на усните на целната личност, така што тие се прилагодуваат на новите изговорени зборови. Ова овозможува видео манипулација со која целната личност го кажува она што е посакувано. Сепак, понекогаш е можно да се забележи дека движењата на усните не секогаш одговараат на останатите движења на лицето. Треба да се има предвид дека оваа метода не претставува грубо сечење на усни од друга личност, кои се аплицираат како усни на таргетираната личност. Напротив, автентичната уста на целниот субјект прави движења кои го изговараат посакуваниот говор.
„Господар на кукли“ или марионети е најкомплексниот метод, кој сè уште не е целосно развиен и усовршен. Тој подразбира манипулација со лицето на личноста во видеото, при што целосно електронски се манипулира со неговите или нејзините движења на лицето. Ова значи дека не само гласот, туку и сите движења на лицето, можат целосно да се синтетизираат. Просечниот гледач повеќе не може да забележи никакви манипулации, затоа што движењата на мускулите на лицето се во целосна хармонија со движењата на устата.
Неодамна, на регионалните социјални мрежи, се појави видео снимка, инсерт од некогаш популарната американската сапунска серија, Династија, во која актерката Џоан Колинс зборува за Југославија и Србија. Лесноверните гледачи веднаш прокоментираа како Алексис го најавила распадот на Југославија уште во раните осумдесети години на минатиот век.
Заев и Цеца жртви на дипфејк
Освен за забава, дипфејкот се злоупотребува и за манипулација во политички цели, како и за уцени и изнуда. Во Мериленд, САД, имало случај кога вработен добил телефонски повик со глас на неговиот претпоставен кој побарал да сподели важни податоци за сметката. Сепак, гласот на телефонот не бил на неговиот претпоставен, туку синтетичка емитација, што резултирало со финансиски штети на неговата компанија. Слична употреба за модификација на гласот била употребена и во пранкот во кој премиерот Зоран Заев зборува со активистката Грета Тунберг.
Дипфејкот се користи и за злоупотреба во порнографската индустрија. Ова подразбира уцена со електронски манипулирани снимки, што наводно ја покажуваат жртвата во компромитирачки ситуации. Една од најголемите регионални турбо фолк ѕвезди, Цеца Ражнатовиќ, неодамна била цел на така креирани видео и фото материјали.
Ништо помалку застрашувачка не е опасноста од дипфејкот кој е претставен како фикција во британската серија The Capture. Серијата го следи британскиот поранешен војник Шаун Емери, кој е обвинет за напад и киднапирање на неговата адвокатка. Специјално снимени снимки од видео надзор, на кои се гледа ликот на Шаун, но кои се дипфејк, се користат за да ја заведат полицијата да го осомничи.
Подмножество на дипфејкот е создавањето вештачки идентитет. Слики од повеќе лица кои постојат, електронски се комбинираат за да произведат слики од ново лице, кое не одговара на која било друга жива личност. Ваквите нови, уникатни електронски идентитети, можат да се рашират во реалниот свет со CV-а и биографски документи кои можат да се нарачаат преку интернет. Најпознат таков артифициелен лик е со името Оливер Тејлор, чиј идентитет бил опишан како студент на универзитет во Велика Британија.
Личноста Оливер Тејлор објавувала лични ставови во неколку весници и била активна на социјалните медиуми со критички ангажирани политички текстови. Истражувајќи по мрежата, агенцијата Ројтерс успеала да пронајде само оскудни записи за Оливер Тејлор, а „неговиот“ универзитет немал никакви податоци за него. Иако многу експерти се согласиле дека „неговата“ фотографија била дипфејк, сепак весниците не ги повлекле „неговите“ статии ниту ги отстраниле од нивните веб-страници. Се стравува дека ваквите техники се новото бојно поле во дезинформирањето, при што, ова варијанта на измама со идентитет, може да се користи и за случаи кога се подготвува некоја шпиунска операција.
Има ли „спас“ од дипфејкот?
Идниот развој на дипфејкот ќе нѐ доведе до технолошки стадиум повеќе да не е потребно да се биде компјутерски експерт или техничар за да може успешно да се манипулира со фотографии и видеа, а технолошките пречки за производство на дипфејкот многу полесно ќе се надминуваат. За жал, демократизацијата на технологијата и на интернетот доведоа и до демократизација, односно широк пристап и до неговните лоши страни, така што сега секој може да креира дипфејк.
Меѓутоа, колку и да изгледа совршено, сепак е можно електронски да се открие видео со дипфејк, иако се потребни многу технички напори. Универзитетот Беркли во Калифорнија, во моментов работи на развивање вакви методи. Во принцип, овие методи за откривање се засноваат на создавање типични модели на движење за поединци. Со други зборови, секоја личност има сопствен број на персонални движења на главата, устата и мускулите што одговараат на изговорените зборови и резултираат со говор и движење, уникатни за таа личност.
Релативно прецизна шема може да се пресмета од оваа комбинација на различни фактори. Автентичниот говор, преку овој модел на движења, се споредува со препознатливите модели во видеото. Бидејќи манипулацијата неопходно вклучува промена на овие обрасци, така може да се докаже, со висок степен на математичка веројатност, дека таа е дипфејк.
Друга техничка опција за ограничување на ефектот на видеата со дипфејк е автоматско вклучување на електронски потпис во множеството други податоци кога првично се снима видеото/фотографијата. На овој начин, оригиналите би можеле да бидат заверени со т.н. единствен матичен број. Оваа технологија, наречена „хаш“, веќе опстојува подолго време, и успешно се користи во различни апликации како што е преносот на податоци. Таа овозможува, кога и да има промена во оригиналната датотека, автоматски да се менува и хашот (матичниот број), што може да обезбеди првична индикација за потенцијална манипулација.
Паралелно со развојот на техничкиот инструментариум, кој, сѐ повеќе, ќе се развива во борбата против дипфејкот, треба да следи и соодветна реакција за усвојување регулаторни и законодавни мерки. Во Германија, САД, Кина, Обединетото Кралство и Канада, веќе постои законска пракса која го санкционира дипфејкот кој не е од забавен карактер.
Исто така, треба да се отпочне и со широко распространета кампања за информирање и подигнување на социјалната и политичката свест за можностите и опасностите кои произлегуваат од оваа технологија. Мора да се информираат корисниците на интернетот дека не секое видео објавено преку социјалните медиуми е вистинито, колку и да делува така.
Како последица на невнимателноста на кабинетот на премиерот Зоран Заев, и Македонија го помина прагот во соочувањето со феноменот на дипфејк. Затоа, и кај нас, на проблемот треба да му се пристапи сериозно, со размислување за покренување широка кампања за подигнување на свеста за присутност на дипфејкот на интернетот, набавка на соодветна техничко-софтверска заштита и за негово детектирање, како и подготвување законска регулатива против овие т.н. убедливи лаги.
Со појавата на дипфејкот, примарната опасност која му се заканува на човештвото е дека повеќе не ќе може да се утврди дали содржината на медиумот е вистинита или лажна, со што дополнително ќе се поткопа, и онака нарушениот, базичен општествен консензус за тоа што е вистина, а што лага.
**Блогот е објавен во рамки на Иницијативата за дигитално граѓанство ResPublica и е преземен од www.respublica.edu.mk. Оригиналната објава можете да ја прочитате ОВДЕ.