Објашњено: Зашто постаје све теже открити дубоке лажне видео снимке и које су импликације?
Потенцијална опасност од деепфакеса лежи у чињеници да је ниво манипулације толико савршен да је понекад наизглед немогуће разликовати их од стварних видео записа. И што је теже открити неистину, то је већа претња коју она поседује да би се представила као стварна и изазвала хаос који намерава.

Докторирани видео снимци или деепфакес су једно од кључних оружја које се користи у пропагандним биткама већ неко време. Доналд Трамп исмејава Белгију јер остаје у Париском споразуму о клими, Дејвид Бекам који течно говори девет језика, Мао Цедонг који пева „И вилл сурвиве“ или Џеф Безос и Елон Маск у пилот епизоди Звезданих стаза… сви ови видео снимци су постали вирални упркос томе што су лажни, или зато што су били дубоки лажни.
Овај узнемирујуће реалистичан деепфаке ставља Џефа Безоса и Елона Маска у епизоду Звезданих стаза хттпс://т.цо/5КкмХпо1ВМ пиц.твиттер.цом/ЦпВе91Кил0
— Тхе Верге (@верге) 23. фебруар 2020
Прошле године, Марко Рубио, републикански сенатор са Флориде, рекао је да су дубоке фајке моћне као и нуклеарно оружје у вођењу ратова у демократији. У стара времена, ако сте хтели да угрозите Сједињене Државе, требало вам је 10 носача авиона, и нуклеарно оружје, и ракете дугог домета. Данас вам је потребан само приступ нашем Интернет систему, нашем банкарском систему, нашој електричној мрежи и инфраструктури, а све више, све што вам је потребно је могућност да произведете веома реалистичан лажни видео који би могао да подри наше изборе, који би могао да уништи нашу земљу у огромну унутрашњу кризу и дубоко нас ослабе, Форбес цитирао га је.
Потенцијална опасност од деепфакеса лежи у чињеници да је ниво манипулације толико савршен да је понекад наизглед немогуће разликовати их од стварних видео записа. И што је теже открити неистину, то је већа претња коју она поседује да би се представила као стварна и изазвала хаос који намерава. Али са софистициранијим алатима које покреће вештачка интелигенција сада доступним за производњу ових видео снимака, да ли постаје теже открити деепфакес?
Шта су деепфакес и како настају?
Дубоки лажни садржаји представљају лажни садржај – често у облику видео записа, али и других медијских формата као што су слике или аудио – креиран помоћу моћних алата вештачке интелигенције. Називају се деепфакес јер користе технологију дубоког учења, грану машинског учења која примењује симулацију неуронске мреже на масивне скупове података, за креирање лажног садржаја.
Запошљава грану вештачке интелигенције где ако рачунар добије довољно података, може да генерише лажне ствари које се понашају као права особа. На пример, АИ може научити како изгледа изворно лице, а затим га транспоновати на другу мету да изврши замену лица.
Примена технологије назване Генеративне адверсариал Нетворкс (ГАН), која користи два АИ алгоритма – где један генерише лажни садржај, а други оцењује његове напоре, подучавајући систем да буде бољи – помогла је да се дође до прецизнијих деепфакеса.
ГАН такође може да смисли компјутерски генерисане слике лажних људских бића, које је користила веб локација под називом „Ова особа не постоји“. Због тога је практично немогуће открити да ли су видео снимци или слике које видимо на Интернету стварни или лажни.
Деепфакес може бити заиста тешко открити. На пример, многи људи су пали на Тикток видео снимке на којима Том Круз игра голф, за које се касније показало да су лажне.
Да ли постаје све теже открити деепфакес?
Рад представљен на Зимској конференцији о апликацијама рачунарског вида 2021. описује нову технику која чини дубоке фајке сигурнијим, што отежава традиционалним алатима да их открију.
Студија, коју су предводили Паартх Неекхара и Схехзеен Самарах Хуссаин, обоје докторанди на Универзитету Калифорније у Сан Дијегу, открила је да се алати за детекцију могу заварати убацивањем благо манипулисаних уноса који се називају супарнички примери у сваки видео оквир.

Тренутне најсавременије методе за откривање дубоког лажирања могу се лако заобићи ако противник има потпуно или чак делимично знање о детектору, наводи се у раду под насловом „Адверсариал Деепфакес: Евалуатинг Вулнерабилити оф Деепфаке Детецторс то Адверсариал екамплес“.
У разговору за индианекпресс.цом, Неекхара и Хуссаин су рекли да стандардне методе детекције могу бити далеко од сигурних јер није гарантовано да ће открити новије деепфаке видео записе синтетизоване коришћењем нових техника које нису у скупу података и рањиве су на супротстављене уносе.
ПРИДРУЖИ СЕ САД :Експрес објаснио Телеграм каналКонкурентни улази су благо модификовани улази тако да узрокују грешку у дубоким неуронским мрежама. Показало се да су дубоке неуронске мреже рањиве на такве улазе који могу узроковати промену излаза класификатора. У нашем раду показујемо да нападач може мало да модификује сваки кадар дубоко лажног видеа тако да може да заобиђе детектор деепфаке и да се класификује као прави, рекли су.

Додали су: Нападач може да направи малу неприметну противничку пертурбацију за сваки кадар дубоко лажног видеа, да га дода у кадар и затим комбинује све видео кадрове заједно да би направио противнички видео. У нашим експериментима који су користили ове технике, успели смо да постигнемо стопу успешности (обмањивања детектора) већу од 90%.
Које претње представљају деепфаке видео снимци?
Уз пролиферацију деепфаке видео снимака, расте забринутост да ће они бити наоружани за вођење политичких кампања и да их ауторитарни режими могу искористити.
2019. године, истраживачка организација под називом Футуре Адвоцаци и УК Артист Билл Постерс направили су видео снимак премијера Велике Британије Бориса Џонсона и лидера Лабуристичке партије Џеремија Корбина који се међусобно подржавају за место премијера. Група је рекла да је видео направљен да покаже потенцијал деепфакеса да подрива демократију.
Такође, прошле године, пре избора у Скупштини у Делхију, видео снимци председника Делхијског БЈП Маноја Тиварија који говори на енглеском и Харианвија постали су вирални. На овим видео снимцима, Тивари је виђен како критикује Арвинда Кејривала и тражи од људи да гласају за БЈП. Касније је откривено да су видео снимци, који су подељени у преко 5.000 ВхатсАпп група, лажни, известила је компанија за дигиталне медије Вице.
Дубоки фајкови су такође разлог за забринутост у тренутку када је СЗО изјавила да је криза Цовид-19 изазвала инфодемију и да је било намерних покушаја да се шире погрешне информације како би се поткопао одговор јавног здравља и унапредили алтернативни програми група или појединаца.
Штавише, фиксирани видео снимци — што укључује манипулисање садржајем коришћењем нетачног датумског печата или локације, исецање садржаја ради промене контекста, изостављање, спајање и измишљање — данас се све више користе на друштвеним медијима како би се намерно лажно представиле чињенице у политичке сврхе. Већина ових видео снимака нису примери дубоког лажирања, али показују колико је лако прикрити чињенице и ширити лажи на основу изманипулисаног садржаја који се маскира као чврст доказ.
Вомбо АИ је дивљи пиц.твиттер.цом/ИИаФцРреГГ
- Џек Пособиец (@ЈацкПособиец) 10. марта 2021
Друга велика забринутост у вези са дубоким лажним видео снимцима је стварање порнографског садржаја без сагласности. 2017. године, корисник је применио алгоритам за замену лица како би направио дубоке порнографске видео снимке познатих личности као што су Скарлет Јохансон, Гал Гадот, Кристен Бел и Мишел Обама, и поделио их на Реддит претњи под називом р/деепфаке. Рачун је имао скоро 90.000 претплатника до тренутка када је уклоњен у фебруару следеће године.
Од хиљада деепфаке видео снимака на Интернету, више од 90% је порнографија без пристанка. Један од најужаснијих експеримената вештачке интелигенције прошле године била је апликација под називом ДеепНуде која је скидала фотографије жена – могла је да фотографише, а затим да замени женску одећу за веома реалистична гола тела. Апликација је уклоњена након снажног одговора.
Такође, како се нашироко извештава, дубоки лажни видео снимци се све више користе за генерисање осветничке порнографије одбачених љубавника како би узнемиравали жене.
Претња коју представљају Деепфаке видео снимци већ је очигледна, рекли су Неекхара и Хуссаин за индианекпресс.цом. Постоје злонамерни корисници који користе такве видео снимке да оклеветају познате личности, шире дезинформације, утичу на изборе и поларизирају људе. Са убедљивијим и доступнијим техникама синтезе деепфаке видео записа, ова претња је постала још већа по величини, додали су.
Да ли се спрема обрачун?
Већина компанија друштвених медија као што су Фејсбук и Твитер забраниле су дубоке лажне видео снимке. Рекли су да ће чим открију било који видео као деепфаке бити уклоњен.
Фацебоок је ангажовао истраживаче из Берклија, Оксфорда и других институција да направе детектор за дубоко лажирање. У 2019. одржала је Деепфаке Детецтион Цхалленге у партнерству са лидерима индустрије и академским стручњацима током којег је креиран и дељен јединствени скуп података који се састоји од више од 100.000 видео записа.
Међутим, не могу се тачно открити сви дубоки фајкови и такође може бити потребно доста времена да се пронађу и уклоне. Штавише, многи порнографски сајтови не примењују исти ниво ограничења.
Неекхара и Хуссаин су рекли: „Да бисмо прецизније открили деепфаке видео записе, потребни су нам противно робусни модели укључивањем нападача док обучавамо такве моделе откривања деепфаке-а. Дугорочно решење је стављање воденог жига или дигитално потписивање слика и видео записа са уређаја који су снимљени. Водени жиг или дигитални потпис би требало да буду поремећени ако се примењују дубоко лажне технике попут замене лица. Детектор дубоког лажирања тада може само да провери потпис или водени жиг. Међутим, ово би захтевало успостављање стандарда за водени жиг за све камере и мобилне телефоне. Дакле, може проћи неко време док ово не постане стварност.
Подели Са Пријатељима: