Вештачка интелигенција, деепфакес и неизвесна будућност истине

Деепфакес су видео снимци који су направљени да натерају особу да каже или уради нешто што никада није рекла или урадила. С обзиром да методе засноване на вештачкој интелигенцији за креирање деепфакеса постају све софистицираније и приступачније, деепфакес поставља низ изазовних политичких, технолошких и правних питања.





најсјајнија звезда на небу данас

Деепфакес се могу користити на начине који су веома узнемирујући. Кандидати у политичкој кампањи могу бити мета изманипулисаних видео снимака у којима се чини да говоре ствари које би могле да угрозе њихове шансе за изборе. Дубоки фајкови се такође користе да би се људи сместили у порнографске видео снимке у којима заправо нису учествовали.

Будући да су толико реалистични, дубоке лажне ствари могу нарушити наше разумевање истине на више начина. Искоришћавајући нашу склоност да верујемо у поузданост доказа које видимо сопственим очима, они могу да претворе фикцију у привидну чињеницу. И, како постајемо све више прилагођени постојању дубоких лажњака, постоји и накнадни, пратећи ефекат: они поткопавају наше поверење у све видео записе, укључујући и оне који су оригинални. Истина сама по себи постаје неухватљива, јер више не можемо бити сигурни шта је стварно, а шта није.





Шта може да се уради? Не постоји савршено решење, али постоје најмање три начина који се могу користити за решавање дубоких лажирања: технологија, правни лекови и побољшана свест јавности.

Деепфаке Детецтион Тецхнологи

Док се АИ може користити за прављење деепфакеа, може се користити и за њихово откривање. Прављење деепфаке-а укључује манипулацију видео подацима — процес који оставља издајничке знакове које људски гледалац можда не може уочити, али које довољно софистицирани алгоритми детекције могу да имају за циљ да идентификују.



Као истраживање које је водио професор Сивеи Лиу са Универзитета у Албанију је показао , замена лица (уређивање лица једне особе на главу друге особе) ствара недоследности у резолуцији на композитној слици која се може идентификовати коришћењем техника дубоког учења. Професор Едвард Делп и његове колеге са Универзитета Пурдуе користе неуронске мреже да открију недоследности преко више оквира у видео секвенци која често настаје заменом лица. Тим који укључује истраживаче са УЦ Риверсиде и УЦ Санта Барбара развио је методе за откривање дигиталне манипулације као што су скалирање, ротација или спајање који се обично користе у деепфакес.

Број истраживача који се фокусирају на откривање дубоког лажирања расте, у значајној мери захваљујући ДАРПА-и Медијска форензика програм, који подржава развој технологија за аутоматизовану процену интегритета слике или видеа. Међутим, без обзира на то колико далеко напредују технолошки приступи у борби против деепфакеса, изазови ће остати.

Технике откривања дубоких лажњака никада неће бити савршене. Као резултат тога, у трци у наоружању деепфакес, чак и најбоље методе откривања често ће заостајати за најнапреднијим методама креирања. Други изазов је да технолошка решења неће имати утицаја када се не користе. С обзиром на дистрибуирану природу савременог екосистема за дељење садржаја на Интернету, неки деепфаке ће неизбежно доћи до циљане публике без проласка кроз софтвер за откривање.

Што је фундаменталније, да ли ће људи вероватније веровати дубоком лажњаку или алгоритму за детекцију који означава видео као измишљен? И шта би људи требало да верују када различити алгоритми за откривање — или различити људи — донесу супротстављене пресуде о томе да ли је видео прави?

Правни и законодавни лекови

Правни пејзаж који се односи на деепфакес је сложен. Оквири који се потенцијално могу тврдити у борби против дубоких лажирања укључују ауторска права, право на публицитет, одељак 43(а) Ланхамовог закона и деликте клевете, лажног светла и намерног наношења емоционалног стреса. На другој страни главне књиге налазе се заштита коју даје Први амандман и поштено коришћење доктрина закона о ауторским правима, као и (за услуге друштвених мрежа и друге веб странице које хостују садржај трећих страна) члан 230 Закона о пристојности у комуникацијама (ЦДА).

Судовима неће бити лако да пронађу прави баланс. Пресуде које дају прешироку заштиту људима на мети деепфакес-а ризикују да буду у супротности са Првим амандманом и да буду одбачене у жалбеном поступку. Пресуде које недовољно штите мете деепфаке могле би оставити људе без механизма за борбу против деепфаке-а који би могли бити изузетно штетни. А покушаји да се ослаби одељак 230 ЦДА у име адресирања претње коју представљају деепфакес створили би читав низ ненамерних и штетних последица по онлајн екосистем.

Иако остаје да се види како ће се ове тензије одиграти на судовима, две ствари су данас јасне: прво, већ постоји суштински сет правних лекова који се могу користити против дубинских лажирања, и друго, прерано је закључити да они ће бити недовољни.

Упркос томе, савезни и државни законодавци, који су под притиском да учине нешто у вези са дубоким лажњацима, одговарају новим законским предлозима. Али веома је тешко направити нацрт закона специфичног за дубоке лажне који није проблематичан у односу на Први амандман или сувишан у светлу постојећих закона.

На пример, (сада истекао) предлог закона Сената С.3805 уведен у децембру 2018. би, између осталог, учинио незаконитим коришћење било ког средства или средства међудржавне или иностране трговине, стварање, са намером да се дистрибуира, дубоког лажирања са намером да би дистрибуција дубоког лажирања олакшала криминалне или деликтно понашање према савезном, државном, локалном или племенском закону. Писање у Волох Цонспираци у вези са С.3805, професор права УСЦ Орин Керр приметио то :

Већ је злочин починити злочин према савезном, државном, локалном или племенском закону. Такође је већ злочин 'олакшати' злочин - види 18 У.С.Ц. § 2 на савезном нивоу, а државни закони имају своје еквиваленте. Осим тога, већ је деликт починити деликт према савезном, државном, локалном или племенском закону. Овај нови предложени закон онда чини савезним злочином прављење или дистрибуцију деепфаке-а када особа има намеру да уради оно што је већ забрањено. У ствари, он углавном додаје савезни кривични чекић за понашање које је већ забрањено и које би већ могло довести до кривичне казне или грађанске тужбе.

Државни законодавци у Њујорку су размотрили рачун који би забранио одређену употребу дигиталне реплике особе и предвидио да је за потребе права јавности личност живе или умрле особе лична својина. Није изненађујуће да је ово изазвало забринутост у индустрији забаве. Као писмо од потпредседника за односе са владом компаније Волт Дизни изјавио је да би, ако буде усвојен, овај закон ометао право и способност компанија попут наше да причају приче о стварним људима и догађајима. Јавност има интерес за те приче, а Први амандман штити оне који их причају.

Подизање јавне свести

На крају крајева, технолошка решења за детекцију деепфаке-а, без обзира колико добра буду, неће спречити дистрибуцију свих деепфаке-ова. А правни лекови, ма колико делотворни били, углавном се примењују после чињенице. То значи да ће имати ограничену корист у решавању потенцијалне штете коју деепфакес могу да направе, посебно с обзиром на кратке временске оквире који карактеришу стварање, дистрибуцију и потрошњу дигиталних медија.

Као резултат тога, побољшана свест јавности треба да буде додатни аспект стратегије за борбу против дубоког лажирања. Када видимо видео снимке који показују неприкладно понашање, биће важно да не претпоставимо одмах да су приказане радње стварне. Када се објави видео снимак високог профила за који се сумња да је дубоко лажан, обично ће бити могуће сазнати у року од неколико дана или чак сати да ли постоје поуздани докази да је измишљен. То знање неће зауставити деепфакес, али свакако може помоћи да се отупи њихов утицај.