Како побољшати сајбер безбедност за вештачку интелигенцију

У јануару 2017, група истраживача вештачке интелигенције окупила се на конференцији Асиломар у Калифорнији и развила 23 принципа за вештачку интелигенцију , који је касније назван Асиломар АИ Принципи. Шести принцип каже да системи вештачке интелигенције треба да буду безбедни и безбедни током свог радног века, и то проверљиво тамо где је применљиво и изводљиво. Хиљаде људи у академским круговима иу приватном сектору од тада је потписало ове принципе, али, више од три године након конференције Асиломар, остају многа питања о томе шта значи учинити системе вештачке интелигенције безбедним и безбедним. Провера ових карактеристика у контексту области која се брзо развија и веома компликоване примене у здравству, финансијској трговини, транспорту и превођењу, између осталог, компликује овај подухват.





карта руте Џона Кабота

Велики део досадашњих дискусија био је усредсређен на то колико алгоритми за машинско учење могу бити корисни за идентификацију и одбрану од рачунарских рањивости и претњи аутоматизовањем откривања и одговора на покушаје напада.једнаНасупрот томе, изнета је забринутост да коришћење вештачке интелигенције у офанзивне сврхе може да отежава сајбер нападе за блокирање или одбрану од њих омогућавањем брзог прилагођавања малвера како би се прилагодио ограничењима наметнутим противмерама и безбедносним контролама.дваОво су такође контексти у којима многи креатори политике најчешће размишљају о безбедносним утицајима вештачке интелигенције. На пример, извештај за 2020. о вештачкој интелигенцији и националној безбедности Уједињеног Краљевства који је наручио штаб за комуникације владе Уједињеног Краљевства истакао је потребу да Уједињено Краљевство угради вештачку интелигенцију у своју сајбер одбрану како би проактивно открило и ублажило претње које захтевају далеко већу брзину одговора. него што дозвољава људско одлучивање.3



Сродни, али различити скуп питања бави се питањем како сами системи вештачке интелигенције могу бити обезбеђени, а не само о томе како се могу користити за повећање безбедности наших података и рачунарских мрежа. Напор да се имплементирају безбедносна решења вештачке интелигенције како би се одговорило на претње које се брзо развијају чини потребу за обезбеђењем саме вештачке интелигенције још хитнијом; ако се ослањамо на алгоритме машинског учења за откривање и реаговање на сајбер нападе, још је важније да ти алгоритми буду заштићени од сметњи, компромиса или злоупотребе. Све већа зависност од вештачке интелигенције за критичне функције и услуге не само да ће створити веће подстицаје за нападаче да циљају те алгоритме, већ и потенцијал да сваки успешан напад има теже последице.



Све већа зависност од вештачке интелигенције за критичне функције и услуге не само да ће створити веће подстицаје за нападаче да циљају те алгоритме, већ и потенцијал да сваки успешан напад има теже последице.



Овај сажетак о политици истражује кључна питања у покушају да се побољша сајбер-безбедност и безбедност за вештачку интелигенцију, као и улоге креатора политике у помагању у решавању ових изазова. Конгрес је већ показао интересовање за законе о сајбер безбедности који циљају на одређене врсте технологије, укључујући Интернет ствари и системе за гласање. Како АИ постаје све важнија и широко коришћена технологија у многим секторима, креатори политике ће сматрати да је све потребније да размотре укрштање сајбер безбедности са вештачком интелигенцијом. У овом раду описујем нека од питања која се јављају у овој области, укључујући компромитовање система за доношење одлука вештачке интелигенције у злонамерне сврхе, могућност да противници приступе поверљивим подацима или моделима обуке АИ, и предлоге политике усмерене на решавање ових проблема. .



Обезбеђење система за доношење одлука АИ

Један од главних безбедносних ризика за АИ системе је потенцијал да противници угрозе интегритет својих процеса доношења одлука тако да не доносе изборе на начин који би њихови дизајнери очекивали или желели. Један од начина да се то постигне био би да противници директно преузму контролу над системом вештачке интелигенције како би могли да одлуче које резултате систем генерише и које одлуке доноси. Алтернативно, нападач може покушати да утиче на те одлуке суптилније и индиректније испоруком злонамерних уноса или података о обуци АИ моделу.4



На пример, противник који жели да угрози аутономно возило тако да је већа вероватноћа да ће доћи до несреће, може искористити рањивости у софтверу аутомобила како би сам доносио одлуке о вожњи. Међутим, даљински приступ и искоришћавање софтвера који управља возилом може се показати тешким, па би уместо тога противник могао да покуша да натера аутомобил да игнорише знаке за заустављање тако што ће их у том подручју нанети графитима. Због тога алгоритам компјутерског вида не би могао да их препозна као знак за заустављање. Овај процес којим противници могу да доведу до грешака система вештачке интелигенције манипулисањем улазима назива се супротстављено машинско учење. Истраживачи су открили да мале промене дигиталних слика које људско око не може открити могу бити довољне да изазову АИ алгоритме да потпуно погрешно класификују те слике.5

Алтернативни приступ манипулацији улазним подацима је тровање подацима, које се дешава када противници тренирају АИ модел на нетачним, погрешно означеним подацима. Пример за то су слике знакова за заустављање који су означени као нешто друго тако да алгоритам неће препознати знаке за заустављање када их наиђе на путу. Ово тровање модела онда може довести до тога да АИ алгоритам касније прави грешке и погрешне класификације, чак и ако противник нема приступ да директно манипулише улазима које прима.6Чак и само селективно обучавање АИ модела на подскупу исправно означених података може бити довољно да компромитује модел тако да доноси нетачне или неочекиване одлуке.



Ови ризици говоре о потреби за пажљивом контролом и над скуповима података за обуку који се користе за прављење АИ модела и улазних података који се тим моделима затим обезбеђују како би се осигурала сигурност процеса доношења одлука омогућених за машинско учење. Међутим, ниједан од ових циљева није једноставан. Конкретно, улази у њихове системе машинског учења често су ван делокруга контроле АИ програмера – без обзира да ли ће на уличним знаковима бити графита са којима се, на пример, сусрећу системи компјутерског вида у аутономним возилима. С друге стране, програмери обично имају много већу контролу над скуповима података за обуку за своје моделе. Али у многим случајевима, ти скупови података могу садржати веома личне или осетљиве информације, изазивајући још један низ забринутости о томе како се те информације најбоље могу заштитити и анонимизирати. Ове забринутости често могу створити компромисе за програмере око тога како се та обука обавља и колико директног приступа подацима о обуци они сами имају.7



Истраживања о контрадикторном машинском учењу показала су да стварање АИ модела отпорнијим на тровање података и контрадикторне инпуте често укључује изградњу модела који откривају више информација о појединачним тачкама података које се користе за обуку тих модела.8Када се за обуку ових модела користе осетљиви подаци, то ствара нови скуп безбедносних ризика, односно да ће противници моћи да приступе подацима о обуци или да закључују тачке података обуке из самог модела. Покушај да се обезбеде АИ модели од ове врсте напада закључивања могу их учинити подложнијим горе описаним тактикама супротстављеног машинског учења и обрнуто. То значи да део одржавања безбедности за вештачку интелигенцију представља навигацију у компромисима између ова два различита, али повезана скупа ризика.

Предлози политике за безбедност вештачке интелигенције

У протекле четири године дошло је до брзог убрзања интересовања владе и предлога политика у вези са вештачком интелигенцијом и безбедношћу, са 27 влада које су објавиле званичне планове или иницијативе за вештачку интелигенцију до 2019.9Међутим, многе од ових стратегија се више фокусирају на планове земаља да финансирају више истраживачких активности АИ, обуче више радника у овој области и подстичу економски раст и иновације кроз развој АИ технологија него на одржавање безбедности за АИ. Земље које су предложиле или имплементирале политике фокусиране на безбедност за АИ нагласиле су важност транспарентности, тестирања и одговорности за алгоритме и њихове програмере—иако је мало њих дошло до тачке да стварно операционализује ове политике или да открије како ће оне функционисати у пракси. .



Земље које су предложиле или имплементирале политике фокусиране на безбедност за АИ су нагласиле важност транспарентности, тестирања и одговорности за алгоритме и њихове програмере.



У Сједињеним Државама, Комисија за националну безбедност за вештачку интелигенцију (НСЦАИ) је истакла важност изградње поузданих система вештачке интелигенције који се могу ревидирати путем ригорозног, стандардизованог система документације.10У том циљу, комисија је препоручила развој опсежног процеса пројектне документације и стандарда за АИ моделе, укључујући које податке користи модел, који су параметри и тежине модела, како се модели обучавају и тестирају и које резултате добијају. производити. Ове препоруке о транспарентности говоре о неким безбедносним ризицима у вези са технологијом вештачке интелигенције, али комисија их још није проширила да би објаснила како би се ова документација користила у сврхе одговорности или ревизије. На нивоу локалне управе, Градско веће Њујорка је 2017. године основало Радну групу за аутоматизоване системе одлучивања која је нагласила важност безбедности за системе вештачке интелигенције; међутим, радна група је дала неколико конкретних препорука осим што је приметила да се борила са проналажењем праве равнотеже између истицања могућности да се јавно деле информације о градским алатима, системима и процесима, истовремено осигуравајући да се узму у обзир сви релевантни правни, безбедносни ризици и ризици приватности .Једанаест

Извештај француске парламентарне мисије из 2018, под насловом За смислену вештачку интелигенцију: ка француској и европској стратегији, понудио је сличне нејасне предлоге. У њему је истакнуто неколико потенцијалних безбедносних претњи које изазива АИ, укључујући манипулацију улазним подацима или подацима о обуци, али је закључено само да постоји потреба за већом колективном свешћу и већим разматрањем безбедносних и безбедносних ризика почевши од фазе пројектовања АИ система. Даље је позвала владу да тражи подршку специјализованих актера, који су у стању да предложе решења захваљујући свом искуству и стручности и саветовала да би француска Национална агенција за безбедност система (АНССИ) требало да буде одговорна за праћење и процена безбедности и безбедности АИ система. На сличан начин, Кинески план развоја вештачке интелигенције нове генерације из 2017. предложио је развој безбедносних и безбедносних сертификата за АИ технологије, као и механизме одговорности и дисциплинске мере за њихове креаторе, али план је понудио неколико детаља о томе како би ови системи могли да функционишу.



За многе владе, следећа фаза разматрања безбедности вештачке интелигенције ће захтевати проналажење начина да се имплементирају идеје о транспарентности, ревизији и одговорности како би се ефикасно решили ризици несигурних процеса одлучивања АИ и модел цурења података.



Транспарентност ће захтевати развој свеобухватнијег процеса документације за АИ системе, у складу са предлозима које је изнео НСЦАИ. Ригорозна документација о томе како се модели развијају и тестирају и које резултате дају омогућиће стручњацима да идентификују рањивости у технологији, потенцијалне манипулације улазним подацима или подацима о обуци, и неочекиване резултате.

Темељна документација система вештачке интелигенције такође ће омогућити владама да развију ефикасне технике тестирања и ревизије, као и смислене програме сертификације који дају јасне смернице програмерима и корисницима вештачке интелигенције. Ове ревизије би, у идеалном случају, користиле истраживање супротстављеног машинског учења и моделирања цурења података како би тестирали АИ моделе на рањивости и процијенили њихову укупну робусност и отпорност на различите облике напада кроз форму црвеног удруживања фокусираног на АИ. С обзиром на доминацију приватног сектора у развоју вештачке интелигенције, вероватно је да ће многе од ових активности ревизије и сертификације бити препуштене приватним предузећима. Али креатори политике би и даље могли да играју централну улогу у подстицању развоја овог тржишта финансирањем истраживања и развоја стандарда у овој области и захтевањем сертификата за сопствене набавке и коришћење АИ система.

Коначно, креатори политике ће играти виталну улогу у одређивању механизама одговорности и режима одговорности за управљање вештачком интелигенцијом када дође до безбедносних инцидената. Ово ће укључивати успостављање основних захтева за оно што програмери вештачке интелигенције морају да ураде да би показали да су извршили своју дужну пажњу у погледу безбедности и безбедности, као што је добијање препоручених сертификата или подношење ригорозних стандарда ревизије и тестирања. Програмери који не испуњавају ове стандарде и граде системе вештачке интелигенције који су угрожени тровањем података или супротстављеним уносима, или који пропуштају осетљиве податке о обуци, били би одговорни за штету проузроковану њиховим технологијама. Ово ће послужити и као подстицај компанијама да се придржавају политика које се односе на АИ ревизију и сертификацију, а такође и као средство да се разјасни ко је одговоран када системи вештачке интелигенције проузрокују озбиљну штету због недостатка одговарајућих безбедносних мера и које су одговарајуће казне у тим околностима.

Пролиферација система вештачке интелигенције у критичним секторима — укључујући транспорт, здравство, спровођење закона и војну технологију — јасно показује колико је важно да креатори политике озбиљно схвате безбедност ових система. Ово ће захтевати од влада да гледају даље од само економских обећања и потенцијала за националну безбедност аутоматизованих система за доношење одлука како би разумели како се ти системи најбоље могу обезбедити комбинацијом смерница за транспарентност, стандарда сертификације и ревизије и мера одговорности.