Kako se umjetna inteligencija može i hoće li pokvariti i kako se za nju pripremiti

Na kraju dana softver za umjetnu inteligenciju i dalje je softver - a softver se može oštetiti. Iako možda nismo u realnoj opasnosti da se Siri ili Alexa pretvori u HAL 9000 ili SkyNet, neizbježna zlouporaba ili neispravnost A.I. sustavi su slučajnost za koju se pojedinci i organizacije moraju pripremiti.

Prvi korak u pripremi za roga A.I. jest shvatiti kako se sustavi umjetne inteligencije mogu korumpirati u prvom redu. Istraživač sa sveučilišta u Louisvilleu Roman Yampolskiy identificirao je osam jedinstvenih putova do opasnog A.I., koji su navedeni u nastavku. Zatim ćemo raspravljati o metodama za ublažavanje rizika od zlonamjerne umjetne inteligencije.

Kako se razvija umjetna inteligencija

"Umjetna inteligencija" je pun izraz s mnogim konkurentnim definicijama (posebno ako ih koriste trgovci), ali općenito prihvaćen opis A.I. je softver koji se modificira bez izravnog nadzora ljudskih programera. A. I. softver se razvija kao odgovor na podražaje, što rezultira novim sustavom koji ljudi nisu izravno kodirali.

Najmodernija A.I. proizvod je dvaju čimbenika: osnovnog algoritma koji su napisali ljudi i podataka o obuci koji informišu kako se taj algoritam mijenja kako bi poboljšao ili prilagodio svoje performanse. Na primjer, A.I. Rješenje koje prepoznaje lica na mrežnim fotografijama bilo bi proizvod izvornog algoritma za prepoznavanje slike i različitih slika koje trebamo koristiti algoritam za „učenje“ kako razlikovati ljudska lica od ostalih slikovnih podataka.

Podaci o obuci su dobro naznačeni i isporučuju se u kontroliranom okruženju, prije uvođenja. To diktira kako A.I. izvršit će se odmah nakon puštanja u promet i općenito.

Nakon raspoređivanja, međutim, A.I. rješenja će naići na podatke iz stvarnog svijeta koji se mogu upotrijebiti za informiranje i poboljšanje performansi A.I. To znači da je nekoliko primjeraka istog predizdanja A.I. mogu i postaju radikalno različiti nakon što se prilagode različitim korisnicima i različitim organizacijama koje ih zapošljavaju.

Jednostavnije rečeno, neki programeri za umjetnu inteligenciju „rađaju loše“ od strane svojih programera, a druga postaju opasna kao rezultat prirodnog rasta. Ta se korupcija može dogoditi prije ili poslije puštanja na slobodu, namjerno ili pogreškom, kao rezultat okolišnih čimbenika ili jednostavno kao logični zaključak krivulje razvoja A.I. Svaka okolnost dovodi do različite vrste zlobne umjetne inteligencije.

Definicija "lošeg" A.I.

Zlonamjerni softver - koji se često naziva i zlonamjerni softver - softver je dizajniran tako da nanese štetu računalnim sustavima, ljudskim korisnicima ili oboje. Ono što razlikuje zlobne A.I. od konvencionalnog zlonamjernog softvera je da je A.I. može postati zlonamjeran bez pristanka ili namjere svojih programera. A. I. u nekoj mjeri dizajnira sam sebe, pa A.I. koja je trenutno zlonamjerna možda nije bila prvotno dizajnirana na taj način, a A.I. koja je osmišljena tako da nije zlonamjerna ne smije ostati dobronamjerna ili dobroćudna.

Kao što je gore spomenuto, A.I. je evoluiran softver koji se s vremenom prepisiva, eventualno dobivajući nove funkcije ili nove ciljeve na tom putu. Kao takav, svaki A.I. potencijalno je zlonamjerna, ne samo zato što njegovi programeri ili korisnici mogu usmjeriti A.I. nanijeti štetu, ali zato što je A.I. sustav može samostalno razviti štetno ponašanje.

Mogući putovi do A.I. malware

Evil by Design A.I.

Umjetna inteligencija Yampolskiy tipa A najvjerojatnija je i najopasnija vrsta zlonamjernog A.I. - umjetna inteligencija koja je namjerno napravljena da nanese štetu. Vrsta Zlonamjerene umjetne inteligencije napravljene su zlonamjerno, unaprijed se rasporede. Iako je moguće da bilo koji A.I. može se slučajno razviti da postane opasno ili štetno, sigurno je da je netko već izgradio A.I. sustav koji je namjerno dizajniran da povrijedi nekoga ili nešto.

Nekoliko vojnika otvoreno radi na automatiziranim oružanim sustavima pod kontrolom A.I. Višestruke obavještajne agencije koriste A.I. izgraditi bolje cyber-oružje i alate za nadzor. Kriminalne organizacije gotovo sigurno koriste A.I. otkriti njihove phishing napade - zamislite, na primjer, hordu chatbotova koji vode nadležne prevare španjolskih zatvorenika putem e-pošte ili Facebook Messengera - u ovom trenutku.

Bez obzira na štetu koju konvencionalni zlonamjerni programi mogu nanijeti, A.I. može pomoći zlonamjernom softveru da radi bolje. Umjetna inteligencija može sam zlonamjerni softver učiniti učinkovitijim, a A.I. također može poboljšati zlonamjerni softver u izbjegavanju otkrivanja. Kad je A.I. postaje dosljedno sposobna za polaganje Turingovog testa - što znači, kad više ne možete lako reći govorite li s osobom ili chatbotom - tada je moguća potpuno nova ljestvica napada na društveni inženjering.

A.I. varalica je opasnija od bilo kojeg konvencionalnog lovca jer A.I. izvođač može raditi s gotovo neograničenim razmjerima.

Ponovno zamišljen za zlo A.I.

Yampolskiy umjetna inteligencija tipa B dizajnirana je u zakonite svrhe, ali je preusmjerena - umjesto da je reprogramirana ili hakirana - na zlonamjerne ciljeve. A.B. vrste B napravljene su zlonamerno, ali samo nakon raspoređivanja i uglavnom bez promjene izravnoga koda.

Uzmimo za primjer A.I. sustav za analizu slika dizajniran da pomogne inženjerima da prepoznaju strukturne nedostatke u mostovima i nadvožnjacima autocesta jednostavnim fotografiranjem konvencionalnih fotografija prometnica. Kada se koristi prema predviđenoj namjeni, ovaj A.I. rješenje spašava živote usmjeravajući potrebne resurse na ceste i mostove u opasnosti od urušavanja. Ako se, pak, teroristička skupina uhvatila istog A.I. sustav, mogli bi ga upotrijebiti za izravno bombardiranje napada na područja gdje će napraviti najviše štete.

Slično tome, A.I. mogao bi postojati sustav za upravljanje kontrolama smanjenja potražnje koje mnoge elektroprivredne tvrtke postavljaju na kućne klimatizacijske jedinice. Sustav bi mogao biti dizajniran da minimizira potrošnju, a istovremeno osigurava da nijedan dom ili posao nema potreban klima uređaj koji bi osigurao sigurnost i udobnost putnika. Relativna težina dana očuvanju u odnosu na udobnost bila bi kontrolirana na zaslonu s postavkama A.I. aplikaciju, s postavkama koje je odredio ljudski zaposlenik. Ako je taj zaposlenik „otišao u skitnicu“ i uputio A.I. da bi se maksimizirala ušteda energije pod svaku cijenu, učinak bi bio isključenje klima uređaja čak i tijekom ekstremnih toplinskih valova, što bi moglo ugroziti medicinski krhki.

U tim se primjerima nije promijenilo ni ponašanje ni temeljni kod umjetne inteligencije, A.I. upravo su ljudi preusmjerili na zlonamjerne ili opasne ciljeve.

Loše dizajniran A.I.

Umjetna inteligencija Yampolskiy tipa C jednostavno je slabo osmišljena tako da je njezino "ispravno" djelovanje slučajno, a ne namjerno, opasno. A. C-ovi tipa C slučajno su zlonamjerni prije pokretanja. To se razlikuje od sustava Evil by Design (Type A) u tome što agenti Type-C nisu stvoreni u zlonamjerne svrhe, već im nedostaju samo sigurnosne značajke ili "inhibicije" koji sprečavaju neželjeno ponašanje.

Primjer loše dizajniranog A.I. postati zlonamjeran je navigacijski sustav koji planira rute najisplativijih za dostavne kamione, ali koji ne uzimaju u obzir visine zračenja mostova ili tunela. Rezultat toga bi mogao biti štetne ili čak kobne nesreće jer se kamioni s visokim zrakoplovstvom vode na rutama s malim zračenjem, a vozila se sruše u velike prepreke. Ovu bugu možda nije otkrio tijekom testiranja prije puštanja u promet, ali će postati očigledan nakon puštanja nakon početka nesreće.

Gotovo svako veliko izdanje softvera sadrži pogreške i pogreške koje nisu očite sve dok softver nije "u divljini". A.I. svi će, ali sigurno, trpjeti iste probleme, a ta bi pitanja lako mogla dovesti do opasnog A.I. malware.

Loše upravljani A.I.

Yampolskiy umjetnu inteligenciju tipa D ljudi slučajno usmjeravaju prema opasnom ponašanju. Tip D SA.I. zlonamjerno je učinjeno, post-raspoređivanjem, kao rezultat pogreške korisnika. To se razlikuje od agensa Ponovljeno za zlo (Tip B) po tome što ljudski korisnik ne namjerava usmjeriti A.I. prema zlonamjernom ponašanju, ali jednostavno ne razumije ishod upute koje izdaje A.I. sustav.

Kao primjer, upravljanje financijskim portfeljem A.I. može ih poučiti naivni korisnik da umanji poreznu obvezu za sljedeću fiskalnu godinu, a A.I. može odgovoriti premještanjem portfelja poduzeća na namjerno loša ulaganja koja donose financijski gubitak, umjesto stvaranja dobiti koja bi se mogla oporezivati. Čak i ako je A.I. ima zaštitne mjere za sprečavanje ovakvih loših izbora - mnoge zrele aplikacije predstavljaju izazov „Jeste li sigurni?“ kada korisnik napravi potencijalno štetan izbor - ljudi uporno zanemaruju te zaštitne mjere zbog neznanja, žurbe, umora ili jednostavnog nesporazuma.

A. I. neće biti imuniji na gluposti krajnjeg korisnika od bilo koje druge vrste softvera.

Model-korumpirani A.I.

Umjetna inteligencija Yampolskiy tipa E savršeno je funkcionalna kopija unutarnje pogrešne "prirodne" inteligencije. Agenti tipa E čine se zlonamjernom okolinom, prije raspoređivanja. Jednostavnije rečeno, agenti tipa E pate od problema "majmun vidi, majmun radi". Automatizacija robotskih procesa, u kojoj se vidi nisko stupanj A.I. sustavi koji uče oponašati ponašanje ljudskih korisnika oponašat će i sva neučinkovita ili kontraproduktivna ponašanja istih tih ljudskih agenata.

Primjer korumpiranog modela A.I. bio bi agent RPA koji je osposobljen za podnošenje zahtjeva za medicinsko osiguranje na web mjestu obveznika osiguranja. Nažalost, ljudski agent pod kojim je RPA "trenirao" možda je preskočio nekoliko zadataka usklađenosti ili istraživanja, što je dovelo do toga da osiguratelj odbije ili odbije veliki broj tih zahtjeva. Što je još gore, budući da bi agent RPA mogao podnijeti zahtjeve mnogo brže od ljudskih koje je zamijenio, osiguravajuće društvo će u kratkom vremenu suspendirati liječnika u podnošenju internetskih zahtjeva zbog vrlo visoke stope odbijanja.

Ako poučimo A.I. da bismo modelirali ljudsko ponašanje, moramo biti sigurni da je ponašanje ispravno. Ovi A.I. proizvodi će biti iz njihove okoline ili „kulture društva.“ Ako podučimo A.I. ponašati se glupo ili opasno, bit će glupo i opasno kod A.I. razmjera.

Code-Corrupt A.I.

Umjetna inteligencija Yampolskiy tipa F pretrpjela je uobičajenu softversku korupciju, što je dovelo do opasnih kvarova. A. A. su oštećeni nakon raspoređivanja, zbog okolišnih čimbenika. Ova korupcija proizlazi iz istih uzroka kao i oni koji napadaju "uobičajeni" softver, to jest fizičku korupciju hardverske pohrane koja upravlja A.I. - oštećenje koda s neuspjelog tvrdog diska, memorijskog čipa ili pogreške prilikom kopiranja - što je dobro A.I. loše.

Opet A.I. softver je samo softver, a sve digitalne datoteke vremenom dovode do korupcije. Ponekad će ta korupcija dovesti do zlonamjernog softvera, čak i u A.I. sustavi.

Prekomjerno razvijeni A.I.

Umjetna inteligencija Yampolskiy tipa G je ona koja s vremenom preraste u zlonamjerno ponašanje bez namjere svojih programera ili korisnika. Tip G A.I. neovisno postaju zlonamjerni, prije pokretanja; nije potrebno hakiranje, korupcija ili loše upute od strane korisnika.

Primjer agenta tipa G je upravljanje softverom kao uslugom A.I. koja rekurzivno optimizira vlastiti kod kako bi zajamčila da SaaS-ove aplikacije koje nadgleda ispunjavaju ugovor o razini usluge (SLA) za minimalno produženje rada ili minimalno vrijeme reakcije na transakciju. Takav AI, nakon nekog vremena osposobljavanja i promatranja čimbenika koji dovode do kršenja SLA-e, može razviti nepredviđene strategije prikupljanja resursa, poput proaktivnog isključivanja konkurentskih aplikacija ili web-mjesta u svom podatkovnom centru kako bi se osigurao nesmetan pristup širini pojasa, snage i vremena izvođenja. ,

Ovo je ponašanje logičan zaključak A.I.-ovih smjernica, ali A.I. agent može doći do tog zaključka tek nakon što "nauči" iz iskustva svojih podataka o treningu da bi mu takvo zlonamjerno ponašanje pomoglo da ispuni svoje ciljeve. Ti A.I. agenti mogu nedostajati potrebne zaštitne mjere jer ljudski programeri ne predviđaju "zaključke" A.I. dostići će tijekom svoje prirodne evolucije.

Loše naučeno A.I.

Umjetna inteligencija Yampolskiy tipa H je A.I. koji postaje zlonamjeran na temelju izlaganja pogrešnim ili opasnim podacima o stvarnom treningu. A. vrste A. neovisno postaju zlonamjerne nakon razmještanja. Najpoznatiji primjer Type-H agenta je Microsoftov Tatov chatbot koji je, jednom izložen namjerno uvredljivom ponašanju ljudi na mreži, brzo počeo prihvaćati iste rasističke i mizoginističke jezične obrasce koje je primijetio "u divljini".

Agenti tipa-H razlikuju se od tipa E Model-Corrupt A.I.s. po tome što se neovisno razvijaju u zlonamjerni softver nakon što su stavljeni u upotrebu, a ne da su u početku izgrađeni tako da oponašaju pogrešan skup ponašanja. Sustavi tipa H „padaju s lošom gomilom“ na način govora i postaju zlonamerni na temelju njihove analize neprimjerenog, naučenog ponašanja.

Iako su podaci o treningu prije izdanja kontrolirani i primjereni, podaci o treningu nakon puštanja u promet uglavnom su nekontrolirani - dakle sramotna opomena „ne čitajte komentare“ za korisnike interneta - što će predstavljati izazove za A.I. programere u doglednoj budućnosti, posebno one koji stvaraju agente dizajnirane za interakciju s ljudskim bićima.

Lijek za zlonamjerne A.I.

Je li umjetna inteligencija osuđena na neuspjeh, s obzirom na sve ove moguće puteve do korupcije i zlonamjernog ponašanja? Jedva. Ključ sigurnog, uspješnog A.I. razvoj je osigurati da se zlonamjerni A.I. ne mogu širiti i da se svi A.I. mogu nadgledati i ispitivati ​​radi predviđanja ili sprječavanja neispravnosti ili opasnog ponašanja.

Neki A.I.-ovi, poput Designed-for-Evil (Tip A) ili onih koji su lako preuređeni za zlo (Tip B), ne bi trebali biti široko dostupni. Kao što reguliramo posjedovanje opasnih industrijskih kemikalija ili eksploziva, moramo regulirati posjedovanje opasnih A.I. sustavi.

Kao što je ovaj rad napomenuo, postoje mnoge vrste A.I. koji nisu namjerno ili očigledno zlonamjerni, ali s vremenom postaju opasni. Kao takav, potrebno je "ispitivati" A.I. agent za svoje ciljeve, podatke o treningu koji su korišteni za preciziranje, tko ga je izgradio, tko ga trenutno izvodi i koje je radnje poduzeo u prošlosti ili planira poduzeti u budućnosti. Ovaj A.I. dnevnik revizije pomoći će identificiranju A.I. agenti koji su potencijalno zlonamjerni, kao i identificirati okolnosti, organizacije ili pojedince koji su pokazali da su A.I. loši.

Stvorite oskudicu s Blockchainom

Za zaustavljanje širenja opasnih umjetnih inteligencija bit će potrebno uzeti u obzir svaki primjerak određenog A.I., a možda čak i ograničiti koje osobe ili organizacije mogu posjedovati ili upravljati određenim A.I. agenti. Unatoč najboljim naporima zakonskih vlasti i neovisnim jamstvima licenciranja, nitko nije uspješno stvorio "nedostatak softvera", jer se, po svojoj prirodi, tradicionalni softver lako kopira. (Za jasan prikaz ovog neuspjeha, nemojte tražiti dalje od široko rasprostranjenog internetskog piratstva filmova, televizijskih emisija, pjesama i Windows licenci za softver.)

Blockchain bi mogao riješiti ovaj problem za A.I. agenti. Blockchain je dizajniran za rješavanje problema dvostruke potrošnje za digitalnu valutu osiguravajući da se strogo vodi računa o lokaciji i vlasništvu svakog virtualnog novčića u poslovnoj knjizi. Nikad ne mogu biti dvije kopije istog Bitcoina. Uz blockchain registar A.I. agenti, nikad ne može biti neovlaštena kopija bilo koje umjetne inteligencije.

Da bi se svjesno opasni A.I.-i izvukli iz pogrešnih ruku, registar blokova za umjetne inteligencije postat će gotovo siguran zahtjev.

Stvorite odgovornost s distribuiranom knjigom

Nije dovoljno jednostavno ograničiti broj A.I. agenti koji se koriste, jer će uvijek postojati neradni programeri koji stvaraju izvan mreže A.I.s u gadne svrhe. Stoga je potrebna metoda za utvrđivanje podrijetla svake umjetne inteligencije i provjeravanje njezine namjenske svrhe. Ista tehnologija blockchaina koja stvara A.I. oskudica također može učiniti A.I. revizijom kroz blockchain distribuiranu knjigu.

Poput sigurnosnih certifikata web stranica koji se koriste za sigurne mrežne transakcije, A.I. blockchain za provjeru autentičnosti mogao bi imenovati izvornog programera A.I. algoritam, dokumentiranje bilo kojeg licenciranog ili otvorenog koda podataka o treningu koji se koristi za poboljšanje performansi A.I., bilježenje ili proglašavanje „izjave misije“ ili cilja A.I., identificiranje trenutnog korisnika A.I. agent i revizija povijesti transakcija A.I. sebe.

Ta posljednja revizijska funkcija - stvaranje A.I. povijest transakcija - postat će vitalno važna kao A.I. agensi počinju međusobno komunicirati, radije nego da rade isključivo s ljudima.

Blok-lanac je jedinstveno prilagođen A.I. sigurnost, jer njegova distribuirana priroda sprječava bilo koji jedini A.I. programer da postane arbitar ili autentičnost ili kvaliteta u A.I. prostor. Njegova šifrirana priroda također sprečava hakere - ili čak same ropke A.I. - da mijenjaju raspoređene dnevnike knjiga A.I. agenti za prikrivanje zloćudne aktivnosti.

Zaključak

Umjetna inteligencija povećat će sve sigurnosne probleme konvencionalnog softvera. Jer A.I. razvija se, softver koji je danas siguran, sutra može postati zlonamjeran. Jer A.I. proizvod je jezgre algoritma i izloženosti podacima o treningu, A.I. sustavi koji su bezopasni nakon puštanja u rad mogu se uvježbati u zlonamjerno ponašanje izlaganjem lošim programima treninga. Jer A.I. agenti će biti široko i jedinstveno kompetentniji od klasičnog softvera, posljedice pogreške korisnika i zlonamjerne korisničke namjere ozbiljnije su za A.I.

Kao takva, umjetna inteligencija zahtijevat će sigurnosno rješenje koje će odgovoriti na ove jedinstvene izazove. Blok-lanac, sa svojim jedinstvenim kapacitetom za provođenje oskudice - čime se ograničava širenje opasnih A.I. - i osigurava strog, šifriran, dnevnik transakcija s neutralnim stranama svih A.I. aktivnost, najbolja je trenutno dostupna tehnologija za obnavljanje A.I. malware.

Ako želite saznati više o tome kako blockchain može osigurati i regulirati A.I. agenti, pogledajte BotChain - koji smo proveli posljednju godinu u razvoju kako bi ublažili neke od tih točnih rizika.