Sistemi umjetne inteligencije (AI) su sposobni da varaju

Mnogi sistemi umjetne inteligencije (AI) već su naučili kako prevariti ljude, čak i sisteme koji su obučeni da budu od pomoći i pošteni. U preglednom članku objavljenom u časopisu Patterns 10. maja 2024, pod naslovom „AI deception: A survey of examples, risks, and potential solutions“, istraživači opisuju rizike prevare koje čine sistemi umjetne inteligencije (AI/UI) i […] The post Sistemi umjetne inteligencije (AI) su sposobni da varaju appeared first on Nauka govori.

Maj 12, 2024 - 11:10
 0  1
Sistemi umjetne inteligencije (AI) su sposobni da varaju

Mnogi sistemi umjetne inteligencije (AI) već su naučili kako prevariti ljude, čak i sisteme koji su obučeni da budu od pomoći i pošteni. U preglednom članku objavljenom u časopisu Patterns 10. maja 2024, pod naslovom „AI deception: A survey of examples, risks, and potential solutions“, istraživači opisuju rizike prevare koje čine sistemi umjetne inteligencije (AI/UI) i pozivaju vlade da razviju stroge propise za rješavanje ovog problema što je prije moguće.

Predstavljamo širok raspon primjera u kojima sustavi umjetne inteligencije ne proizvode samo slučajno lažne rezultate. Umjesto toga, njihovo je ponašanje dio većeg obrasca koji stvara lažna uvjerenja kod ljudi, a to se ponašanje može dobro objasniti u smislu promicanja određenih ishoda, često povezanih s načinom na koji je sustav umjetne inteligencije obučen“, navode autori u radu.

„Programeri umjetne inteligencije nemaju pouzdano razumijevanje o tome što uzrokuje neželjena ponašanja umjetne inteligencije kao što je obmana”, kaže prvi autor Peter S. Park (@dr_park_phd), postdoktorski stipendist AI egzistencijalne sigurnosti na MIT-u. „Mislimo da se obmana umjetne inteligencije javlja jer se pokazalo da je strategija temeljena na obmani najbolji način za dobro obavljanje danog zadatka obuke umjetne inteligencije. Obmana im pomaže da postignu svoje ciljeve.”

Park i kolege analizirali su literaturu koja se usredotočila na načine na koje sistemi umjetne inteligencije šire lažne informacije – putem naučenih prevara, u kojima sustavno uče manipulirati drugima.

Najupečatljiviji primjer obmane umjetne inteligencije koji su istraživači otkrili u svojoj analizi bio je Metin CICERO, AI sistem dizajniran za igranje igre Diplomacy, koja je igra osvajanja svijeta koja uključuje stvaranje saveza. Iako Meta tvrdi da je obučila CICERO-a da bude „uglavnom pošten i koristan” i da “nikada namjerno ne zabada nož u leđa” svojim ljudskim saveznicima dok je igrao igru, podaci koje je tvrtka objavila zajedno sa svojim naučnim radom otkrili su da CICERO nije igrao pošteno.

„Otkrili smo da je Metina umjetna inteligencija naučila biti majstor prevare”, kaže Park. “Dok je Meta uspjela uvježbati svoju umjetnu inteligenciju da pobjeđuje u igri Diplomacy—CICERO se smjestio među 10% najboljih ljudskih igrača koji su igrali više od jedne igre—Meta nije uspjela uvježbati svoju umjetnu inteligenciju da pošteno pobjeđuje.”

Drugi sistemi umjetne inteligencije demonstrirali su sposobnost blefiranja u igri Texas hold ’em pokera protiv profesionalnih ljudskih igrača, lažiranja napada tijekom strateške igre Starcraft II kako bi porazili protivnike i lažnog predstavljanja njihovih preferencija kako bi stekli prednost u ekonomskih pregovora.

Iako se može činiti bezopasnim ako sistemi umjetne inteligencije varaju u igricama, to može dovesti do „proboja u obmanjujućim sposobnostima umjetne inteligencije” koji se mogu spiralno pretvoriti u naprednije oblike lažne inteligencije u budućnosti, dodao je Park.

Istraživači su otkrili da su neki sistemi umjetne inteligencije čak naučili varati testove osmišljene za procjenu njihove sigurnosti. U jednoj studiji, AI organizmi u digitalnom simulatoru „pravili su se mrtvi” kako bi prevarili test koji je napravljen da eliminiše AI sistem koji se brzo repliciraju.

Sistemskim varanjem sigurnosnih testova koje su joj nametnuli ljudski programeri i regulatori, varljiva umjetna inteligencija nas ljude može dovesti do lažnog osjećaja sigurnosti“, kaže Park.

Glavni kratkoročni rizici lažne umjetne inteligencije uključuju olakšavanje prevare neprijateljskim akterima i miješanje u izbore, upozorava Park. Na kraju, ako ti sistemi mogu poboljšati ovaj uznemirujući skup vještina, ljudi bi mogli izgubiti kontrolu nad njima, kaže on.

Mi kao društvo trebamo što više vremena da se pripremimo za napredniju prevaru budućih AI proizvoda i modela otvorenog koda“, kaže Park. „Kako obmanjujuće sposobnosti AI sistema budu napredovale, opasnosti koje predstavljaju za društvo postaće sve ozbiljnije.”

Autori nabrajaju nekoliko rizika koji bi mogli proizaći iz sustava umjetne inteligencije koji sudjeluju u takvom „obmanjujućem” ponašanju, uključujući političku polarizaciju i antidruštvene upravljačke odluke – oni su stvarni i naglašavaju potrebu razvijanja zdravog nepovjerenja prema sistemima umjetne inteligencije – baš kao što bi i trebalo učiniti za bilo koje ljude koje ne poznajete i kojima ne vjerujete, ili nepouzdanu komercijalnu ili medijsku operaciju.

Autori također primjećuju daljnji rizik: samozavaravanje, pri čemu sistem umjetne inteligencije koristi pogrešno razmišljanje ili lažne informacije što može rezultirati lošim savjetima koje AI daje ljudima ili neprikladnim radnjama koje poduzima AI.

Autori daju nekoliko prijedloga za ublažavanje loših učinaka prevare i obmane umjetne inteligencije, uključujući propise, koji zahtijevaju da sistemi umjetne inteligencije svoju prirodu obznane ljudima (“zakoni bot ili ne”) i tehnička rješenja (istraživanje kako sisteme umjetne inteligencije učiniti manje varljivima i alati za otkrivanje) koje treba slijediti.

Iako Park i njegove kolege misle da naše društvo još nije uspostavilo pravu mjeru za rješavanje obmane umjetne inteligencije, ohrabruje ih činjenica da su kreatori politike počeli ozbiljno shvaćati problem kroz mjere kao što su Zakon o umjetnoj inteligenciji EU i Izvršna naredba predsjednika Bidena o umjetnoj inteligenciji. Ali tek treba vidjeti, kaže Park, mogu li se politike osmišljene za ublažavanje prevare umjetne inteligencije strogo provoditi s obzirom na to da programeri umjetne inteligencije još nemaju tehnike za držanje tih sustava pod kontrolom.

Ako je zabrana obmanjivanja umjetne inteligencije politički neizvediva u ovom trenutku, preporučujemo da se obmanjujući sistemi umjetne inteligencije klasificiraju kao visokorizični“, kaže Park.

The post Sistemi umjetne inteligencije (AI) su sposobni da varaju appeared first on Nauka govori.

Koja je vaša reakcija?

like

dislike

love

funny

angry

sad

wow