Američki tehnološki divovi Google i Microsoft te tvrtka xAI omogućit će američkoj vladi testiranje svojih modela umjetne inteligencije prije lansiranja kako bi se suzbile prijetnje kibernetičkoj sigurnosti. Novi sporazumi omogućit će vladinim stručnjacima da procijene potencijalne rizike novih AI sustava prije nego što postanu dostupni javnosti, objavio je Nacionalni institut za standarde i tehnologiju, a prenosi CNN.

Partnerstvo je uslijedilo nakon što je novi moćni AI model Mythos tvrtke Anthropic prošlog mjeseca izazvao veliku zabrinutost zbog utjecaja umjetne inteligencije na kibernetičku sigurnost, što je potaknulo Bijelu kuću da razmotri uvođenje formalnog postupka provjere. Prema novim sporazumima, Centar za standarde i inovacije u umjetnoj inteligenciji (CAISI), koji djeluje unutar Ministarstva trgovine SAD-a, moći će procijeniti nove AI modele i njihov potencijalni utjecaj na nacionalnu i javnu sigurnost. Centar će također provoditi istraživanja i nakon što se modeli puste u upotrebu, a dosad je već dovršio više od 40 takvih evaluacija.

"Neovisna i stroga znanost o mjerenju ključna je za razumijevanje najnaprednije umjetne inteligencije i njezinih implikacija na nacionalnu sigurnost. Ova proširena suradnja s industrijom pomaže nam da u ključnom trenutku unaprijedimo svoj rad u javnom interesu", izjavio je direktor CAISI-ja Chris Fall.

Povod za nove mjere

Model Mythos, za koji u Anthropicu tvrde da je u pogledu kibernetičke sigurnosti "daleko ispred" drugih, tijekom prošlog mjeseca izazvao je val zabrinutosti među vladama, bankama i komunalnim poduzećima. Iz tvrtke su poručili kako smatraju da još nije vrijeme za javnu objavu modela te pristup ograničavaju na odabranu skupinu odobrenih organizacija. O njegovim mogućnostima izvijestili su i visoke dužnosnike američke vlade.

Sličan korak poduzeo je i OpenAI, koji je prošlog tjedna objavio da svoje najnaprednije AI modele stavlja na raspolaganje svim provjerenim razinama vlasti s ciljem preduhitrenja prijetnji koje omogućuje umjetna inteligencija.

Prema strožoj regulaciji

Jessica Ji, viša analitičarka u Centru za sigurnost i nove tehnologije Sveučilišta Georgetown, smatra da će partnerstva olakšati testiranje umjetne inteligencije jer CAISI-ju pružaju više resursa. "Oni jednostavno nemaju resurse kakve imaju velike tehnološke tvrtke, bilo da je riječ o radnoj snazi, tehničkom osoblju ili pristupu računalnoj snazi, da bi mogli procjenjivati te modele i provoditi temeljita testiranja", rekla je.

Bijela kuća trenutno okuplja skupinu stručnjaka koji bi trebali dati savjete o mogućem vladinom postupku provjere novih AI modela, potvrdio je CNN. To bi predstavljalo odmak od dosadašnjeg pristupa Trumpove administracije, koja se zalagala za blažu regulaciju umjetne inteligencije.

"Sve objave o novim politikama doći će izravno od predsjednika. Rasprave o mogućim izvršnim uredbama su špekulacije", rekao je za CNN glasnogovornik Bijele kuće.

Iako Microsoft redovito testira vlastite modele, CAISI nudi dodatnu "tehničku, znanstvenu i stručnost u području nacionalne sigurnosti", navela je u izjavi Natasha Crampton, Microsoftova glavna direktorica za odgovornu umjetnu inteligenciju.