Stroga kontrola

Nova era nadzora vještačke inteligencije: Bijela kuća uvodi obavezne provjere prije lansiranja u javnost

Vrijeme liberalnog pristupa razvoju vještačke inteligencije je završeno. Najmoćniji AI modeli od sada će prvo morati da prođu kroz rigorozne državne testove bezbjednosti.

Bela kuća u Vašingtonu, SAD
Izvor: Youtube Printscreen/ earthTV

Google, Microsoft i xAI ulaze u novi oblik saradnje sa američkom vladom. Prije nego što njihovi AI modeli stignu do korisnika, prvo će prolaziti državnu provjeru bezbjednosti.

Prema informacijama koje je objavio američki Nacionalni institut za standarde i tehnologiju (NIST), kompanije će dijeliti još neobjavljene verzije svojih modela. Cilj je da se na vrijeme procijene potencijalni bezbjednosni i sajber rizici, prije nego što tehnologija postane javno dostupna.

Veliku prašinu nedavno je podigao model Mythos kompanije Anthropic. Kompanija tvrdi da je ovaj AI "daleko ispred" konkurencije kada je riječ o sajber bezbednosnim sposobnostima. Upravo zbog toga otvorena su ozbiljna pitanja o uticaju napredne vještačke inteligencije na nacionalnu bezbjednost.

Mythos je posebno zabrinuo vlade, banke i energetske kompanije. Postoji bojazan da bi ovakav AI mogao da ubrza otkrivanje ranjivosti ili čak pomogne u razvoju sofisticiranijih sajber napada. Zbog toga Bijela kuća razmatra uvođenje formalnog sistema provjere AI modela prije njihovog lansiranja, prenosi CNN.

Ključnu ulogu imaće Centar za AI standarde i inovacije (CAISI), koji funkcioniše u okviru američkog Ministarstva trgovine. Ova institucija će analizirati nove modele i procenjivati njihov uticaj na nacionalnu i javnu bezbjednost prije nego što budu pušteni u rad.

Testiranja se neće završavati lansiranjem modela. CAISI će nastaviti sa evaluacijom i nakon što AI sistemi postanu dostupni korisnicima. Prema podacima NIST-a, do sada je sprovedeno više od 40 ovakvih analiza.

"Nezavisna i rigorozna naučna mjerenja ključna su za razumevanje napredne vještačke inteligencije i njenih implikacija za nacionalnu bezbjednost", izjavio je direktor CAISI-ja Kris Fal.

Anthropic je, s druge strane, odlučio da Mythos za sada ne pusti u javnost. Pristup modelu ograničen je na mali broj organizacija, dok su njegove mogućnosti već predstavljene visokim američkim zvaničnicima.

Sličan potez povukao je i OpenAI. Kompanija je nedavno najavila da će svoje najnaprednije modele učiniti dostupnim provernim državnim institucijama, kako bi se vlasti bolje pripremile za potencijalne AI pretnje.

Stručnjaci ističu da je ovakav vid saradnje neophodan. Džesika Dži iz Centra za bezbjednost i nove tehnologije pri Univerzitetu Džordžtaun kaže da regulatorima nedostaju resursi za ovako kompleksna testiranja.

"Nemaju ni približno iste resurse kao velike tehnološke kompanije - ni po pitanju ljudi, tehničkog osoblja ni računarske infrastrukture potrebne za rigorozna testiranja", rekla je ona.

U međuvremenu, Bijela kuća okuplja tim stručnjaka koji bi trebalo da definišu budući sistem nadzora nad AI modelima. Ako se ovakav model usvoji, predstavljaće značajan zaokret u odnosu na dosadašnji, prilično liberalan pristup regulaciji iz vremena administracije Donalda Trampa.

Iz Microsoft-a poručuju da već sprovode sopstvena bezbjednosna testiranja, ali smatraju da CAISI donosi dodatnu stručnost. Google nije želio da komentariše sporazum, dok xAI nije odgovorio na upite.