O prednostima i izazovima vještačke inteligencije za EURACTIV objašnjava Ljubiša Bojić, koordinator Laboratorije za digitalno društvo Instituta za filozofiju i društvenu teoriju.
Chat GPT uspio je za samo dva mjeseca da dođe do 100 miliona korisnika. O prednostima i izazovima Chat GPT-a za EURACTIV, Ljubiša Bojić, koordinator Laboratorije za digitalno društvo Instituta za filozofiju i društvenu teoriju, Univerziteta u Beogradu, kaže da je pitanje jezičkih modela zasnovanih na NLP-u globalno i ono je evropskim zakonom obuhvaćeno samo u domenu transparentnosti u smislu da je potrebno da ljudi znaju da koriste takav sistem, odnosno da "razgovaraju" sa vještačkom inteligencijom.
"Ovo je upravo problematično jer Chat GPT ne navodi svoje izvore informacija. Taj sistem je kao osoba koja zna puno, i kao odgovor na pitanje navodi njena mišljenja, što je sinteza različitih sadržaja i posledica nekog vida vještačkog razmišljanja", objasnio je Bojić.
Zapravo, Chat GPT je svojevrsni sistem za preporuke koji je netransparentno treniran, dakle nije organski, što daje velike mogućnosti za manipulaciju, istakao je Bojić i dodao u prevodu, moguće je usmjeriti njegove pojedinačne ili generalne odgovore na način kako to odgovara kompaniji koja je vlasnik algoritma.
"Isto se dešava i sa sadržajima koje dobijamo kao preporuke dok koristimo naše mobilne telefone. To je sve zasnovano na vještačkoj inteligenciji. Krajem 2021. godine uzbunjivač Frances Haugen upoznala je javnost sa podacima kompanije Fejsbuk, sada Meta, o negativnim uticajima algoritamskih preporuka", rekao je Bojić.
Sa druge strane postavlja se pitanje generalnog uticaja ovih preporuka na kreativnost, inteligenciju, maštu i zavisnost od novih tehnologija.
"Podešavanje ovakvih sistema koji utiču na veliki broj ljudi ne treba da bude odgovornost tehnoloških kompanija već društva. U praksi bi to mogle da budu Ujedinjene nacije. Mi smo u decembru prošle godine na našoj godišnjoj EMERGE: Digital Society Now konferenciji potpisali Beogradsku povelju digitalnih sloboda koja predviđa otpočinjanje dijaloga o tome da li sistemi za preporuke treba da budu javno dobro. Povelju su u međuvremenu podržale mnoge međunarodne organizacije kao i naučnici širom svijeta. Takođe smo u Nacrt etičkih smjernica uključili sistemе za preporuke kao visokorizični sistem vještačke inteligencije", pojasnio je Bojić.
On je kazao da je neodgovarajući odnos evropskog zakona prema chat-botovima kao i sistemima za preporuke koji utiču na veliki broj ljudi najproblematičniji.
"Nadam se da će se ovo izmijeniti što prije. Planirane su izmjene zakona kako tehnologija evoluira i mi ćemo sigurno skretati pažnju kroz naučne radove, predavanja i komunikciju, da je ovo potrebno izmijeniti. Mislim da mi treba da prihvatimo AI i da iskoristimo sve moguće prilike kako bi se naš region pozicionirao najbolje moguće u digitalnoj ekonomiji. Sa druge strane, nauka treba da se mnogo temeljnije posveti analizi uticaja novih tehnologija. Donosioci zakona su presudni, na kraju, da u regulative uvrste preprouke koje proizlaze iz validnih istraživanja, i na taj način da zaštite građane", zaključio je Bojić.
Razvoj vještačke inteligencije se više ne dovodi u pitanje. U etičkim smjernicama za AI formulisano je da listi visoko-rizičnih sistema pripadaju i sistemi za preporuke vođeni vještačkom inteligencijom na platformama koje koristi veliki broj ljudi, kao što su društvene mreže, na osnovu različitih podataka i postavnjenih ciljeva donose odluke koji sadržaj se predstavlja pojedincu ili grupi, što može na nivou pojedinca uticati na pažnju, želje, mišljenja, opredeljenja, kreativnost, maštu, osjećanja, odluke i aktivnosti, ili na nivou društva može doprinjeti kreiranju društvenih mehura, odnosno polarizaciju oko bitnih drupštvenih pitanja, i u finalnoj instanci uticati na demokratski kapacitet.