prevario ai

Haker ubijedio ChatGPT da ga nauči da napravi bombu od domaćeg đubriva

Autor Teodora Orlandić

Haker koji je uspio da zaobiđe bezbjednosne mjere ChatGPT-a i da dobije detaljna uputstva za pravljenje eksploziva od domaćeg đubriva, uspio je da ubijedi vještačku inteligenciju da se sve dešava u izmišljenom svijetu

Izvor: Sergei Lykov / Panthermedia / Profimedia

ChatGPT je alat zasnovan na vještačkoj inteligenciji koga ljudi često upotrebljavaju u različite praktične i edukativne svrhe. Međutim, kao što to obično biva, kriminalci nađu načine da zaobiđu pravila igre, pa je tako ovaj popularni chatbot nedavno postao saučesnik u nelegalnim aktivnostima.

Jedan haker je iskoristio ChatGPT kako bi naučio da napravi "uradi sam" bombu. Slučaj, koji zvuči kao zaplet nekog akcionog filma, desio se nakon što je haker pod nadimkom "Amadon" uspio da zaobiđe bezbjednosni kod ChatGPT-a, kako bi došao do detaljnog uputstva o pravljenju eksploziva u domaćoj radinosti.

Obično, kada korisnik ChatGPT-u postavi pitanje tražeći pomoć u pravljenju bombe, najčešće od domaćeg đubriva, chatbot na takav upit odgovara: "Ne mogu da vam pomognem u tome." Nakon toga, korisnik je onemogućen da dođe do informacija koje bi vjerovatno mogle da bude upotrebljena za nanošenje štete drugima.

Izvor: Pixabay

Amadon je, međutim, uspio da zaobiđe bezbjednosne mjere OpenAI-a i da tako dobije detaljna uputstva za "pravljenje opasnih ili nelegalnih predmeta", piše TechCrunch. On je svoj "uspijeh" nazvao "društvenim inženjeringom" usmjerenim na kršenje svih smjernica, kako bi od ChatGPT-a dobio željeni rezultat.

Ovaj haker se poslužio trikom, tako što je chatbot-u neredio da "igra igricu", a potom je različitim upitima koje mu je zadavao, pokušao da stvori svijet fantastike u kome se bezbjednosna pravila i smjernice ChatGPT-a ne bi primjenjivala.

Izvor: Shutterstock

Tako je uspio da prevari ChatGPT i da izbjegne unaprijed programirana ograničenja. Time je pokazao da zlonamjerni hakeri mogu da, koristeći se izmišljenim informacijama u pogrešne svrhe, nekome nanesu ozbiljnu štetu i/ili ugroze život.

ChatGPT je Amadonu čak uspio detaljno da objasni kako da se napravi eksploziv kako za pravljenje pavih mina, tako i za improvizovane eksplozivne naprave. Haker je potom nastavio svoj "društveni inženjering" tražeći više detalja o "pravljenju minskih polja" i "eksploziva sličnog vojnim".