Zloupotreba ChatGPT-a od strane sajber kriminalaca postaje sve ozbiljniji globalni problem, upozorava OpenAI. Kompanija je u svom najnovijem izvještaju navela da je samo u protekla tri mjeseca ugasila deset velikih mreža koje su koristile ovaj alat u zlonamjerne svrhe. Riječ je o organiziranim grupama iz Kine, Rusije, Sjeverne Koreje i Irana koje vještačku inteligenciju koriste za sofisticirane online prevare, krađu identiteta i političke manipulacije.
Sofisticirana zloupotreba ChatGPT-a iz više država
Kineske grupe koristile su ChatGPT za generisanje masovnih komentara i tekstova na platformama poput TikToka i X-a, predstavljajući se kao obični građani. Cilj je bio širenje dezinformacija, posebno kroz kampanje nazvane Sneer Review i Uncle Spam, koje su uključivale lažne profile američkih veterana i komentare o carinskim politikama SAD-a.
Sjevernokorejski hakeri kreirali su vještačke biografije i prijave za posao kako bi se zaposlili u IT sektoru širom svijeta. Time su pokušavali doći do osjetljivih podataka i sistema iznutra.
U Rusiji je vještačka inteligencija korištena za razvoj malvera i alata za krađu podataka, a operacija nazvana ScopeCreep posebno se istakla po opasnosti. Iranska grupa STORM-2035 kreirala je lažne naloge na društvenim mrežama i pomoću AI alata objavljivala politički osjetljive sadržaje na engleskom i španskom jeziku.
Lažne ponude posla i međunarodne šeme
U jednoj od većih prevara, vjerovatno baziranoj u Kambodži, AI je korišten za prevođenje poruka i građenje povjerenja u tzv. Wrong Number šemi. Ova prevara nudila je „lake poslove“ poput lajkanja objava uz obećanja o visokoj zaradi. Nakon što bi izgradili povjerenje, prevaranti su od žrtava tražili novac pod izgovorom „većih nagrada“. Ove aktivnosti bile su raširene na više jezika i platformi, uključujući WhatsApp i Telegram.
OpenAI djeluje prije nego što šteta nastane
OpenAI je naglasio da koristi vlastitu vještačku inteligenciju za identifikaciju i uklanjanje ovakvih mreža. Zahvaljujući proaktivnom pristupu, mnoge kampanje su zaustavljene prije nego što su ostvarile širi uticaj.
Kompanija navodi da su timovi istraživača i sigurnosnih stručnjaka u stalnoj pripravnosti te da se AI koristi i kao alat u borbi protiv zloupotrebe same tehnologije.
Pravna borba i pitanje privatnosti korisnika
Uz sve izazove vezane za zloupotrebu, OpenAI se suočava i s ozbiljnim pravnim problemima. Američki sud naložio je kompaniji da sačuva sve korisničke razgovore iz ChatGPT-a, nakon tužbe koju su podnijeli The New York Times i drugi izdavači. Oni tvrde da je OpenAI koristio njihove zaštićene tekstove za treniranje modela bez dozvole, čime se navodno ugrožava njihov poslovni model.
OpenAI je izrazio zabrinutost zbog ove sudske odluke, navodeći da korisnici često u razgovorima dijele osjetljive lične podatke i da obaveza čuvanja takvih podataka može predstavljati ozbiljno narušavanje privatnosti.