Subota, 6 Jula, 2024
Rubrika:

OpenAI zaustavio više tajnih operacija koje su zloupotrebljavale njegove AI modele

OpenAI je naveo da je zaustavio pet tajnih operacija koje su koristile njegove AI modele za obmanjujuće aktivnosti na internetu. Ove operacije, koje je OpenAI prekinuo između 2023. i 2024. godine, potiču iz Rusije, Kine, Irana i Izraela.

OpenAI tvrdi da su mreže iz Rusije, Kine, Irana i Izraela pokušale da manipulišu javnim mnijenjem. Određene grupe iz tih zemalja su koristile sadržaj generisan vještačkom inteligencijom za manipulaciju.

OpenAI je naveo da je zaustavio pet tajnih operacija koje su koristile njegove AI modele za obmanjujuće aktivnosti na internetu. Ove operacije, koje je OpenAI prekinuo između 2023. i 2024. godine, potiču iz Rusije, Kine, Irana i Izraela.

Ove grupe su pokušavale da manipulišu javnim mnijjenjem i utiču na političke ishode bez otkrivanja svojih pravih identiteta ili namera. “Do sada se ne čini da su ove kompanije značajno povećale angažovanje ili domet publike zahvaljujući našim uslugama.” Kompanija je dodala da je sarađivala sa ljudima iz tehnološke industrije, civilnog društva i vlada kako bi prekinula ove zlonamjerne aktere.

Izveštaj OpenAI-a dolazi usred zabrinutosti zbog uticaja generativne vještačke inteligencije na više izbora širom svijeta. Izboti su zakazani za ovu godinu, uključujući i SAD. OpenAI je otkrio kako su mreže ljudi angažovane u operacijama uticaja koristile generativnu AI za generisanje teksta i slika u mnogo većem obimu nego ranije. Zatim i za lažno angažovanje generisanjem lažnih komentara na objavama na društvenim mrežama.

“Tokom posljednjih godinu i po dana bilo je mnogo pitanja o tome šta bi moglo da se desi ako operacije uticaja koriste generativnu AI,” rekao je Ben Nimmo. On je glavni istražitelj u OpenAI-ovom timu za inteligenciju i istrage.

“Ovim izvještajem zaista želimo da popunimo neke praznine”

OpenAI je rekao da je ruska operacija pod nazivom “Doppelganger” koristila modele kompanije za generisanje naslova, pretvaranje novinskih članaka u Facebook objave i kreiranje komentara na više jezika. Na taj način su željeli da potkopaju podršku Ukrajini. Druga ruska grupa koristila je modele OpenAI-a za debagovanje koda za Telegram bot. Bot je objavljivao kratke političke komentare na engleskom i ruskom, ciljajući Ukrajinu, Moldaviju, SAD i baltičke države.

Kineska mreža “Spamouflage“, poznata po svojim naporima uticaja preko Facebook-a i Instagrama. Ova mreža je koristila modele OpenAI-a za istraživanje aktivnosti na društvenim mrežama i generisanje tekstualnog sadržaja na više jezika na raznim platformama. Iranska “Međunarodna unija virtuelnih medija” takođe je koristila AI za generisanje sadržaja na više jezika.

Objava OpenAI-a je slična onima koje druge tehnološke kompanije povremeno prave. Na primer, Meta je u objavila najnoviji izvještaj o koordinisanom neautentičnom ponašanju, detaljno opisujući kako je izraelska marketinška firma koristila lažne Facebook naloge za vođenje kampanje uticaja na svojoj platformi, ciljujući ljude u SAD-u i Kanadi.

Najnovije

Najčitanije

Povezano

Komentari

Subscribe
Notify of

0 Komentara
Inline Feedbacks
Pregedaj sve