Root NationVijestiIT vijestiFotografija "eksplozije" u blizini Pentagona, koju je generirala umjetna inteligencija, postala je viralna Twitter

Fotografija "eksplozije" u blizini Pentagona, koju je generirala umjetna inteligencija, postala je viralna Twitter

-

Nedavno u Twitter pojavila se fotografija koja, kako stoji u opisu, prikazuje eksploziju koja se dogodila u blizini Pentagona. Zbog toga je čak došlo do kratkotrajnog pada tržišta - S&P 500 indeks pao je za 0,29%, no nakon što se pokazalo da je fotografija lažna, indeks se oporavio. Sliku je objavio verificirani Bloomberg Feed račun, koji, unatoč plavoj kvačici, nije povezan s medijskom tvrtkom Bloomberg.

Fotografija je brzo prepoznata kao lažna. Očito je generiran uz pomoć umjetne inteligencije. Ali prije nego što su se ti detalji pojavili, dezinformacije su već širili razni računi, uključujući i ološ Russia Today (dobro, tko bi sumnjao).

Peterokut

Lažna slika prikazuje veliki oblak crnog dima pored zgrade koja nejasno podsjeća na Pentagon, uz popratni tekst. Nakon detaljnijeg pregleda, lokalne su vlasti potvrdile da slika nije točan prikaz Pentagona, a zamagljeni stupovi ograde i stupovi zgrada izgledali su kao prilično nemarna slika stvorena korištenjem AI modela poput Stable Diffusion.

lažan

Bloomberg lažni račun prije Twitter blokirao, imao je desetke tisuća tweetova, ali manje od 1 ukupnih pratitelja, a nejasno je tko ga je vodio ili koja je motivacija iza lažne slike. Osim Bloomberg Feeda, drugi računi koji šire lažnu poruku uključuju Walter Bloomberg i Breaking Market News, koji također nisu povezani sa stvarnom tvrtkom Bloomberg.

Incident je istaknuo potencijalne prijetnje koje slike generirane umjetnom inteligencijom mogu predstavljati na društvenim medijima, gdje se neprovjerene informacije žurno dijele, a plaćeni sustav provjere u Twitter. U ožujku su lažne slike uhićenja Donalda Trumpa, stvorene pomoću Midjourneyja, postale viralne, a iako su odmah prozvane lažnima, izgledale su krajnje realistično. Također, mnoge su dovele u zabludu AI-generirane slike pape Franje u bijeloj perjanici.

Papa u perjanici jedno je, a sasvim drugo eksplozija u sjedištu američkog ministarstva obrane. Posljedice mogu biti ozbiljne, što dokazuje ista burza. Dow Jones Industrial Average pao je 85 bodova u četiri minute nakon što je tweet postao viralan, ali se brzo oporavio.

Velik dio zabune oko lažnog tweeta omogućile su promjene u Twitter za vrijeme Elona Muska. Otpustio je mnoge moderatore sadržaja i u velikoj mjeri automatizirao proces verifikacije računa, premjestivši ga u sustav u kojem svatko može platiti plavi ček. Kritičari kažu da ta praksa čini platformu ranjivijom na dezinformacije.

Twitter

Iako su vlasti relativno brzo prepoznale fotografiju eksplozije kao lažnu, dostupnost modela sinteze slike kao što su Midjourney i Stable Diffusion znači da uvjerljive krivotvorine više ne zahtijevaju umjetnost, ostavljajući prostora za dezinformacije. Lakoća stvaranja krivotvorina u kombinaciji s virusnom prirodom platformi poput Twitter, znači da se lažne informacije mogu širiti brže nego što se mogu provjeriti.

U ovom slučaju slika ne mora nužno biti visoke kvalitete da bi imala negativan učinak. Stručnjaci kažu da kada ljudi žele nešto vjerovati, gube budnost i ne provjeravaju istinitost informacija.

Pročitajte također:

Prijavite se
Obavijesti o
gost

0 Komentari
Ugrađene recenzije
Pogledaj sve komentare
Ostali članci
Pretplatite se na ažuriranja
Sada popularno