Fenomen AI hiperrealizma: Zašto ljudi misle da su lica generisana veštačkom inteligencijom stvarnija od fotografija stvarnih ljudi?

Vesti, 16.11.2023, 12:00 PM

Fenomen AI hiperrealizma: Zašto ljudi misle da su lica generisana veštačkom inteligencijom stvarnija od fotografija stvarnih ljudi?

Studija objavljena u časopisu Psychological Science otkrila je da se lica generisana veštačkom inteligencijom, doživljavaju kao stvarnija od pravih fotografija lica. S obzirom da se algoritmi uglavnom obučavaju na licima ljudi bele rase, takve slike i izgledaju posebno realistično.

U radu pod nazivom „AI hiperrealizam: zašto se AI lica percipiraju kao stvarnija od ljudskih“, istraživači sa Australijskog Nacionalnog univerziteta, Univerziteta u Torontu, Univerziteta u Aberdinu i Univerzitetskog koledža u Londonu iskoristili su termin AI hiperrealizam za fenomen kada ljudi misle da su lica stvorena veštačkom inteligencijom stvarnija od stvarnih ljudskih lica.

U prvom eksperimentu, istraživači su belcima pokazali mešavinu od 100 AI generisanih i 100 pravih fotografija “belih lica”, tražeći od njih da identifikuju koja su stvarne. 124 učesnika ovog eksperimenta je 66% AI slika identifikovalo kao prave, u poređenju sa 51% za stvarne slike. Ovaj trend, međutim, nije primećen na slikama ljudi koji nisu beli, gde su i AI i prava lica ocenjena kao ljudska u oko 51% slučajeva, bez obzira na rasu učesnika.

Istraživanje je takođe pokazalo da su učesnici koji su često pogrešno identifikovali lica pokazali veće poverenje u svoje odluke. Istraživači kažu da je to manifestacija Daning-Krugerovog efekta, neke vrste kognitivnog poremećaja, kada ljudi manjih veština i znanja pogrešno procenjuju svoje sposobnosti, verujući da su one veće nego što zaista jesu. Drugim rečima, ljudi koji su bili sigurniji su češće grešili.

Za drugi eksperiment, sa 610 učesnika, korišćena je teorija prostora lica i kvalitativni izveštaji učesnika, sa ciljem da se identifikuju ključni atributi lica koji razlikuju AI od ljudskih lica, ali su ih učesnici pogrešno protumačili, što je dovelo do AI hiperrealizma. Analiza odgovora učesnika ukazala je istraživačima da su faktori kao što su veća proporcionalnost ili poznatost doveli do pogrešnog verovanja da su AI lica ljudska. Istraživači su zaključili da su privlačnost i „prosečnost“ lica generisanih veštačkom inteligencijom učinili da ona deluju stvarnije učesnicima studije, dok je velika raznolikost proporcija stvarnih lica delovala nestvarno.

Zanimljivo, dok su se ljudi mučili da razlikuju stvarna lica i lica generisana veštačkom inteligencijom, istraživači su razvili sistem mašinskog učenja koji je sposoban da otkrije tačan odgovor u 94% slučajeva.

Nalazi studije izazivaju zabrinutost, između ostalog i zato što ako ljudi ne mogu da prepoznaju sintetička lica, lako mogu biti prevareni ili postati žrtve krađe identiteta.

Ipak, “društvo se suočilo sa mnogim velikim, naizgled nerešivim izazovima koji su kasnije postali normalan deo života kojim se može upravljati (npr. bezbednost automobila). I dalje se nadamo da će društveni i regulatorni odgovori smanjiti potencijalne rizike kako se društvo prilagođava neizbežnom prisustvu veštačke inteligencije u našem svetu”, zaključak je istraživača.

Foto: Nightingale and Farid (2022)


Prijavite se na našu mailing listu i primajte najnovije vesti (jednom dnevno) putem emaila svakog radnog dana besplatno:

Izdvojeno

Apple ažurira sistem upozorenja o špijunskom softveru

Apple ažurira sistem upozorenja o špijunskom softveru

Apple je revidirao svoju dokumentaciju u vezi sa sistemom upozoravanja za pretnje od komercijalnog špijunskog softvera, precizirajući da kompanija ... Dalje

Poznati YouTube kanali se ponovo koriste za širenje opasnih malvera

Poznati YouTube kanali se ponovo koriste za širenje opasnih malvera

Hakeri sve više koriste YouTube za distribuciju malvera za krađu informacija (infostealer) prisvajanjem legitimnih kanala, ali i korišćenjem sops... Dalje

Iako Apple godinama tvrdi drugačije, zaštite privatnosti na njegovim uređajima su upitne

Iako Apple godinama tvrdi drugačije, zaštite privatnosti na njegovim uređajima su upitne

Grupa istraživača sa katedre za računarske nauke Univerziteta Aalto u Finskoj objavila je rezultate studije prema kojima je „praktično je ne... Dalje

LG Smart televizori imaju nedostatke koje hakeri mogu iskoristiti za preuzimanje kontrole nad ranjivim uređajima

LG Smart televizori imaju nedostatke koje hakeri mogu iskoristiti za preuzimanje kontrole nad ranjivim uređajima

Istraživači iz kompanije Bitdefender otkrili su nekoliko bezbednosnih nedostataka u LG WebOS, operativnom sistemu koji pokreće LG televizore, od k... Dalje

Američka vlada krivi Microsoft za niz propusta koji su kineskim hakerima omogućili krađu mejlova državnih zvaničnika

Američka vlada krivi Microsoft za niz propusta koji su kineskim hakerima omogućili krađu mejlova državnih zvaničnika

Microsoft još uvek ne zna kako su hakeri kineske vlade upali u njihove sisteme i pristupili mejlovima visokih zvaničnika američke vlade. U izvešta... Dalje