Mund të mos e keni dëgjuar kurrë termin “media sintetike” – e njohur më shpesh si “deepfakes”. Ato janë regjistrime me ‘krijime-realiste’ në formë të videos dhe audios që përdorin inteligjencën artificiale për të krijuar përmbajtje “të rreme” ose “deepfakes”

“Deepfakes” njihen si pamje të një personi ku fytyra ose trupi i tij është ndryshuar në mënyrë dixhitale.

Qeveria e SHBA-së është gjithnjë e më shumë e shqetësuar për potencialin e tyre për t’u përdorur, për të përhapur dezinformata dhe për të kryer krime.

Kjo ndodh sepse krijuesit e këtyre videove kanë fuqinë për t’i bërë njerëzit të thonë ose bëjnë diçka, të paktën në ekranet tona, shkruan gazetari amerikan Bill Whitaker.

DeepFake është algoritëm i sofistikuar kompjuterik që arrin të kopjojë sjelljen e muskujve të fytyrës dhe zërin e dikujt, dhe ti zëvendësojë ato te një person i caktuar.

Shembull tipik ku demonstrohen “deepfakes” janë kryesisht te pamjet ku paraqesin fytyrën e Tom Cruise, por që në realitet nuk është ai prej vërteti. Videot filluan të shpërndaheshin në aplikacionin TikTok në fillim të këtij viti.

Për ditë të tëra njerëzit pyesnin vetën nëse pamjet ishin të vërteta dhe nëse jo, kush i kishte krijuar ato?

Më në fund, doli se prapa këtyre pamjeve qëndronte 32-vjeçari belg, njëherësh artist i efekteve vizuale me emrin Chris Ume.

“Ne besuam për sa kohë që po e bëjmë të qartë se kjo është parodi, ne nuk po bëjmë asgjë për të dëmtuar imazhin e tij. Por pas disa videove, e kuptuam se kjo kishte marrë hov; dhe po merrnim miliona e miliona shikime”, ka deklaruar Chris Ume.

Chris Ume madje tregon edhe se si i realizon këto video që si duket kanë zgjuar kureshtjen te njerëzit.

“Fillon me trajnimin e një modeli deepfake, sigurisht. Kam të gjitha këndet e fytyrës së Tom Cruise, të gjitha shprehjet, të gjitha emocionet. Duhet kohë për të krijuar një model vërtet të mirë të rrejshëm”, ka thënë Ume.

“’Trajnim’ do të thotë se do të analizojë të gjitha imazhet e Tom Cruise, të gjitha shprehjet e tij, në krahasim me imituesin tim. Pra, kompjuteri do të mësojë veten: Kur imituesi im është duke buzëqeshur, unë do të rikrijoj Tom Cruise duke buzëqeshur dhe kështu e “stërvit” atë, ka shtuar më tej ai.

Mirëpo, përveç aspektit argëtues me shembullin e Tom Cruise, videot me përmbajtje të rreme “deepfakes”, po zgjojnë frikën se ato mund të përdoren për qëllime dashakeqëse.

Shkencëtarja për politikë dhe konsulentja e teknologjisë, Nina Schick, shkroi një nga librat e parë mbi “deepfakes”. Ajo u ndesh për herë të parë me to, katër vjet më parë, kur po këshillonte politikanët evropianë për përdorimin e dezinformatave nga Rusia dhe mediet sociale për të ndërhyrë në zgjedhjet demokratike.

“Duke pasur parasysh se po vija nga perspektiva e dezinformimit dhe manipulimit në kontekstin e zgjedhjeve, fakti që Inteligjenca Artificiale tani mund të përdoret për të bërë imazhe dhe video të rreme, që duken hiper-realiste. Mendova, mirë, nga këndvështrimi i dezinformimit, ky është një ndryshim i lojës”, ka deklaruar Schick kur u pyet se si ishte reagimi i saj kur e kuptoi se diçka e tillë ishte e mundur.

Deri më tani, nuk ka asnjë provë që videot “deepfakes” të kenë “ndryshuar lojën” në ndonjë prej zgjedhjeve që janë mbajtur në SHBA, por në fillim të këtij viti, FBI lëshoi një njoftim duke paralajmëruar se “aktorët rusë (dhe) kinezë… po përdornin imazhe sintetike profili” – duke krijuar gazetarë “deepfakes” dhe personalitete të medias për të përhapur propagandë antiamerikane në rrjetet sociale, raporton CBS News.

Ushtria amerikane, zbatimi i ligjit dhe agjencitë e inteligjencës ia kanë hedhur me kujdes syrin këtyre videove për vite me radhë.

Në një seancë dëgjimore të vitit 2019, senatori Ben Sasse nga Nebraska pyeti nëse SHBA-ja ishte e gatshme për sulmin e dezinformatave, falsifikimeve dhe mashtrimeve.

Ashtu si interneti, për herë të parë teknologjia e “deepfakes” ishte përdorur në pornografi. Në ditët e sotme, në videot pornografike paraqiten kryesisht fytyra të femrave të famshme.

Për t’u bërë pjesë e grupit "Balkanweb" mjafton të klikoni: Join Group dhe kërkesa do t’ju aprovohet menjëherë. Grupi Balkanweb
Etiketa: