BNR reacționează după mesajele deepfake cu Mugur Isărescu
Reţelele sociale de la noi au fost invadate în ultima perioadă cu mesaje care prezentau oferte de nerefuzat pentru anumite investiţii. Fenomenul a luat amploare.
Prin intermediul aplicațiilor de inteligență artificială au apărut zeci de clipuri care prezintă astfel de oferte de investii.
Sunt folosiți oameni conoscuți din media, din politică sau chiar sistemul bancar. Inclusiv imaginea guvernatorului Băncii Naționale. Ei, bine, nu, cel pe care il vedeți în materialul video nu este Mugur Isărescu. Astel de trucaje se numesc deepfake și sunt tot mai folosite de pirații cibernetici pentru a va înșela.
Luni, Banca Naţională a României anunţa o tentativă de fraudă financiară tip deepfake după ce au apărut videoclipuri ce folosesc fraudulos imaginea şi vocea guvernatorului BNR pentru a convinge publicul să facă investiţii financiare pe o platformă inexistentă.
Iată ce spune comunicatul BNR. „Reiterăm faptul că Banca Naţională a României nu face recomandări şi propuneri de investiţii. În cazul în care aţi dat curs unor astfel de anunţuri false, raportaţi imediat aceste situaţii autorităţilor competente”, precizează BNR.
Există în acest moment clipuri de genul celui cu guvernatorul și cu Marcel Ciolacu, și cu Sorin Grindeanu, ministrul Transporturilor. Atenție, însă! Sunt trucaje, nu apăsați niciun link, nu credeți nicio oferta din această incredibilă de îmbogățire peste noapte.
Căutați pur și simplu pe paginile oficiale de Internet ale guvernului, Băncii Naționale sau pe cele persoane ale celor care apar în astfel de clipuri și o să constatați că nu exista îndemnurile respective. Riscurile asociate acestui fenomen sunt uriașe. Inclusiv din punct de vedere economic.
Deepfake-urile au implicații economice semnificative atât pentru firme, cât și pentru consumatori. Deepfake-urile pot fi, de asemenea, folosite pentru fraude corporative, care vizează directorii executivi și pot duce la pierderi financiare mari.
Pe partea consumatorilor, a noastră a tuturor, deepfake-urile pot duce la șantaj, agresiune, defăimare, hărțuire, furt de identitate, intimidare și porno răzbunare. Avem și exemple. Recent, un angajat al unei companii din Hong Kong a făcut plăți de 34 de milioane de dolari după ce escrocii l-au păcălit printr-un deepfake care a recreat imaginea falsă a șefului său. Acesta i-a cerut, înconjurat de angajați, de asemenea, falși, să facă plata. Și este doar un exemplu. Astfel de amenințări sunt reale și produc efecte reale.
În consecință, firmele trebuie să își ia măsuri suplimentare de protecție. La fel trebuie să facă și statele. De altfel, Statele Unite și Marea Britanie discută deja oportunitatea înființării unui unui organism internațional de monitorizare a inteligenței artificiale și riscurilor pe care le generează.