Banca Națională a României avertizează consumatorii cu privire la videoclipurile deepfake

Guvernatorul Băncii Centrale Române, Mugur IsarescuS-a trezit fără să vrea legat de recomandări financiare false după ce a fost vizat de un videoclip fals.

Videoclipul, care a folosit imaginea și vocea lui Isărescu, îl înfățișează promovând investiții frauduloase, relatează Bloomberg. menționat luni (5 februarie).

Acest incident a stârnit îngrijorări cu privire la numărul tot mai mare de atacuri deepfake, care implică utilizarea inteligenței artificiale (AI) pentru a manipula conținut audio și video, potrivit raportului.

cel Banca Nationala a Romaniei Compania a răspuns la videoclipul deepfake lansând un avertisment consumatorilor, subliniind totodată că nici Isărescu, nici banca centrală nu oferă sfaturi de investiții, se arată în raport. Un purtător de cuvânt al Băncii Centrale și-a exprimat îngrijorarea cu privire la incident și a îndemnat cetățenii să fie atenți în tranzacțiile lor financiare.

Videoclipul fals a coincis cu un interes crescut pentru investițiile în acțiuni din România, potrivit raportului. Anul trecut, țara a avut cea mai mare ofertă publică inițială, iar Bursa de Valori București a oferit randamente peste medie. Cu toate acestea, infractorii cibernetici au profitat de standardele de intermediere financiară relativ scăzute ale României și au exploatat situația pentru activitățile lor frauduloase.

Raportul spune că atacurile deepfake sunt de așteptat să se intensifice în acest an. Următoarele runde ale alegerilor din România, inclusiv alegerile parlamentare, prezidențiale, UE și locale, creează teren fertil pentru campanii de dezinformare și atacuri cibernetice.

Potrivit raportului, premierul român Marcel Ciulacu s-a confruntat și cu provocări de securitate cibernetică. A trebuit să-și schimbe cartea de identitate după ce hackerii au furat o copie a acesteia și au postat-o ​​pe dark web. Atacul asupra cărții de identitate a lui Ciolaco a fost legat de invazia rusă a Ucrainei.

READ  Pregătirile pentru zborurile Schengen duc la limitări temporare de capacitate pe Aeroportul București

PYMNTS a raportat pe 9 ianuarie că inteligența artificială reduce efortul necesar pentru a crea deepfake. Capacitatea oferită inteligenței artificiale de a genera text asemănător unui om în voci instantanee, reproduse virtual, pe baza doar fragmente de sunet și de a scala atacurile comportamentale cu un clic pe un buton, a democratizat din ce în ce mai mult accesul la criminalitatea cibernetică, care anterior era limitată la sfera actorilor. Cel mai sofisticat actor rău.

OpenAI A spus pe 15 ianuarie Postare pe blog Ea ia măsuri pentru a preveni folosirea sau exploatarea abuzivă a tehnologiei sale AI la viitoarele alegeri globale. Compania anticipează în mod proactiv și previne potențialele încălcări, cum ar fi deepfakes, potrivit postării.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *