Deepfake: a következő nagy biztonsági fenyegetés az arcunkba néz

A mesterséges intelligenciának és a mély tanulási algoritumusoknak köszönhetően egyre könnyebb egy másik ember arcával bejelentkezni egy videóhívásba.

Nemrég orosz hackerek deepfake technológiával beszéltek Vitalij Klicsko kijevi polgármester nevében a berlini és madridi polgármesterekkel. Berlin polgármestere hosszabb beszélgetés után csak akkor kezdett gyanakodni, amikor az ál-Klicsko néhány nagyon szokatlan dolgot mondott Ukrajna megszállásával kapcsolatban. Amikor a hívás megszakadt, a polgármesteri hivatal felvette a kapcsolatot Ukrajna berlini nagykövetével, és kiderült, hogy akárkivel is beszéltek, az nem az igazi Klicsko volt. 

A hackerekkel más európai polgármesterek is beszéltek, de mindegyik esetben úgy tűnik, hogy deepfake technológiával, egy mesterséges intelligencia által generált hamis videóval társalogtak, amely úgy nézett ki, mintha valódi emberi beszélne. 

Csak az egyikük igazi, a másik deepfake

Mindez jól jelzi, hogy a deepfake technológia egyre fejlettebb és gyorsabb. Az incidens ugyanakkor arra is figyelmeztet, hogy új fenyegetés jelent meg, nemcsak a polgármesterek, hanem mindannyiunk számára.

  • Deepfake segítségével például felvehető vállalati vezetők identitása, így a gazdasági osztályon dolgozó, utalásokat végző munkatársakat téveszthetik meg a hackerek.Ha a dolgozó elhiszi, hogy a főnökével beszél, nem valószínű, hogy megtagadja a kérést.
  • A technológiával a cég üzleti partnereinek, alvállalkozóinak adhatják ki magukat a hackerek, és utalásokat irányíthatnak át a saját számláikra.
  • A home office korában a deepfake segítségével a kiberbűnözők informatikai állásokra jelentkezhetnek, így olyan szerepkörökhöz juthatnak a cégnél, amelyekben hozzáférhetnek a vállalat adataihoz, üzleti titkaihoz.
  • A deepfake segítségével hamis videók gyárthatóak, amelyek felhasználhatóak egy politikus vagy vállalatvezető lejáratásához, vagy hamis propaganda terjesztéséhez. 

Általános szabály, hogy minél több nyilvános videó található meg valakiről, annál könnyebb az azonosságát ellopni, meghamisítani. Az FBI már tanácsot adott ki a deepfake videók felismeréséhez: érdemes figyelni a videó ugrálását, általános hibáit, a beszélő fejének és törzsének egymáshoz viszonyított mozgását, az ajakmozgást, a kapcsolódó hangokat, több szereplő esetében az arcok közötti szinkronizálási problémákat. 

A közeljövőben azonban valószínűleg szükség lesz arra, hogy a cégek és a politikai szervezetek új szabályokat dolgozzanak ki az online találkozókon, a távmunka megbeszéléseken történő hitelesítésre vonatkozóan.

Minél jobban a tudatában vagyunk a kockázatoknak, annál könnyebb lesz védekezni a támadások ellen.

A cikk a ZDNet írása alapján készült.

A cikkhez a lap alján tud hozzászólni, és mások hozzászólásait is ott olvashatja.

Ha tetszett a cikk:


Ne felejtsen el feliratkozni hírlevelünkre:

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük