Podcast felvételek a digitális biztonságról

Miért fontos, hogy biztonságban legyenek az adataink? A Hackfelmetszők – Veled is megtörténhet! című IT-biztonsági podcastünk epizódjaiból megtudhatod.

Podcast #20: Deepfake: nem hihetünk a szemünknek és a fülünknek?

Hackerek 25,6 millió dollárt csaltak ki egy nemzetközi cég hongkongi irodájából úgy, hogy mesterséges intelligencia segítségével deepfake klónt készítettek a cég pénzügyi vezetőjéről és más vezetőkről, akiket ezután videóhíváson keresztül élőben használtak fel egy alkalmazott megtévesztésére. A támadás a maga nemében egyedülálló, az első példa a deepfake technika ilyen mennyiségű és minőségű felhasználása terén. Mindez év elején történt.

A digitális klónozás egyre több gondot okoz. A legutóbbi nagy port felverő eset az volt, amikor a popsztár Taylor Swiftről készült pornográf deepfake-ek árasztották el a közösségi médiát, és az egykori Twitter például teljesen letiltotta a Taylor Swifttel kapcsolatos kereséseket. De az is megesett, hogy Kínában egy férfitól több mint félmillió dollár váltságdíjat csaltak ki elrabolt barátjáért egy hamis videóval. Mi is az a deepfake, amit a Google Fordító mélyhamisításnak fordít?


Miről szól a podcast?

  • Mi az a deepfake?
  • Bárkiről készíthető manipulatív felvétel?
  • Hogyan lehet azonosítani ezeket a tartalmakat?
  • Milyen deepfake esetekről hallhattunk mostanában?
  • Szankcionálták már valahol ezeket a csalásokat?
  • A deepfake akár jó célokat is szolgálhat?
  • AI-generált influencer költségcsökkentésre. Lehetséges?
  • Hogyan szorítható vissza az AI sötét oldala?

Hallgasd meg:

A Podcast tartalmát szöveges formátumban itt tekintheted meg

 

Hackfelmetszők–Veled is megtörténhet! 20. Deepfake: nem hihetünk a szemünknek és a fülünknek?

- Hackerek 25,5 millió dollárt csaltak ki egy nemzetközi cég hongkongi irodájából úgy, hogy mesterséges intelligencia segítségével deepfake klónt készítettek a cég pénzügyi vezetőjéről és más vezetőkről is, akiket ezután videóhíváson keresztül élőben használtak fel egy alkalmazott megtévesztésére. A támadás a maga nemében egyedülálló, az első példa a deepfake technika ilyen mennyiségű és minőségű felhasználása terén. Mindez év elején történt.

A digitális klónozás egyre több gondot okoz. A legutóbbi nagy port felverő eset az volt, amikor a popsztár Taylor Swiftről készült pornográf deepfake-ek árasztották el a közösségi médiát, és az egykori Twitter például teljesen letiltotta az énekesnővel kapcsolatos kereséseket. De az is megesett, hogy Kínában egy férfitól több mint félmillió dollár váltságdíjat csaltak ki elrabolt barátjáért egy hamis videóval. Mi is az a deepfake, amit a Google mélyhamisításnak fordít?
- Ez itt a Hackfelmetszők, én Gécsek Tóth Enikő vagyok, és köszöntöm beszélgetőpartnereimet, Csizmazia-Darab Istvánt, Rambót, a Sicontact Kft. kiberbiztonsági szakértőjét, és Béres Pétert, a Sicontact Kft. IT vezetőjét.

02:39 Mi is az a deepfake? Hogyan definiálható pontosan?

Gécsek-Tóth Enikő

- Egyetértetek a Google-lel? A Google Translator fordítása a mélyhamisítást dobta ki a deepfake-re. Ti hogyan definiálnátok ezt pontosan?

Csizmazia-Darab István

- Mélytanulás inkább. 2023-ban egyébként az év szava volt a mesterséges intelligencia. A mesterséges intelligencia, a Wikipédia szócikk szerint úgy fogalmaz a deepfake-ről, hogy egy olyan technika, amivel mozgóképeken szereplő személyek arcképét élethűen másvalaki arcképére lehet cserélni. Hogy egy fotót lehet manipulálni, azt már a Photoshopban megtanultuk. Lehet, hogy sokan a hallgatók közül még meg sem születtek, mikor az első verzió ebből megjelent 1988-ban, 36 éve.

04:02 Obama elnök deepfake videója

Gécsek-Tóth Enikő

- Igen, azt hiszem, hogy Obama elnökről is készült egy ilyen videó, amelyben ténylegesen úgy néz ki, mintha az akkori elnök beszélne. Nem tudom, ilyenkor mi lehet a támpont. Nyilván valaki rájött, hogy ez nem az eredeti, de nem tudom, hogy hogyan lehetne rájönni, hogy ez nem a valóság.

04:20 Hogyan fejlődtek a deepfake videók?

Csizmazia-Darab István

- Az elsők nagyon kezdetlegesek voltak, ott technikailag még föl is lehetett fedezni, a száj meg az eredeti arc között lehetett látni egy határvonalat, ha kinagyította az ember ezeket a felvételeket. Eltelt azóta öt év, most már olyan jó minőségű manipulációkat lehet csinálni, hogy föl van adva a lecke, hogy fölismerje az ember, hogy igaz-e vagy nem. Egyébként az obamás videó, az nem átverésből született, hanem pont egy demonstrációként. Két ablak volt: láttad a másik oldalon, aki a száját tátogatta, és megmutatta, hogy ezt lehet csinálni, emberek, döbbenjetek meg.

05:28 Akkor még értened kellett hozzá, most már 10 perc alatt megtanulható

Béres Péter

- Meg talán abból a szempontból változtak a trendek az évek során, hogy ugye említettük ezt a Photoshopos '88-as megjelenést, hogy akkor még értened kellett hozzá, hogy ezt jól meg tudd csinálni.

07:35 Bárkiről készíthető manipulatív felvétel

Csizmazia-Darab István

- Mindenkiről készíthető, ezek a manipulációk elképesztőek. Ha csak állóképekről gondolkozunk, nincs olyan ember, akiről nulla fénykép készült volna a mobiltelefonok korában. Elmész egy koncertre, az apró betűbe be van írva, hogy rólad ott kép és videofelvétel készül, amit arra használnak, amire akarnak.

09:40 Taylor Swift esete a deepfake-kel

- De ahogy említetted a felvezetőnél is ugye a Taylor Swift esete, ott nem volt ilyen felvétel, viszont belemontírozták a fejét. És ez a típusú incidens, ez tulajdonképpen bárkivel megtörténhet. Most tucatnyi olyan hírt lehetett olvasni Spanyolországból, meg az Egyesült Államokból, hogy a fiúk a lány osztálytársaikról meztelen fotókat meg videókat készítettek, és azt csereberélgették egymás között. Tehát tulajdonképpen akkor is lehet az ember egy lejáratásnak az áldozata, hogyha nem követett el semmit, amit valaki kilesett, lefényképezett vagy levideózott, merthogy kreálni is lehet belőle.

11:01 A nézőkben nincs meg a gyanakvás

Gécsek-Tóth Enikő

- De talán idővel ez változhat, nem? Tehát hogyha megismerjük ezt a fajta csalási módot, mint ahogy most már egy sms-nél is gyanakszunk, vagy egy rosszul megfogalmazott levélnél, annyi példát említettetek már ti is az előző podcastokban. Tehát hogyha ez beépül a tudatba, akkor talán már más is szkeptikusan nézi majd ezeket a felvételeket, videókat.

Csizmazia-Darab István

- Attól is függ ugye, hogy ki beszél. Rólam fölkerülne valamilyen videó, az kevésbé lenne érdekes, de amikor Zelenszkij arra szólítja föl a lakosságot egy videóban látszólag, hogy adják föl a háborúba az ellenállást és adják meg magukat, akkor az elbizonytalanító lehet.

11:50 A bullying újabb lendületet kap

Béres Péter

- Aki létrehozza ezt a tartalmat, neki ugye ez egy jó hecc, tegyük föl, és öt perc vagy tíz perc alatt elkészül vele, de akiről készül egy ilyen kompromittáló felvétel, vagy kreált felvétel, neki egyrészt valahogy bizonyítani kellene, hogy ez nem ő. Ami megint nem egyszerű. A bullying alapvetően még egy újabb lendületet kap.

12:46  Nem csak a káros célokra használható technológia fejlődik, hanem az is, hogy hogy lehet majd azonosítani ezeket a tartalmakat.

Béres Péter

Most jelenleg nincs olyan jó fegyver a kezünkben, amire azt mondanád, hogy berakod a videót, vagy azt a képet egy weboldalra. Van egy-két ilyen próbálkozás, ez az Originity.ai például ilyen, tehát meg tudod nézni, hogy ez egy AI által generált tartalom, legyen az bármi, az ott ki fogja dobni, hogy 98 százalékban ő azt gondolja, hogy ez eredeti, vagy AI.

14:42 Miért lesz nehezebb a deepfake videók felismerése a jövőben?

Csizmazia-Darab István

- És olyan szempontból még nehezebb lesz a jövő, hogy ezek mind nagy adatbázisokból tanulnak. Most egy csomó ember nekiállt és generálja ezeket az új tartalmakat, videókat, meg képeket, amik szintén bekerülnek a tanuló adatbázisba, és akkor utána el kellene dönteni, hogy mi az igaz, mi a nem igaz. Tehát most még ezt a nehéz helyzetet, ezt egy sokkal nehezebb fogja később fölváltani, mert ugye a tanuló adatbázisba bekerül az, amit közben kreáltunk.

15:29 Milyen deepfake esetek voltak mostanában?

Csizmazia-Darab István

- Taylor Swift esete, te említettél egyet, de én egy másikat is olvastam, amikor volt egy bevonulása egy színpadra, és rámontíroztak egy Trumpot éltető piros zászlót, és utána magyarázkodhatott.

16:40 Lejáratások deepfake videókkal választások előtt

Béres Péter

- A probléma jelenleg az, hogy 2024 a választások éve, és nagyjából több mint kétmilliárd ember fog az urnákhoz fáradni, hogy leadja a szavazatát az USA-tól indulva Indián keresztül az EU-ig. Nem kell túl messzire mennünk időben sem, meg földrajzilag sem, hogy lássunk erre már példákat. Most a szlovák választásnál volt egy kétperces videó, ahol az egyik pártnak, a Progresszív Pártnak a vezetője lett egy deepfake videó áldozata, ezzel próbálták lejáratni. Nagyjából arról szólt a sztori, hogy szavazatokat vásárolna a roma kisebbségtől. Persze ez nem történt meg, meg nem beszélt ilyenről, de hatással volt a szavazóbázisra és befolyásolhatta ezt.

18:18 Szankcionálták már az ilyen csalásokat?

Gécsek-Tóth Enikő

- És arról már hallottatok, hogy valahol szankcionáltak is ilyen csalásokat? Vagy annyi, hogy kiderül, hogy igen, kamu volt, csalás volt és ennyi.

Béres Péter

- Ezeknek a forrását általában elég nehéz megtalálni. Kicsit ez olyan, mint amikor valaki ír egy fertőző kódot, és azt sem tudod száz százalékban sok esetben visszanyomozni. Tehát én nem hallottam ezzel kapcsolatosan, hogy akár letartóztatás történt volna. Nyilván feltételezések vannak, hogy valamelyik párt esetleg, vagy valaki megpróbálta így befolyásolni a választásokat.

Gécsek-Tóth Enikő

- Nyilvánvalóan itt a célpontok általában politikai célpontok, politikában mozgó célszemélyek, hírességek, énekesek, tehát ahol van tétje ezeknek a csalásoknak.

Csizmazia-Darab István

- Igen, meg 2019-ben már előfordult az, hogy a Deep Voice segítségével történt átverés. Abban magyar szál is volt, volt egy multinacionális cég, aminek a német igazgatója nevében felhívták az angol igazgatót, hogy egy magyar beszállító partnernek azonnal utaljon el 220 ezer eurót, és majd később lepapírozzák. Ezt a pénzt átutalták, egy perc múlva eltűnt a pénz, és utána derült ki, hogy a deep voice-os hangminta volt, ami még az akcentust, mindent tökéletesen le tudott utánozni.

23:18 Tarthatunk attól, hogy holnap mondjuk a lányunk hangját használják fel ilyen csalásokban?

Gécsek-Tóth Enikő

- Tartunk-e most ott, hogy mondjuk nekem holnap megcsörrenhet a telefonom, és mondjuk a lányom hangját hallom, amint segítséget kér tőlem, majd valaki átveszi a telefont, és azt mondja, hogy igen, hogyha látni akarom a lányomat újra, anélkül, hogy Mexikóba hurcolnák, nem tudom, fizetnem kell tízmillió forintot. Ez megtörténhet-e holnap velem, mondjuk itt Magyarországon?

Csizmazia-Darab István

- Hát a héten még nem, de jövőre már vértezd föl magad.

25:52 Szükség van egy technológiára, amely majd segít a felismerésben

Béres Péter

- Én nagyjából azt tudom megismételni, amiről beszéltünk, hogy el kell jutni a technológiának addig, ami majd segít nekünk a felismerésben. Azt gondolom, hogy főleg egy ilyen kritikus helyzetben, nem arra fogunk figyelni, hogy hogy beszél az az adott rokonunk, vagy ismerősünk. Egyszerűen olyan lelkiállapotban van az áldozat, hogy nem tudsz arra figyelni, hogy most ez egy generált hang, vagy tényleg ő az. Nem leszünk képesek ilyen helyzetben szerintem megmondani, hogy nem ő, hanem tényleg a technológiának kell valahogy eddig eljutni, meg beépíteni olyan kontrollokat akár egy ilyen hívásba. Sokszor szokták azt mondani, hogy találjunk ki valamilyen közös jelszót, vagy valamilyen szót, amit hogyha valaki felhív, akkor bemondja, és akkor tudod, hogy tényleg ő az, vagy nem ő az.

27:12 A deepfake akár jó célokat is szolgálhatna

- Én azt tudom tanácsolni, hogy igazából az is benne van, hogy amit az ember ismer, attól kevésbé fél, hogy mindenkinek ismerkedni kéne ezzel valamilyen szinten. Például van olyan iskola, nem Magyarországon, ahol a tananyag része a ChatGPT. Most itt a deepfake videó kapcsán csupa rossz példát emlegetünk, de hát van ebből nagyon jó is. A Zsivány 1-es című filmben a Tarkin kormányzó már meghalt nyolc vagy kilenc éve, és mégis szerepelhetett a filmben, mert meg tudták csinálni a hasonmását. Úgy tudom, hogy James Dean rokonaitól megvették már a szerzői jogait, és lesz egy olyan mozifilm, amiben ő lesz a főszereplő, úgy, hogy már ötven éve meghalt. Tehát ezek azért jó célokat is tudnak szolgálni, és nyilván minden technológiával visszaélni is lehet. Ez benne van a pakliban.

29:16 AI-generált influencer költségcsökkentésre?

Béres Péter
- A cégek is elkezdtek ezzel a területtel kicsit mélységében foglalkozni, és saját jól definiált célokra bevetni, tehát hogy hatékonyabban, gyorsabban tudjanak dolgozni. Elindult egy ilyen folyamat, és valószínűleg ennek az lesz a következménye, hogy aki nem fog ezzel foglalkozni a közeljövőben, az lemarad az üzleti életben. Van már AI-generált influencer, mert egy marketingügynökségnek elege lett, hogy fizetni kell az influencereknek. Szerelmes leveleket is kap, 0-24-ben ruhákat mutat be és termékeket, reklámot.

30:19 AI alkalmazása, ha nem tudunk minden munkát elvállalni

Béres Péter

- A másik, hogy van egy londoni modell, aki kitalálta, hogy az AI ikerpárját ő elkészíti, merthogy nem tud minden munkát elvállalni, és így meg megpróbálja. Úgyhogy én is erősíteném Istvánnak a gondolatát, hogy amellett, hogy nyilván látjuk a sötét oldalt is, hogy egyre többen használják, azért látszik az, hogy most már így a felszínre tört a jó oldal is, tehát hogy egyre gyakrabban alkalmazzuk tényleg jó célokra is.

32:58 Hogyan szorítható vissza az AI sötét oldala?

Gécsek-Tóth Enikő

- Jó, bújjon elő belőletek a Sicontact, meg az ESET, olyan szempontból, hogy a védelem hogyan készül ezekre a dolgokra.

Béres Péter

- Tudatosítás, amit érintettünk az előbb, hogy az emberek jó, hogyha tudnak erről, hogy vannak ilyen technológiák, és most már használják, és biztos, hogy találkozni fognak vele, akár már 2024-ben is. Technológiai oldalról, tehát hogy feltelepítünk valamit, és az majd megmondja, hogy ez nem valós, az még nem nagyon látszik, hogy lenne ilyen. Ezek az ellenőrző appok vagy szolgáltatások már elérhetőek, vagy kezdenek elérhetővé válni.

34:23 Miért fontos a biztonságtudatosság a deepfake videók esetében?

Csizmazia-Darab István

- Ezt rossz célra is föl lehet használni, és ezt mindenkinek föl kell ismernie. Banki csalásnál is az van, hogy hiába nem vagyok én híres ember, fölhívhatnak a bank nevében. Tehát mindenki tud veszteséget elszenvedni. Talán még sose volt ennyire fontos, hogy élethosszig tanuljunk és tisztában legyünk a kockázatokkal, amik ránk leselkednek, hogy tényleg biztonságtudatosak tudjunk maradni.

35:22 Zárszó a deepfake témához

Csizmazia-Darab István

- Legyünk tisztában a lehetséges kockázatokkal, de azzal is, hogy miben segíthet nekünk ez a technológia, mert ez igazából egy nagyon jó eszköz is.

- Köszönöm szépen Csizmazia-Darab Istvánnak, Rambónak, a Sicontact Kft. kiberbiztonsági szakértőjének és Béres Péternek, a Sicontact Kft. IT vezetőjének.

Tekintsd meg további tartalmainkat is!

Az internet remek dolog, amely lehetővé tette, hogy kényelmesen, otthonunk biztonságából tanulhassunk és dolgozhassunk - de nem feledkezhetünk meg a világháló veszélyeiről sem. Az alábbiakban összegyűjtöttünk minden olyan hasznos tanácsot, amely hozzájárulhat digitális biztonságunkhoz. Kérjük, válassz a számodra megfelelő tartalmak közül:

MINDENKINEK

Hasznos ajánlások és cikkek, amelyek mindenki biztonságát szolgálják.

SZÜLŐKNEK

Cikkek és tanácsok szülőknek a család digitális biztonságáért.

GYEREKEKNEK

Edukatív és szórakoztató tartalmak gyerekeknek, amelyekkel felkészíthetjük őket a biztonságtudatos internethasználatra.

FIATALOKNAK

Tudj meg többet edukatív cikkeinkkel arról, hogy hogyan védheted meg személyes adataidat és digitális eszközeidet az online térben.

INFLUENCEREK ÚJ

Ismerd meg, milyen veszélyekkel szembesültek a hazai közösségi média ismert szereplői, és hogyan segítettünk nekik azok elhárításában.

PODCASTOK ÚJ

Ismerd meg, milyen veszélyekkel szembesülhetnek a hazai vállalkozások podcast formájában.

VIDEÓK

Tudj meg többet az IT világról rövid videóink segítségével.

HÍREK

A legfrissebb hírek az IT biztonság világában. Légy naprakész az ESET-tel!

JÁTÉKOK

Játssz, tanulj és kapcsolódj ki változatos játékainkkal a vírusok világában!

FOGALOMTÁR

Ismerd meg a leggyakoribb online fenyegetéseket!

Hatékony védelem az összes eszközödre

Többrétegű biztonsági megoldásainkkal nem kell tovább aggódnod online tevékenységeid miatt. Ehhez az alábbi termékeket javasoljuk:

Windows-os
számítógépre

Androidos
mobileszközre

Szülői
felügyeletre