Kategóriák: Technológiák

Mi az a deepfake, mennyire veszélyes és hogyan lehet felismerni

Ma a deepfake-ről fogunk beszélni, amely mára széles körben elterjedt és meglehetősen gyakori jelenség. Ennek a technológiának köszönhetően az információmanipuláció új szintre lépett.

Láttad Erzsébet királynőt táncolni az asztalon az újévi üzenet adása közben? Vagy hallgatta Kim Dzsong Un beszédét a demokráciáról, vagy csodálta Salvador Dalit, aki a haláláról beszélt (miért nem hisz benne)?

Ezekben a csodálatos videókban egy dolog közös: hamisak. A Deepfake hamis információk létrehozásának és közzétételének technikája videók, hanganyagok és fényképek formájában. Egyre könnyebben találkozhatunk ilyen anyagokkal, ezért elkészítettünk egy útmutatót a mélyhamisított videók létrehozásához, felismeréséhez és kereséséhez az interneten.

Olvassa el még: A holnap blokkláncai: A kriptovaluta-ipar jövője egyszerű szavakkal

Deepfake - mi ez?

A Deepfake (Deepfake) valójában egy olyan fotó, videó vagy hanganyag, amely nem valódi, hamis, vagyis hamis. A Deepfake (két szó kombinációja - mély tanulás "mély tanulás" és hamis "hamis") mesterséges intelligenciát (AI) használ a mély tanuláshoz, hogy egy személyt a másikhoz hasonlítson a videókban és más digitális médiaanyagokban. Valódi hang-, hang-, videó- ​​vagy fényképmintákon alapuló algoritmusok hozzák létre, amelyeket összefűznek. Az algoritmus számos különböző helyről veszi a kiválasztott információkat, majd egy anyaggá egyesíti. Ennek eredményeként valami új (hamis) jön létre, amely különböző valós adatok kombinációján alapul.

De ez még nem minden. A Deepfake a semmiből is képes "festeni" egy fotót, például olyan karakterek arcának létrehozásával, amelyek soha nem léteztek.

Mi a célja az ilyen akcióknak? A Deepfake többek között téves információk terjesztésére az interneten (például politikai személyiségekről vagy eseményekről), lopásra (például hangutasítások hamisítására) és pornográfia létrehozására (híresekkel készült filmek – deepfake pornó) szolgál. Oktatási és szórakoztatási célokra is használható.

Olvassa el még: A kvantumszámítógépekről egyszerű szavakkal

Deepfake – Hogyan működik?

Általánosságban elmondható, hogy mélyhamisított anyag létrehozásának két módja van. Az első módszer két algoritmust használ. Először az első (kódoló) megkeresi két kép közös jellemzőit (az eggyé kombinálandót), majd a második (dekódoló) átviheti azokat az újonnan létrehozott képre. Például, ha olyan videót szeretnénk készíteni, amelyben egy színész úgy mozogna, mint mi, a kódoló a mozgást abból a videóból veszi, ahol táncolunk, és a dekóder máris kicseréli az arcunkat a színész arcára, és reprodukálja a mozdulatainkat. . A kulcs itt az új képre másolt kiválasztott műveletek (például mozdulatok, gesztusok, arckifejezések).

A második módszer a generatív ellenséges hálózatokon (GAN) keresztül vezet, ahol két algoritmus működik együtt. Az elsőt generátornak nevezik, mert az általános információk felhasználásával képeket (például egy személy képét) hoz létre, amelyek egyesítik megkülönböztető jegyeit (az embernek teste, arca, szeme van). A második algoritmus egy diszkriminátor, amely kiértékeli, hogy a generátor által neki adott képek igazak-e vagy sem.

Idővel mindkét algoritmus fejlettebbé válik, így tanulnak és fejlesztik magukat. Ha a generátort úgy képezték ki, hogy a megkülönböztető nem ismer fel egy hamis fényképet (valósnak tekinti), akkor a folyamat befejeződött.

Nagy mennyiségű hamisított szoftver található a GitHubon, a szkriptek, programok és kódok nyílt forráskódú közösségében. Ezen programok egy részét kizárólag szórakoztatási célokra használják, így a deepfake készítése nem tilos, azonban sok közülük bűncselekményre is felhasználható.

Sok szakértő úgy véli, hogy a jövőben a technológiák fejlődésével a mélyhamisítások sokkal összetettebbé válnak, és komolyabb fenyegetést jelenthetnek a társadalomra, a választásokba való beavatkozással, a politikai feszültségkeltéssel és a bűnözői tevékenységgel összefüggésben.

Olvassa el még:

A Deepfake veszélye – mióta létezik?

2017-ben jelentek meg először ilyen hamis információk. Ekkor a felhasználó egy álnév deepfake Több pornográf filmet publikált a Redditen, amelyekben hírességek is szerepet kaptak, köztük Scarlett Johansson, Gal Gadot és Taylor Swift. Azóta ez az iparág rohamosan fejlődik, mert szinte bárki forgathat mélyhamisítású filmeket.

Az elmúlt években a mélyhamisítás technológiája olyan sokat fejlődött, hogy ma már egyre nehezebb megállapítani, hogy kitalált videóról vagy valódi emberekről készült felvételről van-e szó. Példa lehet egy videó II. Erzsébet üzenetével vagy Barack Obama beszéde, amelyet gyorsan közzétettek számos különböző oldalon. A volt amerikai elnök nyilatkozatát tartalmazó videó az interneten közzétett félretájékoztatás és álhírek által okozott globális fenyegetésekkel foglalkozott. A BuzzFeedVideos csatorna által közzétett anyagban Jordan Peele amerikai rendező és színész lett az Egyesült Államok 44. elnökének hangja. A mesterséges intelligencia azonban jelenleg már képes hangot generálni egy olyan személy archív felvételei alapján, akinek egy hamis filmben kellene szerepelnie.

Az ilyen fejlett technológiák a jövőben veszélyes eszközzé válhatnak a kiberbűnözők és internetes csalók kezében. A fontos politikusok beszédeiről készült hamis videók közzététele valódi károkat okozhat nemzetközi szinten. Az ilyen, mélyhamisítású technológián alapuló filmek diplomáciai konfliktusokat és botrányokat okozhatnak, ezáltal befolyásolják a közvéleményt és az emberek viselkedését.

Egy másik lehetséges veszély a felnőtteknek szóló tartalom, amely mindig is a legtöbb forgalmat generálta a virtuális térben. Nem csoda, hogy a mélyhamisítási technológia ilyen gyorsan elérte az internetet. A Deeptrace holland kiberbiztonsági cég jelentése szerint a deepfake technológiával készült koholt videók 96%-a ilyen témájú tartalmat tartalmaz. Az ilyen anyagok előállításához leggyakrabban filmsztárok, sportolók, sőt politikusok és a kormány képviselőinek képeit használják fel.

Olvassa el még: Miért nem tud egyetlen pillanatban sem repülni egy űrmisszió: Mi az az indítóablak?

Hogyan készítsünk mélyhamisítást?

Ha valaki tud deepfake videókat készíteni, akkor otthon is elkészíthető? Határozottan igen, de a minőségük természetesen nem lesz tökéletes. Az ilyen videók elkészítése nagy számítási erőforrásokat és nagy teljesítményű videokártyákat igényel. Azok, amelyek általában az otthoni számítógépekben vannak, nem elegendőek, és maga a fejlesztési folyamat hetekig tarthat. A filmek minősége is hagy majd kívánnivalót maga után - lesznek látható hibák, előfordulhat, hogy a szájmozgás nem felel meg a hangzásnak, lesznek látható helyek, ahol a "régi" tartalom átfedi az "újat".

Ha azonban egy fotót szeretnénk kicsit "megtapintani", vagy egy rövid deepfake videót készíteni, akkor az erre szolgáló program közvetlenül letölthető az okostelefonra. A rendkívül egyszerűen használható program néhány perc alatt kiküszöböli a megjelenés hibáit, a kiválasztott hírességgé varázsolja, vagy lehetővé teszi, hogy kutyája emberi hangon beszéljen.

Olvassa el még:

Hogyan lehet felismerni a mélyhamisítást?

A professzionális mélyhamisított videókat egyre nehezebb észrevenni. Eleinte az algoritmusoknak az alapvető viselkedéssel voltak problémái (például a szemek pislogásával), és azonnal kiderült, hogy a film hamisítvány. Ezt a hibát most javították. A hamis karakterek pislognak, természetesen mozognak és folyékonyan beszélnek. Néha azonban továbbra is problémáik vannak a szem természetes mozgásával.

Szóval, hogyan lehet észrevenni egy mélyhamisítást? Íme, mire érdemes figyelni a videó megtekintésekor:

  • A hang lépést tart a száj mozgásával? Néha nem teljesen egyeznek, és a videón szereplő személy a hanghoz képest késéssel mozgatja az ajkát, vagy helytelenül artikulálja a szavakat.
  • Mindenféle természetellenesnek tűnő jelenség. Itt van szó többek között az egész test vagy a fej törzshöz viszonyított helyzetéről, a fény tárgyakon való helytelen visszaverődéséről, az ékszerek helytelen visszaverődéséről stb. A természetellenes bőrszín annak a jele is lehet, hogy a film hamis.
  • Hang és videó minőség. A köztük lévő különbség segít felismerni a mélyhamisítást. Általában a hangsáv gyengébb minőségű.
  • A kép szabálytalanságai. Leggyakrabban a test és a fej találkozásánál jelennek meg. Amikor egy híresség fejét egy másik testhez "ragasztják", elmosódás jelenhet meg a nyak területén. Néha előfordulnak képkihagyások (szakaszosság) és képkockahibák (különböző fényszög, típus vagy irány).
  • A hashtag módosítása a videó alatt azt is jelentheti, hogy mélyhamisított videónk van.

Amikor a deepfake szemszögéből nézed az anyagokat, érdemes a saját érzéseidre is hagyatkozni. Néha az a benyomásunk, hogy valami „baj van”. Ez többek között akkor fordul elő, ha a képernyőn ábrázolt személy érzelmei nem egyeznek azzal, amit az arckifejezés vagy a hangszín mutat nekünk. Ez is arra utal, hogy a videót hamisíthatták.

Szintén érdekes:

Hogyan védekezhet a mélyhamisítás ellen?

A mély hamis átverés elkerülése érdekében a szakértők a következő lépéseket javasolják:

  • Alkoss egy titkos szót vagy szlogent szeretteivel, például családtagjaival vagy kollégáival, akik egy videóval vagy felvétellel bizonyítják a helyzet valóságát. Ezzel gyorsan ellenőrizheti a helyzet hamisságát, és elkerülheti például a pénzzsarolást.
  • Egyezzen meg rokonaival vagy kollégáival olyan információk listájában, amelyekről soha nem kérdeznek rá üzenetben, például közösségi oldalakon vagy SMS-ben. Feltétlenül minden érdekelt felet tájékoztatni kell a veszély valódi mértékéről.
  • Többtényezős hitelesítési csatornák megvalósítása az egyes kérések ellenőrzéséhez. Ha a kommunikáció szöveges üzenettel indul, akkor az információ megerősítésének legbiztosabb módja, ha egy előre egyeztetett és biztonságos kommunikációs csatornán beszélgetés formájában felveszi a kapcsolatot az üzenet küldőjével.
  • A biztonsági kompetenciák folyamatos fejlesztése, például a személyzet biztonsággal és számítógépes bűnözéssel kapcsolatos képzése formájában. Felhívni a figyelmet arra, hogy mi a mélyhamisítás, és hogyan lehet ellensúlyozni ezt a fenyegetést.
  • Biztonsági rendszerek támogatása és fejlesztése információs és kommunikációs technológiai (IKT) környezetekben.

Hol találkozhatsz mélyhamisítással?

A hamis anyagok mindenhol megtalálhatók, ahol nagy közönséget, azaz a potenciális deepfake közönséget érhetnek el. Facebook, Instagram, a TikTok és más közösségi oldalak tele vannak ilyesmivel.

Ezek nem csak elképesztő videók, hanem "finomított" fotók és hangfelvételek is. Néhány hiteles hírességprofil néha teljesen tele van mélyhamis cuccokkal!

Nem ez az egyetlen hely, ahol mélyhamisítványt találhat. Ezen a technológián alapul egy okostelefon alkalmazás is, amely lehetővé teszi bajusz és szakáll vagy egyéb speciális effektusok hozzáadását a fényképhez (például több évtizedes öregedés). Így kiderülhet, hogy az utolsó fotó, amit a barátaidtól kaptál, egy kicsit "alulrajzolt".

Szintén érdekes:

A mélyhamisított filmek nem csak pornográfok

A deepfake használata lehet pozitív és negatív is. A mélyhamisított filmek lehetnek játékosak vagy szórakoztatóak. Itt kell megemlíteni azt a videót, amelyen Erzsébet királynő táncol az asztalon az újévi üzenet alatt. Ez a célja a legtöbb fotómódosításnak is, amelyet az okostelefonunkon a deepfake alkalmazással végzünk. Viccesnek és szórakoztatónak kell lennie.

A mélyhamisított anyagok oktatási szerepet is betölthetnek, például „feltámasztják” a már halott művészeket, énekeseket vagy zenészeket. Egyes múzeumok, különösen a floridai Salvador Dali Múzeum alkalmazza ezt a technológiát, ahol maga a művész „bemutatja” a látogatókat alkotásaikkal, akivel beszélgethet, sőt fotózhat is.

A Deepfake technológiát hanggenerátorokban használják – olyan eszközökben, amelyeket olyan emberek számára terveztek, akik elveszítették a beszédkészségüket. Nekik köszönhetően az ilyen emberek továbbra is a saját hangjukkal szólhatnak hozzánk. Val Kilmer hangját, amelyet a gégerák miatt veszített el, a Top Gun: Maverickben mintázták meg.

Sajnos sok példánk van a mélyhamisítás negatív felhasználására is. A politika jó példa arra, hogy az efféle hamis információknak messzemenő, globális következményei lehetnek, mint például a közszereplők lejáratása, a tőzsde, a gazdaság vagy a választási eredmények befolyásolása, vagy akár a háborús hadviselés. A jól előkészített nyilvántartás megkönnyíti a közvélemény manipulálását. A technológiák fokozatos fejlődése még nehezebbé teszi a valódi anyagok és a hamisítványok megkülönböztetését. Tehát ez egy lépés a társadalmi bizalom és az információs káosz bukása felé.

A mélyhamisított videók, mint már említettük, széles körben elterjedtek a pornóiparban. A változtatások leggyakrabban abból állnak, hogy a pornószínésznő/színész arcát hírességek vagy filmsztárok arcára cserélik, természetesen az ő beleegyezésük nélkül.

Olvassa el még: Emberes űrmissziók: Miért jelent még mindig problémát a visszatérés a Földre?

A mélyhamisítás valós veszélyt jelent mindannyiunk számára

A Deepfake nem csak a színészek és politikusok problémája. Bárkit érinthet a hamis tartalom. A zsarolás és zsarolás eleme lehet egy kitalált videó, amelyben bűncselekményt követünk el, vagy félreérthető helyzetbe kerülünk - vagy fizetsz, vagy mi felfedjük. Ha üzleti életben dolgozik, meg kell értenie, hogy fennáll annak a veszélye, hogy mélyhamisítást használnak a cég hiteltelenítésére a partnerek körében.

A manipulatív anyagok mennyiségének növekedése hatással lehet a társadalmi bizalomra és a közölt információkba vetett bizalomra is. Hogyan hihetsz el bármit is, ha egy film, amely bizonyíték a bíróság előtt, hamis lehet, és a hírek nem létező eseményekről számolnak be?

Az a technológia, amely lehetővé teszi olyan rosszindulatú képek, hangfelvételek vagy filmek készítését, amelyek karakterei nagyon hasonlítanak más emberekre, a kiberbűnözők fenyegetésének új szintjét jelenti. Különösen annak a ténynek a fényében, hogy a közösségi hálózatokban szinte korlátlan forrásanyagot gyűjthetnek be mélyhamisítások létrehozásához.

A gépi tanulási szoftver képes keresni a Facebook vagy Instagrampéldául, és érdekes fotókat vagy videókat készíthet a potenciális „színészekről”. Ennek alapján nagyon tiszta hang, kép és videó készíthető a személyről, de egy speciálisan létrehozott hamis fellebbezéssel, amely például azt szimulálja, hogy súlyos bajban van - emberrablás vagy baleset áldozataként. A következő szakaszban az „áldozat” hozzátartozóinak címzett hamis, például pénzügyi segítségkérés generálódik.

Olvassa el még: James Webb Űrteleszkóp: 10 megfigyelendő cél

Harc a deepfake ellen

A hamis információk áramlása olyan nagy, hogy sok közösségi hálózat úgy döntött, hogy felveszi a harcot a mélyhamisítások ellen. Facebook і Twitter próbálja felismerni a hamis videókat, és automatikusan törölni őket. Nagyvállalatok (beleértve Microsoft vagy Amazon) olyan szoftverekbe fektetnek be, amelyek felismerik a hamis tartalmakat. A tudósok is dolgoznak a probléma megoldásán.

Azonban egy olyan helyzetben, amikor egy okostelefonos alkalmazás elegendő egy hamis film létrehozásához, a mélyhamisítás elleni küzdelem olyan, mint a szélmalmok elleni küzdelem. Nincsenek olyan jogi normák sem, amelyek meghatároznák az információk manipulálásának vagy másról alkotott képének ilyen módon történő felhasználásának következményeit.

A Deepfake egyre népszerűbb, és egyre nehezebb megkülönböztetni az igazságtól. Ez az emberi mozdulatokat és gesztusokat jobban utánzó technológiák fejlesztésének köszönhető. A Deepfake jó célokra használható fel, például oktatóanyagok készítésére vagy a gégeműtét után hangjukat vesztett emberek megsegítésére, de a hackerek, zsarolók és internetes trollok eszközei is.

Tehát, ha újra találkozik egy csodálatos videóval az interneten, először ellenőrizze, hogy az néha módosított vagy hamis. Lehet, hogy amit nézel, az sosem volt a valóságban!

Olvassa el még:

Azonban ne felejtsük el, hogy Ukrajnában háború folyik. Ha segíteni szeretne Ukrajnának az orosz megszállók elleni harcban, a legjobb módja annak, hogy adományozzon az ukrán fegyveres erőknek Savelife vagy a hivatalos oldalon keresztül NBU.

Megosztás
Yuri Svitlyk

A Kárpátok fia, a matematika el nem ismert zsenije, "jogász"Microsoft, gyakorlati altruista, bal-jobb

Hagy egy Válaszol

E-mail címed nem kerül nyilvánosságra. Kötelező kitölteni*