Hogyan Tanítottuk Az Ideghálózatokat A Hírkép Hamisítására? Alternatív Nézet

Tartalomjegyzék:

Hogyan Tanítottuk Az Ideghálózatokat A Hírkép Hamisítására? Alternatív Nézet
Hogyan Tanítottuk Az Ideghálózatokat A Hírkép Hamisítására? Alternatív Nézet
Anonim

Hamisok készítéséhez mesterséges intelligencia rendszereket és technológiákat használnak a video- és audiohamisítványok előállításához.

Bármelyikünk számára „egyéni” hírkép létrehozásához és a benne kiválasztott médiajelentések megtévesztéséhez ma elegendő egy programozó erőfeszítése. A mesterséges intelligencia és a kiberbiztonság szakemberei erről mesélték az Izvesztát. Újabban úgy becsülik, hogy ehhez több csapat munkája szükséges. Ez a gyorsulás az ideghálózatok elleni támadások technológiájának fejlesztésével, valamint a hang- és videohamisítványok generálásával lehetséges, „programozva mély hamisítványokat”. Az Izvestia újság nemrégiben hasonló támadáson ment keresztül, amikor három líbiai hírportál egyszerre tett közzé egy üzenetet, amely állítólag az egyik témában jelent meg. A szakértők szerint 3-5 éven belül várható el a robotmanipulátorok inváziója, amely automatikusan sok hamisítást képes létrehozni.

Szép új világ

Egyre több projekt történt, amely az információs képet hozzáigazítja az egyes felhasználók észleléséhez. Munkájuk egyik példája a három líbiai portál nemrégiben tett akciója, amely állítólag az Izvestija kiadásában november 20-án nyomtatott híreket tett közzé. A hamisítvány alkotói módosították az újság címlapját, és üzenetet tettek a Khalifa Haftar tábornagy és a Nemzeti Egyezmény Kormányának miniszterelnöke, Fayez Sarraj közötti tárgyalásokról. Az Izvestia betűkészlettel ellátott hamis képet a két vezető 2017. májusában készített fotója kísérte. A kiadó logójával ellátott címkét levágták a ténylegesen közzétett november 20-i kiadásból, és az oldalon található összes többi szöveget az október 23-i kiadásból.

Szakemberek szempontjából az ilyen hamisítások a belátható jövőben automatikusan elvégezhetők.

Image
Image

„A mesterséges intelligencia technológiái most teljesen nyitottak, és az adatok fogadására és feldolgozására szolgáló eszközök miniatürizálódnak és olcsóbbak lesznek” - mondta Izvestiának Jurij Vilsiter, a fizikai és matematikai tudományok doktora, az Orosz Tudományos Akadémia professzora, az FSUE „GosNIIAS” részlegének vezetõje. - Ezért nagyon valószínű, hogy a közeljövőben még az állam és a nagyvállalatok sem, csak a magánszemélyek képesek meghallgatni és kémkedni ránk, valamint manipulálni a valóságot. Az elkövetkező években a felhasználói preferenciák elemzésével hírcsatornák és nagyon okos hamisítványok révén befolyásolhatja őt.

Promóciós videó:

Jurij Vilsiter szerint már léteznek olyan technológiák, amelyek felhasználhatók az ilyen beavatkozásra a mentális környezetben. Elméletileg a manipulátor robotok inváziója várható néhány év alatt - mondta. Korlátozó pillanat lehet az, ha nagy adatbázisokat kell összegyűjteni a valódi emberek reakcióiról a mesterséges ingerekre, a hosszú távú következmények nyomon követésével. Az ilyen követéshez valószínűleg még több év kutatás szükséges, mielőtt a célzott támadásokat következetesen megszerzik.

Látás támadás

Aleksej Parfentiev, a SearchInform elemző osztályának vezetője egyetért Jurij Vilsiterrel. Elmondása szerint a szakértők már előrejelzik az idegi hálózatok elleni támadásokat, bár manapság ilyen gyakorlatilag nincs.

- A Gartner kutatói úgy vélik, hogy 2022-ig az összes kibertámadás 30% -a arra irányul, hogy megsértse az adatokat, amelyeken a neurális hálózatot képzik, és elkészítse a kész gépi tanulási modelleket. Ezután például a pilóta nélküli járművek hirtelen összetéveszthetik a gyalogosokat más tárgyakkal. És nem a pénzügyi vagy reputációs kockázatról fogunk beszélni, hanem az egyszerű emberek életéről és egészségéről - hiszi a szakértő.

A számítógépes látásrendszerek támadásait jelenleg kutatások részeként hajtják végre. Az ilyen támadások célja az ideghálózat kényszerítése a képen annak felismerésére, ami nincs ott. Vagy fordítva, hogy nem látja, mit terveztek.

Image
Image

„Az ideghálózatok kiképzésének egyik aktívan fejlődő témája az úgynevezett ellenfél támadások („ ellenfél támadások”- Izvestia)” - magyarázta Vladislav Tushkanov, a Kaspersky Lab webanalitikusa. - A legtöbb esetben számítógépes látásrendszerekre irányulnak. Egy ilyen támadás végrehajtásához a legtöbb esetben teljes hozzáféréssel kell rendelkeznie a neurális hálózathoz (az úgynevezett white-box támadások) vagy annak munkájához (black-box támadások). Nincs olyan módszer, amely bármely számítógépes látásrendszert megtéveszthetne az esetek 100% -ában. Ezen túlmenően már készültek olyan eszközök, amelyek lehetővé teszik az ideghálózatok tesztelését az ellenfél támadásokkal szembeni ellenállás és az ellenállás növelése érdekében.

Egy ilyen támadás során a támadó megpróbálja valahogy megváltoztatni a felismert képet úgy, hogy az idegi hálózat ne működjön. Gyakran a zaj kerül rá a fotóra, hasonlóan ahhoz, ami rosszul megvilágított helyiségben fényképez. Az emberek általában nem veszik észre az ilyen interferenciát, de az idegi hálózat meghibásodni kezd. De ahhoz, hogy ilyen támadást végre lehessen hajtani, a támadónak hozzáférnie kell az algoritmushoz.

Stanislav Ashmanov, a Neuroset Ashmanov főigazgatója szerint jelenleg nincs módszer e probléma kezelésére. Ezenkívül ez a technológia bárki számára elérhető: egy átlagos programozó használhatja azt a szükséges nyílt forráskódú szoftver letöltésével a Github szolgáltatásból.

Image
Image

- Egy ideghálózat elleni támadás egy olyan módszer és algoritmus, amely egy ideghálózat megtévesztését eredményezi, és így hamis eredményeket eredményez, és valójában úgy tönkreteszik, mint egy ajtózár - hitte Ashmanov. - Például manapság nagyon könnyű arra késztetni az arcfelismerő rendszert, hogy nem Ön, hanem Arnold Schwarzenegger áll előtte - ezt úgy hajtják végre, hogy az emberi szem számára érzéketlen adalékanyagokat összekeverik az ideghálózatba belépő adatokba. Ugyanezek a támadások lehetséges a beszédfelismerő és elemző rendszereknél.

A szakértő biztos abban, hogy ez csak rosszabbá válik - ezek a technológiák a tömegek elé kerültek, a csalók már használják őket, és nincs ellenük védelem. Mivel nincs védelem a video- és audiohamisítások automatikus létrehozása ellen.

Mély hamisítványok

A mély tanuláson alapuló mélyfake technológiák (az ideghálózatok mély tanulásának technológiái. - Izvestia) már valódi veszélyt jelentenek. A video- vagy audiohamisításokat híres emberek arcainak szerkesztésével vagy átfedésével hozzák létre, akik állítólag kiejtik a szükséges szöveget és a szükséges szerepet játszanak a cselekményben.

„A mélyfake lehetővé teszi az ajakmozgások és az emberi beszéd helyettesítését a videóval, ami realisztikus érzetet teremt a történtekről” - mondja Andrey Busargin, a Group-IB innovatív márkavédelmének és szellemi tulajdonának osztálya. - A hamis hírességek „felkínálják” a felhasználókat a közösségi hálózatokon, hogy vegyenek részt értékes díjak (okostelefonok, autók, pénzösszegek) stb. Az ezekből a videókból származó linkek gyakran csalárd és adathalász webhelyekhez vezetnek, ahol a felhasználókat felkérik a személyes adatok megadására, ideértve a bankkártya adatait. Az ilyen rendszerek veszélyt jelentenek mind a hétköznapi felhasználókra, mind a reklámokban említett közszereplőkre. Az ilyen típusú szhenanánok miatt a hírességek képei csalásokhoz vagy reklámozott termékekhez kapcsolódnak.és itt kerülünk a személyes márka károsodására”- mondja.

Image
Image

Egy másik fenyegetés kapcsolódik a „hamis szavazatok” telefonos csalásokhoz való felhasználásához. Például Németországban a számítógépes bűnözők a hangos mélyhangot használják arra, hogy egy brit leányvállalat vezetője telefonos beszélgetésben sürgősen 220 000 eurót utaljon át egy magyar beszállító számlájára, vállalati vezetőként hivatkozva. A brit cég vezetője trükkre gyanította, amikor "főnöke" második pénzrendelést kért, de a hívás egy osztrák számról érkezett. Addigra az első részletet már átutalták egy magyarországi számlára, ahonnan a pénzt kivitték Mexikóba.

Kiderül, hogy a jelenlegi technológiák lehetővé teszik egy hamis hírekkel töltött egyedi hírkép létrehozását. Sőt, hamarosan csak hardverrel lehet megkülönböztetni a hamisításokat a valódi videótól és audiótól. A szakértők szerint az idegi hálózatok kialakulását tiltó intézkedések valószínűleg nem lesznek hatékonyak. Ezért hamarosan egy olyan világban élünk, amelyben mindent folyamatosan ellenőrizni kell.

„Fel kell készülnünk erre, és elfogadnunk kell azt” - hangsúlyozta Jurij Vilsiter. - Az emberiség nem először lép át az egyik valóságtól a másikig. Világunk, életmódunk és értékeink radikálisan különböznek attól a világtól, amelyben őseink 60 000 évvel ezelőtt, 5000 évvel ezelőtt, 2000 évvel ezelőtt és még 200-100 évvel ezelőtt is éltek. A közeljövőben egy személyt nagymértékben megfosztják a magánéletétől, ezért arra kényszerülnek, hogy semmit ne rejtsen el, és őszintén járjon el. Ugyanakkor a környező valóságban és a személyiségében semmi nem vehető fel a hitre, mindent meg kell kérdőjelezni és folyamatosan ellenőrizni. De vajon szörnyű lesz-e ez a jövőbeli valóság? Nem. Egyszerűen teljesen más lesz.

Anna Urmantseva

Ajánlott: