Hogyan Lehet Becsapni A Mesterséges Intelligencia Algoritmust, és Mi Ez? Alternatív Nézet

Hogyan Lehet Becsapni A Mesterséges Intelligencia Algoritmust, és Mi Ez? Alternatív Nézet
Hogyan Lehet Becsapni A Mesterséges Intelligencia Algoritmust, és Mi Ez? Alternatív Nézet

Videó: Hogyan Lehet Becsapni A Mesterséges Intelligencia Algoritmust, és Mi Ez? Alternatív Nézet

Videó: Hogyan Lehet Becsapni A Mesterséges Intelligencia Algoritmust, és Mi Ez? Alternatív Nézet
Videó: A mesterséges intelligencia tudatára ébred - Dienes István, Jakab István 2024, Szeptember
Anonim

Az ablakon kívül 2022 van. Önálló járművet vezet, mint általában, a városon keresztül. Az autó megközelíti a stoptáblát, amelyről sokszor elhaladt, de ezúttal nem áll meg előtte. Neked ez a stop jel olyan, mint a többiek. De egy autó esetében ez teljesen más. Néhány perccel korábban, senki figyelmeztetése nélkül, a támadó egy kis táblát ragasztott a táblára, amely az emberi szem számára láthatatlan, de amelyet a technológia nem tud észrevenni. Vagyis egy apró matrica a táblán a stoptáblát teljesen különböztette a stoptáblától.

Mindez hihetetlennek tűnhet. De egyre növekvő kutatási terület bizonyítja, hogy a mesterséges intelligencia becsapható valamire, ha olyan apró részletet lát el, amely az emberek számára teljesen láthatatlan. Mivel a gépi tanulási algoritmusok egyre inkább megjelennek utakon, pénzügyeinkben, egészségügyi rendszerünkben és a számítógépes tudósok abban reménykednek, hogy többet megtudnak arról, hogyan lehet megvédeni őket az ilyen támadásoktól - még mielőtt valaki megpróbálja becsapni őket.

Image
Image

"Ez egyre növekvő aggodalomra ad okot a gépi tanulás és az AI közösségben, különösen, mivel ezeket az algoritmusokat egyre inkább használják" - mondja Daniel Lode, az Oregon Egyetem Számítástechnikai és Informatikai Tanszékének docens. „Ha a spam több e-mailen keresztül átjut, vagy azt blokkolja, akkor ez nem a világ vége. De ha támaszkodik egy önálló autóban lévő látásrendszerre, amely megmondja az autónak, hogyan kell vezetni anélkül, hogy bármi is beleütközne, a tét sokkal magasabb."

Függetlenül attól, hogy a gép összeomlik, vagy feltörik, a gépi tanulási algoritmusok, amelyek "látják" a világot, szenvednek. Tehát az autóhoz a panda gibbonként néz ki, az iskolabusz pedig struccként néz ki.

Az egyik kísérletben a francia és a svájci tudósok megmutatták, hogy az ilyen zavarok miatt a számítógép hibája lehet egy mókusnak egy szürke róka és egy kávéskanna számára egy papagájért.

Hogyan lehetséges ez? Gondoljon arra, hogy gyermeke hogyan tanulja felismerni a számokat. A szimbólumokat egyenként megnézve a gyerek észreveszi néhány általános tulajdonságot: néhány magasabb és karcsúbb, a hatodik és a kilenc egy nagy hurkot tartalmaz, a nyolc pedig kettőt tartalmaz, és így tovább. Ha elegendő példát találnak, akkor gyorsan felismerik az új számokat négyesnek, nyolcnak vagy hármasnak - még akkor is, ha a betűkészletnek vagy a kézírásnak köszönhetően nem néznek ki pontosan úgy, mint bármilyen más négynégy, nyolc vagy háromszorosuk, amelyek valaha is vannak. korábban láttam.

A gépi tanulási algoritmusok megtanulják olvasni a világot valamivel hasonló folyamaton keresztül. A tudósok száz vagy ezer (általában címkézett) példát táplálnak a számítógépre arról, hogy mit szeretnének megtalálni a számítógépen. Amikor a gép átvágja az adatokat - ez egy szám, ez nem, ez egy szám, ez nem -, akkor észreveszi a válaszhoz vezető tulajdonságokat. Hamarosan megnézheti a képet és azt mondhatja: "Ez öt!" nagy pontossággal.

Promóciós videó:

Így mind az emberi gyermekek, mind a számítógépek megtanulhatják felismerni a tárgyak széles skáláját, számoktól macskáig, hajóktól az egyes emberi arcokig.

De az emberi gyermektől eltérően, a számítógép nem figyel a magas szintű részletekre - például a macskák szőrös füleire vagy a négy különös szög alakjára. Nem látja a teljes képet.

Ehelyett a kép egyes képpontjait nézi - és az objektumok elválasztásának leggyorsabb módját. Ha az egységek túlnyomó többségénél van egy fekete pixel egy bizonyos ponton, és néhány fehér pixel egy másik ponton, akkor a gép nagyon gyorsan megtanulja meghatározni őket néhány pixel alapján.

Most vissza a stop jelhez. A képen megjelenő képpontok észrevehetetlenül kijavításával - a szakértők ezt az interferenciát "zavargásoknak" hívják - becsaphatja a számítógépet arra, hogy azt gondolja, hogy nincs stop jel.

Image
Image

A Wyomingi Egyetem és a Cornell Egyetem Evolúciós Mesterséges Intelligencia Laboratóriumának hasonló tanulmányai nagyon sok optikai illúziót hoztak létre a mesterséges intelligencia számára. Ezek az absztrakt minták és színek pszichedelikus képei semmihez sem hasonlítanak az embereknél, de a számítógép gyorsan kígyóknak vagy puskáknak ismeri fel őket. Ez azt sugallja, hogy az AI miként nézhet valamit, és nem láthatja az objektumot, vagy láthat más helyett.

Ez a gyengeség általános a gépi tanulási algoritmusok minden típusában. "Azt várhatnánk, hogy minden algoritmusnak legyen lyuk a páncélban" - mondja Evgeny Vorobeichik, a Vanderbilti Egyetem számítástechnika és számítástechnika adjunktusa. "Nagyon összetett többdimenziós világban élünk, és az algoritmusok természetüknél fogva csak egy kis részét érintik."

Veréb "rendkívül magabiztos" abban, hogy ha ezek a sebezhetőségek léteznek, akkor valaki kitalálja, hogyan lehet azokat kihasználni. Valószínűleg valaki már megtette ezt.

Fontolja meg a spamszűrőket, az automatikus programokat, amelyek kiszűrik a kínos e-maileket. A spamküldők megpróbálhatják megkerülni ezt a akadályt a szavak helyesírásának megváltoztatásával (a Viagra - vi @ gra helyett) vagy a "jó szavak" listájának hozzáadásával, amelyek általában normál betűkkel találhatók: például "aha", "én", "örülök". Időközben a spamküldők megpróbálhatják eltávolítani a gyakran spamben megjelenő szavakat, például a „mobil” vagy a „győzelem”.

Hol lehet a csalók egy napra eljutni? A stop jelzőtáblával megtévesztett önhajtó autó klasszikus forgatókönyv, amelyet a terület szakértői gondoltak fel. A kiegészítő adatok segítségével a pornográfia átjuthat a biztonságos szűrőkön. Mások megpróbálhatják növelni az ellenőrzések számát. A hackerek megváltoztathatják a rosszindulatú szoftverek kódját, hogy megkerüljék a bűnüldözést.

A támadók kitalálhatják, hogyan lehet elkészíteni a hiányzó adatokat, ha megkapnak egy másolatot egy gépi tanulási algoritmusból, amelyet becsapni akarnak. De nem feltétlenül kell az algoritmust átjutnia. Az ember egyszerűen megtörheti brutális erővel, ha az e-mailek vagy képek kissé eltérő változatát dobja rá, amíg el nem múlnak. Idővel akár egy teljesen új modellhez is felhasználható, amely tudja, mit keresnek a jó fiúk, és milyen adatokat kell előállítania, hogy becsapja őket.

"Az emberek már az első bevezetésük óta manipulálják a gépi tanulási rendszereket" - mondja Patrick McDaniel, a Pennsylvaniai Egyetem számítógépes és műszaki professzora. "Ha az emberek ezeket a módszereket használják, akkor valószínűleg nem is tudunk róla."

Ezeket a módszereket nemcsak a csalók használhatják - az emberek elrejtőzhetnek a modern technológiák röntgenképei ellen.

"Ha valamiféle politikai disszidens vagy egy elnyomó rezsim alatt, és eseményeket akar végezni a hírszerző szolgálatok ismerete nélkül, akkor el kell kerülnie a gépi tanuláson alapuló automatikus megfigyelési módszereket" - mondja Lode.

Az egyik októberben közzétett projektben a Carnegie Mellon Egyetem kutatói szemüveget készítettek, amely finoman félrevezetheti az arcfelismerő rendszert, és így a számítógép tévesen hibáztatta Reese Witherspoon színésznőt Russell Croweért. Nevetségesnek tűnik, de egy ilyen technológia hasznos lehet bárki számára, aki el akarja kerülni a hatalom cenzúráját.

Mi köze ennek? "Ennek teljes elkerülése egyetlen módja egy tökéletes modell létrehozása, amely mindig helyes lesz" - mondja Lode. Még ha olyan mesterséges intelligenciát is létrehoznánk, amely mindenképpen felülmúlja az embereket, a világ továbbra is elcsúsztathatja a sertést váratlan helyen.

A gépi tanulási algoritmusokat általában pontosságuk alapján ítélik meg. Egy olyan program, amely az idő 99% -át felismeri, egyértelműen jobb lesz, mint a 10-ből 6 szék felismerése. De egyes szakértők más módszert javasolnak az algoritmus támadásokkal való megbirkózásának felmérésére: minél keményebb, annál jobb.

Egy másik megoldás lehet a szakértők számára a programok ütemének meghatározása. Készítsen saját példákat a támadásokra a laboratóriumban az Ön véleménye szerint a bűnözők képességei alapján, majd mutassa meg őket a gépi tanulási algoritmusnak. Ez segíthet abban, hogy rugalmasabbá váljon az idő múlásával - természetesen azzal a feltétellel, hogy a teszt támadások olyan típusúak, amelyeket a valós világban tesztelnek.

„A gépi tanulási rendszerek eszköze a gondolkodásnak. Intelligensnek és racionálisnak kell lennünk abban, amit adunk nekik, és amit mondnak nekünk”- mondta McDaniel. "Nem szabad úgy kezelnünk őket, mint az igazság tökéletes oraklát."

ILYA KHEL

Ajánlott: