A Massachusetts Institute of Technology (MIT) kutatói kifejlesztettek egy technikát a mesterséges intelligencia (AI) elemző szövegelemzésére.
A kutatók észrevették, hogy egy kifejezésnek az ember számára érthető kis változása megtévesztheti az AI-t. Kidolgoztak egy algoritmust, amely a szavakat szinonimákkal helyettesíti, és az AI felismerő szövegét becsapja. Az árnyalat az, hogy maga a támadó algoritmus AI-t használja a szinonimák kiválasztására.
Példaként említjük a "A karakterek, amelyek lehetetlenen elképzelhető helyzetekben vetődnek fel, teljesen elidegenednek a valóságtól." ("A hihetetlenül elképzelhető helyzetekben szereplő karakterek teljesen nincsenek kapcsolatban a valósággal"), ami a film negatív áttekintése.
Ha a benne szereplő szavakat szinonimákkal helyettesítjük, akkor az „A karakter, amelyet lehetetlenen megtervezett körülmények között öltöztetünk, teljesen elidegenedett a valóságtól” („A hihetetlenül ügyes körülmények között szereplő karakterek teljesen elválnak a valóságtól”), akkor az AI a beszámolót pozitívnak tekinti.
Más típusú AI-rendszerek is megtéveszthetők; ebben az esetben a sebezhetőségeket elsősorban a kép- és beszédfelismerő rendszerekben mutatták be.
A kutatók megjegyezték, hogy az ilyen finom adatok torzulása megtévesztheti az AI-t, és felhasználható a rendszerek támadására, ami akkor válik fontossá, amikor az AI elterjed a pénzügyek, az egészségügy és más területeken.