Mesterséges Intelligencia: Veszélyes Ellenség Vagy Kedves Segítő - Alternatív Nézet

Mesterséges Intelligencia: Veszélyes Ellenség Vagy Kedves Segítő - Alternatív Nézet
Mesterséges Intelligencia: Veszélyes Ellenség Vagy Kedves Segítő - Alternatív Nézet

Videó: Mesterséges Intelligencia: Veszélyes Ellenség Vagy Kedves Segítő - Alternatív Nézet

Videó: Mesterséges Intelligencia: Veszélyes Ellenség Vagy Kedves Segítő - Alternatív Nézet
Videó: Интеллигенция / Солженицын / Производство идеологии – Виталий Куренной 2024, Lehet
Anonim

A mesterséges intelligencia (AI) használata a mindennapi életben gyorsan felgyorsul, ám ez a tendencia egyre inkább aggasztja a szakembereket. A NYU munkatársai óvintézkedést készítettek az I. I felhasználásának kockázatairól. A szerzők nagyrészt etikai és társadalmi kérdésekre, valamint a szabályozás hiányára koncentráltak. Az AI Now csoport jelentése kevés új dolgot mond, ám a világ gyakorlatában egyre inkább felmerül a kérdés a mesterséges gondolkodás korlátozásának szükségességéről.

A technológiai fejlődés szinte minden látnoka beszélt az AI esetleges veszélyeiről. Stephen Hawking tavaly novemberben a technológiai fejlődés gondolataival kapcsolatos fő félelmeit fejezte ki. Véleménye szerint a számítógépek előbb vagy utóbb megtanulják reprodukálni magukat. A biológiai lények valószínűleg elveszítik a szilícium intelligenciáját mind mentális képességeik, mind pedig a környezethez való alkalmazkodás szempontjából, különösen egy másik bolygón. Előbb vagy utóbb az intelligens robotok elavult formának tekinti az embereket, és meg akarnak szabadulni tőlük.

Hawking szavai továbbra is horror történetnek hangzanak, filmekben és könyvekben több tucatszor játszottak, de még azok is, akik az intelligens rendszerek megvalósításán dolgoznak, egyre inkább félnek a jövőtől az AI-vel, bár vannak olyanok, akik ilyen félelmeket korainak tartanak. "Az AI fejlõdésének félése ma olyan, mint a Mars túlnépesedése." - mondta Andrew Ng, a Google Brain vezetõje. De nem nyugtatta meg mindenkit.

Image
Image

A számítógép minden életterületbe történő bevezetésével járó legnagyobb fóbiák közül három érdemes megjegyezni. Először: a számítógépes gondolkodást háborús fegyverként fogják használni, amely jelentősen meghaladja még a pusztító erejű nukleáris fegyvereket is. A második az, hogy az AI rabszolgává teszi az embereket. Harmadszor, mint minden emberi teremtés, a számítógép hibára hajlamos. Mindhárom pont részletesebben tárgyalható.

2017. augusztus 21-én a mesterséges intelligencia kutatásának és megvalósításának vezető szakértői, beleértve a SpaceX és a Deep Mind társaságok vezetőit, nyílt levelet küldtek az ENSZ-nek. A szövegben figyelmeztették a világközösséget a halálos autonóm fegyverek kifejlesztése ellen, legyen az robot vagy más, az ellenség megölésére szolgáló mechanizmus. A dokumentum szerzői felhívták a figyelmet az ilyen fegyverek használatának végzetes következményeire. Fenomenális hatékonyságával méltányos megkérdezni, hogy kinek a kezébe kerül. Ezt az elit és a terroristák szűk köre is felhasználhatja.

A levél szerzői felszólították az ellenőrző szervezetet és vele együtt a tudományos közösséget, hogy ismertessék az AI káros felhasználásának terjedelmét. Az embernek a saját alkotásáért való felelõssége komoly munkát kötelez rá, hogy elkerülje a kockázatokat. A törvények mellett alkotóiknak korlátozniuk kell a robotok hatalmát is, akiknek rejtélyt kell hozniuk arra, hogyan szélsőséges esetekben kapcsolják ki a gépeket.

Image
Image

Promóciós videó:

Az elektronikus rendszerek politikai visszaélését a közösségi hálózatok és az adatelemzési algoritmusok munkája már bebizonyította. Ez év tavaszán a Cambridge Analytica botránya mennydörgött a világon. Szakemberei mélyrehatóan elemezték a felhasználói adatokat, és hirdetéseket tettek a Facebookon, mindenkinek egyénileg igazítva.

A cég alkalmazottai nemcsak átlépték az etikai keretet, hanem modern technológiákat is alkalmaztak, amelyek munkáját lehetetlen volt elemezni. A gépi tanulás hatékonysága megismétlődő téma a vezető matematikusok körében. Egyhangúan elismerik, hogy csodálkoznak a számítógépes programok rendkívüli sikeréről, ám teljesen képtelenek megérteni egy összetett rendszer munkáját. Mianmarban, ez év áprilisában a Facebook hozzászólásai is zavart okoztak a tömegek körében, ám az Egyesült Államokatól eltérően, ahol tiltakoztak, ázsiai államban mészárlás történt, amely több száz embert ölt meg. Nagyon sok ember manipulálása valóság, és a robotok itt kegyetlen viccet játszhatnak velünk.

Image
Image

Érdemes emlékezni arra a Facebookra, ahol elindítottuk az AI-alapú chatbotokat. A virtuális asszisztenseket kiképzték a párbeszéd folytatására a beszélgetőpartnerrel. Idővel a robotok megkülönböztethetetlenné váltak a valódi emberektől, majd a szerzők úgy döntöttek, hogy összehozzák a robotokat. Az idő múlásával a botok lerövidítették a lexikai struktúrákat és cserélték az érzelmeket. A média szenzációt fújt fel a hírből, azt mondták, hogy "a gépek lázadtak". De eltekintve az újságírók eltúlzásától, el kell ismernünk, hogy abban az esetben, ha a gépek kommunikálni kezdenek egymással, az ember ezt esetleg nem veszi észre. És hogy fognak ott élni a saját életüket - senki sem tudja.

A számítógépes gondolkodásmód egyre összetettebb felépítése minden nap elmozdítja a munkánk elveinek megértését. De bár a legtöbb algoritmus elvégzi a munkáját, a bonyolult gépek még ma is ideálisak és hibákat követnek el. Az AI továbbfejlesztése érdekében fontos megérteni nem annyira az erősségeit, mint a sebezhetőségét. Erre összpontosít számos tudományos csoport, amelyek egyikében egy MIT Anish atali szakember működik. Pár napja elmondta az újságíróknak a képfelismerő rendszerek leggyakoribb hibáiról.

Kollégái demonstráltak tárgyakat a géphez, és megállapították, hogy az egyes látványokat gyakran tévesen érzékelik az elektronikus látás. A számítógép hívhatott egy baseball-ot egy csésze kávét, és egy 3D-ben nyomtatott teknős egy hadsereggépet. A csoport már mintegy 200 elemet gyűjtött, amelyek félrevezető algoritmusok.

Image
Image

A mesterséges intelligencia az objektum egészének érzékelése helyett az egyedi paraméterekre koncentrál. Az AI hajlamos egy „tökéletes” mintából tanulni. Nem megfelelő jelenségekkel szembesülve nem mindig hagyhatja el a szokásos feldolgozási folyamatot. Ahelyett, hogy elismerte képtelenségét feldolgozni a képet, továbbra is megpróbálja olvasni a képet, és ez néha vicces eredményekhez vezet. A teknős alakja helyett az elektronikus agy megpróbálta leolvasni annak textúráját, hasonlóan az álcázáshoz. Nagyjából ugyanazon ok miatt az elektronikus autopilotok még nem 100% -ban megbízhatók. Az autónak nehéz látni a sziluettjét, és feltételezni, hogy különálló elemekből áll.

És ha az elkövetkező években néhány hiányosság kiküszöbölhető, akkor nincs garancia arra, hogy a hackerek nem használják ki a sebezhetőséget. Az elektronikus eszközök hackerei ma a félelem szinte fő oka. A programozók egy kis csapata nemcsak hozzáférhet a személyes információkhoz, hanem újrakonfigurálhatja az autonóm rendszereket, és átveheti az óriási hatalom eszközeinek irányítását. És akkor mindannyian bajban vagyunk. De a fő következtetés, amelyet le lehet vonni, valószínűleg a hagyományos következtetés: ne félj autótól, hanem emberektől.

Alexander Lavrenov