A Halál Elkerülése érdekében Az Emberiségnek Bezárnia Kell A Mesterséges Intelligenciát. Alternatív Nézet

Tartalomjegyzék:

A Halál Elkerülése érdekében Az Emberiségnek Bezárnia Kell A Mesterséges Intelligenciát. Alternatív Nézet
A Halál Elkerülése érdekében Az Emberiségnek Bezárnia Kell A Mesterséges Intelligenciát. Alternatív Nézet

Videó: A Halál Elkerülése érdekében Az Emberiségnek Bezárnia Kell A Mesterséges Intelligenciát. Alternatív Nézet

Videó: A Halál Elkerülése érdekében Az Emberiségnek Bezárnia Kell A Mesterséges Intelligenciát. Alternatív Nézet
Videó: A mesterséges intelligencia tudatára ébred - Dienes István, Jakab István 2024, Lehet
Anonim

A szuper intelligens számítógépek vagy robotok, amelyek veszélyeztetik az emberiséget, a tudományos fantasztikus kedvenc tárgya. A valóságban a tudósok szerint egy ilyen végzetes nap forgatókönyve csak virtuális "börtön" létrehozásával akadályozható meg, amely a mesterséges intelligenciát (AI) tartalmazza. És ezt meg kell tenni, mielőtt megtanulja megismerni és fejleszteni magát.

Ha kibocsájtja ezt a gént a palackból, akkor a problémáinkat megoldó orakluszból apokaliptikus fenyegetéssé válhat - mondja Roman Yampolsky, a Kentucky-i Louisville Egyetem tudósa, aki a számítógépes tudomány területén dolgozik. Az AI visszatartásának körülményeit gondosan kell megtervezni, hogy az ne fenyegetések, megvesztegetés, kísértés vagy számítógépes feltörések révén szabaduljon meg.

"Számos módszert találhat befolyásolására, összetett társadalmi-műszaki kombináció becsavarására és a meglévő hardverkomponensek felhasználására olyan célokra, amelyeket még el sem tudunk képzelni" - hiszi Yampolsky. - Az ilyen szoftvereknek korlátlan lehetősége van a számítógépek és hálózatok fertőzésére. Megtudhatom, hogyan lehet befolyásolni az emberi pszichét, megvesztegetni vagy zsarolni az ezzel kapcsolatban álló embereket."

A tudományos kutatás új területének megjelenése, amely foglalkozik a mesterséges intelligencia "börtönének" létrehozásával, további előnyökkel jár. Ezek a tanulmányok nagyon hasznosak a számítógépes biztonság és a kriptográfia javításában, biztos Yampolsky. Javaslatait a Journal of Consciousness Studies tudományos folyóiratának márciusi kiadásában részletezték.

Hogyan állítsunk be csapdát a Skynethez

Először is beillesztheti a mesterséges intelligenciát egy "virtuális gépbe". Hagyja, hogy egy normál operációs rendszerben működjön - ha korlátozza az AI hozzáférését a gazdagép számítógépéhez és hardveréhez, ez sokkal ártalmatlanabbá válik. Mindenesetre az intelligens AI nem fog titkos üzeneteket küldeni emberi támogatói számára, legyőzve a Morse kódot hűtőventilátorokkal.

A mesterséges intelligencia internetes hozzáférés nélküli számítógépbe helyezése jó módja annak, hogy megakadályozzuk az AI alattomos terveit, hogy megvédjük a Földet tőled és tőlem. Bármely más hiba esetén a kutatók mindig lelassíthatják az AI-gondolkodási folyamatot a számítógép feldolgozási sebességének lelassításával, a „reset” gomb rendszeres megnyomásával vagy az AI tápellátásának leválasztásával.

Promóciós videó:

Ezeket a biztonsági intézkedéseket a rendkívül intelligens és veszélyes számítógépes vírusok kezelésére tervezték, ám bárki kitalálja, mennyire hatékonyak valójában ezek.

A Catch-22 (J. Heller amerikai író regénye; kb. Mixednews) az, hogy nem folytathatjuk elképzeléseink teljes körű tesztelését, amíg az AI fejlesztése be nem fejeződik. De ahhoz, hogy az AI biztonságos legyen, a megfelelő intézkedések sorozatát kell kidolgozni - mondja Yampolsky. "A legjobb megoldás az, ha korlátozásokat vezet be az AI rendszerek használatára, majd szükség szerint megváltoztatja ezeket a korlátozásokat az AI növekvő képességeivel összhangban."

Image
Image

Roman Yampolsky tudós javasolta a "@" jel vagy más olyan jelek használatát, amelyeket ma használnak a sugárzás vagy biológiai veszély jelölésére, hogy jelezzék a mesterséges intelligenciával kapcsolatos veszély jelenlétét.

Soha ne tegyen emberi védőt a járműre

A biztonsági őrrel látszólag ártatlan beszélgetés során semmi sem akadályozza meg az AI-t abban, hogy pszichológiai technikákat, például barátságot vagy zsarolást használjon. Az ember megvesztegethető, ha megígéri neki, hogy tökéletes egészséget, halhatatlanságot jelent, vagy akár ígéretet ad hozzá, hogy visszatér rokonai és barátai a másik világból. Vagy bármit is elérhet fenyegetésekkel.

Az AI-vel való kommunikáció legbiztosabb módja az, hogy egy adott tudományos vagy műszaki probléma megoldásakor válasszon választ a rendelkezésre álló számos lehetőség közül - magyarázza Yampolsky. Ez elősegíti, hogy a szuper-okos orákulum rövid pórázon maradjon.

Sok kutató úgy véli, hogy az összes óvintézkedés ellenére az AI smartass határozatlan ideig bezárva tartása nem fog mûködni. Eliezer Yudkowsky, a Singularity Institute kutatójának legutóbbi kísérlete a mesterséges intelligencia létrehozására kimutatta, hogy még az emberi szintű intelligencia is megtéveszthet egy személyt, és "elkerülheti" a börtönöket.

Ennek ellenére Yampolsky ragaszkodik az AI szigorú elszigeteltségéhez - ez még mindig jobb, mint feladni és teljes szabadságot adni neki. De ha az AI fejlődése eléri azt a pontot, ahol manipulálhat egy személyt a tudatalatti (előrejelző jövő), telepátia vagy telekinézis segítségével, a következmények kiszámíthatatlanok lesznek.

"Ha egy ilyen AI önfejlődik és elér egy olyan szintet, amely jelentősen meghaladja az emberi intelligencia képességeit, akkor a következményeket sem lehet elképzelni" - figyelmezteti Yampolsky.

Ajánlott: