Megvédi A „Három Robotika Törvény”? - Alternatív Nézet

Tartalomjegyzék:

Megvédi A „Három Robotika Törvény”? - Alternatív Nézet
Megvédi A „Három Robotika Törvény”? - Alternatív Nézet

Videó: Megvédi A „Három Robotika Törvény”? - Alternatív Nézet

Videó: Megvédi A „Három Robotika Törvény”? - Alternatív Nézet
Videó: 5 REJTÉLYES FOCI JELENET AMIKET KAMERÁRA VETTEK 2024, Április
Anonim

50 év telt el azóta, hogy Isaac Asimov előállt a híres robotika három törvényével - olyan szabályrendszerrel, amelyet minden önbecsületes robotnak be kell tartania. Bár eredetileg csak irodalmi eszköz volt, a három törvény vált a robotokalipszis elkerülésének eredeti receptjévé. Szerencsére vannak olyan szakértők, akik azt akarják tudni, vajon az Azimov garanciái megfelelnek-e az idő próbájának. Sajnos mind azt mondják, hogy nem.

Először is, emlékezzünk vissza ugyanazon három törvényre:

A robot nem árthat személynek, vagy tétlensége révén nem engedheti meg, hogy valaki sérüljön.

A robotnak be kell tartania minden ember utasítását, kivéve, ha ezek a parancsok ellentétesek az Első Törvénnyel.

A robotnak oly módon kell vigyáznia biztonságára, hogy az nem ellentmond az első és a második törvénynek.

Később Azimov hozzáadott egy negyedik, vagy nulla törvényt, amely a többit megelőzte prioritás szempontjából:

Promóciós videó:

0. A robot nem árthat az embernek, csak ha bizonyítani tudja, hogy végül az egész emberiség számára hasznos lesz.

Image
Image

Asimov fantasy univerzumában szinte minden robotnak követnie kellett ezeket a törvényeket. Ezek nem csupán javaslatok vagy iránymutatások voltak - a törvények beépültek a szoftverbe. Ezen túlmenően ezeket a szabályokat nem lehet megkerülni, átírni vagy felülvizsgálni.

Amint maga Asimov megmutatta, ezeknek a törvényeknek a hiányosságai, kiskapuk és kétértelműségei gyakran a robotok furcsa és logikátlan viselkedéséhez vezettek. A törvények túl homályosak voltak, és gyakran nem voltak képesek meghatározni és megkülönböztetni az "embereket" a "robotoktól". Ezenkívül a robotok tudatlanul megsérthetik a törvényeket, ha nem álltak rendelkezésére teljes információk. Ezenkívül egy túl ravasz robotra vagy mesterséges intelligenciára nyomást kellett gyakorolni, hogy ne programozza a magját.

Az év 2014 és a sok mindennapi életünkből a múlt század fantáziáiban egyértelműnek tűnhet. Sokan úgy gondolták, hogy Asimov törvényeinek irodalmi eszközként kellett volna maradniuk. De maga Azimov 1981-ben megjegyezte, hogy törvényei működhetnek. A számítás! a következőket jelezte:

„Amikor valaki megkérdezi tőlem, hogy milyen lenne, ha a robotika három törvényét ténylegesen a robotok viselkedésének meghatározására használnám, a válasz kész. Természetesen azzal a feltétellel, hogy a robotok rugalmasak és sokoldalúak ahhoz, hogy eltérő viselkedést mutatjanak. A válaszom igen, a három törvény az egyetlen módja annak, hogy az emberek kölcsönhatásba lépjenek a robotokkal - vagy bármi mással.

Majdnem harminc évvel később közelebb kerültünk egy olyan valósághoz, amelyben robotok - vagy pontosabban az őket irányító mesterséges intelligencia - lesznek rugalmasak és sokoldalúak a viselkedés különböző irányaihoz. Csak idő kérdése: mikor a gép minden tekintetben meghaladja az embert, a fizikai erőtől a képzelet erejéig.

Ijesztő az, hogy gyakorlatilag nincs hibahatár. Ha a mesterséges szuper intelligencia rosszul programozva vagy közömbös az emberek számára, katasztrófához vezet. Gondoskodnunk kell arról, hogy a mesterséges intelligencia biztonságos legyen, ha túl akarjuk élni a megjelenését."

Válaszolj a kérdésre: "Az Azimov három törvénye segíthet-e?" Két mesterséges intelligencia elmélet vette át: Ben Herzel (Aidyia Holdings) és Louis Helm, a Gépi Intelligencia Kutatóintézet (MIRI) igazgatóhelyettese és a Rockstar Research magazin ügyvezetõ szerkesztõje. Miután velük beszéltünk, világossá vált, hogy Asimov törvényei általában nem tudnak megbirkózni a rájuk ruházott feladattal, és ha biztonságos AI-t kell létrehoznunk, akkor valami teljesen mást kell kidolgoznunk.

Asim jövője?

Image
Image

A beszélgetés Herzel-kel és Helm-rel azzal kezdődött, hogy Asimov nem hibázott, előre jelezve a jövőt, és hol tévedett.

"Úgy gondolom, hogy az Asimov által elképzelt robotok a nem túl távoli jövőben is lehetségesek lesznek" - válaszolja Herzel. - A legtöbb kitalált világában azonban az író azt feltételezte, hogy a humanoid robotok a robotika és a mesterséges intelligencia mérnöki csúcsa lesznek. Ez nem valószínű. Nagyon hamarosan, miután elérték az Azimov robotok státusát, elérhető lesz a mesterséges intelligencia és a szuper robotok létrehozása."

Így az Asimov robotokról szóló történetében a jövő tipikus jövője Herzel szerint hasonló lesz ahhoz, amelyben ma élünk, de az utcán járó intelligens robotokkal.

"Valószínűtlen, hogy ez megtörténik, és ha igen, akkor nem lesz sokáig."

Helm számára a robotok teljesen különböznek egymástól.

„A fő kérdés, amely véleményem szerint az emberiség számára a legfontosabb, nem a hatalmas számú félig intelligens humanoidok erkölcsi szabályozása, hanem végül a mesterséges intelligencia fejlett formáinak fejlesztése (bármely testben). A szuper intelligencia e fejlődése olyan szűrő, amelyet az emberiségnek végül át kell mennie. Ezért olyan fontos az átmenet biztonsági stratégiájának kidolgozása. Teljesen furcsanak tűnik számomra, hogy a robotok, androidok vagy "emulációk" tíz évig vagy még egy kicsit léteznek, amíg az emberiség nem néz szembe a szuperintelligencia gépek etikájának kidolgozásának valódi problémájával."

Jó indulás?

Image
Image

Tekintettel arra, hogy a robotizáció három Asimov-törvénye volt az első őszinte kísérlet egy nagyon komoly probléma - a mesterséges szuperintellenes gépek biztonságos viselkedésének - megoldására, érdemes megkeresni azokat a pillanatokat, amelyekben a törvények továbbra is hatékonyak lehetnek (vagy legalábbis inspirálóak).

"Őszintén szólva, nem találok inspirációt a robotika e három törvényében" - mondja Helm. - A gép-etika lényege, hogy nem felelnek meg a gép-etika alapjának. Talán a robotika három törvénye széles körben ismert, de valójában haszontalan ezek felhasználása a programozás alapjául.

„A jó etika rendszere valamilyen oknál fogva - deontológia néven - az etika megbízhatatlan alapjává vált. Számos filozófus próbál megoldást találni a deontológia problémáira, ám ezek nagyrészt ugyanazok az emberek, akik „intelligens tervezést” és „isteni beavatkozást” keresnek. Senki sem veszi őket komolyan."

Az Asimov robotika három törvényének hátrányai a következőkre vonatkoznak:

Ellentétes jellegű

Elavult etikai elmélet (deontológia) alapján

Még a fikcióban sem dolgozhat

Herzel egyetért:

„A három törvény célja az volt, hogy érdekes módon megsértsék őket; ezért a történetük különösen szórakoztató. Ezért a három törvény csak erkölcsi példa lehet arra, hogyan kell meg nem tenni. Ha alapként vesszük őket, akkor elkerülhetetlenül hiányosságok vannak benne.

Herzel úgy véli, hogy a valóságban ezek a törvények nem fognak működni, mivel a részvételükkel kapcsolatos feltételek nem egyértelműek és értelmezés tárgyát képezik - ami azt jelenti, hogy rendkívül függnek azoktól, akik a fordítást készítik.

Előítélet a robotok ellen?

A Három Törvény egy másik aspektusa (és potenciális hibája) a nyilvánvaló sovinizmusban az a feltevés, hogy a robotoknak - kivételes erejük ellenére - továbbra is az embereknek, az emberi igényeknek és prioritásoknak alávetve kell maradniuk.

Az Azimov jövőbeli társadalma teljes egészében šovinistákból áll: az embereknek sokkal több joga van, mint a robotoknak. A robotika három törvényét úgy alakították ki, hogy éppen ilyen társadalmi rendet tartsanak fenn."

Image
Image

Helm kissé eltérően nézi ezt a problémát, azzal érvelve, hogy ha ilyen helyzetbe kerülünk, önmagában ez bizonyíték arra, hogy túl messzire mentünk.

„Szerintem nem lenne bölcs dolog mesterséges intelligencia rendszert vagy öntudatos robotot megtervezni. És ellentétben a filmekkel vagy könyvekkel, amelyekben a mesterséges intelligencia alkotói "véletlenül" érkeznek intelligens gépekhez, nem hiszem, hogy ez megtörténhet a valós életben. Ez túl sok erőfeszítést és tudást igényel. És a legtöbb AI-tervező etikusan hozzáértő ember, tehát kerülni fogják a filozófusok „erkölcsi szempontból jelentős lényeknek” nevezett létrehozását. Különösen akkor, ha könnyen elkészíthetnek egy fejlett gépet, amely nem rendelkezik etikai vonásokkal."

Helm aggódik amiatt, hogy aszimmetrikus törvényeket kell kidolgozni a robotok emberre gyakorolt értékének szabályozására, azzal érvelve (és remélve), hogy a jövőbeni mesterséges intelligencia alkotói bizonyos etikai korlátokra támaszkodnak.

„Úgy gondolom, hogy az emberek atomokból készülnek, tehát elméletileg egy mérnök létrehozhat egy szintetikus életformát vagy egy erkölcsi jelentéssel bíró robotot. Szeretném azt gondolni, hogy ezt senki sem fogja megtenni. Azt hiszem, a legtöbb ember is így van. De elkerülhetetlenül lesz olyan bolond, aki úttörővé akar lenni, még akkor is, ha etikátlan és hülye."

A robotika 2.0 három törvénye?

Tekintettel Asimov három robotika törvényének nyilvánvaló hiányosságaira, az io9 erőforrás feltette a kérdést: javíthatók vagy javíthatók? Valójában sok tudományos fantasztikus író sokszor megpróbálta ezt, az évek során megváltoztatva.

- Nem - mondja Helm. "A három törvénynek nincs javítása."

A törvények ellentmondásos természetük mellett kontradiktórius jellegűek is.

"Azok a gép-etikai megközelítések támogatói vagyok, amelyek kooperatívabbak, következetesebbek és normatívabbak, ami azt jelenti, hogy helyreállhatnak a félreértésekből vagy a helytelen programozásból."

Herzel visszhangozza Helm állításait.

Az etikai előírások sorozatának a gép-etika alapvető meghatározása reménytelen lesz, ha a gép rugalmas általános mesterséges intelligencián alapul. Ha intuitív, rugalmas, adaptív vagy etikus koncepciónak tekintik - ebben az összefüggésben az etikai előírások csak akkor lesznek hasznosak a rendszer számára, mint durva útmutatás a saját etikai intuíciójának alkalmazásához. De ebben az esetben a parancsolatok nem az etikai rendszer alapjává válnak, hanem csak egy szempontból. Ez emberi példákban is megfigyelhető - az általunk vizsgált etikai alapelvek működnek, de nem iránymutatásként, hanem csak az intuíciónkat és az etikai ösztönöket ösztönzik. Gyakorlatilag függetlenek vagyunk az etikai alapelvektől."

Hogyan hozzunk létre biztonságos mesterséges intelligenciát?

Mivel a jogi megközelítés nem megfelelő, kérdezheti Gertzel-től és Helm-től a „biztonságos AI” problémájának modern megközelítéseiről.

"Nagyon kevés az általános mesterséges intelligencia kutatója úgy véli, hogy teljesen biztonságos rendszert lehet létrehozni" - mondja Herzel. "De ez nem zavarja a többséget, mivel semmi sem garantálható ebben az életben."

Herzel úgy véli, hogy ha egyszer létrehozunk egy általános mesterséges intelligencia rendszert vagy annak embrióját, akkor kutatásokat és kísérleteket végezhetünk, amelyek sokkal többet mondnak az AI etikájáról, mint tudjuk.

„Remélhetőleg így tudunk olyan jó elméleteket megfogalmazni a mesterséges intelligencia etikájáról, amelyek lehetővé teszik, hogy mélyebben belemerüljünk ebbe a témába. Most azonban meglehetősen nehéz elméletezni az AI etikájáról, mivel nincs csupán jó elméletünk, egyáltalán nincs elméletünk."

„És azoknak az embereknek, akik túl sok terminatort figyeltek, a mesterséges intelligencia létrehozásának folyamata félelmetesnek tűnhet, mivel ebben az összefüggésben hiányzik a„ primitív”szó. A radikálisabb változások azonban így történtek."

"Amikor az intelligens barlangászok csoportja kitalálta a nyelvet, nem számítottak egy szilárd formális nyelvelmélet kifejlesztésére, amely elősegítheti a nyelv társadalomban való megjelenésének a jövőbeni változásainak előrejelzését."

Mielőtt a következő „három törvény” kidolgozását műszaki problémanak tekintjük, sokat kell kutatnunk. És itt Helm és Herzel egyetértenek.

„MIRI kollégám, Luc Muelhauser az alábbiakban foglalta össze érveléseinket. Azt mondta, hogy a problémák gyakran a filozófiától a matematikáig, majd a mérnöki munkáig terjednek. A filozófiára gyakran felteszik a helyes kérdéseket, de a legpraktikusabb módon. Senki sem tudja biztosan mondani, hogy történt-e előrelépés a probléma megoldásában. Ha az ész, az azonosítás és az érték fontos filozófiai problémáit újrafogalmazhatjuk olyan pontos képletekké, amelyeket a matematikus képes kezelni, akkor valamilyen modellt fel lehet építeni. Egy szép napon eljön a mérnöki munka."

Helm ezt a problémát nehéznek tartja a tudomány és a filozófia szempontjából, de a haladás lehetséges.

Szkeptikus vagyok abban, hogy a filozófia képes lesz megoldani egy problémát, amely több mint 3000 éve küzd. De mi sem fogadhatjuk el és nem kezdhetjük el matematikai modellek készítését olyan kérdésekre, amelyek technikailag nincsenek jelen. Még mindig sok elméleti és akár gyakorlati fejlesztésre van szükségünk."