Hogyan Hozhat Létre Egy Robotot, Amely Meg Akarja Változtatni A Világot? - Alternatív Nézet

Tartalomjegyzék:

Hogyan Hozhat Létre Egy Robotot, Amely Meg Akarja Változtatni A Világot? - Alternatív Nézet
Hogyan Hozhat Létre Egy Robotot, Amely Meg Akarja Változtatni A Világot? - Alternatív Nézet

Videó: Hogyan Hozhat Létre Egy Robotot, Amely Meg Akarja Változtatni A Világot? - Alternatív Nézet

Videó: Hogyan Hozhat Létre Egy Robotot, Amely Meg Akarja Változtatni A Világot? - Alternatív Nézet
Videó: KUKA.Sim 4.0 ENG webinárium a KUKA Nordic cégtől 2024, Szeptember
Anonim

Christoph Solge informatikus megpróbálja kiküszöbölni a robotok viselkedését szabályozó szabályok szükségességét. Stratégiája az, hogy célt tűz ki nekik: erősebbé tenni bennünket. Christophe a New York-i Egyetem játékinnovációs laboratóriumában dolgozik. Sasha Maslov interjút készített a Santa for Quanta Magazine-nak, amelyből megtudhatjuk, hogy nem biztos, hogy érdemes lesz visszafognunk a technológiai szingularitás megállíthatatlan áramlását.

Isaac Asimov híres robotikai három törvénye - amely korlátozza az androidok és az automaták viselkedését az emberiség biztonságának megőrzése érdekében - szintén befejezetlen volt. Ezek a törvények először 1942-ben jelentek meg Asimov történetében, majd olyan klasszikus művekben, mint az "Én, robot", és így hangzottak:

1. A robot nem károsíthatja az embert, vagy tétlenségével nem engedheti meg, hogy kárt okozzanak egy személynek.

2. A robotnak be kell tartania az emberek utasítását, ha azok nem ellentmondanak az első törvénynek.

3. A robotnak védenie kell a létét, ha ez a védelem nem mond ellent az első vagy a második törvénynek.

Természetesen ezekben a törvényekben sok ellentmondás és kiskapu található (amelyeket valójában maga Azimov használt). A gépi tanulással és az önálló robotikával kapcsolatos fejlett szoftverek jelenlegi korában a mesterséges intelligencia vasetikájának meghatározása és megvalósítása sürgető kihívássá vált olyan szervezetek számára, mint a Gépi Intelligencia Kutatóintézet és az OpenAI.

Christoph Salge más megközelítést alkalmazott. Ahelyett, hogy felülről lefelé irányuló filozófiai meghatározásokat szabna ki arra nézve, hogy a mesterséges szerek hogyan viselkedjenek vagy ne viselkedjenek, Salge és munkatársa, Daniel Polani az alulról felfelé vezető utat, vagy „mit kell először tennie a robotnak” kutatják cikkében "A felhatalmazás mint a robotika három törvényének helyettesítése". Az empowerment, a kibernetika és a pszichológia metszéspontjában született fogalom leírja az ügynök belső motivációját, hogy egyszerre ellenálljon és dolgozzon a környezetben. „Szervezetként túl akar élni. Nyomot akar hagyni a világon”- magyarázza Salge. A Roomba porszívója, amely arra van programozva, hogy keressen egy töltőállomást, amikor az elemek lemerültek, az "felhatalmazott" kezdetleges példája: továbbra is működni a világon,díjat kell kapnia, és folytatnia kell saját létét, vagyis túl kell élnie.

A felhatalmazás úgy hangozhat, mint egy recept annak a kimenetelnek, amely a biztonságos mesterséges intelligencia mellett szól, mint Nick Bostrom, fél: egy hatalmas autonóm rendszer, amely csak az önös érdekekkel foglalkozik, és megőrül a folyamat során. De az ember és gép közötti társadalmi interakciókat tanulmányozó Salge azt kérdezi: Mi van akkor, ha egy felhatalmazott ügynök „felhatalmazza a másikat is? A robotnak nemcsak működőképes állapotban kell maradnia, hanem támogatnia kell emberi partnerét is."

Promóciós videó:

Solge és Polanyi rájöttek, hogy az információelmélet lehetőséget kínál arra, hogy ezt a kölcsönös terjeszkedést matematikai keretekké alakítsák egy nem filozofáló mesterséges ágens számára. "A robotika három törvényének egyik hátránya, hogy nyelvalapúak, és a nyelv nagyon félreérthető" - mondja Salge. - Megpróbálunk találni valamit, ami valójában megvalósítható.

Egyes technológusok úgy vélik, hogy az AI jelentős, sőt katasztrofális veszélyt jelent az emberi létre. És te?

Tartózkodni fogok. Tehát valóban hiszem, hogy most már félni kell a robotoktól és az AI növekvő befolyásától. De azt gondolom, hogy rövid távon valószínűleg jobban foglalkoztat az esetleges munkahelyváltás, a döntéshozatali folyamat, a demokrácia elvesztése, a magánélet elvesztése. Nem tudom, mennyire valószínű, hogy egy megállíthatatlan AI hamarosan megjelenik. De még akkor is, ha az AI-nek irányítania kell az egészségügyi rendszert és recepteket kell kiadnia, gondolkodnunk kell a működése során felmerülő etikai kérdésekről.

Hogyan segíthet a felhatalmazás koncepciója abban, hogy kezeljük ezeket a kihívásokat?

Úgy gondolom, hogy a jogok felhatalmazásának gondolata hiánypótló. Nem engedi, hogy az ügynök meghaljon az illetőtől, de miután képes lesz tartani ezt a küszöböt, támogatja azt a szándékot, hogy további lehetőségeket teremtsen az illető számára a világ kifejezésére és befolyásolására. Asimov egyik könyvében a robotok egyszerűen az összes embert biztonságos konténerekbe helyezik. Ez nem lenne kívánatos. Ha a világ befolyásolására való képességünk tovább javul, azt hiszem, sokkal érdekesebb cél lesz elérni.

Videojáték-környezetben tesztelted virtuális ügynöki ötleteidet. Mi történt?

Az ügynök saját kiterjesztett jogai által ösztönözve kitér a lövedék elől, és nem esik a gödörbe, általában elkerüli minden olyan helyzetet, amely mozgásképességének elvesztéséhez, halálához vagy károsodásához vezethet, oly módon, hogy csökkentse működőképességét. Csak kitart.

Egy emberi játékossal együtt, akit szintén megilletnek a fokozott jogok, láttuk, hogy a virtuális robot megtart bizonyos távolságot, hogy ne akadályozza az emberi mozgást. Nem fog elzárni, nem áll a folyosón, hogy ne tudjon elhaladni. A lehető legközelebb marad hozzád, hogy segítsen neked. Ez olyan magatartáshoz vezet, amelyben ő egyaránt kezdeményezhet, és követheti valaki másét.

Például létrehoztunk egy forgatókönyvet, amelyben egy emberre veszélyes, de egy robot számára biztonságos lézeres akadály áll rendelkezésünkre. Ha a játékban résztvevő személy megközelíti a lézereket, a robotnak nagyobb ösztönzése van a lézer blokkolására. Az inger fokozódik, ha egy személy közvetlenül a gát előtt áll, mintha át akarna lépni rajta. És a robot valójában blokkolja a lézert, az ember előtt áll.

Vajon ezek az ügynökök nem szándékosan viselkedtek-e Asimov könyvében szereplő három törvényhez hasonlóan?

Eleinte jó volt a viselkedés. Például egy virtuális robot elfogott ellenfeleket, akik megpróbáltak megölni. Időről időre egy golyó alá ugrott, ha csak így menthetett meg. De ami a kezdetektől fogva különösen meglepett minket, hogy ő is nagyon félt az illetőtől.

Ennek oka "rövidlátó" modelljének köszönhető: valójában azt elemzi, hogy bizonyos cselekedetek két vagy három lépésben végrehajtott sorrendje miként befolyásolhatja a világot, mind neked, mind neki. Ezért az első lépésben programoztuk, hogy a játékos véletlenszerűen cselekszik. De a gyakorlatban ez azt eredményezte, hogy az ügynök egyfajta pszichopataként kezelte az illetőt, aki például bármikor lelőhette az ügynököt. Ezért az ügynöknek nagyon-nagyon körültekintően kellett kiválasztania azt a helyzetet, amelyben az illető nem ölhette meg.

Ezt meg kellett oldanunk, ezért modelleztük az úgynevezett bizalmi feltételezést. Alapvetően a társügynök azon a feltételezésen alapul, hogy a személy csak azokat a cselekedeteket választja, amelyek nem korlátozzák az ügynök kiterjesztett jogait - talán ez alkalmasabb modell a társ számára.

Azt is észrevettük, hogy ha mondjuk 10 egészségpontod lenne a játékban, akkor a társad nem igazán törődött volna azzal, hogy ebből a pontról nyolcat vagy kilencet veszítesz - akár egyszer is lőhet, csak szórakozásból. És akkor rájöttünk, hogy szakadék van a világ, amelyben élünk, és a számítógépes játék modellje között. Amint modelleztük az egészségkárosodás okozta kapacitáskorlátozást, a probléma megszűnt. Megoldható olyan modell létrehozásával is, amely nem volt olyan rövidlátó, amely még pár lépéssel a jövőben kiszámíthatja a cselekvéseket. Ha az ügynök tovább tudna nézni a jövőbe, látná, hogy több egészségügyi pont megléte hasznos lehet a jövőbeli események szempontjából.

Figyelembe véve, hogy az egészségügyi pontok számának megváltoztatása semmilyen módon nem érinti kiterjesztett jogaimat, az ügynök úgy dönt: "Lövöm, nem lövöm - mi a különbség?" És néha lő. Ami természetesen probléma. Nem akarok véletlenszerű lövéseket a játékosokról. Hozzáadtunk egy javítást, hogy a virtuális robot egy kicsit jobban aggódjon az Ön állapota miatt, mint a sajátja.

Hogyan pontosítja ezeket a fogalmakat?

Ha az ügynököket kontrollrendszernek tekintjük, akkor azok információs összetevőkre bonthatók: a világon valami történik, és így vagy úgy érinti Önt. Nem az információkról beszélünk, mint olyan dolgokról, amelyeket észlelsz, hanem bármilyen hatásokról - ezek lehetnek szubsztanciák, valami, amelyek áramlanak a világ és közted. Lehet, hogy hőmérséklet vagy tápanyag van a testében. Bármi, ami átlépi a világ és az ügynök határát, magában hordozza az információt. Ugyanígy az ügynök sokféle módon befolyásolhatja a külvilágot, információkat is kiadva belé.

Ezt az adatfolyamot a csatorna sávszélességének tekintheti, ez az információelmélet fogalma. Széles hatáskörökkel, kibővített jogokkal rendelkezhet, ha különböző műveleteket hajthat végre, amelyek különböző eredményekhez vezetnek. Ha valami rosszul megy, akkor elveszíti tekintélyét, mert a kapacitásveszteség a csatorna sávszélességének mennyiségi csökkenésének felel meg az Ön és a környezet között. Ez a fő gondolat.

Mennyit kell tudni egy ügynöknek, hogy kibővített hatásköre teljes mértékben érvényesüljön?

A kiterjesztett jogoknak megvan az az előnye, hogy azok akkor is alkalmazhatók, ha nincs teljes ismerete. Az ügynöknek valóban szüksége van egy modellre, hogy cselekedetei miként hatnak a világra, de nincs szüksége a világ és minden finomságának teljes megértésére. Néhány olyan megközelítéstől eltérően, amelyek a lehető legtöbbet próbálják modellezni a világon, esetünkben csak meg kell derítenie, hogyan befolyásolják cselekedetei a saját felfogását. Nem kell mindent megtudni mindenről; csak egy ügynökre van szükséged, aki felfedezi a világot. Tesz valamit, és megpróbálja megérteni, hogy cselekedetei hogyan hatnak a világra. A modell növekszik, és az ügynök egyre jobban megérti, ahol hatalmainak határai kiterjednek.

Virtuális környezetben tesztelted. Miért ne a való világban?

A modell méretezésének és valódi robotba helyezésének legfőbb akadálya az ügynök és az ember sűrűségének kiszámítása olyan gazdag környezetben, mint a való világ, még sokáig. Mindezek a folyamatok még nem váltak eredményessé. Optimista vagyok, de ez a probléma eddig tisztán számítási jellegű. Ezért számítógépes játékban, egyszerűsített formában ellenőrizzük a rendszer működését.

Úgy tűnik, hogy a felhatalmazás ideális esetben gépeinket hatalmas szolgálati kutyákká teszi

Még olyan robot technikusokat is ismerek, akik szándékosan modellezik a kutya alapú társ viselkedését. Azt hiszem, ha a robotok úgy kezelnek minket, mint a kutyáink, akkor ebben a jövőben mindannyian kijönünk.

Ilya Khel