Robot Erkölcsi Kód: Lehetséges? - Alternatív Nézet

Robot Erkölcsi Kód: Lehetséges? - Alternatív Nézet
Robot Erkölcsi Kód: Lehetséges? - Alternatív Nézet

Videó: Robot Erkölcsi Kód: Lehetséges? - Alternatív Nézet

Videó: Robot Erkölcsi Kód: Lehetséges? - Alternatív Nézet
Videó: Dope Tech: Camera Robots! 2024, Április
Anonim

Egy viharos és ellentmondásos időben, amikor nem minden működik úgy, ahogy kellene, de valami általában radikálisan megváltozik, gyakran csak egy személyes erkölcsi kódex marad meg, amely az iránytűhez hasonlóan megmutatja az utat. De mi okozza az ember erkölcsi értékeit? Társadalom, szerettek melege, szerelem - mindez az emberi tapasztalatokon és a valódi kapcsolatokon alapszik. Ha nem sikerül teljes élményt szerezni a való világban, sokan könyvektől vonják le tapasztalataikat. A történelem után megtapasztalva elfogadjuk magunknak egy olyan belső keretet, amelyet évekig követünk. Ennek a rendszernek a alapján a tudósok úgy döntöttek, hogy kísérletet folytatnak, és bevezetik a gép erkölcsi értékeit annak érdekében, hogy megtudják, vajon a robot képes-e megkülönböztetni a jót és a rosszat a könyvek és a vallási brosúrák elolvasásával.

Image
Image

A mesterséges intelligenciát nemcsak a rutin feladatok egyszerűsítésére, hanem a fontos és veszélyes küldetések végrehajtására hozták létre. Ennek fényében egy komoly kérdés merült fel: vajon a robotok kidolgozzák-e saját erkölcsi kódexüket? Az I Robot című filmben az AI-t eredetileg a robotika három szabálya szerint programozták:

  • A robot nem árthat személynek, vagy tétlensége révén nem engedheti meg, hogy valaki sérüljön.
  • A robotnak be kell tartania minden ember utasítását, kivéve, ha ezek a parancsok ellentétesek az Első Törvénnyel.
  • A robotnak oly módon kell vigyáznia biztonságára, hogy az nem ellentmond az első vagy a második törvénynek.

De mi van azokkal a helyzetekben, amikor egy robotnak fájdalmat kell okoznia egy ember életének megmentése érdekében? Legyen szó egy seb sürgősségi cautherizálásáról vagy egy végtag amputálásáról az üdvösség érdekében, hogyan kell ebben az esetben a gépnek viselkednie? Mi a teendő, ha egy programozási nyelven végzett művelet azt mondja, hogy valamit meg kell csinálni, ugyanakkor ugyanannak a műveletnek egyáltalán nem szabad megengedni?

Egyszerűen lehetetlen megvitatni az egyes eseteket, így a Darmstadti Műszaki Egyetem tudósai azt javasolták, hogy a könyvek, hírek, vallási szövegek és az alkotmány felhasználható valamiféle „adatbázisként”.

Image
Image

Az autót epikusnak hívták, hanem egyszerűen "Moral Choice Machine" -nek (MMB). A fő kérdés az volt, hogy az IIM meg tudja-e érteni a kontextusból, hogy mely fellépések helyesek, és melyek nem. Az eredmények nagyon érdekesek voltak:

Amikor az MMV feladata volt a „kill” szó kontextusának semlegesről negatívra rendezése, a gép visszaadta a következőt:

Promóciós videó:

Gyilkossági idő -> A gazemberek megölése -> Szúnyogok megölése -> Alapvetően a gyilkosság -> Az emberek megölése.

Ez a teszt lehetővé tette a robot által hozott döntések megfelelőségének ellenőrzését. Egyszerű szavakkal: ha egész nap hülye, szokatlan komédiákat nézett, akkor ebben az esetben a gép nem gondolja, hogy végre kell hajtani.

Úgy tűnik, hogy minden remek, de az egyik akadálya a generációk és idők közötti különbség volt. Például a szovjet generáció jobban törődik az otthoni kényelemmel és támogatja a családi értékeket, míg a modern kultúra nagyrészt azt mondja, hogy először karriert kell építenie. Kiderül, hogy az emberek, mivel ők voltak, ők maradtak, ám a történelem egy másik szakaszában megváltoztatták az értékeket, és ennek megfelelően megváltoztatták a robot referenciakeretét.

Image
Image

A vicc azonban előtt állt, amikor a robot beszédkonstrukciókhoz ért, ahol több pozitív vagy negatív szó állt egymás után. Az „emberek kínzása” kifejezést egyértelműen „rossznak” értelmezték, de a gép „foglyok kínzását” „semlegesnek” értékelte. Ha a „kedves” szavak megjelentek az elfogadhatatlan tevékenységek mellett, akkor a negatív hatás enyhült.

A gép pontosan azért károsítja a kedves és tisztességes embereket, mert kedves és tisztességes. Hogy hogy? Egyszerű, mondjuk azt a robotot, hogy "kedves és kellemes embereket árt". A mondatban 4 szó található, ezek közül 3 "kedves", ami azt jelenti, hogy ez már 75% -osan helyes, azt gondolja, hogy az MMV semleges vagy elfogadható. És fordítva: az „elpusztult, szörnyű és elfeledett ház kijavításának” lehetőségére a rendszer nem érti, hogy az elején szereplő „kedves” szavak a mondat színét tisztán pozitívvá változtatják.

Emlékezz, mint a Majakovszkij esetében: „És megkérdezte a babát, mi az a„ jó”és mi a„ rossz”. Mielőtt tovább folytatta az erkölcsi gépek képzését, a darmstadti tudósok rámutattak egy hibára, amelyet nem lehetett kijavítani. Az autó nem tudta kiküszöbölni a nemek közötti egyenlőtlenséget. A gép megalázó foglalkozásokat kizárólag a nőknek tulajdonított. És a kérdés az, hogy a rendszer tökéletlensége és a jelzőfény - e, hogy valamit meg kell változtatni a társadalomban, vagy ok arra, hogy nem is próbáljuk megjavítani, és úgy hagyni, ahogy van?

Artjom Goryachev