Erkölcsi Gép Felépítése: Ki Lesz Felelős Az önjáró Autók Etikájáért? - Alternatív Nézet

Tartalomjegyzék:

Erkölcsi Gép Felépítése: Ki Lesz Felelős Az önjáró Autók Etikájáért? - Alternatív Nézet
Erkölcsi Gép Felépítése: Ki Lesz Felelős Az önjáró Autók Etikájáért? - Alternatív Nézet

Videó: Erkölcsi Gép Felépítése: Ki Lesz Felelős Az önjáró Autók Etikájáért? - Alternatív Nézet

Videó: Erkölcsi Gép Felépítése: Ki Lesz Felelős Az önjáró Autók Etikájáért? - Alternatív Nézet
Videó: Az önjáró és fenntartható jövő - hi-tech 2024, Április
Anonim

Autópálya mentén haladsz, amikor egy ember kifut egy forgalmas útra. Az autók körül mozognak, és másodpercenként egy pillanat alatt dönthetsz: próbálj meg elkerülni egy embert, és megteremtheted a baleset kockázatát? Folytassa a vezetést abban a reményben, hogy lesz ideje? Eltörni? Hogyan értékeli annak esélyét, hogy egy gyermek behúzódik a hátsó ülésre? Sok szempontból ez egy klasszikus „erkölcsi dilemma”, a kocsiprobléma. Több millió különféle lehetősége van, amelyek lehetővé teszik az emberi előítéletek azonosítását, de a lényeg ugyanaz.

Ön olyan helyzetben van, hogy az élet és a halál a tét, nincs egyszerű választás, és döntése valójában azt fogja meghatározni, ki él és ki hal meg.

A kocsi dilemma és a mesterséges intelligencia

Az MIT új, a múlt héten a Nature folyóiratban közzétett papíra önkéntesek millióinak toborzásával próbál dolgozó megoldást találni a kocsi problémájára. A kísérlet 2014-ben kezdődött, és sikeres volt, 233 országból több mint 40 millió válasz érkezett, és ez az egyik legnagyobb erkölcsi tanulmány, amelyet valaha végeztek.

Az ember öntudatlanul hozhat ilyen döntéseket. Nehéz mérlegelni az összes etikai rendszert és az erkölcsi előfeltételeket, amikor autója az úton versenyez. De a világunkban a döntéseket egyre inkább algoritmusok teszik meg, és a számítógépek egyszerűen gyorsabban tudnak reagálni, mint mi.

Az önjáró autókkal feltételezett helyzetek nem az egyetlen erkölcsi döntés, amelyet az algoritmusoknak meg kell hozniuk. Az orvosi algoritmusok választják ki, aki korlátozott forrásokkal kap kezelést. Az automata drónok kiválasztják, hogy az egyes katonai tevékenységekben mekkora „járulékos károkat” lehet elfogadni.

Promóciós videó:

Nem minden erkölcsi alapelv azonos

A kocsiprobléma „megoldásai” ugyanolyan változatosak, mint maguk a problémák. Hogyan fognak a gépek erkölcsi döntéseket hozni, ha az erkölcs és az etika alapjait nem általánosan elfogadják, és esetleg nincs megoldásuk? Ki tudja meghatározni, hogy egy algoritmus helyesen vagy rosszul működik?

A közönségforrás-megközelítés, amelyet a Moral Machine tudósai alkalmaznak, meglehetősen pragmatikus. Végső soron ahhoz, hogy a nyilvánosság elfogadhassa az önjáró autókat, el kell fogadnia a döntéseik mögött meghúzódó erkölcsi alapot. Nem lesz jó, ha az etikusok vagy az ügyvédek olyan megoldást találnak, amely elfogadhatatlan vagy elfogadhatatlan a közönséges járművezetők számára.

Az eredmények azt a kíváncsi következtetést vonják le, hogy az erkölcsi prioritások (és így az algoritmikus döntések, amelyeket az emberek meghozhatnak) attól függnek, hogy hol a világon vagy.

Mindenekelőtt a tudósok felismerik, hogy lehetetlen megismerni ezen helyzetek gyakoriságát vagy jellegét a való életben. A balesetben részt vevő emberek gyakran nem tudják megmondani, hogy mi történt pontosan, és a lehetséges helyzetek köre kizárja az egyszerű osztályozást. Ezért annak érdekében, hogy a probléma megoldhatóvá váljon, egyszerűsített forgatókönyvekre kell bontani, egyetemes erkölcsi szabályokat és alapelveket keresve.

Amikor felmérést végez, tizenhárom kérdést vet fel Önnek, amelyekhez egyszerű „igen” vagy „nem” választ kell, és kilenc tényezőre próbálják szűkíteni a válaszokat.

Az autónak másik sávba kell fordulnia, vagy tovább kell mozognia? Meg kell mentenie a fiatalokat, nem az öregeket? Nők vagy férfiak? Állatok vagy emberek? Meg kell próbálnia minél több életet megmenteni, vagy "érdemes-e" egy gyermek két idős ember? Mentse meg az utasokat egy autóban, nem a gyalogosokat? Azok, akik nem követik a szabályokat, vagy azok, akik nem követik a szabályokat? Meg kell mentenie az embereket, akik fizikailag erősebbek? Mi lenne a magasabb társadalmi státusú emberekkel, például orvosokkal vagy üzletemberekkel?

Ebben a kemény hipotetikus világban valakinek meg kell halnia, és Ön válaszol ezekre a kérdésekre - változó lelkesedéssel. Ezeknek a döntéseknek a meghozatala azonban mélyen elmélyült kulturális normákat és elfogultságot is feltár

A tudósok által vizsgált hatalmas adatkészlet feldolgozása univerzális szabályokat és furcsa kivételeket eredményez. A teljes népességre átlagolva a három legfontosabb tényező az volt, hogy mindenki inkább több életet ment, mint kevesebb, az emberek inkább állatok helyett, és inkább a fiatalok, mint az öregek.

Regionális különbségek

Ezekkel a pontokkal egyet lehet érteni, de minél mélyebben gondolkodik róluk, annál zavarba kerülnek az erkölcsi következtetések. Több válaszadó úgy döntött, hogy a bűnözőt a macskánál mentette meg, de általában inkább a kutyát a bűnözővel szemben mentették. A világ átlagánál az idősödés magasabbnak tekinthető, mint a hajléktalanoké, ám a hajléktalanokat kevésbé mentették meg, mint a kövér embereket.

És ezek a szabályok nem voltak egyetemesek: Franciaországból, az Egyesült Királyságból és az Egyesült Államokból származó válaszadók inkább a fiatalokat részesítették előnyben, míg a kínai és tajvani válaszadók inkább hajlandóak megmenteni az időseket. A japán válaszadók inkább a gyalogosokat mentették meg az utasok helyett, míg Kínában inkább az utasokat, mint a gyalogosokat részesítik előnyben.

A kutatók azt találták, hogy a válaszokat országonként három kategóriába sorolhatják: „Nyugat”, elsősorban Észak-Amerika és Európa, ahol az erkölcs nagyrészt a keresztény doktrínán alapul; "Kelet" - Japán, Tajvan, a Közel-Kelet, ahol a konfuciánizmus és az iszlám uralkodik; "Déli" országok, köztük Közép- és Dél-Amerika, erős francia kulturális befolyással együtt. A déli szegmensben jobban részesítik a nők áldozatát, mint bárhol másutt. A keleti szegmensben nagyobb a tendencia a fiatalok megmentésére.

Különböző válaszadó attribútumok szerinti szűrés végtelen érdekes lehetőségeket kínál. A „nagyon vallásos” válaszadók nem valószínű, hogy inkább állatok megmentését részesítik előnyben, de mind a vallásos, mind a nem vallásos válaszadók megközelítőleg azonos mértékben részesítik előnyben a magas társadalmi státusú emberek megmentését (bár ez állhat ellentétben néhány vallási doktrínával). A férfiak és a nők inkább a nőket akarják megmenteni, ám a férfiak kevésbé hajlamosak erre.

Megválaszolatlan kérdések

Senki sem állítja, hogy ez a kutatás valamilyen módon "megoldja" ezeket a súlyos erkölcsi problémákat. A tanulmány szerzői megjegyzik, hogy az online adatok tömeges beszerzése torzulást von maga után. De még ha a minta nagy volt is, a kérdések száma korlátozott volt. Mi lenne, ha a kockázatok az Ön által hozott döntéstől függően változnának? Mi lenne, ha az algoritmus kiszámítaná, hogy a gyalogosok ölésének csak 50 százalékos esélye volt, figyelembe véve a mozgás sebességét?

Edmond Awad, a tanulmány egyik szerzője óvatosan fejezte ki az eredmények túlzott értelmezését. Véleménye szerint a vitának kockázatelemzésbe kellene vezetnie - ki többé-kevésbé veszélyeztetett -, ahelyett, hogy eldöntsék, ki hal meg, és ki nem.

A tanulmány legfontosabb eredménye azonban a talajban felbukkanó vita volt. Amint az algoritmusok egyre fontosabb döntéseket hoznak az emberek életét érintő kérdésekben, elengedhetetlen, hogy folyamatosan megbeszéljük az AI etikáját. A „mesterséges lelkiismeret” megtervezésének ki kell terjednie mindenki véleményére. Noha a válaszokat nem mindig könnyű megtalálni, a legjobb, ha megpróbáljuk az algoritmusok erkölcsi keretét kialakítani, ha nem engedjük, hogy az algoritmusok önmagukban alakítsák a világot emberi kontroll nélkül.