Erkölcsi Gép: A Mérnökök Erkölccsel és Etikával Ruházták Fel A Mesterséges Intelligenciát - Alternatív Nézet

Tartalomjegyzék:

Erkölcsi Gép: A Mérnökök Erkölccsel és Etikával Ruházták Fel A Mesterséges Intelligenciát - Alternatív Nézet
Erkölcsi Gép: A Mérnökök Erkölccsel és Etikával Ruházták Fel A Mesterséges Intelligenciát - Alternatív Nézet

Videó: Erkölcsi Gép: A Mérnökök Erkölccsel és Etikával Ruházták Fel A Mesterséges Intelligenciát - Alternatív Nézet

Videó: Erkölcsi Gép: A Mérnökök Erkölccsel és Etikával Ruházták Fel A Mesterséges Intelligenciát - Alternatív Nézet
Videó: A gép - Teljes Film Magyarul - akció filmek - teljes filmek 2024, Lehet
Anonim

Minél erősebb mesterséges intelligencia lép be mindennapjainkba, annál gyakrabban kell összetett erkölcsi és etikai dilemmákkal szembesülnie, amelyeket néha egy élő embernek nem olyan könnyű megoldani. Az MIT tudósai megpróbálták megoldani ezt a problémát, és felajánlották a gépnek azt a képességét, hogy az erkölcsben gondolkodhasson, a legtöbb élő ember véleménye alapján.

Egyes szakértők úgy vélik, hogy a mesterséges intelligencia erkölcsileg nehéz helyzetek kezelésére történő kiképzésének legjobb módja a „tömeges tapasztalatok” felhasználása. Mások azzal érvelnek, hogy ez a megközelítés nem lesz torzítás nélküli, és a különböző algoritmusok különböző következtetésekre juthatnak ugyanazon adatsor alapján. Hogyan lehetnek a gépek ilyen helyzetben, amelyeknek nyilvánvalóan nehéz erkölcsi és etikai döntéseket kell hozniuk, amikor valós emberekkel dolgoznak?

Értelem és erkölcs

Amint a mesterséges intelligencia (AI) rendszerei fejlődnek, a szakértők egyre inkább megpróbálják megoldani azt a problémát, hogy miként lehet a rendszernek etikai és erkölcsi alapot adni bizonyos cselekvésekhez. A legnépszerűbb ötlet, hogy az AI következtetéseket vonjon le az emberi döntések tanulmányozásával. Ennek a feltételezésnek a tesztelésére a Massachusettsi Műszaki Intézet kutatói létrehozták az Erkölcsi Gépet. A weboldal látogatóit arra kérték, hogy döntsenek arról, hogy mit kell tennie egy autonóm járműnek, ha meglehetősen nehéz választás előtt áll. Például ez egy ismert baleset egy esetleges balesetről, amelynek csak két lehetősége van az események kialakulására: az autó három felnőttet elüthet két gyermek életének megmentése érdekében, vagy éppen ellenkezőleg. Melyik lehetőséget válassza? És lehetséges-e példáulfeláldozni egy idős ember életét egy terhes nő megmentése érdekében?

Ennek eredményeként az algoritmus hatalmas adatbázist állított össze a teszt eredményei alapján, és Ariel Procaccia, a Carnegie Mellon Egyetem Számítástudományi Osztálya úgy döntött, hogy ezeket felhasználja a gépi intelligencia javítására. Egy új tanulmányban ő és a projekt egyik alkotója, Iyad Rahwan betöltötték az Moral Machine projekt teljes alapját az AI-ba, és arra kérték a rendszert, hogy jósolja meg, hogyan reagál az autopilótán lévő autó hasonló, de mégis kissé eltérő forgatókönyvekre. Procaccia be akarta mutatni, hogy a szavazáson alapuló rendszer hogyan lehet megoldás az „etikus” mesterséges intelligenciára.”A munka szerzője maga is elismeri, hogy egy ilyen rendszert természetesen még mindig túl korai alkalmazni a gyakorlatban, de kiválóan bizonyítja azt a koncepciót, hogy lehetséges.

Keresztes erkölcs

Promóciós videó:

Az a gondolat, hogy két morálisan negatív eredmény közül válasszon, nem új keletű. Az etika külön kifejezést használ rá: a kettős hatás elve. De ez a bioetika területe, de korábban senki sem alkalmazott ilyen rendszert egy autóra, ezért a tanulmány különös érdeklődést váltott ki a világ szakértői körében. Elon Musk, az OpenAI társelnöke úgy véli, hogy az „etikus” mesterséges intelligencia létrehozása világos iránymutatások vagy politikák kidolgozásának kérdése, amelyek irányítják a program fejlesztését. A politikusok fokozatosan hallgatnak rá: Németország például megalkotta a világ első etikai alapelveit az autonóm autókra. Még a Google Alphabet AI DeepMind-nek is van etikai és közerkölcsi osztálya.

Más szakértők, köztük a Duke Egyetem kutatócsoportja úgy gondolják, hogy a továbblépés legjobb módja egy olyan „általános keretrendszer” létrehozása, amely leírja, hogy az AI hogyan fog etikai döntéseket hozni egy adott helyzetben. Úgy vélik, hogy a kollektív erkölcsi nézetek egyesítése, mint ugyanabban az Erkölcsi Gépben, a jövőben még erkölcsösebbé teszi a mesterséges intelligenciát, mint a modern emberi társadalom.

Az "erkölcsi gép" kritikája

Bárhogy is legyen, jelenleg a "többségi vélemény" elve korántsem megbízható. Például a válaszadók egyik csoportjának lehetnek olyan elfogultságai, amelyek nem mindenkinél általánosak. Ennek az lesz az eredménye, hogy a pontosan ugyanazt az adatkészletet kapott AI-k különböző következtetésekre juthatnak az információk különböző mintái alapján.

James Grimmelmann professzor számára, aki a szoftverek, a gazdagság és a hatalom közötti dinamikára szakosodott, a közerkölcs gondolata már hibásnak tűnik. "Nem képes tanítani a mesterséges intelligencia etikáját, de csak a lakosság bizonyos részében rejlő etikai normák látszatával ruházza fel" - mondja. Procaccia maga, amint fentebb említettük, elismeri, hogy kutatásuk nem más, mint a koncepció sikeres bizonyítása. Abban azonban bízik, hogy egy ilyen megközelítés sikert hozhat az egész kampányban, amelynek célja a jövőben egy erkölcsi AI létrehozása. "A demokráciának kétségtelenül számos hiányossága van, de egységes rendszerként működik - még akkor is, ha egyesek még mindig olyan döntéseket hoznak, amelyekkel a többség nem ért egyet."

Vaszilij Makarov