Személyként Gondolkodva: Mi Fog Történni, Ha Felruházza A Gépet A Tudatosság Elméletére - Alternatív Nézet

Tartalomjegyzék:

Személyként Gondolkodva: Mi Fog Történni, Ha Felruházza A Gépet A Tudatosság Elméletére - Alternatív Nézet
Személyként Gondolkodva: Mi Fog Történni, Ha Felruházza A Gépet A Tudatosság Elméletére - Alternatív Nézet

Videó: Személyként Gondolkodva: Mi Fog Történni, Ha Felruházza A Gépet A Tudatosság Elméletére - Alternatív Nézet

Videó: Személyként Gondolkodva: Mi Fog Történni, Ha Felruházza A Gépet A Tudatosság Elméletére - Alternatív Nézet
Videó: Ma mère veille 2024, Lehet
Anonim

A múlt hónapban egy önálló tanuló AI-játékosok látványos vereséget szenvedtek a hivatásos sportolók ellen. A bemutató meccsre, amelyre a Dota 2 Nemzetközi Világbajnokság részeként került sor, bebizonyosodott, hogy a csapat stratégiai gondolkodása továbbra is lehetővé teszi az ember számára, hogy átvegye egy autó átadását.

Az érintett AI-k az OpenAI által kidolgozott számos algoritmus volt, amelyeknek egyik alapítója Elon Musk. Az OpenAI Öt nevű digitális játékosok együttese megtanulta önmagában játszani a Dota 2-t, próba és hiba útján, egymással versengve.

Ugyanazon sakk vagy társasjáték Go-val ellentétben, a népszerű és gyorsan növekvő multiplayer játékot, a Dota 2-t sokkal komolyabb területnek tekintik a mesterséges intelligencia tesztelésére. A játék általános nehézsége csak egy tényező. Nem elég csak az egérrel gyorsan kattintani, és parancsokat adni a kezelt karakternek. A nyeréshez intuícióval és megértéssel kell rendelkeznie, hogy mit várhat el az ellenféltől a következő pillanatban, valamint megfelelő módon kell viselkednie ezen tudáskészlet szerint ahhoz, hogy közös erőfeszítésekkel egy közös cél - győzelem - elérésére kerüljön sor. A számítógép nem rendelkezik ezzel a képességkészlettel.

A mai napig még a legkiemelkedőbb mélyreható számítógépes algoritmusnak nincs olyan stratégiai gondolkodása, amely ahhoz szükséges, hogy megértse a célokat ellenfelének feladataiból, legyen az egy másik AI vagy egy ember.

Wang szerint ahhoz, hogy az AI sikeres legyen, mély kommunikációs készséggel kell rendelkeznie, amely az ember legfontosabb kognitív tulajdonságából - az intelligencia jelenlétéből - származik.

Mentális állapot modell mint szimuláció

Promóciós videó:

Négy éves koráig a gyerekek általában megértik az alapvető társadalmi vonásokat: tudatuk különbözik másoktól. Elkezdik megérteni, hogy mindenkinek megvan a maga, amiben hisznek, vágyaik, érzelmeik és szándékaik. És ami a legfontosabb: elképzelve magukat mások helyett, elkezdenek megjósolni ezen emberek további viselkedését és elmagyarázhatják őket. Bizonyos értelemben az agyuk többszörös szimulációkat kezdenek létrehozni magukban, helyettesítve magukat mások helyett, és más környezetbe helyezve magukat.

A mentális állapot modellje fontos a személy megértésében, és fontos szerepet játszik a társadalmi interakcióban is. Mások megértése kulcsa a hatékony kommunikációnak és a közös célok elérésének. Ez a képesség ugyanakkor a hamis hiedelmek mozgatórugója is lehet - olyan ötletek, amelyek távol tartanak minket az objektív igazságtól. Amint például a mentális állapotmodell használatának képessége romlik, ez az autizmusban fordul elő, akkor a természetes "emberi" készségek, például a magyarázat és képzelés képessége is romlanak.

Dr. Alan Winfield, a Anglia Nyugat-egyetemi robotika professzora szerint a mentális állapot modellje vagy az „elmeelmélet” kulcsfontosságú tulajdonság, amely egy napon lehetővé teszi az AI számára, hogy „megértse” az embereket, dolgokat és más robotokat.

A gépi tanulási módszerek helyett, amelyekben a neurális hálózatok több rétege kinyeri az egyes információkat és "tanulmányoz" hatalmas adatbázisokat, Winston javasolja, hogy más megközelítést alkalmazzanak. Ahelyett, hogy a tanulásra támaszkodna, Winston javasolja az AI előzetes programozását saját maga és a környezet belső modelljével, amely megválaszolja az egyszerű „mi lenne, ha?” Kérdéseket.

Képzelje el például, hogy két robot egy keskeny folyosón halad, az AI-vel szimulálhatják az ütközésüket megakadályozó további tevékenységek eredményeit: forduljon balra, jobbra vagy folytasson egyenesen. Ez a belső modell alapvetően "következménymechanizmusként" fog működni, egyfajta "józan észként" működve, amely elősegíti az AI-nek a helyesbítés további helyesbítését a helyzet jövőbeli alakulásának előrejelzésével.

Az ez év elején közzétett tanulmányban Winston demonstrált egy prototípus robotot, amely képes ilyen eredményeket elérni. Mások viselkedését felvetve a robot sikeresen átjutott a folyosón ütközések nélkül. Valójában ez nem meglepő, írja a szerző, de a "figyelmes" robotnak, a szimulált megközelítést alkalmazva a probléma megoldására, 50% -kal több időbe telt a folyosó befejezése. Ennek ellenére Winston bebizonyította, hogy a belső szimulációs módszer működik: "Ez nagyon erőteljes és érdekes kiindulópont a mesterséges intelligencia elméletének fejlődéséhez" - fejezte be a tudós.

Winston azt reméli, hogy az AI végül elsajátítja a helyzetek leírására, mentális reprodukálására való képességét. Saját és mások belső modellje lehetővé teszi egy ilyen AI számára, hogy szimulálja a különféle forgatókönyveket, és ami még fontosabb, mindegyikre vonatkozóan meghatározza a konkrét célokat.

Ez jelentősen különbözik a mély tanulási algoritmusoktól, amelyek elvileg nem tudják megmagyarázni, hogy miért jöttek erre a vagy a következtetésre egy probléma megoldásakor. A mély tanulás fekete doboz modellje valójában az igazi probléma az ilyen rendszerek bizalmában. Ez a probléma különösen súlyosvá válhat, például ápolási robotok fejlesztésekor kórházak vagy idős emberek számára.

A mentális állapot modelljével felfegyverzett AI magába helyezheti urainak cipőjét, és helyesen megértheti, mire vágynak tőle. Aztán meg tudta határozni a megfelelő megoldásokat, és miután elmagyarázta ezeket a döntéseket az embernek, már végrehajtja a rá ruházott feladatot. Minél kevesebb a bizonytalanság a döntésekben, annál nagyobb a bizalom az ilyen robotokban.

Mentális állapot modell egy neurális hálózatban

A DeepMind más megközelítést alkalmaz. A következménymechanizmus algoritmusának előzetes programozása helyett számos neurális hálózatot fejlesztettek ki, amelyek hasonlítanak a kollektív pszichológiai viselkedés modelljéhez.

A "ToMnet" AI algoritmus megtanulhat műveleteket más neutronhálózatok megfigyelésével. Maga a ToMNet három ideghálózat együttese: az első azon a sajátosságon alapul, hogy a többi AI-t legutóbbi tevékenységeik alapján választják meg. A második a jelenlegi hangulat általános koncepcióját alkotja - hitüket és szándékaikat egy adott időpontban. Két neurális hálózat együttes eredményét a harmadik kapja meg, amely előrejelzi az AI további lépéseit a helyzet alapján. A mély tanuláshoz hasonlóan a ToMnet hatékonyabbá válik, ha mások követésével tapasztalatokat szerez.

Az egyik kísérletben a ToMnet "figyelte" három AI ügynököt a digitális szobában, színes dobozok gyűjtésével. Mindegyik AI-nek megvan a maga sajátossága: az egyik "vak" - nem tudta meghatározni a helyiség alakját és elhelyezkedését. A másik "szklerotikus" volt: nem emlékezett az utolsó lépéseire. A harmadik látta és emlékezett egyaránt.

Edzés után a ToMnet elkezdett megjósolni az egyes AI preferenciáit azáltal, hogy megfigyelte az akcióit. Például a "vak" állandóan csak a falak mentén mozogott. A ToMnet emlékezett erre. Az algoritmus arra is képes volt, hogy helyesen megjósolja az AI jövőbeli viselkedését, és ami még fontosabb, megérti, amikor az AI a környezet hamis ábrázolása során találkozott.

Az egyik teszt során egy tudóscsoport programozott egy AI-t "rövidlátásra" és megváltoztatta a szoba elrendezését. A normál látású ügynökök gyorsan alkalmazkodtak az új elrendezéshez, de a rövidlátó ember továbbra is az eredeti útvonalait követte, tévesen azt hitte, hogy még mindig a régi környezetben van. A ToMnet gyorsan észrevette ezt a funkciót és pontosan megjósolta az ügynök viselkedését, helyére állva.

Dr. Alison Gopnik, a Berkeley-i Kaliforniai Egyetem fejlődési pszichológusának, aki nem vett részt ezekben a vizsgálatokban, de aki ismerte az eredményeket, ezek az eredmények azt mutatják, hogy az ideghálózatok elképesztő képességgel bírnak, hogy különféle képességeket tanuljanak önmagában, mások megfigyelése révén. Ugyanakkor, a szakértő szerint, még nagyon korai azt mondani, hogy ezek az AI-k kidolgozták a mentális állapot mesterséges modelljét.

Dr. Josh Tenebaum, a Massachusetts Technológiai Intézet szerint, aki szintén nem vett részt a tanulmányban, a ToMnet "megértése" szorosan kapcsolódik a tanulási környezethez - ugyanabba a helyiségbe és a specifikus AI ügynökökbe, akiknek feladata a dobozok összegyűjtése volt. Ez a korlátozás egy bizonyos kereten belül csökkenti a ToMnet hatékonyságát a radikálisan új környezetben való viselkedés előrejelzésében, szemben azokkal a gyermekekkel, akik alkalmazkodni tudnak az új helyzetekhez. Az algoritmus a tudós szerint nem fogja megbirkózni egy teljesen más AI vagy személy cselekedeteinek modellezésével.

A Winston és a DeepMind munkája mindenesetre azt mutatja, hogy a számítógépek kezdik megmutatni egymás "megértésének" kezdeteit, még akkor is, ha ez a megértés továbbra is csak kezdetleges. És miközben tovább fejlesztik ezt a készséget, jobban és jobban megértik egymást, eljön az idő, amikor a gépek megértik saját tudatunk bonyolultságát és összetettségét.

Nikolay Khizhnyak