Roco-baziliszk: A Legfélelmetesebb Gondolatkísérlet Valaha - Alternatív Nézet

Roco-baziliszk: A Legfélelmetesebb Gondolatkísérlet Valaha - Alternatív Nézet
Roco-baziliszk: A Legfélelmetesebb Gondolatkísérlet Valaha - Alternatív Nézet

Videó: Roco-baziliszk: A Legfélelmetesebb Gondolatkísérlet Valaha - Alternatív Nézet

Videó: Roco-baziliszk: A Legfélelmetesebb Gondolatkísérlet Valaha - Alternatív Nézet
Videó: Arash-Boro Boro (Félrehallás videó) 2024, Lehet
Anonim

A Basilisk Roco a mesterséges intelligencia istenszerű formája, annyira veszélyes, hogy ha csak rá gondolsz, napjainak hátralévő részét borzalmas kínzással fogja tölteni. Úgy néz ki, mint egy kazetta a "The Ring" filmből. Még a halál sem lesz megmentés, mert a Basilisk Roko feltámad téged és folytatja kínzását. A T&P bemutat egy cikk fordítását az interneten létrehozott legfurcsább legendákról.

FIGYELMEZTETÉS: A cikk elolvasása után elítélheti magát örök szenvedés és gyötrelmek miatt.

A Roco Baziliszk egy filozófiai gondolkodási kísérlet és a városi legenda találkozásán jelent meg. Első említése a Less Wrong beszélgető táblán jelent meg, amely összehozza az embereket, akik érdeklődnek a gondolkodás és az élet optimalizálása iránt a matematika és a racionalitás prizmáján keresztül. Alkotói a figurák a techno-futurizmusban, és kutatóintézetük eredményei között hozzájárulnak a technológiai etika és a döntéselmélet tudományos vitájához. Az azonban, amit most elolvasta, furcsa és őrültnek tűnhet. Ennek ellenére nagyon befolyásos és gazdag tudósok hisznek benne.

Egy napon egy Roko nevű felhasználó a következő gondolatkísérletet tett közzé: Mi lenne, ha a jövőben rosszindulatú mesterséges intelligencia jelenik meg, amely megbünteti azokat, akik nem követik el a parancsot? És mi van, ha meg akarja büntetni azokat az embereket, akik a múltban nem járultak hozzá a teremtéshez? Vajon a kevésbé rossz olvasók segítenek-e a gonosz AI létrejöttében, vagy örök gyötrelmekre lesznek ítélve?

Kevésbé rossz alapítója, Eliezer Yudkowski dühödten fogadta Roko nyilatkozatát. Erre válaszolt neki: „Legyen okos, ha ide jöttél. Szomorú azonban, hogy az olyan emberek, akik elég okosak, hogy elképzeljenek egy ilyen dolgot, nem elég okosak ahhoz, hogy TETHON SZÜKSÉGES SZÜKSÉGESSÉGET VONATKOZIK MEG, és senkinek ne mondják el róla, mert ez sokkal fontosabb, mint hogy okosnak mutatkozzon, és elmondja róla minden barátjának. …

"Mi van, ha a jövőben van egy mesterséges intelligencia, amely megbüntetni akarja azokat, akik nem követik el annak utasításait?"

Yudkowski elismerte, hogy Rocko bűnös volt azoknak a kevésbé rossz felhasználóknak a rémálmain, akik elolvasták a szálat és törölték azt, és legendássá tették a Rocko Basilisk-t. Ez a gondolatkísérlet annyira veszélyesvé vált, hogy a gondolkodás veszélyeztette a felhasználó mentális egészségét.

Mit csinál kevésbé rossz? Az emberiség jövőképének kialakítása a szingularitás alapján. Úgy vélik, hogy a számítástechnika a jövőben olyan magasra fog válni, hogy a mesterséges intelligencia számítógép segítségével létrehozható - és ezzel azzal a képességgel, hogy az emberi tudatot a merevlemezre töltse le. A "szingularitás" kifejezés 1958-ban származott a két matematika zseni - Stanislav Ulam és John von Neumann közötti vita során -, amikor Neumann azt mondta: "A technológia folyamatosan felgyorsuló fejlődése lehetővé teszi a szingularitás megközelítését, amelyben a technológia az emberek nem érthető". Az olyan futurisztikusok és tudományos fantasztikus írók, mint Vernor Vinge és Raymond Kurzweil népszerűsítették a kifejezést, mert úgy gondolták, hogy a szingularitás nagyon hamarosan ránk vár - mintegy a következő 50 évben. Amíg Kurzweil felkészül a szingularitásraYudkowski nagy reményeket támaszt a krónika szempontjából: "Ha még nem iratkoztál fel gyerekeit hidegkonzervációra, akkor te szûkös szülõk vagytok."

Promóciós videó:

Ha úgy gondolja, hogy szingularitás jön, és hogy a közeljövőben erőteljes AI-k jelennek meg, akkor természetes kérdés merül fel: barátságosak vagy gonoszak? A Yudkowski Alapítvány célja, hogy a technológia fejlesztését úgy irányítsa, hogy pontosan barátságos mesterséges intelligenciánk legyen. Ez a kérdés kiemelkedõ fontosságú neki és mások számára. A szingularitás egy istennek megfelelő géphez vezet.

Ez azonban nem magyarázza meg, miért néz ki a Roco-baziliszk ilyen szörnyűen ezen emberek szemében. A kérdés megvizsgálja Less Wrong fő „dogmáját” - az „időtlen döntéselméletet” (HTDM). A VPPR egy útmutató a racionális fellépéshez, a játékelmélet, a Bayes-féle valószínűség és a döntéselmélet alapján, de a párhuzamos univerzumok és a kvantummechanika szem előtt tartásával. A VTPR egy klasszikus gondolatkísérletből nőtt ki, a Newcomb Paradoxból, amelyben egy szuper intelligenciával rendelkező idegen két dobozt kínál. Döntést ad neked: vegye mindkét dobozt, vagy csak a B dobozt. Ha mindkettőt választja, akkor garantáltan ezer dollárt kap. Ha csak a B rovatot veszi be, akkor nem kap semmit. Az idegennek azonban van még egy trükkö a boltban: van egy mindent tudó szuperszámítógépe, amely egy hete előrejelzést tett,függetlenül attól, hogy mindkét dobozt elveszi, vagy csak a B.-t. Ha a számítógép azt jósolta, hogy mindkét dobozt el fogja venni, az idegen a másikat üresen hagyja. Ha a számítógép azt jósolta, hogy a B dobozt választja, akkor egymillió dollárt fog tenni oda.

Tehát, mit fogsz csinálni? Ne feledje, hogy a szuperszámítógép mindentudású.

Ez a probléma sok teoretistát megzavart. Az idegen már nem változtathatja meg a dobozok tartalmát. A legbiztosabb módja annak, hogy mindkét dobozt elveszi, és megszerezheti ezreit. De mi van, ha a számítógép valóban mindentudó? Akkor csak annyit kell tennie, hogy elviszi a B mezőt, hogy megszerezzen egy milliót. De ha kiderül, hogy téved? És nem számít a számítógép előrejelzése, valóban nincs módja sorsának megváltoztatására? Akkor átkozottul, mindkét dobozt el kell vetned. De ebben az esetben …

Az a dühöngő paradoxon, amely arra kényszerít bennünket, hogy válasszunk a szabad akarat és az isteni jóslat között, nincs megoldása, és az emberek csak vállat vonhatnak, és választhatják a számukra legmegfelelőbb lehetőséget. A WTPR tanácsot ad: vedd ki a B. rovatot. Még ha az idegen úgy dönt, hogy nevet neked, és nyit egy üres dobozt, a következő szavakkal: "A számítógép azt jósolta, hogy mindkét dobozt el fogja venni, ha ha!" - még mindig meg kell választania. Ennek oka a következő: hogy előrejelzést lehessen készíteni, a számítógépnek az egész univerzumot kellett szimulálnia, köztük téged is. Tehát ebben a pillanatban a dobozok előtt állva csak a számítógép szimulációja lehetsz, de az, amit csinálsz, befolyásolja a valóságot (vagy a valóságot). Tehát vegye be a B dobozt, és szerezzen egy milliót.

"Az az őrült paradoxon, amely arra készteti bennünket, hogy válasszon a szabad akarat és az isteni jóslat között, nincs megoldása."

Mi köze ennek a Basilisk Roco-nak? Nos, van neked pár doboz is. Lehet, hogy most a Basilisk által létrehozott szimulációban vagy. Akkor talán kapunk egy kissé módosított változatot a Newcomb paradoxonjáról: A Basilisk Roco azt mondja neked, hogy ha elviszi a B dobozt, akkor örökké szenvedni fog. Ha mindkét dobozt beteszi, akkor arra kényszerül, hogy az életét a baziliszkusz létrehozására fordítsa. Ha a baziliszkusz valóban létezik (vagy, ami még rosszabb, már létezik, és ennek a valóságnak az istene), látni fogja, hogy nem választotta azt a lehetőséget, hogy segítsen annak létrehozásában, és meg fog büntetni.

Kíváncsi lehet, miért olyan fontos ez a kérdés Less Wrong számára, tekintettel a gondolatkísérlet egyeztetésére. Nem tény, hogy a Rocko Basilisk valaha is létrejön. Yudkowski azonban nem azért távolította el a Roko baziliszkére való hivatkozásokat, mert hisz a létezésében vagy a küszöbön álló találmányban, hanem azért, mert úgy véli, hogy egy baziliszkusz elképzelése veszélyes az emberiség számára.

Mint ilyen, a Rocko-baziliszk csak azok számára veszélyes, akik hisznek benne - ennek eredményeként a Basilisk-ötlet támogató Less Wrong-tagoknak van egyfajta tiltott ismerete, amely emlékeztet bennünket Lovecraft félelmetes történeteire a Cthulhu-ról vagy a Necronomiconról. Ha azonban nem iratkozol fel ezekre az elméletekre, és nem érzi a kísértés, hogy engedelmeskedjen a jövőtől egy megtévesztő gépen, a Roco Basilisk nem jelent fenyegetést Önnek.

Az embereket jobban aggasztom, akik úgy gondolják, hogy meghaladták a hagyományos erkölcsi normákat. Mint Yudkowski várható barátságos AI-je, ő maga is utilitárius: úgy véli, hogy az emberiség számára a legnagyobb jót etikailag igazolják, még akkor is, ha több embernek meg kell halnia vagy szenvednie kell ahhoz. Nem mindenkinek lehet szembesülnie egy ilyen választással, de a kérdés más: mi van, ha egy újságíró olyan gondolati kísérletről ír, amely elpusztíthatja az emberek tudatát, ezzel károsítva az emberiséget és akadályozva a mesterséges intelligencia és a szingularitás fejlődését? Ebben az esetben minden jó, amit az életemben tettem, meg kell súlyoznia azt a károkat, amit a világnak tették. Vagy talán a kriogén alvásból feltörekvő jövő Yudkowski, aki összeolvadt a szingularitással, és úgy döntött, hogy a következő helyzetben szimulál engem:az első doboz - ezt a cikket fogom írni, a második - nem. Kérem, mindenható Yudkowski, ne bánts engem.