Mesterséges Intelligencia. Második Rész: Kihalás Vagy Halhatatlanság? - Alternatív Nézet

Tartalomjegyzék:

Mesterséges Intelligencia. Második Rész: Kihalás Vagy Halhatatlanság? - Alternatív Nézet
Mesterséges Intelligencia. Második Rész: Kihalás Vagy Halhatatlanság? - Alternatív Nézet

Videó: Mesterséges Intelligencia. Második Rész: Kihalás Vagy Halhatatlanság? - Alternatív Nézet

Videó: Mesterséges Intelligencia. Második Rész: Kihalás Vagy Halhatatlanság? - Alternatív Nézet
Videó: Наводнение Тюмень 23 04 2020 Вагайский район 2024, Szeptember
Anonim

Mielőtt elkezdené egy cikk második részét a "Várj, hogy mindez valódi lehet, miért még mindig nem beszélünk minden sarkon" sorozatból. Az előző sorozatban ismertté vált, hogy az intelligencia robbanása fokozatosan kúszik a Föld bolygó lakosságához, ez próbál fejlődni a szűken összpontosított és az egyetemes intelligencia felé, végül pedig a mesterséges szuper intelligencia felé.

"Talán egy rendkívül nehéz problémával szembesülünk, és nem ismert, hogy mennyi időt szentelnek a megoldásnak, de az emberiség jövője függhet annak megoldásától." - Nick Bostrom.

A cikk első része elég ártatlanul kezdődött. Megvitassuk a szűken összpontosított mesterséges intelligenciát (AI, amely egy speciális probléma megoldására szakosodik, mint például az útvonalak meghatározása vagy a sakk játék), világunkban nagyon sok van. Aztán elemezték, hogy miért olyan nehéz az általános irányított mesterséges intelligencia termesztése (AGI, vagy AI, amely az intellektuális képességek szempontjából összehasonlítható egy emberrel bármilyen probléma megoldásában). Megállapítottuk, hogy a technológiai haladás exponenciális üteme arra utal, hogy az AGI hamarosan megfordulhat a sarkon. Végül úgy döntöttünk, hogy amint a gépek elérték az emberi intelligenciát, a következők fordulhatnak elő:

Image
Image
Image
Image
Image
Image
Image
Image

Mint általában, a képernyőre nézzünk, nem hiszve abban, hogy életünk során megjelenhet a mesterséges szuper intelligencia (ISI, amely sokkal intelligensebb, mint bármelyik ember), és olyan érzelmeket választunk, amelyek a legjobban tükrözik véleményünket ebben a kérdésben.

Promóciós videó:

Mielőtt belemerülnénk az ISI sajátosságaiba, emlékeztessük magunkat arra, hogy mit jelent egy gépnek a szuper intelligens képessége.

A fő különbség a gyors szuperintelligencia és a minőségi szuperintelligencia között van. A szuperintelligens számítógépre való gondolkodás során az első dolog, hogy sokkal gyorsabban tud gondolkodni, mint egy ember - milliószor gyorsabb, és öt perc alatt megérti, hogy egy embernek mit kellett volna tennie tíz év alatt. ("Tudom, kung fu!")

Lenyűgözően hangzik, és az ISI-nek valóban gyorsabban kellene gondolkodnia, mint bármelyik embertől -, de a fő elválasztó tulajdonság az értelmének minősége lesz, ami egészen más. Az emberek sokkal okosabbak, mint a majmok, nem azért, mert gyorsabban gondolkodnak, hanem azért, mert agyuk számos ötletes kognitív modult tartalmaz, amelyek komplex nyelvi reprezentációkat, hosszú távú tervezést és absztrakt gondolkodást hajtanak végre, amire a majmok nem képesek. Ha ezer alkalommal felgyorsítja a majom agyát, akkor az nem lesz okosabb, mint mi - tíz év után sem lesz képes az utasítások szerint összeszerelőt összeállítani, ami egy embernek legfeljebb néhány órát igényel. Vannak dolgok, amelyeket egy majom soha nem fog megtanulni, függetlenül attól, hogy hány órát tölt, vagy milyen gyorsan működik az agya.

Ráadásul egy majom nem tudja, mennyire emberileg, mert az agya egyszerűen nem képes felismerni más világok létezését - a majom tudhatja, mi az ember és mi a felhőkarcoló, de soha nem fogja megérteni, hogy egy felhőkarcolót az emberek építettek. Világában minden a természethez tartozik, és a makákó nemcsak nem képes felhőkarcolót építeni, hanem megérti, hogy bárki fel tudja építeni. És ez az intelligencia minőségében mutatkozó kis különbség eredménye.

Az intelligencia általános rendszerében, amelyről beszélünk, vagy egyszerűen a biológiai lények szerint, az ember és a majom intelligencia minőségének különbsége csekély. Az előző cikkben a létrára helyeztük a biológiai kognitív képességeket:

Image
Image

Ahhoz, hogy megértse, mennyire komoly lesz a szuperintelligens gép, helyezze két fokkal magasabbra, mint a létrán lévõ ember. Lehet, hogy ez a gép csak egy kicsit szuper intelligens, de kognitív képességeinkkel szembeni fölénye megegyezik a miénkkel - a majmokkal szemben. És ugyanúgy, ahogy a csimpánz soha nem fogja megérteni, hogy felhőkarcoló építhető, soha nem fogjuk megérteni, amit egy pár lépéssel magasabb gép megért, még akkor is, ha a gép megpróbálja megmagyarázni nekünk. De ez csak néhány lépés. Egy okosabb gép hangyákat lát bennünk - évek óta a helyzetéből megtanítja a legegyszerűbb dolgokat, és ezek a kísérletek teljesen reménytelenek lesznek.

A szuper intelligencia típusa, amelyről ma beszélünk, messze túlmutat ezen a létrán. Ez az intelligencia robbanása - minél okosabb lesz egy autó, annál gyorsabban képes növelni saját intelligenciáját, fokozatosan növelve a lendületet. Évekbe telhet, amíg egy ilyen gép felülmúlja a csimpánzokat az intelligencia szempontjából, de talán néhány órát, hogy pár lépéssel meghaladjon minket. Ettől a pillanattól kezdve az autó másodpercenként már négy lépésben átugorhat. Ezért kell megértenünk, hogy hamarosan az első hírek megjelenése után, hogy a gép elérte az emberi intelligencia szintjét, a Földön való együttélés valóságával nézhetünk szembe olyan dolgokkal, amelyek sokkal magasabbak, mint mi ezen a létrán vagyunk (vagy talán, és milliószor magasabb):

Image
Image

És mivel megállapítottuk, hogy teljesen haszontalan megkísérelni megérteni egy olyan gép erejét, amely csak két lépéssel fekszik felettünk, határozjuk meg egyszer és mindenkorra, hogy nem lehet megérteni, mit fog tenni az ISI, és ennek milyen következményei lesznek ránk. Bárki, aki állítja az ellenkezőjét, egyszerűen nem érti, mit jelent a szuper intelligencia.

Az evolúció lassan és fokozatosan fejlesztette ki a biológiai agyat több száz millió év alatt, és ha az emberek létrehoznak egy szuper intelligens gépet, akkor bizonyos értelemben meghaladjuk az evolúciót. Vagy az evolúció része lesz - talán az evolúció úgy működik, hogy az intelligencia fokozatosan fejlődik addig, amíg el nem éri azt a fordulópontot, amely az összes élőlény új jövőjét hirdeti:

Image
Image

A későbbiekben megvitatandó okok miatt a tudományos közösség hatalmas szakasza úgy véli, hogy nem az a kérdés, hogy eljutunk-e erre a csúcspontra, hanem mikor.

Hová kerülünk ez után?

Úgy gondolom, hogy senki sem a világon, sem én, sem te nem tudjuk elmondani, mi fog történni, amikor elérjük a csúcspontot. Oxfordi filozófus és Nick Bostrom vezető AI teoretikus úgy gondolja, hogy minden lehetséges eredményt két nagy kategóriába sorolhatunk.

Először, a történelemre nézve az alábbiakat tudjuk az életről: fajok megjelennek, léteznek egy ideig, majd elkerülhetetlenül leesnek az élet egyensúlyától és elhalnak.

Image
Image

"Az összes faj elpusztul" ugyanolyan megbízható szabály volt a történelemben, mint "mindennap meghal minden ember". A fajok 99,9% -a esett vissza az életnaplóból, és egyértelmű, hogy ha egy faj túl sokáig ezen a naplón marad, akkor a természetes szél széllökése vagy egy hirtelen aszteroida megfordítja a naplót. A Bostrom a kihalást vonzónak tekinti - egy olyan hely, ahol minden faj egyensúlyba kerül, hogy ne essen oda, ahol egyetlen faj sem tért vissza.

És bár a legtöbb tudós elismeri, hogy az ISI képes lesz arra, hogy az embereket kihaljon, az ISI képességeinek használata lehetővé teszi az egyének (és a faj egészének) elérését a vonzó második állapotában - a fajok halhatatlanságában. A Bostrom úgy véli, hogy egy faj halhatatlansága ugyanolyan vonzerőt jelent, mint egy faj kihalása, vagyis ha erre jutunk, akkor az örök létezésre leszünk ítélve. Így még akkor is, ha az összes faj a mai napig ebből a botból esett a kihalás fellendülésébe, a Bostrom úgy véli, hogy a rönknek két oldala van, és a Földön egyszerűen nem létezett olyan intelligencia, amely megértené, hogyan lehet a másik oldalra esni.

Image
Image

Ha a Bostromnak és másoknak igaza van, és a rendelkezésünkre álló információk alapján ítélve ezek valószínűleg igen, akkor két nagyon megrázó tényt kell elfogadnunk:

1. Az ISI megjelenése a történelem során először lehetővé teszi egy faj számára, hogy halhatatlanná váljon, és kilépjen a halálos kihalási ciklusból.

2. Az ISI megjelenése olyan elképzelhetetlenül hatalmas hatással lesz, hogy valószínűleg az emberiséget egyik vagy másik irányba ejti a sugárról.

Lehetséges, hogy amikor az evolúció elér egy ilyen fordulópontot, akkor mindig véget vet az emberek kapcsolatának az élet folyamával és új világot hoz létre, emberekkel vagy anélkül.

Ez érdekes kérdést vet fel, amelyet csak egy ütköző nem kérdezne meg: Mikor érjük el ezt a fordulópontot, és hol fogja feltenni? A világon senki sem tudja a választ erre a kettős kérdésre, de sok okos ember évtizedek óta megpróbálta kitalálni. A cikk többi részében kitaláljuk, honnan származtak.

* * *

Kezdjük a kérdés első részével: mikor kell elérnünk a csúcspontot? Más szavakkal: mennyi idő van hátra, amíg az első gép el nem éri a szuper intelligenciát?

A vélemények esetről esetre eltérőek. Sokan, köztük Vernor Vinge professzor, Ben Herzel tudós, a Sun Microsystems társalapítója, Bill Joy, futurisztikus Ray Kurzweil egyetértettek a gépi tanulási szakértővel, Jeremy Howarddal, amikor a következő grafikát mutatta be a TED Talkban:

Image
Image

Ezek az emberek osztják azt a nézetet, hogy az ISI hamarosan jön - ez az exponenciális növekedés, amely ma számunkra lassúnak tűnik, szó szerint felrobban az elkövetkező néhány évtizedben.

Mások, például a Microsoft társalapítója Paul Allen, kutatási pszichológus Gary Marcus, számítógépes szakértő Ernest Davis és Mitch Kapor technológiai vállalkozó, úgy vélik, hogy a Kurzweilhez hasonló gondolkodók súlyosan alábecsülik a probléma nagyságrendjét, és azt gondolják, hogy nem vagyunk olyan közel a csúcsponthoz.

Kurzweil táborában azt állítják, hogy az egyetlen alábecsülés az exponenciális növekedés figyelmen kívül hagyásával jár, és a kételkedők összehasonlíthatók azokkal, akik 1985-ben a lassan virágzó internetet nézték és azt állították, hogy ez a közeljövõben nincs hatással a világra.

A kétségek elháríthatják, hogy a haladásnak nehezebb minden egyes lépést megtenni, amikor az intelligencia exponenciális fejlesztésére kerül sor, ami semlegesíti a technológiai fejlődés tipikus exponenciális jellegét. Stb.

A harmadik tábor, amelyben Nick Bostrom van, nem ért egyet az elsővel vagy a másodikval, azzal érvelve, hogy a) mindez abszolút megtörténhet a közeljövőben; és b) nincs garancia arra, hogy ez egyáltalán megtörténik, vagy hogy hosszabb időt vesz igénybe.

Mások, mint például a Hubert Dreyfus filozófus, úgy vélik, hogy mindhárom csoport naiv módon hiszi, hogy egyáltalán lesz fordulópont, és valószínűleg soha nem jutunk el az ISI-hez.

Mi történik, ha ezeket a véleményeket összerakjuk?

2013-ban a Bostrom felmérést készített, amelyben a mesterséges intelligencia szakértőinek százaival interjút készített egy, a következő témájú konferencia sorozat során: "Milyen előrejelzései vannak az AGI elérésének emberi szinten?" és arra kért minket, hogy nevezze meg az optimista évet (amelyben 10% esély lesz az AGI-ra), egy reális feltételezést (egy olyan évet, amelyben 50% -os valószínűséggel lesz AGI) és magabiztos feltételezést (a legkorábbi év, amikor az AGI megjelenik 90 óta) -százalékos valószínűség). Íme az eredmények:

- Átlagos optimista év (10%): 2022

- Reális év (50%): 2040

- Átlagos pesszimista év (90%): 2075

Átlagos válaszadók úgy vélik, hogy 25 év alatt inkább AGI lesz. Az AGI 90% -ának esélye 2075-re fordul elő azt jelenti, hogy ha még mindig elég fiatal vagy, valószínűleg az életedben fog megtörténni.

James Barratt (az elismert és nagyon jó könyvünk, a Legújabb találmányunk, a kivonatok, amelyekre a Hi-News.ru olvasói figyelmét felhívtam) és Ben Herzel, a közelmúltban készített külön tanulmány az AGI Konferencián, az éves AGI Konferencián, egyszerűen kimutatta az emberek véleményét. az évhez viszonyítva eljutunk az AGI-hez: 2030, 2050, 2100, később vagy soha. Íme az eredmények:

- 2030-ra: a válaszadók 42% -a

- 2050-re: 25%

- 2100-ig: 20%

- 2100 után: 10%

- Soha: 2%

Hasonló a Bostrom eredményeihez. Barratt közvélemény-kutatásában a megkérdezettek több mint kétharmada azt hiszi, hogy 2050-ig itt lesz az AGI, és kevesebb mint fele úgy gondolja, hogy az AGI megjelenik a következő 15 évben. Fantasztikus az is, hogy a válaszadók csak 2% -a elvileg nem látja az AGI-t a jövőnkben.

De az AGI nem olyan fordulópont, mint az ISI. Mikor lesz a szakértők szerint ISI?

Bostrom megkérdezte a szakértőket, hogy mikor érjük el az ASI-t: a) két évvel az AGI elérése után (vagyis szinte azonnal, az intelligencia robbanása miatt); b) 30 év elteltével. Eredmények?

Az átlagos vélemény az, hogy az AGI-ról az ISI-re történő gyors átmenet 10% -os valószínűséggel fog megtörténni, de legfeljebb 30 év alatt 75% -os valószínűséggel.

Ezen adatok alapján nem tudjuk, mely időpontban hívják fel a válaszadók az ASI 50 százalékos esélyét, de a fenti két válasz alapján feltételezzük, hogy 20 év. Vagyis a világ vezető AI szakértői úgy vélik, hogy a fordulópont 2060-ban érkezik (az AGI 2040-ben jelenik meg + 20 évbe telik az AGI-ről az ISI-re történő áttérés).

Image
Image

Természetesen a fenti statisztikák spekulatív jellegűek, és csak a mesterséges intelligencia területével foglalkozó szakemberek véleményét képviselik, de azt is jelzik, hogy az érintett emberek többsége egyetért azzal, hogy 2060-ra valószínűleg megérkezik az AI. Csak 45 év alatt.

Folytassuk a második kérdéssel. Amikor eljutunk a fordulóponthoz, a végzetes választás melyik oldala határozza meg minket?

A szuper intelligencianek lesz a legerősebb ereje, és számunkra a következő kritikus kérdés lesz:

Ki vagy mi irányítja ezt a hatalmat, és mi lesz a motivációjuk?

A kérdésre adott válasz attól függ, hogy az ISI hihetetlenül erőteljes fejlődést, mérhetetlenül félelmetes fejleményt vagy-e valami köztük.

Természetesen a szakértői közösség is megpróbálja megválaszolni ezeket a kérdéseket. A Bostrom közvélemény-kutatása elemezte az AGI emberiségre gyakorolt hatásának lehetséges következményeinek valószínűségét, és kiderült, hogy 52 százalékos eséllyel minden nagyon jól megy, és 31 százalékos eséllyel minden rosszul vagy rendkívül rosszul megy. A téma előző részének végén közzétett közvélemény-kutatás, amelyet közted, a Hi-News kedves olvasói körében készítettek, ugyanazokat az eredményeket mutatta. Egy viszonylag semleges eredmény esetén a valószínűség csak 17% volt. Más szavakkal, mindannyian hisszük, hogy az AGI nagy ügy lesz. Érdemes megjegyezni, hogy ez a felmérés az AGI kialakulására vonatkozik - ISI esetében a semlegesség százaléka alacsonyabb lesz.

Mielőtt elmélyülnénk a kérdés jó és rossz oldalának gondolkodásán, vegyük össze a kérdés mindkét oldalát - "mikor fog ez megtörténni?" és "ez jó vagy rossz?" egy táblázatba, amely felöleli a legtöbb szakértő véleményét.

Image
Image

Egy perc múlva beszélünk a fő táborról, de először döntsünk a helyzetéről. Valószínűleg ugyanabban a helyen vagy, ahol voltam, mielőtt elkezdtem dolgozni a témán. Több oka van annak, hogy az emberek egyáltalán nem gondolkodnak erről a témáról:

- Mint az első részben említésre került, a filmek komolyan megtévesztették az embereket és a tényeket, és irreális forgatókönyveket mutattak be a mesterséges intelligenciával, ami ahhoz vezetett, hogy nem szabad komolyan vennünk az AI-t. James Barratt ezt a helyzetet hasonlította a Betegségvédelmi Központok (CDC) által kiadott komoly figyelmeztetésre a jövő vámpírjaival kapcsolatban.

- Az úgynevezett kognitív torzítások miatt nagyon nehéz számunkra hinni, hogy valami valódi, amíg nincs bizonyíték. Biztosan el lehet képzelni, hogy az 1988. évi számítógépes tudósok rendszeresen megvitatják az internet kiterjedt következményeit és az Internet válságát, ám az emberek alig hitték abban, hogy az életük megváltoztatja, amíg valójában meg nem történik. Csak az, hogy a számítógépek nem tudták, hogyan kell ezt csinálni 1988-ban, és az emberek csak nézték a számítógépüket és azt gondolták: „Tényleg? Ez változtatja meg a világot? Képzeletüket korlátozta az, amit személyes tapasztalataik tanítottak nekik, tudták, mi a számítógép, és nehéz elképzelni, hogy egy számítógép a jövőben képes lenne. Ugyanez történik most az AI-vel is. Hallottuk, hogy ez komoly dolog leszde mivel még nem találkoztunk szemtől szemben, és általánosságban megfigyeljük az AI gyenge megnyilvánulásait modern világunkban, nekünk elég nehéz elhinni, hogy ez radikálisan megváltoztatja az életünket. Ezeknek az előítéleteknek az ellenére állnak szemben az összes tábor számos szakértője, valamint az érdeklődők, hogy megpróbálják felhívni a figyelmünket a mindennapi kollektív egocentrizmus zajára.

- Még ha mindegyikünkben is hittünk - hányszor gondolkodott már azon a tényen, hogy az örökkévalóság hátralévő részét semmiből fogja eltölteni? Egy kicsit, egyetértek. Még ha ez a tény sokkal fontosabb, mint bármi, amit napról napra teszel. Ennek oka az, hogy az agyunk általában a kicsi, mindennapi dolgokra összpontosít, függetlenül attól, hogy milyen hosszútávú helyzetben találjuk magunkat. Csak hogy készítettünk.

A cikk egyik célja az, hogy kiszabadítson az „Én más dolgokra gondolok” elnevezésű táborból és a szakértői táborba vezesse, még akkor is, ha éppen a fenti mezőben lévő két pontozott vonal közötti kereszteződésen állsz, teljesen határozatlanul.

A kutatás során nyilvánvalóvá válik, hogy a legtöbb ember véleménye gyorsan elmozdul a „főtábor” felé, és a szakértők háromnegyede a főtábor két alkamrájába esik.

Image
Image

Mindkét táborot teljes egészében meglátogatjuk. Kezdjük szórakozással.

Miért lehet a jövő legnagyobb álma?

Az AI-világ felfedezésekor meglepően sok embert találunk komfortzónánkban. A jobb felső sarokban lévő emberek izgalommal zümmögnek. Úgy vélik, hogy a napló jó oldalára esünk, és ők azt is hiszik, hogy elkerülhetetlenül erre fogunk jutni. Számukra a jövő csak a legjobb, amiről csak álmodni lehet.

A lényeg, amely megkülönbözteti ezeket az embereket a többi gondolkodótól, nem az, hogy boldog oldalon akarnak lenni, hanem az, hogy biztosak abban, hogy ő ránk vár.

Ez a bizalom ellentmondásos. A kritikusok szerint a káprázatos izgalom okozza a lehetséges negatív oldalakat. A támogatók szerint a komor előrejelzések mindig naivak; a technológia folytatódik, és mindig többet fog nekünk segíteni, mint ártani.

Ön szabadon választhatja meg ezen vélemények bármelyikét, de tegye félre a szkepticizmust, és vigyázzon az egyensúlyi fény boldog oldalára, megpróbálva elfogadni azt a tényt, hogy minden, amit elolvastat, már megtörtént. Ha megmutatná a vadászgyűjtőknek a kényelem, a technológia és a végtelen bőség világát, mágikus fikciónak tűnik számukra - és meglehetősen szerényen viselkedünk, és nem tudjuk beismerni, hogy ugyanaz az érthetetlen átalakulás vár ránk a jövőben.

Nick Bostrom három utat ír le, amelyeket egy szuper intelligens AI-rendszer megtehet:

Orakula, amely bármilyen pontos kérdést megválaszolhat, beleértve az összetett kérdéseket is, amelyekre az emberek nem tudnak válaszolni - például "hogyan lehetne hatékonyabbá tenni az autómotort?" A Google az "orákulum" primitív típusa.

A démon, aki bármilyen magas szintű parancsot végrehajt - a molekuláris összeszerelőt használva egy új, hatékonyabb motorváltozat elkészítéséhez - és megvárja a következő parancsot.

Olyan szuverén, aki széles körű hozzáféréssel és képességgel fog szabadon mûködni a világon, saját döntéseit meghozva és javítva a folyamatot. Talál egy olcsóbb, gyorsabb és biztonságosabb magánszállítási módot, mint egy autó.

Ezek a kérdések és feladatok, amelyek nekünk nehéznek tűnnek, úgy tűnik a szuper intelligens rendszer számára, mintha valaki felkérne javítani a helyzetet: „a ceruza leesett az asztalról”, amelyben egyszerűen felveszi és visszahelyezi.

Eliezer Yudkowski, a mesterséges intelligencia amerikai szakértője jól fogalmazta meg:

„Nincsenek nehéz problémák, csak olyan problémák, amelyek egy bizonyos szintű intelligencia szempontjából nehézek. Menj egy lépéssel magasabbra (az intelligencia szempontjából), és néhány probléma hirtelen a „lehetetlen” kategóriából a „nyilvánvaló” táborba kerül. Egy lépéssel magasabbra - és mind nyilvánvalóvá válnak."

Számos türelmetlen tudós, feltaláló és vállalkozó választotta a magabiztos kényelmi zónát az asztalunkon, de csak egy útmutatóra van szükségünk, hogy a világ legjobbjai között sétáljunk.

Ray Kurzweil kétértelmű. Mások bálványosítják ötleteit, mások megvetik. Néhányan a közepén maradnak - Douglas Hofstadter, Kurzweil könyveinek gondolatait megvitatva, ékesszólóan megjegyezte, hogy "úgy tűnik, mintha sok jó ételt és egy kis kutyakakot vett el, majd mindent oly módon összekevert, hogy lehetetlen megérteni, mi a jó és mi a rossz."

Akár tetszik az ötletei, akár nem, lehetetlen érdeklődés árnyékának nélkül átadni őket. Tinédzserként kezdte feltalálni a dolgokat, és a következő években számos fontos dolgot feltalált, köztük az első síkágyas szkennert, az első szöveget beszédre konvertáló szkennert, a közismert Kurzweil zenei szintetizátort (az első igazi elektromos zongora) és az első kereskedelmi szempontból sikeres beszédfelismerőt. Öt szenzációs könyv szerzője. Kurzweilt nagyra becsülik merész előrejelzései miatt, és múltbeli eredményei meglehetősen jóak - a 80-as évek végén, amikor az internet még gyerekcipőben volt, azt jósolta, hogy a 2000-es évekre az Internet globális jelenséggé válik. A Wall Street Journal a Kurzweilt "nyugtalan zseninek", a Forbes-t "globális gondolkodási gépnek" nevezi. Magazin - "Edison törvényes örököse", Bill Gates - "a legjobb ezek közülaki jósolja a mesterséges intelligencia jövőjét. " 2012-ben a Google társalapítója, Larry Page meghívta Kurzweilt a CTO posztjára. 2011-ben társalapította a Singularity University-t, amelyet a NASA üzemeltet és részben a Google szponzorál.

Életrajza számít. Amikor Kurzweil a jövőképéről beszél, őrült őrületnek hangzik, ám az igazán őrült dolog az, hogy messze nem őrült - hihetetlenül intelligens, képzett és józan ember. Gondolhatja, hogy téves az előrejelzéseiben, de nem bolond. Kurzweil előrejelzéseivel sok komfortzóna szakértő, Peter Diamandis és Ben Herzel osztozik. Szerinte ez fog történni.

Kronológia

Kurzweil úgy véli, hogy a számítógépek 2029-ig el fogják érni az általános mesterséges intelligencia (AGI) szintjét, és 2045-re 2045-re nemcsak mesterséges szuperintellenségünk lesz, hanem egy teljesen új világ is lesz - az úgynevezett szingularitás ideje. Az AI kronológiáját továbbra is felháborítóan túlzónak tekintik, ám az elmúlt 15 évben a magasan koncentrált mesterséges intelligencia (AI) rendszerek gyors fejlődése sok szakértőt kényszerített a Kurzweil oldalára. Jóslatai továbbra is ambiciózusabbak, mint a Bostrom felmérésénél (AGI 2040-re, ISI 2060-ra), de nem sokat.

Kurzweil szerint három egyidejű forradalom a biotechnológiában, a nanotechnológiában és, ami még fontosabb, az AI, vezetik a 2045-es szingularitást. De mielőtt továbbmennénk - és a nanotechnológia szorosan követi a mesterséges intelligenciát -, szánjunk egy percet a nanotechnológiára.

Image
Image

Néhány szó a nanotechnológiáról

Általában olyan nanotechnológiai technológiákat hívunk, amelyek az anyag manipulálásával foglalkoznak 1-100 nanométer tartományban. A nanométer méter egymilliomodik vagy milliméter milliárd része; Az 1-100 nanométeres tartományban vírusok (átmérője 100 nm), DNS (szélessége 10 nm), hemoglobinmolekulák (5 nm), glükóz (1 nm) és még sok más alkalmazható. Ha a nanotechnológia valaha is a mi tárgyunk lesz, akkor a következő lépés egy olyan nagyságrenddel kevesebb atomok manipulálása, amelyek kevesebb mint egy nagyságrend (~, 1 nm).

Annak megértése érdekében, hogy az emberek milyen problémákba ütköznek, amikor igyekszünk ilyen méretű anyagot manipulálni, ugorjunk nagyobb méretre. A Nemzetközi Űrállomás 481 kilométerre fekszik a Föld felett. Ha az emberek óriások lennének és fejükkel megütnék az ISS-t, akkor 250 000-szer nagyobbak lennének, mint most. Ha 250 000-szer nagyít valamit 1-től 100 nanométerig, akkor 2,5 centiméter lesz. A nanotechnológia egyenértékű azzal, hogy az ember kering az ISS-en, és megpróbálja manipulálni a homok szemcséjének vagy a szemgolyójának méretét. A következő szintre jutáshoz - az egyes atomok ellenőrzéséhez - az óriásnak gondosan el kell helyeznie az 1/40 milliméter átmérőjű tárgyakat. A hétköznapi embereknek mikroszkóppal kell látniuk őket.

Richard Feynman először 1959-ben beszélt a nanotechnológiáról. Aztán azt mondta: „A fizika alapelvei, amennyire meg tudom mondani, nem érvelnek azzal a lehetőséggel, hogy a dolgokat atomról atomra irányítsák. Elvileg a fizikus bármilyen vegyszert előállíthat, amelyet a vegyész írt. Hogyan? Az atomok elhelyezésével, ahol a vegyész azt állítja, hogy megszerezte az anyagot. Ez az egész egyszerűség. Ha tudja, hogyan mozgathatja az egyes molekulákat vagy atomokat, szinte bármit megtehet.

A nanotechnológia komoly tudományos területté vált 1986-ban, amikor Eric Drexler mérnök bemutatta alapjait a Creation Machines alapkönyvében, ám maga Drexler úgy véli, hogy azoknak, akik többet szeretnének megismerni a nanotechnológia modern ötleteiről, el kell olvasniuk 2013. évi könyvét. Teljes bőség (radikális bőség).

Ha eljutunk a nanotechnológia aljára, felhasználhatjuk azt műszaki eszközök, ruházat, élelmiszer, biotermékek - vérsejtek, vírusok és rák elleni harcok, izomszövet stb. - készítésére. És egy nanotechnológiát használó világban egy anyag költségét már nem a szűkösséghez vagy a gyártási folyamat összetettségéhez kötik, hanem atomi szerkezetének összetettségéhez. A nanotechnológia világában a gyémánt olcsóbb lehet, mint a radír.

Még nem is állunk ott oda. És nem teljesen világos, hogy alábecsüljük-e vagy túlbecsüljük-e ezen út összetettségét. Minden azonban arra a pontra megy, hogy a nanotechnológia nem messze van. Kurzweil azt feltételezi, hogy a 2020-as évekre megvan nekik. A világállamok tudják, hogy a nanotechnológia nagyszerű jövőt ígérhet, és ezért sok milliárdnyi beruházást fektet be ezekbe.

Képzelje el, milyen lehetőségeket kínálna egy szuperintelligens számítógép, ha megbízható nanoméretű összeszerelőt kap. De a nanotechnológia a mi elképzelésünk, és megpróbáljuk ezt megvalósítani, nekünk nehéz. Mi van, ha ezek csak vicc az ISI rendszer számára, és maga az ISI olyan technológiákkal fog előállni, amelyek sokszor erősebbek, mint bármi, amit elvben feltételezhetünk? Megállapodtunk: senki sem tudja elképzelni, hogy mire képes a mesterséges szuper intelligencia? Úgy gondolják, hogy agyunk még a minimumot sem tudja megjósolni, mi fog történni.

Mit tehetne nekünk az AI?

A szuperintelligenciával és az összes olyan technológiával felfegyverkezve, amelyet a szuperintelligencia létrehozhat, az ISI valószínűleg képes lesz megoldani az emberiség összes problémáját. Globális felmelegedés? Az ISI először leállítja a szén-dioxid-kibocsátást azáltal, hogy energiahatékony energiahatékonyságú energiahatékony nem fosszilis tüzelőanyagokat talál fel. Ezután elő fog állni egy hatékony, innovatív módszerrel a felesleges CO2 eltávolítására a légkörből. Rák és más betegségek? Nem probléma - az egészségügy és az orvostudomány olyan módon fog változni, amelyet lehetetlen elképzelni. Világ éhség? Az ISI a nanotechnológiát fogja felhasználni olyan hús előállítására, amely azonos a természetes, a semmiből származó, valódi hússal.

Image
Image

A nanotechnológia képes lesz egy hulladék szemetet friss hús vagy más étel tartályává alakítani (nem is feltétlenül a szokásos formájában - képzeljünk el egy óriási almás kocka), és ezt az ételt az egész világon korszerű szállítási rendszerekkel eloszthatja. Természetesen ez nagyszerű lesz azoknak az állatoknak, amelyeknek nem kell többé meghalniuk élelmiszerért. Az ISI sok más dolgot is elvégezhet, például megőrizheti a veszélyeztetett fajokat, vagy akár visszahozhatja a kihalt fajokat a tartósított DNS-ből. Az ISI meg tudja oldani a legnehezebb makrogazdasági problémáinkat - a legnehezebb gazdasági vitáinkat, etikai és filozófiai kérdéseinket, a globális kereskedelmet -, amelyek mindegyike fájdalmasan nyilvánvaló lesz az ISI számára.

De van valami nagyon különleges, amit az ISI tehet nekünk. Csábító és kísérteties dolgok mindent megváltoztatnak: az ISI segíthet megbirkózni a halálozásban. Az AI képességeinek fokozatos megértésével talán átgondolja az összes halállal kapcsolatos elképzelését.

Az evolúciónak nem volt oka meghosszabbítani élettartamunkat, mint most. Ha elég hosszú ideig élünk ahhoz, hogy a szülést és a gyermekeket olyan mértékben neveljük, ahol meg tudják maguknak védekezni, akkor elegendő az evolúció. Evolúciós szempontból 30+ év elegendő a fejlődéshez, és nincs oka a mutációknak az élet meghosszabbítására és a természetes szelekció értékének csökkentésére. William Butler Yates fajtánkat "egy haldokló állathoz kapcsolódó lelkének" nevezte. Nem sok móka.

És mivel egyszer mind meghalunk, azzal a gondolattal élünk, hogy a halál elkerülhetetlen. Az idősödésre gondolunk az idő múlásával - folytatjuk az előrehaladást, és nem tudjuk megállítani ezt a folyamatot. De a halál gondolata rettenetes: elfogva elfelejtjük élni. Richard Feynman írta:

„A biológiában van egy csodálatos dolog: ebben a tudományban semmi sem beszélne a halál szükségességéről. Ha örökmozgás gépet akarunk létrehozni, rájövünk, hogy a fizikában elegendő törvényt találtunk, amelyek vagy jelzik ennek lehetetlenségét, vagy hogy a törvények helytelenek. De a biológiában semmi nem utal a halál elkerülhetetlenségére. Ez arra vezet, hogy azt hiszem, hogy ez nem annyira elkerülhetetlen, és csak idő kérdése, hogy a biológusok felfedezzék ennek a problémanak a szörnyű univerzális betegséget, amely gyógyulni fog."

A helyzet az, hogy az öregedésnek semmi köze sincs az időhöz. Az öregedés az, amikor a test fizikai anyagai elhasználódnak. Az autóalkatrészek is leromlanak - de elkerülhetetlen-e az öregedés? Ha javítja az autóját, mivel az alkatrészek elhasználódnak, az örökké tart. Az emberi test nem különbözik - csak összetettebb.

Kurzweil az intelligens, Wi-Fi-hez csatlakoztatott nanobotokról beszél a véráramban, amelyek számtalan feladatot tudnak végrehajtani az emberi egészség számára, beleértve a kopott sejtek rendszeres javítását vagy cseréjét a test bármely részén. Ennek a folyamatnak a javítása (vagy az okosabb ASI által javasolt alternatív megoldás keresése) nem csak a testet tartja egészségesnek, hanem megfordíthatja az öregedést. A különbség a 60 éves és a 30 éves test között egy maroknyi fizikai kérdésben rejlik, amelyeket a megfelelő technológiával meg lehet javítani. Az ISI készíthet egy autót, amelybe egy személy 60 éves korában léphet be, és 30 éves korában elhagyhatja az autót.

Még egy leromlott agy is megújulhat. Az ISI biztosan tudja, hogyan kell ezt megtenni az agyadatok (személyiség, emlékek stb.) Befolyásolása nélkül. A teljes agyi degradációtól szenvedő 90 éves férfi átképzésen eshet át, megújulhat és visszatérhet az élet elejére. Abszurdnak tűnhet, de a test maroknyi atomot tartalmaz, és az ISI minden bizonnyal könnyen manipulálhatja őket, bármilyen atomszerkezetet. Nem olyan abszurd.

Kurzweil azt is hiszi, hogy a mesterséges anyagok egyre inkább integrálódnak a testbe az idő múlásával. A kezdet kezdetén a szerveket kicserélhetik olyan szuper-fejlett gépi verziókra, amelyek örökké tartanak és soha nem buknak el. Ezután teljes test-újratervezést végezhetünk, a vörösvértestek cseréjére tökéletes nanobotokkal, amelyek önmagukban mozognak, és ezzel teljes mértékben megszüntetjük a szív szükségességét. Javíthatjuk kognitív képességeinket is, milliárdszor gyorsabban gondolkodhatunk, és a felhőn keresztül hozzáférhetünk az emberiség számára rendelkezésre álló összes információhoz.

Az új láthatár megértésének lehetőségei valóban végtelenek. Az embereknek új célt sikerült felruházniuk a szexre, ízlésükre, nemcsak szaporodás céljából. Kurzweil úgy gondolja, hogy ugyanezt tehetjük étellel. A nanobotok ideális táplálkozást biztosíthatnak közvetlenül a test sejtjeinek, lehetővé téve az egészségtelen anyagok átjutását a testben. Robert Freitas nanotechnológiai teoretikus már kifejlesztett egy olyan vérsejtek pótlását, amelyek az emberi testben való alkalmazásukkor lehetővé teszik számára, hogy 15 percig ne lélegezzen - és ezt egy ember találta ki. Képzelje el, mikor kap az ISI hatalmat.

Végül is, Kurzweil úgy véli, hogy az emberek elérték azt a pontot, ahol teljesen mesterségesvé válnak; az az idő, amikor megvizsgáljuk a biológiai anyagokat és gondolkodunk azon, hogy milyen primitívak voltak; amikor elolvasunk az emberi történelem korai szakaszairól, csodálkoztak arról, hogy a baktériumok, balesetek, betegségek vagy egyszerűen az öregkor ösztönözze az embert az akarata ellenére. Végül az emberek legyőzik saját biológiáját és örökké válnak - ez az út az egyensúlyi sugár boldog oldalához, amiről már a kezdetektől beszéltünk. És az emberek, akik ebben hisznek, szintén biztosak abban, hogy egy ilyen jövő nagyon hamarosan vár ránk.

Valószínűleg nem lepődsz meg azzal, hogy Kurzweil ötletei kemény kritikát vonzottak. A szingularitását 2045-ben és az azt követő örök életet az embereknek „az érzések felemelkedése” -nek vagy az „intelligens emberek teremtése, amelynek IQ-ja 140” nevezték. Mások megkérdőjelezték az optimista időkeretet, az emberi test és agy megértését, emlékeztetve Moore törvényét, amely még nem ment el. Minden olyan szakember számára, aki hisz Kurzweil elképzeléseiben, három úgy gondolja, hogy tévedett.

De a legérdekesebb dolog ebben az, hogy a legtöbb vele egyet nem értő szakértő általában nem azt mondja, hogy ez lehetetlen. Ahelyett, hogy "szar, ez soha nem fog megtörténni", azt mondják, hogy "mindez megtörténik, ha eljutunk az ISI-hez, de ez a fogás". A Bostrom, az egyik elismert AI-szakértő, aki figyelmezteti az AI veszélyét, elismeri:

„Alig marad fenn olyan probléma, amelyet a szuper intelligencia nem tud megoldani, sőt még nem is segíthet nekünk. Betegség, szegénység, a környezet pusztulása, mindenféle szenvedés - ez a szuperintelligencia nanotechnológia segítségével egy pillanat alatt megoldódhat. A szuperintelligencia korlátlan élettartamot is adhat nekünk azáltal, hogy megállítja és megfordítja az öregedési folyamatot a nanomedicinával, vagy azzal a képességgel, hogy feltölteni minket a felhőbe. A szuperintelligencia lehetőséget teremt az intellektuális és érzelmi képességek végtelen növekedésére is; segíthet egy olyan világ létrehozásában, amelyben örömmel és megértéssel fogunk élni, megközelítéseinkhez közeledve és rendszeresen valóra váltva álmainkat."

Ez egy idézet a Kurzweil egyik kritikusától, aki elismeri, hogy mindez lehetséges, ha biztonságos ASI-t tudunk létrehozni. Kurzweil egyszerűen meghatározta, hogy mi legyen a mesterséges szuperintelligencia, ha egyáltalán lehetséges. És ha jó isten.

A kényelemzóna támogatóinak legszembetűnőbb kritikája az, hogy tévedhetnek tévedni az ISI jövőjének értékelésekor. A szingularitás című könyvében Kurzweil 700 lehetséges ISI fenyegetés közül 20 oldalt szentelt. A kérdés nem az, hogy mikor jutunk az ISI-hez, az a kérdés, hogy mi lesz annak motivációja. Kurzweil óvatosan válaszol erre a kérdésre: „Az ISI számos különféle erőfeszítésből származik, és mélyen integrálódik civilizációnk infrastruktúrájába. Valójában szorosan beágyazódik a testünkbe és az agyba. Vissza fogja tükrözni az értékeinket, mert egy velünk lesz."

De ha a válasz: miért aggódnak ennyire okos emberek a világon a mesterséges intelligencia jövője miatt? Miért mondja Stephen Hawking, hogy az ISI fejlődése "az emberiség végét jelentheti"? Bill Gates szerint "nem érti az embereket, akik nem zavarják". Elon Musk attól tart, hogy "démont hívunk". Miért sok szakértő úgy véli, hogy az ISI az emberiség legnagyobb veszélye?

A waitbutwhy.com anyaga alapján, Tim Urban összeállítása. A cikk Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog és Kai Sotal, Susan Schneider, Stuart Russell és Peter Norvig, Theodore Modis alkotásainak anyagából készül. Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Szerző: Ilya Khel

Harmadik rész: miért lehet ez az utolsó találmányunk?