Veszélyes Emberiség: Miért Van Szükségünk Intelligens Mesterséges Intelligenciára? - Alternatív Nézet

Tartalomjegyzék:

Veszélyes Emberiség: Miért Van Szükségünk Intelligens Mesterséges Intelligenciára? - Alternatív Nézet
Veszélyes Emberiség: Miért Van Szükségünk Intelligens Mesterséges Intelligenciára? - Alternatív Nézet

Videó: Veszélyes Emberiség: Miért Van Szükségünk Intelligens Mesterséges Intelligenciára? - Alternatív Nézet

Videó: Veszélyes Emberiség: Miért Van Szükségünk Intelligens Mesterséges Intelligenciára? - Alternatív Nézet
Videó: A mesterséges intelligencia tudatára ébred - Dienes István, Jakab István 2024, Lehet
Anonim

Amikor Norbert Wiener, a kibernetika atyja 1950-ben írta az emberi felhasználásról szóló könyvet, a vákuumcsövek továbbra is az alapvető elektronikus építőelemek voltak, és valójában csak néhány számítógép működött. Példátlan pontossággal látta el a jövőt, amelyet most látunk, csak apró részletekkel tévedett össze.

A mesterséges intelligencia bármely más filozófusa előtt rájött, hogy az AI nem csupán az embereket utánozza és helyettesíti sokféle szellemi tevékenységben, hanem megváltoztatja az embereket is a folyamatban. "Mi csak pezsgőfürdők vagyunk az állandó folyó víz folyójában" - írta. "Mi nem vagyunk olyanok, akik csak élnek, olyan modellek vagyunk, amelyek állandósítják magukat."

Például, ha sok vonzó lehetőség merül fel, hajlandóak vagyunk fizetni és elfogadni az üzleti lehetőségek alacsony költségeit az új lehetőségek elérése érdekében. És nagyon hamar az új eszközök függővé válnak, elveszítjük képességüket, hogy nélkülük létezzünk. Opciók szükségesek.

Ez egy nagyon régi evolúciótörténet, és az abból származó fejezetek sokasága jól ismert számunkra. A legtöbb emlős képes szintetizálni saját C-vitamint, de a gyümölcsfogyasztási főemlősök elveszítették ezt a beépített képességet. Az önismétlődő minták, amelyeket embereknek hívunk, most ruházatra, feldolgozott ételekre, vitaminokra, fecskendőkre, hitelkártyákra, okostelefonokra és az internetre támaszkodnak. És holnap, ha nem ma, a mesterséges intelligenciából.

Wiener számos olyan problémát látott előre ebben a helyzetben, amelyet Alan Turing és más korai AI-optimisták nagyrészt figyelmen kívül hagytak. Szerinte az igazi fenyegetés:

… hogy az ilyen gépeket, bár önmagukban tehetetlenek, az emberek használhatják vagy blokkolhatják az embereket annak érdekében, hogy növeljék ellenőrzésüket a faj többi része felett, vagy a politikai vezetők megpróbálhatják átvenni a lakosság irányítását politikai módszerekkel, nem magukkal a gépekkel, olyan szűk és közömbös az embernél, mintha mechanikusan találnák meg őket.

Nyilvánvaló, hogy ezek a veszélyek most nagyon relevánsak.

Például a médiában a digitális hang- és videóinnováció lehetővé teszi, hogy kis árat fizetjünk (az audiofilek és a filmszerzők szemében), hogy elmozduljunk az analóg formátumoktól, és cserébe egy rendkívül egyszerű - túl egyszerű - módot kapunk a felvételek szinte korlátozások nélküli lejátszására.

Promóciós videó:

Image
Image

De óriási rejtett költségek vannak. Orwell igazságszolgáltatása valódi lehetőséggé vált. Az AI gyakorlatilag megkülönböztethetetlen hamis "nyilvántartások" létrehozására szolgáló technikái az elmúlt 150 év során elavulttá teszik azokat az eszközöket, amelyeket a nyomozáshoz használtunk.

Csak el kell hagynunk a fényképészeti bizonyítékok rövid korszakát, és visszatérnünk ahhoz a régi világba, ahol az emberi memória és a bizalom volt az arany színvonal. Vagy új védelmi és támadási módszereket fejleszthetünk ki az igazságért folytatott harcban. Az utóbbi idők egyik legizgalmasabb példája az, hogy sokkal olcsóbb a jó hírnév megsemmisítése, mint az, hogy ugyanazt a hírnevet megszerezzék és megóvják. Wiener ezt a jelenséget nagyon széles körben látta: "Hosszú távon nem lesz különbség a felfegyverzés és az ellenség felfegyverzése között." Az információ korszaka a dezinformáció korszakává is vált.

Amit tehetünk? A kulcs Wiener ugyanazon megfigyelése, miszerint "ezek a gépek" "maguk is tehetetlenek". Eszközöket készítünk, nem kollégákat, és az igazi veszély az, hogy nem látjuk a különbséget.

A mesterséges intelligencia jelenlegi formájában parazitálja az emberi intelligenciát. Nagyon szokatlanul birtokolja az emberi alkotók által létrehozott mindent, és mintákat rajzol - ideértve a legtitkosabb szokásainkat is. Ezeknek a gépeknek még nincsenek céljaik vagy stratégiáik, nem képesek önkritikára és innovációra, csak az adatbázisokat tanulmányozzák, saját gondolataik és céljaik nélkül.

Mint Wiener mondja, tehetetlenek, nem abban az értelemben, hogy láncolva vagy mozgásképtelenné válnak, nem, egyáltalán nem ügynökök - nem képesek „okokból cselekedni”, ahogy Kant állítja.

Hosszú távon az „erős AI” vagy az általános mesterséges intelligencia elvben lehetséges, de nem kívánatos. A még gyakoribb AI, amely manapság lehetséges, nem lesz gonosz. De veszélyt jelent - részben azért, mert összetéveszthető egy erős AI-vel.

Mennyire erős a mesterséges intelligencia?

A mai rendszerek és a népszerű fantáziát elárasztó sci-fi rendszerek közötti rés továbbra is hatalmas, bár sok ember, amatőrök és szakemberek egyaránt alábecsülik azt. Vessen egy pillantást az IBM Watson-jára, amely manapság valószínűleg tiszteletreméltó.

Ez a szuperszámítógép egy rendkívül nagyszabású kutatási és fejlesztési (kutatási és fejlesztési) folyamat eredménye, amely sok embert vonult be és a tervezési intelligencia sok évszázadon keresztül zajlik, és több ezerszer több energiát fogyaszt, mint az emberi agy. Győzelme a Jeopardyban! valódi diadal volt, amelyet a Jeopardy! szabályainak képletű korlátozásai tettek lehetővé, de a részvételhez még ezeket a szabályokat is felül kellett vizsgálni. Felemelnem kellett egy kis sokoldalúságot, és hozzá kellett adnom az emberiséget a show elkészítéséhez.

A Watson egy rossz társaság, annak ellenére, hogy az IBM félrevezető hirdetései mindkét szinten megkönnyítik az AI beszélgetési képességét, és a Watson hiteles, sokoldalú ügynökré változtatása olyan lenne, mintha egy számológépet Watson-ként alakítana át. A Watson jó számítástechnikai eset lehet egy ilyen ügynök számára, inkább a kisagy vagy amygdala, nem pedig elme - a legjobb esetben egy speciális célú alrendszer, amely támogatást nyújt, de nem szinte olyan rendszer a célok megtervezésére és megfogalmazására, amelyek a megszerzett beszélgetési tapasztalatok alapján vannak.

Miért akarunk gondolkodó és kreatív ügynököt létrehozni Watsonból? Talán Turing ragyogó ötlet - a híres Turing-teszt - csapdába csábított bennünket: megszállottá váltuk, hogy legalább egy képernyő előtt ülő valós ember illúzióját hozzuk létre, megkerülve a „baljós völgyet”.

A veszély az, hogy mivel Turing bemutatta feladatát - amely elsősorban a bírák megtévesztésének feladata volt -, az AI alkotói megpróbálták vicces humanoid babákkal, "rajzfilmekkel", amelyek elbűvölik és hatástalanítják a nem kezelt embereket. Joseph Weisenbaum ELIZA, a legelső chatbot, kiváló példa volt egy ilyen illúzió létrehozására, de egy rendkívül egyszerű algoritmussal, amely meggyőzte az embereket arról, hogy őszinte és őszinte beszélgetéseket folytatnak másokkal.

Aggódott amiatt, hogy az emberek hajlandóak hinni ebben. És ha megkapunk egy dolgot az éves Lebner-díjas korlátozott Turing-tesztből, akkor az is, hogy még a legokosabb emberek is, akik nem ismeri a számítógépes programozást, könnyen esnek ezeknek az egyszerű trükköknek.

Az AI-beli emberek hozzáállása az ilyen technikákhoz az ítéletektől a jutalmazásig terjed, és egyetértés van abban, hogy ezek a trükkök nem túl mélyek, de hasznosak lehetnek. A hozzáállás megváltoztatása, amely nagyon örvendetes lenne, őszinte beismerés lenne, hogy a babákkal festett androidok hamis hirdetések, amelyeket meg kell ítélni, nem pedig ösztönözni kell.

Hogyan lehet ezt elérni? Ha egyszer megértjük, hogy az emberek élet- és halálos döntéseket hoznak az AI rendszerek „tanácsai” követésével, amelyek belső mûveletei szinte érthetetlenek, jó okot fogunk találni azoknak, akik arra buzdítják az embereket, hogy bízzanak az ilyen rendszerekben, hogy támaszkodjanak az erkölcs és a törvény normáira.

A mesterséges intelligencia rendszerek nagyon hatékony eszközök. Olyan hatalmas, hogy még a szakértőknek is indokuk van nem bízni saját ítéletükben, amikor vannak „ítéletek”, amelyeket ezek az eszközök képviselnek. De ha az eszközök ezen használói pénzügyi vagy egyéb módon profitálnak ezen eszközök népszerűsítéséből, akkor nekik meg kell győződniük arról, hogy tudják, hogyan kell teljes felelősséggel, maximális ellenőrzéssel és indoklással csinálni.

Az ilyen rendszerek üzemeltetői engedélyezése és jóváhagyása - ugyanúgy, ahogyan engedélyezzük a gyógyszerészeket, darukezelőket és más szakembereket, akik hibáinak és téves ítéleteinek súlyos következményei lehetnek - a biztosítótársaságok és más szervezetek támogatásával a madárinfluenza-rendszerek alkotóit hosszú utat kötelezheti keresse termékeik gyengeségeit és hiányosságait, és kiképzi azokat is, akik velük dolgoznak.

Elképzelhető egyfajta fordított Turing-teszt, amelyben a bíró lesz az értékelés tárgya; Amíg nem talál gyengeséget, a határok megsértését, a rendszerben hiányosságokat, nem kap engedélyt. Egy ilyen bírónak komoly képzésre van szüksége a képesítés megszerzéséhez. Nagyon erős az a vágy, hogy egy tárgyhoz rendeljünk egy emberi gondolkodási képességet, amint általában az intelligens ügynökkel való találkozáskor tesszük.

Valójában furcsa dolog az a képesség, hogy ellenálljon a vágy, hogy valamit humanizáltak. Sokan kétségbe vonnák az ilyen tehetségek ápolását, mert még a rendszer legpragmatikusabb felhasználói is alkalmanként "barátságosak" az eszközökkel.

Függetlenül attól, hogy az AI tervezői milyen óvatosan választják meg a termékben a hamis "emberi" felszíneket, számítanunk kell a címkék, a megoldások és a tolerálható torzulások kialakulására mind a rendszerek, mind az operátorok tényleges "megértése" szempontjából. Ugyanúgy, ahogyan a hosszú mellékhatásokkal rendelkező gyógyszereket reklámozzák a TV-ben, vagy az alkoholt sokféle apró betűvel reklámozzák a törvény által előírt összes figyelmeztetéssel, tehát a mesterséges intelligencia fejlesztői betartják a törvényt, ám a figyelmeztetésekben kifinomultak.

Miért van szükségünk mesterséges intelligenciára?

Nem kell mesterséges tudatosságú ágensek. Vannak olyan természetes tudatosságok, amelyek elegendőek a szakemberek és a kiváltságos személyek számára elvégzendő feladatok elvégzéséhez. Intelligens eszközökre van szükségünk. Az eszközöknek nincs joguk, és nem szabad érzelmeket bántani vagy visszaélni.

Az egyik ok, amiért nem hoznak létre mesterséges tudatosságot, az, hogy bár önállóvá válhatnak (és elvben ugyanolyan autonómok, önjavítóak vagy önteremtők, mint bármelyik személy), nem szabad - külön engedély nélkül - megosztani velünk. természetes tudatosító szerek, sebezhetőségünk vagy halálozásunk.

Daniel Dennett, a Tufts Egyetemi filozófiaprofesszor egy mesterséges ágensekkel és autonómiával foglalkozó műhelyében kihívta a hallgatókat: Adj nekem egy robot specifikációját, amely szerződést tud kötni veled - nem egy másik személy tulajdonában álló helyettes, hanem önmagában. Nem az okok megértése vagy a toll segítségével történő papíron történő manipuláció kérdése, hanem a jogi státus és az erkölcsi felelősség tulajdonjogának és jól megérdemelt tulajdonjogának kérdése. Kisgyermekek nem írhatnak alá ilyen szerződéseket, valamint fogyatékkal élők, akiknek jogi státusa kötelezi őket gyámságra, és felelősséget ró a gyámokra.

Azoknak a robotoknak a problémája, amelyek esetleg el akarják érni az ilyen magasztos státuszt, hogy Supermanhoz hasonlóan túl érzékenyek az ilyen állítások benyújtására. Ha elutasítják, mi fog történni? Mi lesz a büntetés az ígéret megszegéséért? Fogva zárják őket ketrecbe, vagy elválasztják őket? A mesterséges intelligencia börtönje nem lesz kellemetlen, kivéve, ha először felszabadítjuk a szabadság iránti vágyat, amelyet maga az AI nem hagyhat figyelmen kívül vagy tilthat le. Az AI szétszerelése nem pusztítja el a lemezen és a szoftverben tárolt információkat.

Az adatok digitális rögzítése és továbbítása - az áttörés, amely lehetővé tette a szoftverek és adatok számára valójában halhatatlanság elérését - a sérülhetetlenné teszi a robotokat. Ha ez nem tűnik nyilvánvalónak, gondolkozzon azon, hogy az emberek erkölcse megváltozne, ha minden héten támogatnánk az embereket. Vasárnap péntek biztonsági mentése után gumi szalag nélkül leugrik a hídról, ami nehézkes döntés lehet, majd később megnézheti a korai halálának felvételeit.

Ezért nem tudatosan - és szeretnénk létrehozni - nem humanoid ágenseket teremtünk, hanem egy teljesen új típusú teremtményeket, néhány orákulumot, tudattalanul, félelem nélkül a haláltól, szeretet és gyűlölet elvonása nélkül, személyiség nélkül: az igazság tükröit, amelyet szinte minden bizonnyal az ember megfertőz. hazugság.

Az emberek emberi felhasználása hamarosan - ismét - örökre megváltozik, de ha felelősséget vállalunk az evolúciós pályaért, elkerülhetjük a felesleges veszélyeket.

Ilya Khel