A Google Nem Akarja Egy Nap Létrehozni A Skynet-et, Ezért Egy Kapcsolót Hoz Létre Az AI - Alternatív Nézet

A Google Nem Akarja Egy Nap Létrehozni A Skynet-et, Ezért Egy Kapcsolót Hoz Létre Az AI - Alternatív Nézet
A Google Nem Akarja Egy Nap Létrehozni A Skynet-et, Ezért Egy Kapcsolót Hoz Létre Az AI - Alternatív Nézet

Videó: A Google Nem Akarja Egy Nap Létrehozni A Skynet-et, Ezért Egy Kapcsolót Hoz Létre Az AI - Alternatív Nézet

Videó: A Google Nem Akarja Egy Nap Létrehozni A Skynet-et, Ezért Egy Kapcsolót Hoz Létre Az AI - Alternatív Nézet
Videó: Így Szerezz 3 Perc Alatt GYÉMÁNTOT A NULLÁRÓL A Minecraftban!🧐💎 2024, Július
Anonim

A mesterséges intelligencia jövőjével kapcsolatos kérdésekben és vitákban két fő ellentétes oldal található. Az egyik sarokban olyan vállalatok vannak, mint a Google, a Facebook, az Amazon és a Microsoft agresszív módon fektetnek be a technológiába, hogy intelligensebbé tegyék az AI rendszereket, míg a másik sarokban olyan korunk nagy gondolkodói vannak, mint Elon Musk és Stephen Hawking, akik hisznek hogy az AI fejlődése egy "démon varázslathoz" hasonlít.

Az egyik legfejlettebb AI-társaság, a Google tulajdonában álló DeepMind biztonsági intézkedéseket hozott arra az esetre, ha egy személynek „át kell vennie egy robot irányítását, amelynek meghibásodása helyrehozhatatlan következményekhez vezethet”. Feltételezhetjük, hogy beszélünk: "mindenkit megölni". Természetesen a valóságban a megtett intézkedés nem utal az esetleges apokalipszisre, inkább az intelligens robotokkal kapcsolatos biztonsági intézkedésekről szól, amelyek a különböző gyárakban és üzemekben működnek és a jövőben is működni fognak.

A receptre kiadott dokumentum a DeepMind és az Oxford Institute of the Humanity Future közös munkája, amely - amint a neve is sugallja - olyan kérdésekkel foglalkozik, amelyek lehetővé teszik ennek az emberiségnek a jövőbe való bejutását. Az intézet alapítója, Nick Bostrom évtizedek óta nagyon élénken beszélt a mesterséges intelligencia fejlődésének lehetséges veszélyeiről, és egynél több könyvet írt erről a témáról, amelyben megbeszélte a szuper intelligens robotok létrehozásának következményeit.

A „biztonságosan fogyatékkal élő ügynököknek” nevezett útmutató, amelyről ma beszéltünk, azt vizsgálja, hogyan lehet letiltani az AI-t, ha valami olyat tesz, amit az emberi operátor nem akar. A munka különféle számításokból és képletekből áll, amelyeket valószínűleg 99% -unk nem fog megérteni. Ezért egyszerűen fogalmazva, egy "piros gombról" beszélünk, amely letilthatja az AI-t.

Nevethet és csodálkozhat, de a robotika és az AI úttörői ugyanazokat a sci-fi filmeket nézik, mint mi. Azokban, amelyekben a robotok egyszer rájöttek, hogyan lehet figyelmen kívül hagyni a leállítási parancsot. Tehát most készen állunk erre. A közzétett dokumentum leírja azokat a módszereket és megoldásokat, amelyek biztosítják, hogy a "kiképezhető anyag" (olvassa el az AI-t) ne tanulja meg figyelmen kívül hagyni vagy megakadályozni a külső környezet vagy az emberi szereplő hatását.

Ez túlsúlyosnak tűnhet, különösen, ha figyelembe vesszük, hogy a jelenleg legfejlettebb AI valójában csak jó a társasjátékokban. A Bostrom azonban úgy véli, hogy mielőtt elkezdenénk létrehozni az emberi agy szintű AI-t, megfelelő intézkedéseket kell hozni:

„Amint a mesterséges intelligencia eléri az emberi szintet, számos területen éles fejlődés-előrelépés várható. Ezenkívül hamarosan az AI-k maguk is új AI-ket hoznak létre. Csak értékelje ezeket a kilátásokat és ugyanakkor a lehetséges veszélyeket. Ezért jobb túllépni, mint kihagyni."

NIKOLAY KHIZHNYAK

Promóciós videó: