A Tudósok Elmagyarázták, Hogy A Fegyverkezési Verseny Miként Vezet A "Terminátor-stílusú Háborúhoz" - Alternatív Nézet

A Tudósok Elmagyarázták, Hogy A Fegyverkezési Verseny Miként Vezet A "Terminátor-stílusú Háborúhoz" - Alternatív Nézet
A Tudósok Elmagyarázták, Hogy A Fegyverkezési Verseny Miként Vezet A "Terminátor-stílusú Háborúhoz" - Alternatív Nézet

Videó: A Tudósok Elmagyarázták, Hogy A Fegyverkezési Verseny Miként Vezet A "Terminátor-stílusú Háborúhoz" - Alternatív Nézet

Videó: A Tudósok Elmagyarázták, Hogy A Fegyverkezési Verseny Miként Vezet A
Videó: Terminator 3 Full screen edition, opening scene, 16:9, open matte ‎1,78:1/на полный экран 2024, Április
Anonim

Új jelentésükben a Cornell Egyetem szakértői beszélt a mesterséges intelligencia nukleáris fegyverekbe való egyre aktívabb bevezetésével járó kockázatokról, állítja a Daily Mail. A tudósok szerint a gépek "kiszabadulhatnak az irányítástól" és "apokaliptikus háborút" provokálhatnak, tehát a nukleáris fegyverek használatával kapcsolatos fő döntések még mindig jobban a személyekre hárulnak.

A tudósok figyelmeztetik, hogy a nukleáris fegyverek feletti irányítás átadása a mesterséges intelligenciára "terminátor stílusú" apokaliptikus háborúval járhat.

Az American Ivy League Cornell University szakemberei új jelentésükben azt állítják, hogy az automatizálás és a robotizálás felé mutató fokozódó váltás ahhoz vezethet, hogy a gépek "kiszállnak az irányításból" és háborút hirdetnek az emberiségre - akárcsak a sci-fi sorozatban "Terminátor" filmek Arnold Schwarzeneggerrel.

A szakértők szerint Oroszország és Kína egyre inkább támaszkodik a mesterséges intelligencia technológiáira, amelyek a „katonai potenciál szempontjából való felzárkóztatáshoz szükségesek az Egyesült Államokhoz”, amelyek a jövőben olyan kockázatokat jelentenek, amelyek még a világ számára sem ismertek. Például Moszkva már megkezdte a Poseidon pilóta nélküli víz alatti nukleáris torpedó, a korábbi Status-6 néven ismertetését.

Ezenkívül az országok dönthetnek úgy, hogy aktívabban használják a mesterséges intelligenciát a korai figyelmeztető rendszerekben. És itt, amint a tudósok emlékeznek, a történelem megmutatja nekünk, hogy a kockázatok is nagyok lehetnek. Sokan tudják az 1983-os eseményt, amikor a szovjet tiszt Stanislav Petrov figyelmen kívül hagyta a rendszer jelét az amerikai rakéták indítására. Petrov rájött, hogy a jel hamis, és ezzel megmentette a világot az Egyesült Államok és Oroszország közötti lehetséges nukleáris háborútól.

A szakértők elismerik, hogy a nukleáris fegyverek számítógépesítése valamilyen formában javíthatja az ilyen rendszerek megbízhatóságát és stabilitását. A mesterséges intelligencia adatokat gyűjthet és elemzést végezhet, amelyet a katonai vezetők felhasználhatnak.

„A nukleáris arzenál korszerűsítésében a vezetésnek számítógépes rendszerek használatára kell törekednie a véletlen balesetek, a hamis pozitív eredmények kockázatának csökkentése és az atomfegyverek mőködésének felelıs irányítása érdekében.” - javasolja a tudósok.