Miért Veszélyes A Bűnözők Megítélése A Mesterséges Intelligenciával? - Alternatív Nézet

Tartalomjegyzék:

Miért Veszélyes A Bűnözők Megítélése A Mesterséges Intelligenciával? - Alternatív Nézet
Miért Veszélyes A Bűnözők Megítélése A Mesterséges Intelligenciával? - Alternatív Nézet

Videó: Miért Veszélyes A Bűnözők Megítélése A Mesterséges Intelligenciával? - Alternatív Nézet

Videó: Miért Veszélyes A Bűnözők Megítélése A Mesterséges Intelligenciával? - Alternatív Nézet
Videó: A mesterséges intelligencia a fejünkre nő? 2024, Lehet
Anonim

A mesterséges intelligencia már valamilyen módon segít meghatározni a jövődet. Ha keres valamire egy keresőmotoron, használjon olyan szolgáltatást, mint a Netflix, vagy egy bank értékeli a jelzálogjogosultságát. De mi történik, ha a mesterséges intelligenciának meg kell határoznia, hogy bűnös vagy-e a bíróságon? Furcsa módon néhány országban ez már megtörténhet. Nemrégiben az Egyesült Államok legfelsőbb bírójától, John Roberts-től kérdezték, el tud-e képzelni egy napot, amikor "a mesterséges intelligencia által irányított intelligens gépek segítenek a bizonyítékok megtalálásában vagy akár a bírósági döntések meghozatalában". Azt válaszolta: "Ez a nap már eljött, és jelentősen segíti az igazságügyi hatóságokat az eljárásokban."

Talán Roberts Eric Loomis legutóbbi esetére utalt, akit egy magáncég titkos, saját szoftverének ajánlására hat év börtönre ítéltek. A már bűnügyi előzményekkel rendelkező Loomis, akit ellopott autóval menekültek el a rendőrség elől, most azt állítja, hogy megsértették az eljáráshoz való jogát, mivel sem ő, sem képviselői nem tudták áttekinteni vagy megtámadni az ajánlási algoritmust.

A jelentést a Compas szoftver készítette, amelyet a Notrpointe értékesít hajóknak. A program az intelligencia-kutatás új trendjét testesíti meg: segít a bíráknak a bíróságon „jobb” (vagy legalábbis több adatalapú) döntést hozni.

Bár a Loomis-ügy konkrét részletei zárva maradnak, minden bizonnyal tartalmaz olyan diagramokat és számokat, amelyek meghatározzák Loomis életét, viselkedését és a visszaesés valószínűségét. Ezek közé tartozik az életkor, a faj, a nemi identitás, a szokások, a böngésző előzményei és néhány koponya mérés. Pontosabban senki sem tudja.

Ismert, hogy az ügy ügyésze a bírónak azt mondta, hogy Loomis "a bűnismétlés, az erőszak, az előzetes eljárás magas kockázatát" mutatta be. Az ítélethozatalnál ez szabvány. A bíró egyetértett, és elmondta a Loomisnak, hogy "Compas a társadalmat veszélyeztető személyként azonosította".

A wisconsini legfelsőbb bíróság elítélte Loomist, hozzátéve, hogy a Compas-jelentés értékes információkkal egészítette ki döntését, de megjegyezte, hogy nélküle ugyanazt az ítéletet hozta. Ezt természetesen nem fogja tudni ellenőrizni. Milyen kognitív torzítások lehetnek, amikor egy olyan mindenható „intelligens” rendszer, mint a Compas, részt vesz a bírák tanácsában, mit tegyen?

Ismeretlen felhasználás

Promóciós videó:

Legyünk őszinték, nincs semmi „törvénytelen” abban, amit a wisconsini bíróság tett - ez csak egy példa. Más bíróságok is megtehetik és meg fogják tenni.

Sajnos nem tudjuk, hogy az AI-t és más algoritmusokat milyen mértékben alkalmazzák az ítélethozatalban. Úgy gondolják, hogy egyes bíróságok olyan rendszereket "tesztelnek", mint a Compas, zárt tárgyalásokon, de nem igényelhetnek partnerséget. Az a felfogás is létezik, hogy több AI induló ilyen intelligens rendszereket fejleszt.

Image
Image

Az AI használata a jogszabályokban azonban nem mondattal kezdődik és nem is ér véget, hanem vizsgálattal kezdődik. Az Egyesült Királyság már kifejlesztette a VALCRI rendszert, amely pillanatok alatt időigényes elemző munkát végez - rengeteg adaton, például szövegeken, laboratóriumi jelentéseken és rendőrségi dokumentumokon keresztül besurranva elkülöníti azokat a dolgokat, amelyek további vizsgálatot igényelhetnek.

Az Egyesült Királyság West Midlands rendőrsége a VALCRI-t az elkövetkező három évben több mint 6,5 millió rekordot tartalmazó névtelen adatok felhasználásával teszteli. Hasonló vizsgálatot végez az antwerpeni rendőrség Belgiumban. A múltban azonban a mesterséges intelligencia és a mély adattovábbítási projektek, amelyek hatalmas adathalmazokat tartalmaznak, problematikusak voltak.

Előnyök kevésnek

A technológia számos hasznos segítséget nyújtott a tárgyalótermekhez, a másológépektől kezdve az ujjlenyomatok DNS-kinyerésén át a kifinomult megfigyelési technikákig. De ez nem jelenti azt, hogy bármely technológia fejlesztés lenne.

Míg az AI használata a nyomozásokban és az ítéletek meghozatalában időt és pénzt takaríthat meg, heveny problémákat vet fel. A ProPublica Compas jelentése egyértelművé tette, hogy a feketéket a program tévesen több bűnismétlésnek tekintette, mint a fehéreket. Még a legfejlettebb AI rendszerek is örökölhetik az őket létrehozók faji és nemi elfogultságát.

Ráadásul mi értelme van (legalább részben) az emberekre jellemző kérdésekben a döntéshozatalt egy algoritmusra helyezni? Bizonyos nehézségekkel küzd az Egyesült Államokban, amikor a zsűri megpróbálja társait. A jogi normák soha nem voltak az etalonok, ezért ezeket az esküdtszéki tárgyalásokat a legdemokratikusabb és leghatékonyabb elítélési rendszereknek tekintik. Hibázunk, de idővel halmozódunk a rendszer finomításával, hogy miként ne kövessük el őket.

Az kompák és a hasonló rendszerek fekete keretet jelentenek a jogrendszerben. Nem kellene ilyen. A jogi rendszerek az információk folytonosságától, átláthatóságától és a felülvizsgálat képességétől függenek. A társadalom nem akar olyan rendszert, amely ösztönzi a versenyt olyan AI indítók létrehozására, amelyek gyors, olcsó és exkluzív megoldásokat kínálnak. A sietve elkészített mesterséges intelligencia szörnyű lesz.

A Compas frissített nyílt forráskódú változata fejlesztés lenne. De először az igazságszolgáltatási normákat kell emelni, mielőtt a felelősséget az algoritmusok javára terelnénk.

KHEL ILYA