Az AI örökre Megváltoztathatja életünket - De Jelenleg Egy Sötét úton Haladunk - Alternatív Nézet

Az AI örökre Megváltoztathatja életünket - De Jelenleg Egy Sötét úton Haladunk - Alternatív Nézet
Az AI örökre Megváltoztathatja életünket - De Jelenleg Egy Sötét úton Haladunk - Alternatív Nézet

Videó: Az AI örökre Megváltoztathatja életünket - De Jelenleg Egy Sötét úton Haladunk - Alternatív Nézet

Videó: Az AI örökre Megváltoztathatja életünket - De Jelenleg Egy Sötét úton Haladunk - Alternatív Nézet
Videó: Az elképesztő Gyatlov-rejtély - nagyon bővített verzió 2024, Lehet
Anonim

A mesterséges intelligencia (AI) már látható módon átalakítja a világot. Az adatok vezetik a globális digitális ökoszisztémát, és az AI technológiák feltárják az adatok mintáit.

Az okostelefonok, az intelligens otthonok és az intelligens városok befolyásolják az életünket és az interakciót, és a mesterséges intelligencia rendszerek egyre inkább részt vesznek a bérbeadási döntésekben, az orvosi diagnosztikában és az ítéletekben. Attól, hogy ez a forgatókönyv utópikus vagy disztopikus - rajtunk múlik.

Az AI lehetséges kockázatait sokszor felsorolják. Gyilkos robotok és a hatalmas munkanélküliség gyakori problémák, míg néhány ember fél a kihalástól. Az optimistabb előrejelzések azt állítják, hogy az AI 2030-ig 15 billió dollárt fog hozzáadni a globális gazdasághoz, és végül valamiféle társadalmi nirvánához vezet.

Természetesen meg kell vizsgálnunk az ilyen technológiáknak a társadalmainkra gyakorolt hatását. Az egyik fő probléma az, hogy az AI rendszerek megerősítik a meglévő társadalmi elfogultságot - pusztító hatással.

A jelenség számos hírhedt példája széles figyelmet kapott: a modern automatizált gépi fordítási rendszerek és a képfelismerő rendszerek.

Ezek a problémák azért merülnek fel, mert az ilyen rendszerek matematikai modelleket (például neurális hálókat) használnak a nagy edzési adatkészletek mintáinak meghatározására. Ha ezeket az adatokat különféle módon súlyosan torzítják, akkor az eredendő hibákat elkerülhetetlenül megtanulják és reprodukálják a kiképzett rendszerek.

Az elfogult autonóm technológiák problémát jelentenek, mivel potenciálisan elkülöníthetnek olyan csoportokat, mint a nők, az etnikai kisebbségek vagy az idősek, ezáltal súlyosbítva a fennálló társadalmi egyensúlyhiányokat.

Ha az AI rendszereket például a rendõrségi letartóztatási adatok alapján képzik, akkor a létezõ letartóztatási rendszerekben megjelenõ minden tudatos vagy tudattalan elfogultságot megismétlik az ezekbõl az adatokból kiképzett „rendõri elõretekintõ” AI rendszer.

Promóciós videó:

Felismerve ennek súlyos következményeit, számos tiszteletre méltó szervezet nemrégiben javasolta, hogy az összes mesterséges intelligencia rendszert objektív adatokra képezzék. Az Európai Bizottság korábban, 2019-ben az Európai Bizottság által közzétett etikai iránymutatások a következő ajánlást javasolták:

Az adatok gyűjtésekor tartalmazhatnak társadalmilag felépített hibákat, pontatlanságokat. Ezt meg kell oldani, mielőtt az AI-t bármilyen adatkészletre kiképezi.

Mindez elég ésszerűnek tűnik. Sajnos néha egyszerűen nem lehet biztosítani bizonyos adatkészletek pártatlanságát a képzés előtt. Egy konkrét példa tisztázza ezt.

Minden modern gépi fordítórendszer (mint például a Google Translate) mondatpároktól tanul.

Az angol-francia rendszer olyan adatokat használ, amelyek összekapcsolják az angol mondatokat ("ő magas") ekvivalens francia mondatokkal ("elle est grande").

Egy adott edzési adatkészletben 500 millió ilyen pár lehet, tehát csak egymilliárd egyedi mondat. Az összes nemi elfogultságot el kell távolítani az ilyen típusú adatkészletből, ha megakadályozzuk a következő eredmények előállítását a rendszerben:

A francia fordítást a Google Translate segítségével 2019. október 11-én hozták létre, és helytelen: az „Ils” férfias többes számú, francia nyelven jelenik meg, annak ellenére, hogy a kontextus egyértelműen jelzi, hogy erre hivatkoznak. a nőkről.

Ez egy klasszikus példa egy automatizált rendszerre, amely az edzési adatok torzítása miatt az alapértelmezett férfi szabványt részesíti előnyben.

Összességében a fordítási adatkészletekben a generikus névmások 70% -a férfias, 30% -a nőies. Ennek oka az a tény, hogy az ilyen célokra használt szövegek gyakrabban férfiakra vonatkoznak, mint nőkre.

A fordítórendszer meglévő hibáinak megismétlésének elkerülése érdekében ki kellene zárni az egyes mondatpárokat az adatokból, hogy a férfias és a nőies névmások 50:50 arányban találhatók mind az angol, mind a francia oldalon. Ez megakadályozza a férfias névmások nagyobb valószínűségének hozzárendelését.

És még akkor is, ha az eredményekből származó részhalmaz teljesen nemek szerint kiegyensúlyozott, továbbra is sokféle módon torzul (pl. Etnikai vagy életkori). Valójában nehéz ezeket a hibákat teljes mértékben kiküszöbölni.

Ha egy ember mindössze öt másodpercet fordít az AI képzési adataiban szereplő egymilliárd mondat mindegyikének elolvasására, akkor mindössze 159 évbe telik mindet.

Alternatív?

Ezért irreális megkövetelni, hogy az AI rendszerek felépítése előtt minden képzési adatkészlet legyen elfogulatlan. Az ilyen magas szintű követelmények általában azt feltételezik, hogy az „AI” matematikai modellek és algoritmikus megközelítések homogén csoportját jelöli.

Valójában a különféle AI feladatok teljesen különféle rendszereket igényelnek. És e sokszínűség teljes alábecsülése elfedi a valódi problémákat, mondjuk a nagy mértékben torzított adatokkal. Ez sajnálatos, mivel azt jelenti, hogy az adatok torzításának más megoldásait elhanyagolták.

Például a képzett gépi fordítórendszer torzításai jelentősen csökkenthetők, ha a rendszert adaptálják egy nagy, elkerülhetetlenül torzított adatkészletre történő kiképzés után.

Ez megtehető egy sokkal kisebb, kevésbé elrontott adatkészlettel. Ezért a legtöbb adat erősen elfogult lehet, de képzett rendszerre nincs szükség. Sajnos ezeket a módszereket ritkán tárgyalják azok, akik iránymutatásokat és jogi kereteket dolgoznak ki az AI kutatására.

Ha az AI rendszerek egyszerűen csak súlyosbítják a meglévő társadalmi egyensúlyhiányokat, akkor valószínűbb, hogy elriasztják, mint előmozdítják a pozitív társadalmi változásokat. Ha az AI technológiák, amelyeket naponta egyre inkább használunk, sokkal kevésbé lesznek elfogultak, mint mi vagyunk, akkor ezek segíthetnek felismerni és szembeszállni saját elárasztó előítéleteinkkel.

Természetesen erre kell törekednünk. Ezért az AI tervezőinek sokkal alaposabban kell gondolniuk az általuk létrehozott rendszerek társadalmi következményeire, míg azoknak, akik az AI-ről írnak, jobban meg kell értenie, hogy az AI rendszereket valóban hogyan tervezik és építik.

Mert ha tényleg egy technológiai idillhez vagy egy apokalipszishez közeledünk, az előbbi lenne jobb.

Victoria Vetrova