Miért Nem Kellene A Tudósoknak A Műszaki Intelligenciára Támaszkodniuk A Tudományos Felfedezés érdekében? - Alternatív Nézet

Miért Nem Kellene A Tudósoknak A Műszaki Intelligenciára Támaszkodniuk A Tudományos Felfedezés érdekében? - Alternatív Nézet
Miért Nem Kellene A Tudósoknak A Műszaki Intelligenciára Támaszkodniuk A Tudományos Felfedezés érdekében? - Alternatív Nézet

Videó: Miért Nem Kellene A Tudósoknak A Műszaki Intelligenciára Támaszkodniuk A Tudományos Felfedezés érdekében? - Alternatív Nézet

Videó: Miért Nem Kellene A Tudósoknak A Műszaki Intelligenciára Támaszkodniuk A Tudományos Felfedezés érdekében? - Alternatív Nézet
Videó: 10 Egyszerűnek tűnő jelenség, amit nem ért a tudomány 2024, Lehet
Anonim

A tudományos adatok aranykorában élünk, genetikai információk, orvosi képalkotás és csillagászati adatok óriási tartalékaival körülvéve. A gépi tanulási algoritmusok jelenlegi képességei lehetővé teszik a mesterséges intelligencia számára, hogy ezeket az adatokat ugyanolyan gyorsan és ugyanakkor nagyon óvatosan tanulmányozza, gyakran megnyitva az ajtót potenciálisan új tudományos felfedezésekhez. Nem szabad azonban vakon megbíznunk az AI tudományos kutatásainak eredményeiben - mondja Genever Allen, a Rice Egyetem kutatója. Legalább nem a technológia jelenlegi fejlettségi szintjén. A tudós szerint a probléma abban rejlik, hogy a modern AI rendszerek nem képesek kritikusan értékelni munkájuk eredményeit.

Allen szerint az AI rendszerek, amelyek gépi tanulási módszereket használnak, vagyis amikor a tanulás sok hasonló probléma megoldásának alkalmazásában zajlik, és nem pusztán az új szabályok és rendeletek bevezetésével és betartásával, megbízhatók bizonyos döntések meghozatalában. Pontosabban: teljesen lehetséges feladatokat ruházni az AI-re olyan kérdések megoldásában azokon a területeken, ahol a végső eredményt maga a személy könnyen ellenőrizheti és elemezheti. Példaként említhetjük például a kráterek számát a Holdon vagy a földrengés utáni sokkok előrejelzését.

Ugyanakkor a sokkal komplexebb algoritmusok pontosságát és hatékonyságát, amelyeket nagyon nagy mennyiségű adat elemzésére használnak a korábban ismeretlen tényezők vagy a különféle funkciók közötti kapcsolatok megtalálására és meghatározására, "sokkal nehezebb ellenőrizni" - jegyzi meg Allen. Így az ilyen algoritmusoknak megfelelő adatok ellenőrzésének lehetetlensége téves tudományos következtetésekhez vezethet.

Vegyük például a precíziós gyógyszert, ahol a szakemberek a betegek metaadatait elemezik, hogy azonos genetikai tulajdonságokkal rendelkező csoportokat keressenek hatékony kezelések kidolgozására. Néhány genetikai adatok szétválasztására szolgáló AI-programok valóban hatékonyan azonosítják azokat a betegcsoportokat, amelyek hasonló hajlammal rendelkeznek, például emlőrák kialakulására. Ezek azonban teljesen hatástalanok a rák egyéb típusainak, például a vastagbél azonosításában. Mindegyik algoritmus eltérően elemzi az adatokat, így az eredmények kombinálásakor gyakran ütközés merülhet fel a betegminta osztályozásában. Ez viszont arra készteti a tudósokat, hogy vajon melyik madárinfluenza végül bízhat meg.

Ezek az ellentmondások annak a ténynek a következményei, hogy az adatelemzés algoritmusait úgy alakították ki, hogy betartsák az ezekben az algoritmusokban leírt utasításokat, amelyek nem hagynak helyet határozatlanságnak, bizonytalanságnak - magyarázza Allen.

A tudósok nem szeretik a bizonytalanságot. A mérési bizonytalanságok meghatározására szolgáló hagyományos módszereket azonban olyan esetekre tervezték, amikor egy adott hipotézis értékeléséhez kifejezetten kiválasztott adatok elemzése szükséges. Így nem működnek az AI-programok az adatbányászatban. Ezeket a programokat nem irányítja semmiféle irányadó ötlet, és egyszerűen csak meghatározott cél nélkül gyűjtik össze az összegyűjtött adatkészleteket. Ezért sok AI kutató, köztük maga Allen, most új protokollokat dolgoz ki, amelyek lehetővé teszik a következő generációs AI rendszerek számára, hogy felmérjék felfedezéseik pontosságát és reprodukálhatóságát.

Promóciós videó:

A kutató elmagyarázza, hogy az új bányászati módszerek egyikének az újramintavétel fogalmán kell alapulnia. Például, ha egy AI rendszer állítólag fontos felfedezést hajt végre, például olyan betegcsoportokat azonosít, amelyek klinikai szempontból fontosak a kutatás szempontjából, akkor ezt a felfedezést más adatbázisokban kell megjeleníteni. A tudósok számára nagyon költséges új és nagyobb adatkészletek létrehozása az AI-mintavétel validálására. Ezért, Allan szerint, olyan megközelítést lehet alkalmazni, amelyben "létező adatkészletet fognak használni, amelyben az információkat véletlenszerűen keverik oly módon, hogy egy teljesen új adatbázist szimulálnak". És ha az AI újra és újra meg tudja határozni azokat a jellegzetességeket, amelyek lehetővé teszik a szükséges osztályozás elvégzését, akkor „megfontolhatjukhogy valóban egy igazi felfedezésed van a kezedben”- teszi hozzá Allan.

Nikolay Khizhnyak