Az IBM új Technológiája Lehetővé Tette Az AI-képzés Négyszer Gyorsítását - - Alternatív Nézet

Az IBM új Technológiája Lehetővé Tette Az AI-képzés Négyszer Gyorsítását - - Alternatív Nézet
Az IBM új Technológiája Lehetővé Tette Az AI-képzés Négyszer Gyorsítását - - Alternatív Nézet

Videó: Az IBM új Technológiája Lehetővé Tette Az AI-képzés Négyszer Gyorsítását - - Alternatív Nézet

Videó: Az IBM új Technológiája Lehetővé Tette Az AI-képzés Négyszer Gyorsítását - - Alternatív Nézet
Videó: Az extrém fizika Moore törvényét a következő szintre emeli 2024, Lehet
Anonim

A mesterséges intelligencia számítási hatékonysága olyan, mint egy kétélű kard. Egyrészt meg kell tanulnia elég gyorsan, de minél jobban "felgyorsul" a neurális hálózat, annál több energiát fogyaszt. Ez azt jelenti, hogy egyszerűen veszteséges lehet. Az IBM azonban megoldást nyújthat a helyzetből, amely új módszereket mutatott be az AI oktatásához, amelyek lehetővé teszik többszöri gyorsabb tanulást azonos erőforrás- és energiaköltségekkel.

Ezen eredmények elérése érdekében az IBM-nek el kellett hagynia a 32-bites és a 16-bites technikákat alkalmazó számítási módszereket, egy 8-bites technikát és egy új chipet kellett kifejlesztenie.

Az IBM minden fejlesztését a NeurIPS 2018-ban mutatták be Montreálban. A cég mérnökei két fejleményről beszéltek. Az első az "idegi hálózatok mély gépi tanulása 8 bites lebegőpontos számokkal". Ebben leírják, hogyan sikerült ilyen módon csökkenteni az alkalmazások számtani pontosságát 32-bitesről 16-bitesre, és egy 8-bites modellre menteni. A szakértők szerint technikájuk a mély idegi hálózatok kiképzési idejét 2-4-szer meggyorsítja a 16-bites rendszerekhez képest. A második fejlesztés a "8 bites szorzás a memóriában a kivetített fázisátmeneti memóriával". A szakértők itt ismertetnek egy módszert, amely kompenzálja az analóg AI chipek alacsony hűségét azáltal, hogy lehetővé teszi számukra, hogy 33-szor kevesebb energiát fogyasztanak, mint a hasonló digitális AI rendszerek.

Vladimir Kuznetsov