A 70 éves AI kutatásból elsajátítható legnagyobb lecke az, hogy a számításokat használó általános módszerek végső soron a leghatékonyabbak - és széles mozgástér mellett. Ennek végső oka Moore törvénye. Vagy inkább, annak általánosítása: a számítógépes processzorok költségeinek folyamatos, exponenciális csökkenése. Ezt a „keserű leckét” Richard Sutton, egy kanadai számítógépes tudós osztotta meg. Tovább - az első személytől.
Miért volt a mesterséges intelligencia kutatása 70 éven át álló helyzetben?
A legtöbb AI kutatást úgy végezték, mintha az ügynök rendelkezésére álló számítások tartósak lennének (és ebben az esetben az emberi ismeretek felhasználása lenne az egyetlen lehetőség a teljesítmény javítására). De az idő múlásával - sokkal több, mint egy tipikus kutatási projekthez szüksége van - elkerülhetetlenül sokkal több számítás válik elérhetővé. A tudósok rövid távon segítséget nyújtó fejlesztésekkel próbálják maximalizálni ezen a területen az emberi ismereteket, ám hosszú távon csak a számítástechnika egyre növekvő használata számít. Ez a két szempont nem ellentétes egymással, de a gyakorlatban igen. Az egyiküknél eltöltött idő nem egyenlő a másikkal töltött idővel. Pszichológiai kötelezettségek vannak az egyik vagy a másik megközelítésbe történő befektetésre. Az emberi tudás-megközelítés általában bonyolítja a módszereket oly módon, hogy kevésbé alkalmasak a számítást használó általános módszerek előnyeinek kihasználására.
Sok példa volt arra, hogy az AI kutatói későn értették meg ezt a keserű leckét. Oktató lesz megvizsgálni a legszembetűnőbb példákat.
A számítógépes sakkban a Kasparov világbajnokot 1997-ben legyőző módszerek masszív, mély kutatásokon alapultak. Abban az időben a legtöbb számítógépes sakk-kutató megrémülten nézett rájuk, akik olyan módszereket alkalmaztak, amelyek a sakk sajátos szerkezetének emberi megértésén alapultak. Amikor egy egyszerűbb, keresésen alapuló megközelítés a speciális hardver és szoftver segítségével sokkal hatékonyabbnak bizonyult, a kutatók, akik a sakk emberi megértésére épülnek, nem vallották be a vereséget. Azt mondták: „Ezúttal a nyers erőszakos megközelítés nyert, de ez nem válik átfogó stratégiává, és minden bizonnyal az emberek nem sakkoznak. Ezek a tudósok az ember alapú módszerek megnyerését akarták, és nagyon csalódtak voltak, amikor nem.
Promóciós videó:
Hasonló képet mutattak a kutatás előrehaladásáról a számítógépes technológiában is, csak további 20 év késéssel. Kezdetben nagy erőfeszítéseket tettek annak érdekében, hogy elkerüljék az emberi ismeretek vagy a játékmenet felhasználásával történő keresést, ám ezek a erőfeszítések feleslegesek voltak, vagy ami még rosszabb, miután a keresést hatékonyan és széles körben alkalmazták. Fontos volt a tanulás használata az önálló játék folyamatában az értékfüggvény megtanulása érdekében (mint sok más játékban és még a sakkban is, csak a tanulás nem játszott nagy szerepet az 1997-es programban, amely először verte meg a világbajnokot). A magával való játék megtanulása, az egész tanulás olyan, mint egy olyan keresés, amely lehetővé teszi hatalmas számítási tömb alkalmazását. A kutatás és a tanulás a technikák két legfontosabb osztálya, amelyek óriási mennyiségű számítást igényelnek az AI kutatás során. A számítógépen megyA számítógépes sakkhoz hasonlóan a kutatók kezdeti erőfeszítései az emberi megértés felhasználására irányultak (hogy kevesebb legyen a keresés), és sokkal több sikert csak jóval később sikerült elérni a keresés és a tanulás használatával.
A beszédfelismerés területén az 1970-es években DARPA által szponzorált versenyt tartottak. A résztvevők különféle módszereket mutattak be, amelyek kihasználták az emberi ismereteket - a szavak vagy a fonémák ismerete, az emberi hangcsatorna stb. A barikádok másik oldalán újabb módszerek voltak, statisztikai jellegűek, és több kiszámítást végeztek a Hidden Markov Models (HMM) alapján. A statisztikai módszerek ismét megnyerték a tudásalapú módszereket. Ez jelentős változásokhoz vezetett az összes természetes nyelvfeldolgozásban, amelyeket fokozatosan vezettek be az évtizedek során, míg végül a statisztika és a számítás kezdett uralni a mezőt. A beszédfelismerésben a mélyreható tanulás közelmúltbeli növekedése a legújabb lépés ebben az következetes irányban. A mély tanulás még kevésbé támaszkodik az emberi ismeretekre, és még több számítást igényel, hatalmas mintasorozatokkal való képzés mellett, és elképesztő beszédfelismerő rendszereket állít elő.
Richard Sutton, kanadai számítógépes tudós.
Mint a játékokban, a tudósok mindig is megpróbálták olyan rendszereket létrehozni, amelyek úgy működnek, ahogy fejükben elképzelik - megpróbálták ezeket az ismereteket beilleszteni a rendszerükbe - de mindez rendkívül produktívnak bizonyult, a tudósok csak időt pazaroltak, miközben - Moore törvényének köszönhetően - egyre masszább számítások váltak elérhetővé és kiváló alkalmazásokat találtak.
Hasonló kép volt a számítógépes látás területén. Az első módszereket bizonyos kontúrok keresésére, általános hengerek keresésére vagy a SIFT képességeinek felhasználására (a jellemzők méretbeli invariáns transzformációjára) használták. De ma mindezt a kemencébe dobták. A modern mélytanulásos neurális hálózatok csak a konvolúció és bizonyos invariánsok fogalmát használják, és sokkal jobban teljesítenek.
Ez egy nagyszerű lecke.
Bárhová nézünk is, ugyanazokat a hibákat követjük el mindenhol. Ahhoz, hogy ezt láthassa és hatékonyan kezelje, meg kell értenie, hogy miért ilyen vonzóak ezek a hibák. Meg kell tanulnunk a keserű tanulságokat, amelyekből azt gondoljuk, hogyan gondolkodunk, és hogyan gondoljuk, hogy mi hosszú távon nem fog működni. A történeti megfigyelésen alapuló keserű lecke azt mutatja, hogy: 1) A madárinfluenza-kutatók gyakran megkíséreltek tudást beépíteni ügynökeikbe; 2) rövid távon mindig segített, és elégedettséggel járt a tudósoknak; 3) de hosszú távon mindenki megállt és akadályozta a további haladást; 4) a zavaró haladás elkerülhetetlenül ellentétes megközelítéssel jött létre, amely a keresés és a tanulás általi kiszámításra épül. A siker keserű ízű volt, és gyakran nem teljesen felszívódott.mert ez a számítástechnika sikere, nem pedig az emberközpontú megközelítések sikere.
Az egyik dolog, amit megtanulhatnánk ebből a keserű leckeből, az általános célú módszerek óriási ereje, olyan módszerek, amelyek a számítás növekedésével továbbra is méretezhetők, még akkor is, ha a rendelkezésre álló számítás nagyon nagyra válik. Két módszer, amelyek látszólag önkényesen skálázódnak ilyen módon, a keresés és tanulás.
A második dolog, amelyet meg kell tanulni ebből a keserű leckéből, az az, hogy az elme tényleges tartalma rendkívül és szükségtelenül bonyolult; abba kell hagynunk az egyszerű elképzeléseket, hogy megértsük az elme tartalmát, hasonlóan a tér, tárgyak, több ágens vagy szimmetria értelmezésének egyszerű módjaihoz. Mindegyik önkényesen összetett külső világ részét képezi. Nem szabad megpróbálnunk rájuk építeni, mert komplexitásuk végtelen; olyan meta-módszerekre kell építenünk, amelyek képesek megtalálni és megragadni ezt az önkényes komplexitást. Ezek a módszerek jó közelítést találnak, de a keresést a módszereinkkel kell elvégezni, nem pedig mi. Olyan AI ügynökökre van szükségünk, akik ugyanúgy felfedezik, mint mi, és nem tartalmazhatják azt, amit felfedeztünk. A felfedezéseinkre építve csak bonyolítja a felfedezés és a keresés folyamatát.
Ilya Khel