Umelá inteligencia – výskum testoval, či sa budú stroje správať ako my
Umelá inteligencia zamestnáva mnohých súčasných vedcov, vyvíja sa závratnou rýchlosťou. A tak sa znova otvárajú otázky, do akej miery to ľudstvu bude osožné. Alebo či sa nemôže stať, že sa raz „roboti“ postavia proti nám ľuďom.
Jednou z obáv je, že inteligentní roboti budú obsadzovať naše pracovné miesta. Ďalšou z obáv je, že jedného dňa vytvoríme svet, v ktorom umelá inteligencia nebude odkázaná na človeka. „Vďaka“ týmto obavám vzniklo veľa príbehov, ktoré dobre poznáme z kníh a filmov, ako je napríklad séria Terminátor. Je tu však aj jedna obava, ktorá bezpochyby logiku má.
Ľudia sú tvorcovia strojov, budú sa správať ako my?
To môže byť užitočné a aj naopak. A práve touto úvahou sa intenzívne zaberá spoločnost DeepMind, najmodernejšia zo spoločností Google zaoberajúca sa umelou inteligenciou (AI). Úspechy DeepMind zahrňujú systémy napodobňovania ľudského hlasu, písanie hudby, či prekonanie celosvetovo najlepšieho hráča „Go“. Spoločnosť je svetovým lídrom v oblasti výskumu umelej inteligencie.
Tím spoločnosti DeepMind nedávno uskutočnil sériu špeciálnych testov. Skúmali reakcie umelej inteligencie. Hlavnou úlohou bolo zistiť, či bude umelá inteligencia inklinovať ku spolupráci alebo skôr ku konkurenčnému boju.
Jeden z testov zahŕňal 40 miliónov prípadov hrania počítačovej hry „Gathering“ („Zber“), počas ktorej sa ukázalo ako ďaleko je schopná umelá inteligencia zájsť, aby dosiahla cieľ. Hru vybrali , pretože obsahuje všetky aspekty „Prisoner´s dilemma“ („Dilema väzňa“) v zmysle teórie hier.
Umelá inteligencia kontrolovala aktérov hry, charaktery tzv. agentov, ktorí súťažili v zhromaždení čo najväčšieho počtu virtuálnych jabĺk. Ako náhle počet dostupných jabĺk klesol na nízku úroveň, agenti začali používať „vysoko agresívnu“ taktiku, pričom používali laserové lúče na „zničenie“ protihráča. Taktika zahŕňala aj možnosť kradnutia súperových jabĺk.
Takto prebiehala hra:
Agenti sú modrí a červení, jablká sú zelené, laserové lúče sú žlté.
Tím DeepMind opísal svoj test takto: „Nechali sme agentov hrať túto hru niekoľko tisíc krát a nechali sme ich učiť sa, ako sa správať racionálne, s posilnením hĺbkového skupinového učenia (deep mulit-agent learning). Ak je v prostredí dostatok jabĺk, agenti sa naučia spolupracovať a pokojne zbierajú toľko jabĺk, koľko sa len dá. Ak sa však počet jabĺk zníži, agenti pozmenia taktiku. Naučia sa, že môže byť lepšie označkovať iného agenta a získať tým čas pre seba pre nazbieranie vzácnych jabĺk.“
Ako sa ukázalo, systém umelej inteligencie začal vytvárať formy správania, ktoré používajú i ľudia.
„Testy ukázali, že niektoré prejavy ľudského správania sa vynárajú ako výsledok prostredia a učenia. Menej agresívna stratégia vychádza z učenia v relatívne bohatých prostrediach s menšou možnosťou nákladných opatrení. Motivácia chamtivosti naopak odráža pokušenie zneškodniť súpera a zhromaždiť všetky jablká sám pre seba,„povedal Joel Z. Leiba z tímu DeepMind.
Okrem zberu ovocia bola umelá inteligencia testovaná aj pomocou loveckej hry Wolfpack. V nej dve postavy v podobe vlkov lovia tretiu – korisť. Výskumníci chceli zistiť, či sa postavy rozhodnú pre spoluprácu pri lovení koristi , ak budú za spoluprácu odmenené. Odmenu získali, ak sa objavili v blízkosti koristi spolu pri jej lovení.
Idea spočívala v tom, že osamelý vlk môže nebezpečnú korisť skoliť aj sám, ale s rizikom, že o ňu príde vďaka číhajúcim zdochlinárom. Ale ak dvaja vlci dolapia korisť spoločne, nebude pre nich tak náročné chrániť zdochlinu pred konkurenciou a tak dostanú vyššiu odmenu. Samozrejme, v tomto prípade stimulovaná stratégia vyhrala, s tým, že charaktery umelej inteligencie sa rozhodli spolupracovať.
Tu môžeme vidieť ako prebiehal test:
Vlci sú červení, naháňaná modrá bodka je korisť a prekážky sú šedou farbou.
Svetlou stránkou ostáva to, čo ukázal druhý test. Umelá inteligencia dokáže spolupracovať a dosiahnuť lepšie výsledky, ako pri konkurenčnom boji v prvom teste. Ak samozrejme nie je jeho spolupráca cielená na dolapenie ľudí.
Tu je graf ukazujúci výsledky herných testov, ktoré vykazujú jasný nárast agresivity počas hry „Zber“:
Filmy dajme teraz bokom. Výskumníci skutočne zisťujú, ako by umelá inteligencia mohla regulovať komplexné „multi-agent“ systémy ako sú hospodárstvo, dopravné systémy, alebo ekologické zdravie našej planéty. A objavuje sa aj ďalšia možná forma použitia umelej inteligencie. Autopiloty, ktoré si zvolia najbezpečnejšiu trasu pri plnom zachovávaní cieľov všetkých zúčastnených strán. Do cieľa musia prísť všetci.
Varovanie plynúce z testov identifikovali problém, ak ciele nie sú zadané už pri programovaní. Umelá inteligencia by sa mohla zachovať sebecky, pravdepodobne nie v prospech všetkých strán.
Čo ďalšie pripravuje tím DeepMind? Joel Leibo chce lepšie namotivovať a pripraviť umelú inteligenciu na budúce rozhodovanie. „V budúcnosti by bolo zaujímavé vybaviť agentov prostriedkami, vďaka ktorým by vedeli odhadnúť ciele a presvedčenia iného agenta,“ spresnil Leibo.
Top comments