Przemierzanie lochów i walka ze smokami nie należą może do wyzwań, przed jakimi w przyszłości stanie sztuczna inteligencja, ale gry strategiczne oraz RPG-i okazały się dla niej doskonałym poligonem doświadczalnym. Czy to konkurując z mistrzami "Starcrafta II", którym już kilkukrotnie syntetyczny nowicjusz nie dał szans, czy ostatnio w jeszcze bardziej klasycznym, a więc tekstowym wydaniu. Słowo tekstowy jest tu kluczowe, ponieważ przedmiotem badań było narzędzie GPT-3 do syntetycznego odtwarzania ludzkiego pisma. Wnioski, do jakich doszli naukowcy, są natomiast nieco niepokojące – ale bez wątpienia fascynują.
RPG-i uczą i bawią

Gracze klasycznych role-playów przez dekady traktowani byli jak nerdzi – wyszydzano ich, w najlepszym razie wytykając oderwanie od rzeczywistości. W fantastycznych światach znajdowali jednak pewnego rodzaju odskocznię od smutnej rzeczywistości. Mogli być, kim tylko chcieli, ruszając do lochów jako bohaterowie, którzy zgładzą smoka czy inne szkarady. Ostatnio jednak smok przybrał cybernetyczną formę. To właśnie w tej roli bowiem naukowcy z Georgia Institute of Technology obsadzili swoje inteligentne narzędzie symulujące pismo. O doświadczeniu poinformowało "MIT Technology Review".
Rzecz miała miejsce w klasycznym, tekstowym RPG-u. Chodziło bowiem o to, by sprawdzić możliwości GPT-3 w możliwie jak najtrudniejszych warunkach. Ten model językowy już wcześniej dawał świetne rezultaty, ale jedynie jako syntezator. Bazując na niezmierzonych zasobach internetu, nauczono go doskonale odtwarzać pismo – wymyślał historie, prowadził fałszywe blogi, tworzył posty na Reddicie. Naukowcy uznali jednak, że choć na tym polu jego osiągnięcia robią wrażenie, w zasadzie są bezcelowe. Język jest bowiem dla ludzi czymś więcej – narzędziem.
W Atlancie doszli więc do wniosku, że warto spróbować nietypowej metody. GPT-3 rozwijano oczywiście dzięki uczeniu maszynowemu, a więc poprzez przetwarzanie danych i ich naśladownictwo. W ostatnim eksperymencie skupiono się natomiast na uczeniu przez wzmocnienie (reinforcement learning), będącym specyficzną formą uczenia maszynowego. Chodzi bowiem o to, by zasymulować sztucznej inteligencji dawkę doświadczenia, z którego może ona wyciągnąć wnioski. Tekstowa rozgrywka RPG była więc dla modelu językowego doskonałą sposobnością.
Jak GPT-3 zostało smokiem

Miejscem potyczki była tekstowa gra fantasy RPG "LIGHT", którą w zeszłym roku opracował Facebook. Jej celem jest badanie interakcji między ludźmi a sztuczną inteligencją. Naukowcy z GIT natomiast skorzystali z niej, obsadzając GPT-3 w roli smoka. Nie chodziło jednak o czyste towarzyszenie ludzkim graczom, lecz realizację konkretnych celów – jak to w grze. Już samo dążenie do ich osiągnięcia jest oczywiście czymś wykraczającym poza pojmowanie maszyny. Jeszcze dalej idącym wymaganiem jest natomiast podejmowanie decyzji, które do tego celu ją doprowadzą.
Oczywiście zanim rozpoczęto rozgrywkę, potrzebne były mozolne przygotowania. Naukowcy musieli samodzielnie opracować tysiące zadań i bazę danych, bez których sztuczna inteligencja nie miała odpowiedniej wiedzy o świecie gry. Nauczono ją też, w ramach tego zamkniętego środowiska, podejmowania zdroworozsądkowych akcji, które miały przybliżać GPT-3 do realizacji celów.
Niepokojące wnioski?

W grach strategicznych, gdzie sztuczna inteligencja doskonale zna mechaniki, a przy tym karmiona jest terabajtami danych na temat tego, jak w danych sytuacjach zachowują się profesjonaliści, także osiągano ten efekt. Przejście na rozgrywkę tekstową było jednak pewnym novum – wymagało bowiem komunikacji w czasie rzeczywistym z innymi graczami. Tak oto zespół badawczy przetestował syntezator pisma, nadając mu pozorną świadomość. Nie powinno nikogo zaskoczyć, że efektem dobrze przeprowadzonego uczenia przez wzmocnienie, było... nauczenie AI perswazji czy wręcz manipulowania.
GPT-3 już wcześniej doskonale opanował posługiwanie się językiem. Teraz natomiast zyskał głębię, wykorzystując go nie tylko do snucia historii, ale też interakcji z ludźmi i innymi AI. I choć oczywiście perswazja czy wręcz manipulowanie to nic nowego dla człowieka, uczenie tego maszyn wielu może bulwersować. Na dłuższą metę rozwój tych technologii może bowiem – przy nierozważnych krokach naukowców – wymknąć się spod kontroli. W obecnej sytuacji trudno jednak doszukiwać się czegoś więcej niż kolejnego kroku w naukowym postępie. Sztuczna inteligencja dała zresztą wiele przykładów tego, jak zabawnie nie rozumie niektórych zagadnień. Niekoniecznie więc trzeba panikować, przywołując technoapokaliptyczne wizje rodem z "Terminatora". Przynajmniej jeszcze nie.