Tak właśnie najczęściej ludzie wyobrażają sobie sztuczną inteligencję tworzącą teksty kultury.
KategorieInformatykaPopkulturaPrzemyślenia

Jak sztuczna inteligencja może zahamować innowacyjność kultury

Kiedy jakiś czas temu pisałem o braku innowacyjności w popkulturze zdałem sobie sprawę, że na skalę tego problemu może wpłynąć rozwój technologii. Brzmi to jak paradoks – technologia ma przecież rozwiązywać problemy i ułatwiać nam życie. Pozytywnie nacechowane, utylitarystyczne myślenie o technologii jest tak mocno osadzone w naszej kolektywnej świadomości, że rozwój cywilizacyjny często utożsamiany jest z postępem technologicznym. Znajduje to zresztą odbicie w pulpowych tekstach sci-fi, w których przyszłość przedstawiania jest jako „teraźniejszość tylko z zaawansowaną technologią.” Mamy też skalę Kardaszowa, która dzieli hipotetyczne cywilizacje zamieszkujące wszechświat na kilka typów (poziomów). Przynależność do danego typu uzależniona jest od tego jakimi zasobami energetycznymi dysponuje dana cywilizacja, co naturalnie zależy od dostępnej technologii.

Oczywiście, jeśli głębiej się nad tym wszystkim zastanowić, okazuje się, że to z pozoru niekontrowersyjne podejście do technologii jest istnym filozoficznym polem minowym. Bo o ile można zgodzić się co do tego, że lodówki, zmywarki czy innego rodzaju roboty podnoszą komfort życia, o tyle trudno nadać równie pozytywny spin bombom wodorowym, autonomicznym dronom bojowym czy systemom masowej inwigilacji obywateli. Jeszcze gorzej robi się, kiedy uzmysłowimy sobie, że nawet z pozoru całkowicie niegroźna technologia potrafi niekiedy znaleźć zupełnie nowe, upiorne zastosowanie. Jak chociażby sterowanie czołgami za pomocą padów do Xboxa – rozwiązanie, które najwyraźniej obecnie testuje Izraelska armia.

Ale wracając do mojej pierwotnej myśli: frazą klucz w temacie negatywnego wpływu technologii na popkulturę jest sztuczna inteligencja. Nie mam jednak na myśli tworów powszechnie znanych z tekstów sci-fi, tj. mniej lub bardziej humanoidalnych robotów obdarzonych świadomością i zdolnościami poznawczymi porównywalnymi do ludzkich lub nawet je przekraczającymi (np. androidy z Detroit: Become Human czy Ava z filmu Ex Machina). Tego typu ogólna sztuczna inteligencja (artificial general intelligence) wciąż jest daleko poza naszym horyzontem technologicznym i stanowi coś w rodzaju Świętego Grala badań nad AI lub zwiastuna ostatecznej zagłady naszego gatunku. Zależy kogo pytać.

W tym konkretnym przypadku chodzi mi o ekstrapolację współczesnej technologii – coś, co może być tuż za rogiem. Już teraz dostępne są wysoce wyspecjalizowane systemy eksperckie tworzone w architekturze sieci neuronowych i oparte algorytmy głębokiego uczenia się. Tego typu sztuczna inteligencja działa trochę jak ludzki mózg. Prowadzone przez nią obliczenia są bardziej rozproszone lub inaczej „paralelne”. To znaczy, że zamiast ciągu operacji wykonywanych seryjnie (jedna za drugą), jak ma się rzecz w przypadku klasycznych algorytmów, wiele operacji wykonywanych jest równolegle przez poszczególne elementy sieci zwane, przez podobieństwo do biologicznych odpowiedników, sztucznymi neuronami (nodes).

Sztuczne sieci neuronowe, tak jak i prawdziwie sieci neuronowe, są w stanie wykonywać swoje zadanie dopiero po odpowiednim przeszkoleniu, najczęściej na ogromnych ilościach danych. Zastanawialiście się kiedyś, dlaczego strony zabezpieczone CAPTCHA tak często proszą o wskazanie znaków drogowych albo sygnalizacji świetlnych? Właśnie do szkolenia sieci neuronowych wykorzystywanych w autonomicznych samochodach. Po wprowadzeniu danych wejściowych i wyznaczeniu parametrów sukcesu sieć przechodzi przez szereg iteracji, w których wybierane są takie ustawienia „wag” sztucznych neuronów, które dają najlepsze rezultaty. Często też może być potrzebny ludzki nadzór: wyniki oceniane są przez prawdziwy mózg i to on jest ostatecznie decyzyjny. Ludzie odsiewają właściwe wyniki z morza pozbawionych sensu danych.   

Jeżeli cel ma aspekt kompetytywny, sieć neuronowa może także uczyć się rywalizując sama ze sobą. Tak było w przypadku AlphaGo, sztucznej inteligencji stworzonej przez Google do gry w go, abstrakcyjną grę planszową o prostych zasadach, ale bardzo rozbudowanej siatce potencjalnych ruchów i strategii. Kombinatoryka go, tj. liczba istniejących kombinacji ruchów, znacznie przekracza to co mamy np. w szachach. Ponieważ go nie można po prostu „rozwiązać”, przewidując wszystkie możliwe ruchy, AlphaGo najpierw szkolone było na danych z rozgrywek pomiędzy profesjonalnymi graczami, a potem rozgrywało partie samo ze sobą. Rezultaty były tak dobre, że AlphaGo pokonało Lee Sedola, jednego z najlepszych graczy go na świecie. Na YouTube jest o tym świetny dokument, który poza przedstawieniem szczegółów na temat powstawania AlphaGo jest też fascynującym portretem starcia człowieka z maszyną.       

Powyższe przykłady pokazują, że istniejąca sztuczna inteligencja ma bardzo wąski zakres specjalizacji. Mimo, że AlphaGo jest w stanie pokonać praktycznie każdego gracza w Go, jest całkowicie bezradne w obliczu zadania polegającego na dopasowaniu klocków o różnych kształtach i kolorach do odpowiednich otworów – czegoś, z czym radzi sobie nawet małe dziecko. Innym problemem AI jest tzw. zasada garbage in, garbage out (dosłownie: „jak wrzucasz śmieci, to wyciągasz śmieci”) czyli pogorszenie wyników spowodowane uczeniem się sieci neuronowych na kiepskim materiale wejściowym. Zwykle problem ten wynika z braku dostępności odpowiednio przygotowanego (np. otagowanego) materiału do nauki, ale niekiedy może być spowodowany zapętleniem przepływu danych – algorytm jako wzorcowe dane wejściowe przyjmuje niedoskonałe dane wyjściowe z poprzednich iteracji. Jest to coś z czym mierzy się, między innymi, tłumacz Google. W Internecie krąży coraz więcej automatycznie przetłumaczonych tekstów, więc coraz więcej z nich trafia z powrotem do baz danych tłumacza Google, stopniowo je zanieczyszczając.

Jesteście jeszcze ze mną? Bo w końcu dochodzimy do pièce de résistance, głównego dania tego wpisu. Sieci neuronowe można zaprząc do tworzenia tekstów kultury. AI nie zabrało się jeszcze za pisanie powieści czy scenariuszów do filmów, ale myślę, że to jedynie kwestia czasu. Przetwarzanie języka za pomocą modelu GPT-2 już teraz daje zaskakująco dobre rezultaty (pisałem o tym przy okazji gry tekstowej AI Dungeon 2), a sztuczna inteligencja osiągnęła już całkiem spektakularne sukcesy w innych obszarach sztuki. Na mnie największe wrażenie zrobił projekt The Next Rembrandt, w którym AI, po analizie istniejących obrazów Rembrandta, stworzyło zupełnie nowy obraz w stylu tego malarza. Twórcy projektu zdecydowali się pójść nawet o krok dalej i wydrukowali obraz w technologii 3D, odtwarzając charakterystyczne pociągnięcia pędzla widoczne na innych płótnach Rembrandta.  

AI nieźle radzi sobie także na polu muzyki. Algorytm AIVA (Artificial Intelligence Virtual Artist) po przeanalizowaniu potężnych ilości materiałów muzycznych rozpoznał występujące w nim powtarzalne wzorce i nauczył się komponować krótkie utwory z różnych gatunków. W przypadku muzyki popowej musiało być wyjątkowo łatwo, zważywszy na to ile utworów opiera się o te same cztery akordy. Co ciekawe AIVA „wydała” dwa albumy i uznana została nawet przez Société des auteurs, compositeurs et éditeurs de musique (SACEM), francuską organizację zbiorowego zarządzania prawami autorskimi (coś jak nasz ZAIKS). Nie udało mi się jednak dotrzeć do żadnych artykułów naukowych na temat AIVA, więc powstaje pytanie jak bardzo samodzielny jest ten algorytm lub inaczej ile dodatkowej ludzkiej pracy wymagały imponujące efekty końcowe.    

To samo co z portretami Rembrandta czy muzyką klasyczną AI mogłoby w przyszłości zrobić z, powiedzmy, filmami Marvela. Wystarczyłoby wrzucić wszystkie scenariusze istniejących filmów i opisy fabuł komiksów do magicznego kotła AI i czekać na nową miksturę. Tylko jeżeli istniejące teksty popkultury są w dużej mierze wtórne, a twory sieci neuronowych są jedynie tak dobre jak dane wejściowe… to mamy spory problem. AI może zapewnić nam dostęp do bezprecedensowej ilości rozrywki, jednocześnie zamykając nas w kulturowej bańce. Zwłaszcza jeśli doszłoby do zapętlenia przepływu danych, o którym wspominałem wyżej.

AI stworzy nam nowy obraz w stylu Rembrandta, ale nie stworzy nowego kulturowego odpowiednika Rembrandta. Do tego potrzeba ludzkiej kreatywności i ludzkiego umysłu. Przynajmniej póki nie stworzymy ogólnej sztucznej inteligencji.

PS. Świetną krytykę sci-fi jako literackiej ekstrapolacji obecnych trendów, zwłaszcza w obrębie technologii, przedstawiła Ursula LeGuin w słowie wstępnym do „Lewej ręki ciemności.” Jest też w polskim wydaniu „Sześciu światów Hain.”

Źródełko zdjęcia: Photo by Franck V. on Unsplash

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *