„Severed Steel” to naładowana akcją strzelanka z prostym celem: pozwolić graczom poczuć się jak bohaterowie absolutnie przegiętego filmu akcji. Na pierwszy rzut oka widać w niej pewne podobieństwa do „Ghostrunnera” i „SUPERHOT” – minimalistyczna, wystylizowana grafika, akrobatyczna bohaterka oraz bullet time – ale zamiast zachęcać nas do metodycznego rozpracowywania każdego poziomu, aż w końcu wpadniemy na odpowiednią morderczą choreografię, „Severed Steel” daje nam ogromną swobodę działania i wybacza wiele błędów. Jeśli uznać „Ghostrunnera” za balet, to „Severed Steel” jest radosnym pląsaniem na dyskotece. Najwyraźniej na etapie projektowania gry jej twórcy obrali podejście niemalże statystyczne: jeśli maksymalnie ułatwić graczom poruszanie się oraz strzelanie i stale zasypywać ich hordami wrogów, to imponujące akcje, rodem z „Matriksa”, są niemalże gwarantowane. I co najlepsze, taka filozofia designu się sprawdza – co dobrze widać na spontanicznie nagranym przeze mnie filmiku.
Nie chcę jednak sugerować, że ta płynność rozgrywki to zasługa przypadkowego wymieszania różnych składników. „Severed Steel” ma wiele przemyślanych rozwiązań. Przede wszystkim, wrogowie mogą nas trafić jedynie, kiedy nie wykonujemy żadnych akrobacji, co dostarcza bodźca do ciągłego przemieszczania się, a poziomy – przypominające często areny z dawnych strzelanek – mają wiele elementów architektonicznych, wymagających konkretnych interakcji (szyby, przez które można się przebić; tunele do wślizgów czy pionowe platformy, od których można się odbić). Warto docenić też dobre wskazówki dźwiękowe (na przykład charakterystyczny trzask po wyeliminowaniu wroga), znacznie ułatwiające rozeznanie się w wizualnym chaosie, jaki nierzadko panuje na ekranie.
„Severed Steel” to gra na raptem kilka godzin, co w zupełności wystarcza, bo kampania kończy się zanim zdążymy poczuć zmęczenie, bądź co bądź, ciasną pętlą rozgrywki. Trzeba jednak mieć świadomość, że jest to produkcja małego zespołu o dość ograniczonym budżecie – mechanikom brakuje ostatnich szlifów, a fabuła jest szczątkowa. Sporym zawodem jest muzyka, która momentami brzmi jakby wyciągnięto ją z pierwszego Wipeouta. Cena gry wydaje mi się też trochę wygórowana (dziewięć dyszek), ale sam dorwałem grę za darmo na Epicu, więc nie narzekam.
Podczas oglądania piątego odcinka „The Last of Us” dotarło do mnie, że postapokaliptyczne teksty kultury opierają się na wewnętrznej sprzeczności. Z jednej strony w niemalże perwersyjny sposób napawają się wizją upadku naszego, bądź co bądź, zepsutego świata: przedstawiana w nich rzeczywistość jest brutalna, ale niepozbawiona surowego piękna, na przykład w postaci odżywającej przyrody. Z drugiej natomiast prawie nigdy nie przedstawiają one żadnej pozytywnej alternatywy; na gruzach dawnego porządku nie wyrasta nic dobrego. To właśnie widzimy w czwartym i piątym odcinku „The Last of Us”, kiedy upadek jednego faszystowskiego reżimu prędko zastąpiony zostaje kolejnym. Nikt nie próbuje niczego innego, nikt nie organizuje się oddolnie w bardziej egalitarny sposób. „Może i wypaczona kapitalizmem demokracja pośrednia jest do bani, ale wszystko inne jest jeszcze gorsze” – można wyczytać między wierszami. Zdradza to oczywiście brak politycznej wyobraźni twórców, ale nie ma co się temu dziwić. Obecnie łatwiej wyobrazić sobie koniec świata niż koniec kapitalizmu.
I mniejsza o to, na ile „realne” byłoby takie społeczeństwo. Często słyszę argumenty, że takie cyniczne przedstawianie człowieka jest po prostu „pozbawione złudzeń”; że ludzie z natury są egoistyczni, więc zrobią wszystko, byle tylko przeżyć („Wytrwać i przetrwać”). Mówimy tu jednak o utworach fikcyjnych. Mykolodzy kategorycznie wykluczają pandemię Cordycepsa – to organizm zbyt wyspecjalizowany do pasożytowania na mrówkach – czy innych grzybów, więc skoro możemy zawiesić niewiarę co do tego, to czemu nie w kwestiach społecznych i politycznych? Nie żebym domagał się więcej naiwnych utopii, gdzie wszyscy są szczęśliwi, wszelkie konflikty odeszły w niepamięć a dobro zawsze zwycięża – jeśli komuś brakuje takiej prozy, może sięgnąć po zapomniane dzisiaj powieści H. G. Wellsa (np. Ludzie jak bogowie). Chciałbym po prostu więcej tekstów kultury, które przynajmniej dopuszczają inne możliwości niż społeczny regres. Bo jeżeli bardziej sprawiedliwe społeczeństwo nie mieści się nawet w granicach naszej wyobraźni, to jak mielibyśmy je kiedykolwiek zbudować?
A co do samego serialu, to dalej jest dobrze, choć nie powiem, żebym był jakoś niesamowicie zaangażowany emocjonalnie w historię Joela i Ellie. Może to kwestia tego, że mamy do czynienia z serialową adaptacją i tak już mocno kinowej gry, której zresztą nigdy nie byłem wielkim fanem. Ale na kolejny odcinek nawet czekam.
„Wielka cisza” Teda Chianga to jedno z tych opowiadań science fiction, do których lubię co pewien czas wracać. Jak na tak krótki tekst – całość ma raptem kilka stron – jest to materiał niezwykle gęsty tematycznie, łączący w sobie motyw eksploracji kosmosu z wątkiem ekologicznym i refleksją na temat języka, komunikacji i zwierzęcej inteligencji. Wszystkie te elementy zdają się perfekcyjne dopasowane, niby misterna układanka. Każde zdanie odpowiednio wybrzmiewa i ma swoje miejsce – mamy tu krótką formę w najlepszym wydaniu.
Najbardziej jednak cenię sobie w „Wielkiej ciszy” jej płaszczyznę emocjonalną. Na tym poziomie jest to gorzko-słodka opowieść o ludzkiej ambicji oraz przemijaniu, nie tyle jednostki, co całych kultur i cywilizacji, opowiedziana z nietypowego punktu widzenia: przez papugę. W tych kilku pierwszych migawkach, z których składa się to opowiadanie, ów ptasi narrator objaśnia czytelnikom paradoks Fermiego: skoro wszechświat jest tak ogromny i statystycznie prawdopodobne jest, że gdzieś poza Ziemią powstało życie, dlaczego nikt jeszcze się z nami się nie skontaktował?
W miarę, jak w kolejnych ustępach dowiadujemy się więcej o „papuzich obyczajach”, powoli nasuwa się nam odpowiedź, choć w tekście nigdy nie zostaje ona wypowiedziana wprost. Zamiast desperacko szukać obcych inteligencji wśród gwiazd być może powinniśmy bliżej wsłuchać się w te obecne tutaj, na Ziemi – w głosy naszych „braci mniejszych”. Szczególnie poruszające jest to, że ta krytyka ludzkiej krótkowzroczności (czy też: dalekowzroczności; obserwujemy odległe gwiazdy, a zdajemy się nie dostrzegać istot, z którym dzielimy planetę) w żadnym momencie nie przybiera postaci surowej reprymendy. Wręcz przeciwnie, papuga-narrator wybacza nam naszą ignorancję i krzywdy, jakie wyrządziliśmy jej dzikim pobratymcom. Jak pies, który kocha nawet niewdzięcznego, surowego pana. Czystość i niewinność takiej postawy zawsze mnie porusza.
Wizje ukazywane przez fantastykę naukową potrafią być bardzo odległe – zapuszczamy się w głąb galaktyki lub daleką przyszłość – a jej światy tworzone z rozmachem, lecz chłodne i nieprzystępne. Sterylne. „Wielka cisza” w podobny sposób prowokuje do głębokich, dalekosiężnych rozmyślań, nie tracąc jednak serca. W tym sensie jest to idealne science fiction dla ludzi, którzy tego gatunku nie lubią – lub nigdy go nie próbowali.
Można oczywiście twierdzić, że opowiadanie Chianga nie zalicza się do „twardej” fantastyki naukowej, wszak papuga o ludzkiej inteligencji to czysta fikcja. Badania nad zdolnościami poznawczymi ptaków, zwłaszcza z rodziny krukowatych, wykazały, że choć są to znacznie bardziej inteligentne zwierzęta niż podejrzewaliśmy (zważywszy na ich stosunkowo niewielkie mózgi), ich komunikacja nie może równać się ludzkiej. Nawet najgenialniejsza papuga nie jest w stanie zakomunikować swoim towarzyszom żadnej abstrakcyjnej myśli. Nigdy nie narodził się żaden kruczy Shakespeare czy papuzi Flaubert. Owszem, ale jak stwierdziła Ursula Le Guin we wstępie do „Lewej ręki ciemności”: „Science fiction nie przewiduje, science fiction opisuje […] Przepowiednia to sprawa proroków, jasnowidzów i futurologów. Nie powieściopisarzy. Powieściopisarz ma łgać”. A „Wielka cisza” to doprawdy piękne łgarstwo.
Opowiadanie, w przekładzie Jakuba Małeckiego, jest częścią zbioru „Wydech”. Fizyczny nakład niestety się już wyczerpał, ale książka nadal jest dostępna jako audiobook i ebook.
W przerwach od pracy ogrywam sobie Tunic i pomimo pewnych mankamentów – na przykład nieco zbyt prostej mechanika walki – jestem pod wrażeniem, jak wiernie gra ta potrafi wzbudzić w nas uczucie, jakbyśmy cofnęli się do lat dzieciństwa i znów siedzieli przyklejeni do telewizora, przechodząc trzecią Zeldę. I nie mam tutaj na myśli palców obolałych od nerwowego wciskania plastikowych przycisków na padzie do SNES-a ani przekrwionych oczu od kineskopowego monitora. Chodzi o radość z odkrywania. Wówczas wynikała ona z braku doświadczenia – dla dziecka zaskoczeniem jest każda lokacja, każdy wróg, każde rozwiązanie dizajnu; obecnie, kiedy człowiek widział już wszystko i stał się cynicznym zgredem, zdecydowanie trudniej jest go czymś zaskoczyć. Tunic jednak się to udaje, i to bez wywoływania przesadnej frustracji, jaka nierzadko towarzyszy odkrywaniu nowych rzeczy.
Cała gra opiera się na dość prostej, ale pomysłowo zaimplementowanej filozofii: nie prowadzić graczy i graczek za rękę ani niczego nie objaśniać. Samo to brzmi co prawda jak przepis na niezwykle żmudną grę, w której godzinami błądzi się bez celu. I pewnie by tak było, gdyby nie instrukcja. Ale jak to? Przecież miało nie być żadnego objaśniania! Otóż na samym początku gry dostajemy jedynie pierwszą jej stronę, a kolejny musimy odnaleźć, przemierzając tajemniczą krainę.
Co więcej, większość tekstów, w tym także dialogów, zapisana jest niezrozumiałym pismem runicznym, poprzetykanym sporadycznymi słowami w języku polskim (bądź angielskim, zależnie od wersji gry; swoją drogą ciekawe, czy osoba tłumacząca miała dostęp do pełnego tekstu). Czasem musimy zatem trochę pogłówkować – co ułatwiają pojawiające się na niektórych stronach odręczne zapiski – albo poeksperymentować. Dokąd powinienem udać się teraz? Do czego służy ten przedmiot? Jak pokonać tego bossa? Wspaniałe jest to, że pewne rzeczy ukryte są dosłownie na widoku, więc kiedy naprowadzi nas na nie świeżo zdobyta strona instrukcji, radosny okrzyk „Aha!” aż sam ciśnie się na usta.
Decyzja, by posługiwać się wymyślonym językiem przemawia do mnie także z innego powodu. Wychowywałem się w czasach, gdy niewiele gier było lokalizowanych, więc mimo braku znajomości angielskiego trzeba było jakoś sobie radzić. Tunic przypomniało mi o tym, zachęcając mnie do przeglądania stron instrukcji pokrytych równymi szeregami run i kilkoma tylko zrozumiałymi słowami i odszyfrowywania sensu całej wypowiedzi. Nie sądzę, by było to zamierzone – twórca gry pochodzi z Kanady, więc doświadczenia milenialsów z Polski są mu raczej obce.
Jeśli czujecie, że czegoś takiego właśnie Wam brakowało w życiu, albo po prostu macie ochotę na klasyczną Zeldę z elementami Dark Soulsów i ciekawymi bossami to koniecznie sprawdźcie sobie Tunic.
Kiedy tak przeglądam sobie komentarze pod artykułami o grach czy filmach, odnoszę wrażenie, że coraz trudniej pisać cokolwiek sensownego o popkulturze, nie zrażając do siebie znacznej – a w każdym razie głośnej w mediach społecznościowych – grupy odbiorców. Obecny dyskurs wpadł w argumentacyjne kleszcze. Z jednej strony niektórych tematów nie sposób nawet poruszyć, nie ściągając na siebie gromów ze strony ludzi cierpiący na skrajną spoilerofobię. I tak osoba pisząca zmuszona jest do operowania ogólnikami lub obwarowywania choćby najkrótszego ustępu ostrzeżeniami, że hic sunt dracones i każdy zapuszcza się na własne ryzyko. Z drugiej strony próby krytycznej analizy danego utworu torpedowane są za pomocą argumentu „a mnie się podoba”, swoistej retorycznej pałki do uciszania wszelkich malkontentów. Masz jakieś zastrzeżenia? Znaczy się, nie podobało ci się. A nam się podobało i co nam zrobisz?
Niewykluczone, że to tylko moja banieczka informacyjna i nie jest aż tak źle. Być może to wszechmocne algorytmy Facebooka podsuwają mi wynurzenia kolejnych samozwańczych krytyków popkulturowych, bo utknąłem w pętli masochistycznego sprzężenia zwrotnego. Jakkolwiek by to było, temat ten wydał mi się na tyle ciekawy, by poświęcić mu ten krótki wpis1. Ponieważ spoilerofobia to problem złożony, i drażliwy, skupię się tu głównie na tych, co szafują argumentem „a mnie się podoba” – nie chciałbym zaleźć za skórę zbyt wielu ludziom naraz. Zacznijmy jednak od sprawy fundamentalnej: czy obiektywna ocena tekstów kultury, a szerszej sztuki jako takiej, jest w ogóle możliwa? Przydatnym narzędziem do wyznaczania granic tak złożonego problemu jest redukcja do absurdu, więc rozważmy najpierw dwa skrajne scenariusze.
Obiektywizm absolutny. „Andor to mocne 9 na 10”
Takie stanowisko zakłada, że możliwe jest wyznaczenie precyzyjnych kryteriów oceny „jakości” czy też „wartości” sztuki, które pozwoliłoby nam jednoznacznie zaklasyfikować każde dzieło jako „wybitne” lub „marne”. Przy czym słowo „precyzyjne” dźwiga na swoich barkach ogromny ciężar: nie chodzi bowiem jedynie o pewną listę ogólnych warunków do spełnienia. Język naturalny jest z natury nieostry, więc nie możemy po prostu sformułować kryteriów pokroju „posiada logiczną i spójną fabułę” czy „postaci są przekonująco zarysowane i każda ma wyraźną trajektorię rozwoju”. W ten sposób wprowadzilibyśmy do naszego systemu czynniki subiektywne. Całą ich masę. Bo co to znaczy, na przykład, „przekonująco”? To, co jednemu wyda się przekonujące, dla innego może być naiwne. Albo: jak obiektywnie stwierdzić, kiedy fabuła jest spójna? Co jeśli niespójność fabuły jest celowym zabiegiem narracyjnym (jak w Memento Nolana czy Ojcu Zellera)? Jeszcze gorzej byłoby, gdybyśmy chcieli umieścić na naszej liście kryteria odwołujące się do pojęć takich jak humor czy piękno, nad którymi od zarania dziejów głowią się filozofowie.
A skoro celujemy w obiektywizm absolutny to nie możemy sobie na coś takiego pozwolić. Zamiast listy ogólnych kryteriów potrzebujemy czegoś bardziej ścisłego; parametrów tak dokładnie określonych, że z ich pomocą nawet osoba zupełnie pozbawiona kompetencji kulturowych byłaby w stanie ocenić każde dzieło; systemu przyjaznego skończonym kulturalnym ignorantom czyli… komputerom. Słowem, potrzebny jest nam pewien algorytm oparty o zbiór reguł dających się wyprowadzić z podstawowych aksjomatów logiki. Tak zalgorytmizowana krytyka sztuki byłaby jak matematyka czy logika formalna. Jej wyniki byłyby niepodważalne i jednoznaczne, o ile tylko „dowód” przeprowadzono by poprawnie – zgodnie z regułami rządzącymi algorytmem (jak jednak pokazał Gödel, nawet w matematyce kwestia dowodzenia bywa nieco bardziej skomplikowana).
Zbudowaliśmy nasz domek z kart. Teraz wystarczy, że wyciągniemy jedną, a cały gmach runie. Oto i ona: kultura jest nierozerwalnie związana z językiem, więc krytyka jej wytworów nie może odbywać się poza nim. Tymczasem wszelkie próby sprowadzenia znaczenia do logiki – czyli jego algorytmizacji – spełzły na niczym. Niektórzy badacze są wręcz przekonani, że nieostrość i wieloznaczność języka naturalnego, dwie poważne przeszkody dla oparcia go na logice formalnej, są jego cechami fundamentalnymi, bez których przestałby skutecznie spełniać swoje funkcje. Bez formalnego języka możemy zapomnieć o formalnych kryteriach oceny.
Oczywiście cały ten wywód jest trochę na wyrost – nie spotkałem jeszcze nikogo, kto by na serio twierdził, że stworzenie „uniwersaliów artystycznych” jest możliwe, czy nawet pożądane. Rzeczywistym odpryskiem takiego podejścia są jednak oceny liczbowe w recenzjach. Gdybyśmy mieli w ręku ów nadrzędny algorytm oceny, nic nie stałoby na przeszkodzie, żeby wszystkie dzieła sztuki uszeregować na jednej, arbitralnej skali „wartości artystycznej”, powiedzmy od 1 do 10. Pewnie zresztą okazałoby się to konieczne, jeśli krytyką sztuki miałoby zajmować się komputery, posługujące się językiem binarnym.
Choć obiektywizm absolutny, jak się przekonaliśmy, to mrzonka, ludzie chętnie sięgają po oceny liczbowe. I w sumie nie ma w tym nic złego, o ile ma się świadomość jak bardzo ograniczone jest to narzędzie2. Z moich obserwacji wynika, że zdecydowana większość ludzi używa ocen numerycznych dość swobodnie i nie przypisuje im żadnego głębszego znaczenia – traktuje je jako sposób na ubranie swoich subiektywnych, nierzadko złożonych odczuć i przemyśleń w jedną, poręczną wartość. Co jeśli akurat mamy ochoty zagłębiać się w szczegóły antyfaszystowskiej polityki Andora ani perorować o tym, jak świetnie pokazał przemianę tytułowego bohatera z cynika w rewolucyjnego przywódcę, tylko po prostu chcemy jasno zasygnalizować, że jest to najlepsza rzecz, jaka przytrafiła się Gwiezdnym Wojnom od czasu starej trylogii? „Andor to mocne 9 na 10”. Niech pierwszy rzuci kamieniem (mieczem świetlnym?), komu nie zdarzyło się nigdy tak podsumować jakiegokolwiek tekstu kultury. Przejdźmy teraz do drugiego ekstremum.
Skrajny subiektywizm. „Każda opinia jest równie dobra”
W tym ujęciu wszystkie kryteria oceny są całkowicie subiektywne, a dzieła sztuki – oraz ich interpretacje – na swój sposób równe, bo wszystko, jak powiadają Anglosasi, jest „w oku obserwatora”. Rzekomo ma to swoje źródło w indywidulnym charakterze naszych doświadczeń: każda osoba ukształtowana została przez unikalną konstelację czynników, wszak żadne dwa życia nie są dokładnie takie same. Na pozór taki „artystyczny egalitaryzm” brzmi zdecydowanie bardziej rozsądnie niż naiwny obiektywizm, ale implikacje tej postawy są nie mniej niepokojące. Jest to równość, lecz w znaczeniu całkowitego chaosu; porządek w znaczeniu najwyższego poziomu entropii – to kulturalny odpowiednik śmierci cieplnej wszechświata.
Sprowadzając krytykę do odczuć czysto subiektywnych negujemy postęp sztuki i rozjeżdżamy jak walcem wszelkie niuanse warsztatu. Ilustracje średniowiecznych kopistów i malowidła ludzi pierwotnych, stają się „tak samo dobre”, jak dzieła późniejszych wielkich malarzy (chociaż trzeba przyznać, że styl średniowiecznych miniatur może być ciekawą estetyką, jak pokazało Pentinent). Nawet dziecięce bazgroły, w których każda matka dostrzega zaczyn artystycznego geniuszu, stają się porównywalne z Gwieździstą nocą van Gogha! Zgodność krytyków przestaje mieć jakiekolwiek sensowne wytłumaczenie – już sama instytucja krytyki kulturalnej jawi się jako czysty absurd. Skoro krytyk czy krytyczka mówi tylko o swoich prywatnych odczuciach, jaki jest sens tego słuchać? Szanse, że nasze własne odczucia – całkowicie subiektywne, zaznaczmy – będą się z nimi pokrywać są niewielkie. A nawet gdyby się pokrywały, to co z tego? Czy potrzebujemy zewnętrznej aprobaty własnych odczuć? Przystając na skrajny subiektywizm, pozbawiamy się także możliwości odrzucania nawet najbardziej wydumanych interpretacji. W oczach konserwatysty Folwark zwierzęcy Orwella jest krytyką demokratycznego socjalizmu i pochwałą kapitalizmu? No nic, musimy się na to zgodzić, bo przecież „każda opinia jest równie dobra”. Pal licho fakt, że pisarz był do końca życia zdeklarowanym socjalistą.
Skrajny subiektywizm opiera się na dwóch błędnych założeniach. Przede wszystkim, ludzie nie są kształtowani przez całkowicie „indywidualne” czynniki, więc ich interpretacje nie mogą być jednostkowe. Mam złe wieści dla indywidualistów: nikt nie jest aż tak wyjątkowym płatkiem śniegu, za jakiego się uważa3. Niektóre doświadczenia są wspólne dla pewnych grup ludzi, ze względu na płeć, wiek, kulturę, narodowość, a inne – uniwersalne. Wszyscy radujemy się i cierpimy; zakochujemy się i przeżywamy miłosne zawody; rodzimy się i umieramy. Więzi te sięgają przez czas i przestrzeń, i dlatego wciąż poruszają nas opowieści starożytnych, jak Iliada Homera czy Epos o Gilgameszu. Co więcej, to właśnie ta ludzka wspólnota doświadczeń jest podstawą istnienia kultury jako takiej, a także wymogiem koniecznym do zadzierzgnięcia nici porozumienia między ludźmi. Nasza zdolność współodczuwania po części wynika bowiem z podobieństwa doświadczeń; mrocznym rewersem tego jest ludzka skłonność do myślenia plemiennego oraz niezdolność do empatii wobec osób o doświadczeniach odbiegających od naszych własnych (przyczyniająca się do takich zjawisk jak np. transfobia). Drugim gwoździem do trumny skrajnego subiektywizmu są kompetencje kulturowe – umiejętności interpretacji i oceny tekstów. Ale o tym za moment.
„A mnie się podoba”. Kompetencje kulturowe (oraz ich brak)
No dobrze, to gdzie na tej prowizorycznej skali – od absolutnego obiektywizmu do skrajnego subiektywizmu – umieścilibyśmy ludzi kończących, lub, co gorsza, zaczynających, każdą dyskusję argumentem „a mnie się podoba”? Moim zdaniem znajdują się niebezpiecznie blisko skrajnego subiektywizmu, ale używają tego stanowiska w sposób cynicznie niekonsekwentny. Kiedy krytycy przedstawiają pasujące im stanowisko, chwaląc lubiane przez nich teksty, ludzie tacy ochoczo przystają na ich argumenty. Ale wystarczy jedno nieprzychylne słowo lub wzmianka o czymś, co nie pasuje do ich światopoglądu, a zjeżają się i wycofują na z góry obrane pozycje: „to tylko twoja opinia”, „to szukanie dziury w całym”, „wszędzie teraz wpychają tę politykę” i, naturalnie, „a mnie się podoba”.
Szczególnie problematyczni pod tym względem są oczywiście GraczeTM – ci spośród grających w gry wideo, którzy najłapczywiej pochłaniają serwowaną im marketingową papkę, bo uczynili cyfrową rozrywkę głównym filarem własnej tożsamości. A ponieważ krytyka nie idzie w parze z reklamą (którą najlepiej skwitował Orwell w Niech żyje Aspidistra!, jednej ze swoich wczesnych powieści, nazywając ją „bełtanie[m] kijem w wiadrze z pomyjami”), GraczeTM, alergicznie reagują na analizę krytyczną, zrównując ją z „hejtowaniem”. Po części kieruje nimi błędnie ulokowany instynkt plemienny („atakują naszych”, czyli w tym wypadku wielomiliardowe korporacje), a po części właśnie owo głębokie niezrozumienie tego, jak działa krytyka kultury.
Bodaj najlepszym tego przykładem, jest ich wypaczona percepcja skali ocen w recenzjach. W oczach GraczeTM każda gra wpada w jedną z dwóch kategorii: absolutny majstersztyk (oceny 8-10) albo zupełnie niegrywalny kasztan (oceny 7 i niżej). Dlatego, kiedy Jim Stephanie Sterling ośmieliło się ocenić Zeldę Breath of the Wild na 7 na 10 pod jego adresem posypała się lawina gróźb i obelg4. W narzekactwie graczy często pobrzmiewa też echo Gamergate w postaci zarzutów przekupstwa wysuwanych przez nich wobec krytyczek i krytyków. I pewnie byłoby w tym trochę racji – w ostatnich latach prasa growa często bierze na siebie rolę drugiego obiegu marketingowego – gdyby nie to, że zarzuty te wyrastają z ohydnych pobudek: seksizmu, rasizmu i ogólnego reakcjonizmu.
Kiedy gracze, czy inni amatorzy (pop)kultury, próbują zacierać granicę pomiędzy odczuciami czysto subiektywnymi a analizą krytyczną, zdają się ignorować fakt, świadomie lub nie, że do oceny tekstu potrzebne są pewne kompetencje kulturowe; niektórzy są wręcz wrogo nastawieni do samej idei profesjonalnej krytyki, uważając ją za coś „wydumanego” czy „pozerskiego”.
I znów: niechęć ta nie jest kompletnie bezpodstawna. Podkreślanie roli kompetencji kulturowych służy niektórym do wynoszenia się na piedestał, prowadząc do klasistowskich objawień, jak to, którym błysnęła niedawno nasza noblistka Olga Tokarczuk:
Nigdy nie oczekiwałam, że wszyscy mają czytać i że moje książki mają iść pod strzechy. Wcale nie chcę, żeby szły pod strzechy. Literatura nie jest dla idiotów. Żeby czytać książki trzeba mieć jakąś kompetencję, pewną wrażliwość, pewne rozeznanie w kulturze. Te książki, które piszemy, są gdzieś zawieszone, zawsze się z czymś wiążą.
Literatura może trafiać pod strzechy, a jeśli nie trafia – to też nie ma w tym nic złego. Nie czytasz książek? Spoko. Wiele można zarzucić tej kapitalistycznej dystopii, którą nazywamy codziennością, ale jedno trzeba jej przyznać: żyjemy w świecie obfitującym w teksty kultury, w przeróżnych formach. Możemy przebierać w komiksach, grach, filmach, serialach, przedstawieniach teatralnych i wszystkim pomiędzy, a dostęp do nich jest łatwiejszy niż kiedykolwiek. Tokarczuk ma jednak sporo racji, nawet jeśli nadaje swoim argumentom cokolwiek pogardliwy ton. A więc dlaczego do oceny literatury, czy jakichkolwiek innych wytworów kultury, potrzebne są kompetencje kulturowe? I czym właściwie one są? Najlepiej ujęła to Ursula Le Guin (pisarka absolutnie najwspanialsza, nie zapraszam do dyskusji, bo nie ma o czym):
Na przykład: pewien pisarz postanawia napisać powieść fantastycznonaukową, nie jest jednak obeznany z tym gatunkiem – nie przeczytał niczego z istniejącej literatury. To stosunkowo powszechna sytuacja, jako że science fiction jest wprawdzie poczytnym podgatunkiem literackim, lecz uznawanym za nie wart głębszej analizy krytycznej. „No bo co tu niby zgłębiać?”, myśli sobie nas nowicjusz, nie pojmując, że gatunek jest gatunkiem, ponieważ posiada określony obszar zainteresowania i zakres tematyczny; odpowiednie narzędzia, reguły i techniki obróbki materiału; własne tradycje oraz grupę doświadczonych, świadomych czytelników. Słowem, stanowi pewną literaturę.
Nieświadom tego wszystkiego nasz nowicjusz zabiera się za wyważanie otwartych drzwi. Z okrzykiem niewinnego zachwytu na nowo „odkrywa” statki kosmiczne, istoty pozaziemskie, szalonego naukowca. Zachwytom tym nie zawtórują czytelnicy fantastyki naukowej, bo widzieli te motywy już nieraz; znają je lepiej niż on sam. Tak samo zbłaźnią się krytycy, którzy wypowiadają się o powieści fantastycznej, przeczytawszy ostatnią w wieku ośmiu lat i nie zgłębiwszy historii tej literatury ani rozległej teorii, jaką obrosła, gdyż nie wiedzą jak czytać tę książkę. Nie znają kontekstu, który pozwoliłby im osadzić ją w odpowiedniej tradycji, nie rozpoznają źródeł inspiracji, nie potrafią ocenić, jaki był zamysł autora bądź autorki ani czy udało się go zrealizować. Potwierdziło się to, nader dobitnie, po wydaniu pierwszej książki o Harrym Potterze, kiedy wielu z krytyków prześcigało się w pianiu peanów na cześć jej oryginalności. Ta mylna ocena wynikała z zupełnej ignorancji gatunków, na kanwie których książka ta powstała (fantastyka dziecięca oraz brytyjska opowieść o uczniach szkoły z internatem), oraz z faktu, że ostatni raz czytali fantastykę w wieku ośmiu lat. Przykry był to widok. Jakbyśmy oglądali szefa kuchni z ekskluzywnej restauracji, który po spróbowaniu tosta z masłem pisnął wniebowzięty: „Cóż za rarytas! Niesłychane! Czemu dopiero teraz dane było mi go zakosztować?”5.
Dlatego właśnie krytyka, uprawiania właściwie, nie jest „hejtowaniem”. Określenie to, jeżeli już chcemy się nim posługiwać, może odnosić się do dezawuowania tekstu z niskich pobudek – rasistowskich, transfobicznych, seksistowskich, klasistowskich i tym podobnych. Przykładem takiego zachowania byłoby nie krytykowanie, powiedzmy, Callisto Protocol za bycie nędznym, pozbawionym wizji artystycznej klonem Dead Space’a czy książek o Harrym Potterze za lubiące niewolnictwo skrzaty domowe i osobliwie antysemickie postaci goblinów-bankierów, lecz oburzenie rzekomych fanów twórczości Sapkowskiego na czarne elfy w Wiedźminie od Netfliksa czy ultrakatolickiego fandomu Tolkiena na czarne krasnoludy z Pierścieni władzy. Rzecz jasna, schody zaczynają się kiedy konstruktywna krytyka miesza się z owym hejtowaniem, jak to miało miejsce w przypadku obydwu wspomnianych seriali, a także, między innymi, po premierze The Last of Us 2, kiedy głosy niezadowolenia transfobicznych graczy zaczęły pokrywać się z tymi, dla których problemem był sztampowy, słabo poprowadzony główny wątek oraz jego lekko absurdalna kulminacja.
Przy czym znamienne jest, że Le Guin mówi o ignorancji niektórych krytyków i autorów a nie odbiorców. Bo ogólnie nie ma nic złego w tym, że podoba nam się coś, co w bardziej obiektywnym ujęciu, jest po prostu marne. Co więcej, można mieć świadomość, że dane dzieło jest nieszczególnie wybitne, a mimo to czerpać z niego przyjemność. W jednym ze swoich esejów Orwell tak pisze o „dobrych złych książkach”:
Niemniej wszystkie te książki to, prawdę mówiąc, literatura eskapistyczna. Tworzą one w pamięci przytulne wspomnienia, zaciszne zakątki, dokąd umysł może zapuszczać się w przeróżnych momentach, lecz nie udają bynajmniej, że mają cokolwiek wspólnego z prawdziwym życiem6.
Ostatecznie zatem nawet podejście „a mnie się podoba” może być zupełnie nieszkodliwe – o ile tylko nie używamy własnych subiektywnych odczuć do maskowania niewiedzy i zamykania ust rzetelnym krytykom, bo wtedy zaczynamy przypominać tego płaskoziemcę, który pcha się do naukowej debaty i zaczyna opowiadać „jak on to wszystko widzi”. A ta cała matematyka i fizyka? Po co to komu?
Zaczynając ten wpis naprawdę sądziłem, że będzie krótki.
Zawsze bawi mnie to, jak przeglądam swoje oceny punktowe przeczytanych książek oraz komiksów na Goodreads i widzę na przykład: tak samo oceniłem Cudze słowa Wita Szostaka oraz Morderstwo w Orient Ekspresie Agathy Christie, jedna i druga książka dostała ode mnie cztery gwiazdki na pięć. Czy to znaczy, że są to tak samo „dobre” książki? Co to w ogóle miało by znaczyć? Jaki jest zakres porównania?
Czy płatki śniegu naprawdę są niepowtarzalne? Chyba znalazłem temat na kolejny (krótszy, przysięgam) wpis.
James Stephanie Sterling jest osobą niebinarną i używa zaimków they/them, więc w tekście w odniesieniu do niego używam form neutralnych (zgodnie z zaleceniem zaimki.pl).
Ursula Le Guin, Genre: A word only a Frenchman Could Love, przekł. własny, prelekcja wygłoszona na konferencji PLA Preconference on Genre, Seattle, luty 2004.
George Orwell, Good bad books, przekł. własny, Tribune, 2 listopada 1945 roku.
Tak jakoś ostatnio się złożyło, że wszechmocny algorytm YouTube nie był w stanie polecić mi niczego nowego z naukowego YouTube do obejrzenia. A że akurat w ramach subskrypcji audiobooków i ebooków na Scribd (którą stale gorąco polecam) mam także dostęp do Curiosity Stream, platformy streamingowej zapełnionej wyłącznie popularnonaukowym kontentem, pomyślałem, że poszukam sobie tam czegoś ciekawego. Niestety bardzo szybko przypomniało mi to, dlaczego lata temu przestałem oglądać programy popularnonaukowe w telewizji na kanałach takich jak Discovery.
Niemal każdy dokument z Curiosity Stream, który obejrzałem, miał ten sam problem: nakręcanie hype’u wokół nowych badań bez odpowiedniego kontekstu i zrozumienia tego jak rzeczywiście działa nauka. Na przykład z całkiem interesującego dokumentu o ewolucji grzybów dowiedziałem się, że tuż za rogiem badań nad środkami farmakologicznymi pochodzenia grzybicznego jest lek na wszelkiego rodzaju nowotwory. Czy naprawdę tak się stanie jest wielce wątpliwe, ale powiedzmy, że to jeszcze mogłem puścić im płazem, bo takie zapewnienia to jedna z tych rzeczy, które można podczepić pod nadmierny entuzjazm samych badaczy. Gdyby nie byli choć trochę optymistycznie nastawieni do własnych badań, którym poświęcili całe swoje kariery, to nie wiem jak daliby radę pojawiać się każdego dnia w pracy.
Zresztą perorowanie o doniosłości swoich badań jest nieodłącznym elementem pracy wielu naukowców – w przeciwnym razie mogłaby im grozić utrata finansowania. Wiem, że zaczynam pewnie brzmieć jak zdarta płyta, ale to kolejna z nieprzyjemnych konsekwencji stosowania neoliberalnej polityki i zasad wolnorynkowej konkurencji do nauki. Obecnie trudno jest prowadzić badania jedynie w celu wzbogacenia dorobku naukowego. Niemal każdy projekt badawczy musi już na starcie jasno wskazać, jakież to praktyczne korzyści będą z niego płynąć, najlepiej w formie patentu (patrz też PS). Naukowcy doskonale zdają sobie sprawę, że to po prostu tak nie działa, w szczególności w przypadku tzw. basic science (badań nad podstawowymi mechanizmami i problemami dyscypliny), w przypadku któych wyjątkowo trudno przewidzieć, co z nich wyniknie, o ile cokolwiek z nich wyniknie. W najdziwniejszej sytuacji znaleźli się humaniści, zmuszeni robić intelektualne fikołki w uzasadnieniach swoich badań, żeby znaleźć dla nich jakieś pragmatyczne zastosowanie.
Wiem o tym, bo sam musiałem wciskać ludziom głodne kawałki na temat tego, jak to moje badania nad hipotezą symulacji ucieleśnionej przełożą się na lepsze nauczanie języka angielskiego. Jestem niemal pewien, że nic z tego nie będzie. Nauka, tj. prowadzenie badań naukowych, jest procesem wysoce stratnym, w którym większość dróg nie prowadzi donikąd, a czasami niepozorne boczne alejki prowadzą do niesamowitych i nieprzewidzianych odkryć. Poddawać pod wątpliwość należy również założenie, że bardziej humanistycznie ukierunkowane badania muszą w ogóle prowadzić do jakichkolwiek praktycznych korzyści. Bo co odróżnia sztukę od zwykłego rzemieślnictwa? Niektórzy krytycy sztuki wskazują właśnie na brak praktycznego zastosowania wytworu określonego działania. Idąc tym tropem, pokusiłbym się nawet o pewną paralelę: różnica między sztuką a rzemieślnictwem jest taka jak pomiędzy nauką a inżynierią.
Drugą instancję „nakręcania niezdrowego naukowego hype’u” na jaką natrafiłem na Curiosity Stream było mi zdecydowanie trudniej zaakceptować. Prawie godzinny dokument o tym, jak wewnętrzne organy ludzkiego ciała pełnią rolę homeostatyczną i regulacyjną, wysyłając różnego rodzaju molekularne przekaźniki do krwiobiegu (też jakby nie patrzeć fascynujący temat), poinformował mnie, że jednym prostym, minimalnie inwazyjnym zabiegiem chirurgicznym na nerkach można „z dnia na dzień” rozwiązać problem opornego na interwencje farmakologiczne nadciśnienia. Tutaj już zapaliły mi się wszystkie sceptyczne kontrolki ostrzegawcze. Szczególnie zaalarmowała mnie też narracja, którą dokument budował wokół tych badań: „konwencjonalna medycyna dotychczas była bezradna”. Oho, w najlepszym wypadku to kontrowersyjne badania, a w najgorszym pseudonaukowe brednie.
Dokument nie raczył mnie poinformować jak ta procedura się nazywa (o tym problemem więcej za chwilę), ale trochę googlowania naprowadziło mnie na trop przeskórnej denerwacji nerek (renal denervation, RDN). W dużym uproszczeniu RDN polega na wprowadzeniu cewnika do tętnicy nerkowej i uszkodzenia wysoką temperaturą znajdujących się w nerkach włókien nerwowych odpowiedzialnych za wytwarzanie przekaźników molekularnych. Przekaźniki te mają wpływ na proces regulacji ciśnienia krwi. Parę artykułów naukowych później dowiedziałem się jednak, że procedura ta jest dość kontrowersyjna (ale przynajmniej nie pseudonaukowa, chociaż tyle dobrego). Główne badania jej poświęcone nie były odpowiednio kontrolowane i nie wykazały istotnych różnić pomiędzy RDN a konwencjonalną terapią farmakologiczną. Nowe badania są bardziej obiecujące, ale kwestia skuteczności RDN nadal nie jest w pełni rozstrzygnięta. Metaanaliza z zeszłego roku nie wykazała żadnych istotnych korzyści ze stosowania RDN w opornym nadciśnieniu. Nota bene, o tych nowych badaniach dokument nie mógł nawet wiedzieć, bo pojawiły się rok po jego emisji (badania w 2019, dokument w 2018). Niestety lektor nawet na moment nie zająknął się w kwestii kontrowersyjnej skuteczności tej procedury.
Dobija mnie też to, jak bezsensownie pewne rzeczy są niekiedy upraszczane w dokumentach popularnonaukowych. Nie chodzi mi o to, że sam jestem nie wiadomo jakim erudytą (albo „polimatem”, jak to niektórzy ludzie z przerostem ego lubią siebie określać), bo pewne uproszczenia uważam za absolutnie konieczne. Nie ma szans, żebym rzucił się na głęboką wodę w temacie przekaźników molekularnych i wszystko zrozumiał bez konieczności robienia rozległego riserczu. Na to nawet ja mogę nie mieć czasu i/lub chęci, kiedy oglądam program popularnonaukowy do śniadania, a przecież robienie tego typu rzeczy to praktycznie moje hobby. Niektóre bardziej złożone aspekty tego problemu pewnie na zawsze pozostaną poza moim zasięgiem, bo nie jestem biologiem.
Z tym upraszczaniem mam na myśli sytuacje, kiedy widz nie dostaje kluczowych informacji, żeby zrobić ten risercz, jeśli ma taką ochotę, lub kiedy dostaje pewnego rodzaju pseudowyjaśnienie złożonego problemu. Przykład tego pierwszego pojawił się wyżej – chociaż dokument sporo uwagi poświęca denerwacji nerek, nigdy nawet nie pada właściwa nazwa tego zabiegu. Natomiast najlepszym przykładem pseudowyjaśnienia jest, to jak dokument opisał działanie mikroskopu umożliwiającego trójwymiarowe obrazowanie żywych komórek (tłumaczenie napisów moje):
To skomplikowane urządzenie w niczym nie przypomina tradycyjnego mikroskopu świetlnego.
Ciekawe. Może jest zatem bardziej jak mikroskop elektronowy? Jak to urządzenie działa?
Urządzenie to może zeskanować mikroskopijną komórkę i odtworzyć jej trójwymiarową strukturę za pomocą komputera.
Ale… jak? Z tego wyjaśnienia nie dowiedziałem się praktycznie niczego. Równie dobrze można by powiedzieć, że podstawiamy szalkę pod mikroskop, a potem dzieje się magia. Nawet bez zapewnień ze strony twórców dokumentu domyślałem się, że ten mikroskop jest niesamowicie skomplikowanym urządzeniem, ale nie przyjmuję do wiadomości, że nie dałoby się lepiej opisać jego działania bez wchodzenia w nadmiernie techniczne detale.
Oczywiście w duchu pomijania kluczowych informacji, dokument nie podaje jak nazywa się ten mikroskop. Własny risercz doprowadził mnie do informacji o Ericu Betzigu, Stafanie Hellu i Williamie Moernerze, noblistach z chemii z roku 2014, i przypomniał mi o „nanoskopii”, metodzie mikroskopii świetlnej, która obchodzi postulowany limit Abbe (czyli rozdzielczość 200 nanometrów, długości najkrótszej fali świetlnej) za pomocą fluorescencji. Krótko mówiąc, fluorescencja różnych obszarów badanej komórki w skali nanometrów jest selektywnie aktywowana i komórka jest wielokrotnie skanowana w różnych konfiguracjach aktywacji. Następnie obrazy nakładane są jeden na drugi tworząc kompozyt o wyjątkowo dużej rozdzielczości (ale patrz PS2). Da się? Da się.
Warto też wspomnieć o konsekwencjach takiego nakręcania hype’u i serwowania pseudowyjaśnień. Żeby nie było, że się czepiam jedynie dla sportu, moim zdaniem takie działanie robi więcej szkody niż pożytku. Nakręcaniu hype’u wokół najnowszych badań tworzy fałszywy obraz nauki i ostatecznie prowadzi do rozczarowania. Jak wspominałem wyżej, większość badań, chociaż zapowiada się obiecująco, kończy się fiaskiem. Dociera do epistemicznego ślepego zaułka. Nie jest to porażka metody naukowej, tak po prostu to wygląda i niewiele możemy obecnie z tym zrobić. Nieumiejętne przekazanie tego faktu w propagowaniu nauki powoduje, że ludzie z czasem mogą dojść do błędnych wniosków na temat metody naukowej. Wielokrotnie spotkałem się z osobami, których entuzjazm do nauki po latach zawodów (gdzie te wszystkie leki na nowotwory? Gdzie te nowe technologie?), przerodził się w nieufność. Przecież „naukowcy guzik wiedzą”, bo „ciągle się mylą”. Tekst „amerykańscy naukowcy dowiedli, że” stał się nawet swego rodzaju memem, demonstrującym rzekomą niepewność i zmienność nauki.
Natomiast karmienie ludzi psuedowyjaśnieniami daje im złudzenie wiedzy. Może też rodzić frustrację, kiedy z czasem ludzie pojmą, że zostali zwyczajnie oszukani („naukowcy sami nie wiedzą jak to działa”). Tymczasem naprawdę można to robić lepiej, co pokazał naukowy YouTube i twórcy tacy jak Kurzgesagt czy Derek Muller (Veritasium). Mam nadzieję, że twórcy programów popularnonaukowych, zwłaszcza dla platform tak niszowych i dedykowanych wyłącznie fanom nauki jak Curiosity Stream, w końcu połapią się, że widzowie cenią sobie przede wszystkim rzetelność i że nie trzeba wszystkiego upraszczać do granic i nadawać mu nadmiernie pozytywnego spinu. Dokumenty o biologii mogą być równie fascynujące bez wzmianek o leczeniu nowotworów czy cudownych terapiach.
PS. Powiązanym problemem, z którym zmagałem się praktycznie cały doktorat, była konieczność wyznaczenia tematu badań w taki sposób, żeby zagwarantować pozytywne wyniki. Z jednej strony miałem zajmować się czymś, co będzie na „czele współczesnej nauki” na tym nieszczęsnym „cutting edge”. Z drugiej jednak musiało być to coś, co miało duże szanse powodzenia. Doktorat z wynikami „nic z tego nie wyszło” nie prezentowałby się zbyt pochlebnie. Bo może to doktorant coś sknocił i dlatego nie udało się odrzucić hipotezy zerowej? Tyle, że takie podejście jest absurdalne i sprzeczne z podstawowymi założeniami nauki. Jeżeli bierzemy się za zgłębianie zagadnień, co do których z góry wiemy jaki będzie wniosek, to jaki w ogóle jest sens takiego przedsięwzięcia? Możecie sobie teraz wyobrazić pod jaką presją jest wielu młodych badaczy. Łatwiej też zrozumieć, dlaczego niektórzy posuwają się do nieetycznych praktyk i dopuszczają różnego rodzaju manipulacji, byle tylko przekroczyć magiczny próg istotności statystycznej. Ja sam poszedłem pod prąd i przedstawiłem na obronie w dużej mierze negatywne wyniki badań, ale musiałem się z tego gęsto tłumaczyć i zadbać o to, żeby mieć absolutną pewność, że moja metoda i wyniki były niepodważalne. Jak to wszystko odbiło się na moim zdrowiu psychicznym to temat na inny wpis.
PS2. Ta nagroda Nobla obejmuje dwie różne metody oparte na podobnych założeniach. Tutaj nie rozgraniczam pomiędzy nimi, żeby nie wdawać się szczegóły i nie rozciągać tego i tak już trochę przydługiego wpisu. Więcej można na ten temat przeczytać np. tutaj.
Kiedy jakiś czas temu pisałem o braku innowacyjności w popkulturze zdałem sobie sprawę, że na skalę tego problemu może wpłynąć rozwój technologii. Brzmi to jak paradoks – technologia ma przecież rozwiązywać problemy i ułatwiać nam życie. Pozytywnie nacechowane, utylitarystyczne myślenie o technologii jest tak mocno osadzone w naszej kolektywnej świadomości, że rozwój cywilizacyjny często utożsamiany jest z postępem technologicznym. Znajduje to zresztą odbicie w pulpowych tekstach sci-fi, w których przyszłość przedstawiania jest jako „teraźniejszość tylko z zaawansowaną technologią.” Mamy też skalę Kardaszowa, która dzieli hipotetyczne cywilizacje zamieszkujące wszechświat na kilka typów (poziomów). Przynależność do danego typu uzależniona jest od tego jakimi zasobami energetycznymi dysponuje dana cywilizacja, co naturalnie zależy od dostępnej technologii.
Oczywiście, jeśli głębiej się nad tym wszystkim zastanowić, okazuje się, że to z pozoru niekontrowersyjne podejście do technologii jest istnym filozoficznym polem minowym. Bo o ile można zgodzić się co do tego, że lodówki, zmywarki czy innego rodzaju roboty podnoszą komfort życia, o tyle trudno nadać równie pozytywny spin bombom wodorowym, autonomicznym dronom bojowym czy systemom masowej inwigilacji obywateli. Jeszcze gorzej robi się, kiedy uzmysłowimy sobie, że nawet z pozoru całkowicie niegroźna technologia potrafi niekiedy znaleźć zupełnie nowe, upiorne zastosowanie. Jak chociażby sterowanie czołgami za pomocą padów do Xboxa – rozwiązanie, które najwyraźniej obecnie testuje Izraelska armia.
Ale wracając do mojej pierwotnej myśli: frazą klucz w temacie negatywnego wpływu technologii na popkulturę jest sztuczna inteligencja. Nie mam jednak na myśli tworów powszechnie znanych z tekstów sci-fi, tj. mniej lub bardziej humanoidalnych robotów obdarzonych świadomością i zdolnościami poznawczymi porównywalnymi do ludzkich lub nawet je przekraczającymi (np. androidy z Detroit: Become Humanczy Ava z filmu Ex Machina). Tego typu ogólna sztuczna inteligencja (artificial general intelligence) wciąż jest daleko poza naszym horyzontem technologicznym i stanowi coś w rodzaju Świętego Grala badań nad AI lub zwiastuna ostatecznej zagłady naszego gatunku. Zależy kogo pytać.
W tym konkretnym przypadku chodzi mi o ekstrapolację współczesnej technologii – coś, co może być tuż za rogiem. Już teraz dostępne są wysoce wyspecjalizowane systemy eksperckie tworzone w architekturze sieci neuronowych i oparte algorytmy głębokiego uczenia się. Tego typu sztuczna inteligencja działa trochę jak ludzki mózg. Prowadzone przez nią obliczenia są bardziej rozproszone lub inaczej „paralelne”. To znaczy, że zamiast ciągu operacji wykonywanych seryjnie (jedna za drugą), jak ma się rzecz w przypadku klasycznych algorytmów, wiele operacji wykonywanych jest równolegle przez poszczególne elementy sieci zwane, przez podobieństwo do biologicznych odpowiedników, sztucznymi neuronami (nodes).
Sztuczne sieci neuronowe, tak jak i prawdziwie sieci neuronowe, są w stanie wykonywać swoje zadanie dopiero po odpowiednim przeszkoleniu, najczęściej na ogromnych ilościach danych. Zastanawialiście się kiedyś, dlaczego strony zabezpieczone CAPTCHA tak często proszą o wskazanie znaków drogowych albo sygnalizacji świetlnych? Właśnie do szkolenia sieci neuronowych wykorzystywanych w autonomicznych samochodach. Po wprowadzeniu danych wejściowych i wyznaczeniu parametrów sukcesu sieć przechodzi przez szereg iteracji, w których wybierane są takie ustawienia „wag” sztucznych neuronów, które dają najlepsze rezultaty. Często też może być potrzebny ludzki nadzór: wyniki oceniane są przez prawdziwy mózg i to on jest ostatecznie decyzyjny. Ludzie odsiewają właściwe wyniki z morza pozbawionych sensu danych.
Jeżeli cel ma aspekt kompetytywny, sieć neuronowa może także uczyć się rywalizując sama ze sobą. Tak było w przypadku AlphaGo, sztucznej inteligencji stworzonej przez Google do gry w go, abstrakcyjną grę planszową o prostych zasadach, ale bardzo rozbudowanej siatce potencjalnych ruchów i strategii. Kombinatoryka go, tj. liczba istniejących kombinacji ruchów, znacznie przekracza to co mamy np. w szachach. Ponieważ go nie można po prostu „rozwiązać”, przewidując wszystkie możliwe ruchy, AlphaGo najpierw szkolone było na danych z rozgrywek pomiędzy profesjonalnymi graczami, a potem rozgrywało partie samo ze sobą. Rezultaty były tak dobre, że AlphaGo pokonało Lee Sedola, jednego z najlepszych graczy go na świecie. Na YouTube jest o tym świetny dokument, który poza przedstawieniem szczegółów na temat powstawania AlphaGo jest też fascynującym portretem starcia człowieka z maszyną.
Powyższe przykłady pokazują, że istniejąca sztuczna inteligencja ma bardzo wąski zakres specjalizacji. Mimo, że AlphaGo jest w stanie pokonać praktycznie każdego gracza w Go, jest całkowicie bezradne w obliczu zadania polegającego na dopasowaniu klocków o różnych kształtach i kolorach do odpowiednich otworów – czegoś, z czym radzi sobie nawet małe dziecko. Innym problemem AI jest tzw. zasada garbage in, garbage out (dosłownie: „jak wrzucasz śmieci, to wyciągasz śmieci”) czyli pogorszenie wyników spowodowane uczeniem się sieci neuronowych na kiepskim materiale wejściowym. Zwykle problem ten wynika z braku dostępności odpowiednio przygotowanego (np. otagowanego) materiału do nauki, ale niekiedy może być spowodowany zapętleniem przepływu danych – algorytm jako wzorcowe dane wejściowe przyjmuje niedoskonałe dane wyjściowe z poprzednich iteracji. Jest to coś z czym mierzy się, między innymi, tłumacz Google. W Internecie krąży coraz więcej automatycznie przetłumaczonych tekstów, więc coraz więcej z nich trafia z powrotem do baz danych tłumacza Google, stopniowo je zanieczyszczając.
Jesteście jeszcze ze mną? Bo w końcu dochodzimy do pièce de résistance, głównego dania tego wpisu. Sieci neuronowe można zaprząc do tworzenia tekstów kultury. AI nie zabrało się jeszcze za pisanie powieści czy scenariuszów do filmów, ale myślę, że to jedynie kwestia czasu. Przetwarzanie języka za pomocą modelu GPT-2 już teraz daje zaskakująco dobre rezultaty (pisałem o tym przy okazji gry tekstowej AI Dungeon 2), a sztuczna inteligencja osiągnęła już całkiem spektakularne sukcesy w innych obszarach sztuki. Na mnie największe wrażenie zrobił projekt The Next Rembrandt, w którym AI, po analizie istniejących obrazów Rembrandta, stworzyło zupełnie nowy obraz w stylu tego malarza. Twórcy projektu zdecydowali się pójść nawet o krok dalej i wydrukowali obraz w technologii 3D, odtwarzając charakterystyczne pociągnięcia pędzla widoczne na innych płótnach Rembrandta.
AI nieźle radzi sobie także na polu muzyki. Algorytm AIVA (Artificial Intelligence Virtual Artist) po przeanalizowaniu potężnych ilości materiałów muzycznych rozpoznał występujące w nim powtarzalne wzorce i nauczył się komponować krótkie utwory z różnych gatunków. W przypadku muzyki popowej musiało być wyjątkowo łatwo, zważywszy na to ile utworów opiera się o te same cztery akordy. Co ciekawe AIVA „wydała” dwa albumy i uznana została nawet przez Société des auteurs, compositeurs et éditeurs de musique (SACEM), francuską organizację zbiorowego zarządzania prawami autorskimi (coś jak nasz ZAIKS). Nie udało mi się jednak dotrzeć do żadnych artykułów naukowych na temat AIVA, więc powstaje pytanie jak bardzo samodzielny jest ten algorytm lub inaczej ile dodatkowej ludzkiej pracy wymagały imponujące efekty końcowe.
To samo co z portretami Rembrandta czy muzyką klasyczną AI mogłoby w przyszłości zrobić z, powiedzmy, filmami Marvela. Wystarczyłoby wrzucić wszystkie scenariusze istniejących filmów i opisy fabuł komiksów do magicznego kotła AI i czekać na nową miksturę. Tylko jeżeli istniejące teksty popkultury są w dużej mierze wtórne, a twory sieci neuronowych są jedynie tak dobre jak dane wejściowe… to mamy spory problem. AI może zapewnić nam dostęp do bezprecedensowej ilości rozrywki, jednocześnie zamykając nas w kulturowej bańce. Zwłaszcza jeśli doszłoby do zapętlenia przepływu danych, o którym wspominałem wyżej.
AI stworzy nam nowy obraz w stylu Rembrandta, ale nie stworzy nowego kulturowego odpowiednika Rembrandta. Do tego potrzeba ludzkiej kreatywności i ludzkiego umysłu. Przynajmniej póki nie stworzymy ogólnej sztucznej inteligencji.
PS. Świetną krytykę sci-fi jako literackiej ekstrapolacji obecnych trendów, zwłaszcza w obrębie technologii, przedstawiła Ursula LeGuin w słowie wstępnym do „Lewej ręki ciemności.” Jest też w polskim wydaniu „Sześciu światów Hain.”
Równo 20 lat temu minęło 5 lat od kiedy były 3 lata od urodzin jakiegoś aktora/reżysera albo od premiery jakiejś gry albo jakiegoś filmu. Czy coś.
Na wypadek gdyby nie było to dość jasne: naprawdę nie cierpię tych wszystkich wpisów jadących na nostalgii, które poza „czy uwierzysz, że minęło X lat od Y” nie wnoszą do dyskusji o popkulturze absolutnie nic nowego. To zwykłe zapychacze, które na dodatek można robić bez końca, bo praktycznie każdego dnia minęło X lat od czegoś.
To trochę tak jak z paradoksem dnia urodzin. Wystarczy zebrać w jednym pokoju 23 osoby, żeby prawdopodobieństwo, że dwie osoby będą miały urodziny w ten sam dzień wynosiło 0,5 (50%). Natomiast 70 osób dałoby prawdopodobieństwo 0,999 (99,9%, patrz PS). W przypadku wydarzeń popkulturowych jest nawet łatwiej o taką koniunkcję. Z jednej strony mamy ciągłą, arbitralnie wyznaczoną granicę: rocznicę X lat. Zwykle jest to, co prawda, jakaś „okrągła” liczba (5, 10, 15 lat itd.), ale nic nie stoi na przeszkodzie, żeby celebrować rocznicę dwóch albo trzech lat i takie wpisy też widziałem.
Z drugiej strony mamy otwartą kategorię wydarzeń popkulturowych: premiery wszelakich tekstów kultury, urodziny kogokolwiek zaangażowanego w proces twórczy, inne doniosłe wydarzenia związane z danym tekstem. Na dodatek nic nie ogranicza nas w tym jak daleko w przeszłość będziemy sięgać, żeby dane wydarzenie wygrzebać, a nasza kolektywna pamięć popkulturowa niesamowicie się wydłużyła. Przez to ciągłe podsycanie nostalgii wydaje się, że teksty z lat 80. to ciągle w miarę świeże rzeczy. Tymczasem było to 40 lat temu, czyli tak jak od początku dwudziestego wieku do drugiej wojny światowej.
PS. Jeśli trudno Wam uwierzyć w paradoks urodzin to pamiętajcie, że mówimy o sytuacji kiedy dwie dowolne osoby mają urodziny w ten sam dzień. Zupełnie inną sytuację mamy, kiedy chcemy zapełnić pokój osobami tak, żeby ktoś miał urodziny w ten sam dzień co my. Inną dobrą analogią jest tutaj wygrana na loterii. Jakie jest prawdopodobieństwo, że ja wygram w totka? Dość marne. Natomiast prawdopodobieństwo, że ktoś wygra przedstawia się już zdecydowanie lepiej.
Tych nadal nieprzekonanych odsyłam do pełnych obliczeń prawdopodobieństwa. Dobrze mieć też na względzie, to że nasze intuicyjne pojmowanie losowości i prawdopodobieństwa jest do bani. Kahneman i Tversky w artykule z 1972 pokazują, że na ocenę tego jak prawdopodobne jest pewne wydarzenie losowe (np. orzeł w rzucie monetą) wpływ mają wydarzenia wcześniejsze.
Przykładowo uczestnicy badania stwierdzali, że wystąpienie orła po czterech reszkach będzie bardziej prawdopodobne niż po czterech orłach, chociaż wcześniejsze rzuty nie mają absolutnie żadnego wpływu na rzuty kolejne. Uczestnicy jako bardziej losowe oceniali też rezultaty bardziej nieregularne np. ciąg OROROR był oceniany jako bardziej losowy niż OOROORO.
Pamiętacie „Milionerów”? Emisja pierwszych polskich odcinków przypada na początek obecnego milenium, jeszcze przed kryzysem gospodarczym, atakami terrorystycznymi na WTC, widmem katastrofy klimatycznej na horyzoncie czy pandemią. To były beztroskie czasy. Miło wspominam te rodzinne posiedzenia przed telewizorem i próbowanie własnych sił albo bezpośrednie starcia w komputerowej wersji teleturnieju na lekcjach informatyki. Kto miałby największe szanse wygrać milion?
„Milionerzy” stali się swego rodzaju kulturowym fenomenem, który chwycił dzięki połączeniu prostej formuły, skutecznego budowania napięcia (ten półmrok w studio, dramatyczna muzyka) i zbiorowej neoliberalnej fantazji, że sukces zależy jedynie od umiejętności. „Milionerzy” są ucieleśnieniem jednego z niewidzialnych filarów ideologii kapitalistycznej: każdy teoretycznie mógł zostać milionerem. Wystarczyło się jedynie wykazać.
Jeśli tęskno Wam za tymi emocjami to mam dla Was polecankę: obejrzyjcie sobie „Quiz” na HBO Go. Serial ma jedynie trzy odcinki, więc spokojnie można go łyknąć w jedno popołudnie, i przedstawia fabularyzowaną wersję głośnego skandalu wokół wygranej z roku 2001 w brytyjskiej wersji teleturnieju. Charles Ingram, jeden z uczestników programu, został oskarżony o oszustwo po wygraniu miliona funtów w podejrzanych okolicznościach związanych z napadami kaszlu wśród widowni.
Poza wciągającą i otwartą na interpretację historią serial naprawdę wiernie odtwarza atmosferę teleturnieju (Michael Sheen wypada świetnie jako prowadzący). Kulisy powstawania teleturnieju oraz społeczności, która wokół niego wyrosła, rzucają też nowe światło na wspomnianą merytokratyczną wizję „Milionerów”. Mały spojler: społeczność uczestników teleturnieju była taką samą merytokracją jak prawdziwe życie, czyli żadną.
Muszę przyznać, że tak mnie wzięło na quizowanie po oglądnięciu tego serialu, że aż znów zainstalowałem sobie „QuizUp” na telefonie, żeby zmierzyć się w konkursie często bezużytecznej wiedzy z przypadkowymi ludźmi z Internetu.
Wróciłem do oglądania Star Treka: Next Generation. Nigdy nie był ze mnie jakiś wielki „trekkie”, ale NG urzekło mnie ciekawym podejściem do niektórych wątków sci-fi i bardziej dyplomatyczną formą rozwiązywania konfliktów. W końcu celem załogi Enterprise jest odkrywać i badać – śmiało dążyć tam, gdzie nie dotarł jeszcze żaden człowiek. Sprawia to, że odcinki są przegadane, ale w pozytywnym sensie. Załoga pod auspicjami kapitana filozofa, Jean-Luca Picarda, znajduje rozwiązanie problemu na drodze rozmów i przemyśleń, zamiast militarystycznego prężenia muskułów i zasady „strzelaj najpierw, zadawaj pytania później”.
Kolejną zaletą NG jest jego epizodyczna struktura: każdy odcinek stanowi zamkniętą całość, od zarzucenia konfliktu, przez moment kulminacyjny po rozwiązanie. Czasem po prostu nie mam ochoty na kolejną część dziesięciogodzinnego filmu, jak to w przypadku większości współczesnych seriali fabularnych.
NG wypada też nienajgorszej, jeżeli chodzi o przedstawianie pewnych kwestii społecznych. Jak na swoje czasy pewnie nawet można by go nazwać postępowym. Federacja jest społeczeństwem egalitarnym, w którym nie ma już niedostatku (post-scarcity), chociaż o samym systemie rządów niewiele wiadomo. Nie ma rasizmu a kobiety i mężczyzny są równymi partnerami (przynajmniej w teorii, bo to jak Deanna Troi, Beverly Crusher czy Tasha Yar były przedstawiane pozostawia trochę do życzenia).
Niektóre odcinki potrafią jednak przyrżnąć o przysłowiowy beton jak Jean-Luc Picard grzywką i wczoraj na taki właśnie natrafiłem. „Dziecko galaktyki” (S04E16) pod względem struktury jest bardzo typowe jak na NG. Mamy dwa przeplatające się konflikty: globalny, pomiędzy załogą Enterprise a jakimś zewnętrznym agentem (w tym wypadku jest to pierwszy kontakt z istotą żyjąca w przestrzeni kosmicznej), i personalny, pomiędzy członkami załogi. Chciałbym skupić się na tym drugim, bo nie pamiętam kiedy ostatnio zdarzyło mi się oglądać coś z takim zażenowaniem i na końcu aż złapać się za głowę.
Załoga dowiaduje się, że na pokład przyjmą gościa: dr Leah Brahms, oryginalną projektantkę napędów używanych w statkach takich jak Enterprise. Sytuację komplikuje jednak fakt, że Geordi La Forge w jednym z wcześniejszych odcinków (S03E06) stworzył w holodecku symulację pani doktor, żeby pomogła mu rozwiązać pewien problem z napędem i tak jakby miał z nią mały romans. Jaki Geordi ma pomysł na rozwiązanie tej niezręcznej sytuacji? Postanawia zachowywać się jak skończony cyber stalker, zdradzając w rozmowach z Leah, że wie o niej więcej niż powinien i ostatecznie zapraszając ja na „romantyczną kolację”. I to wszystko pomimo protestów ze strony Leah, która wprost mówi Geordiemu, że zależy jej jedynie na relacji profesjonalnej (m.in. dlatego, że, spoiler alert, ma męża).
Ale najlepsze ciągle przed nami. Ostatecznie Leah wpada na trop symulacji swojej osoby, odtwarza ją w holodecku i jest świadkiem bardzo niedwuznacznych interakcji pomiędzy wirtualną Leah a Geordim. Na dodatek wszystko wskazuje na to, że Geordi korzystał z tej symulacji także po sytuacji z awarią napędu. Leah jest tym odkryciem słusznie oburzona, bo to trochę jak znaleźć w czyimś domu ołtarzyk ze swoim zdjęciem albo dmuchaną lalkę ze swoją twarzą Oczywiście Geordi zaprzecza, że do niczego nie doszło i, co najlepsze, zgrywa ofiarę. Bo przecież on tylko chciał się z Leah zaprzyjaźnić, pal licho ten dziwaczny stalking. Najgorsze jest w tym wątku to, że na koniec Leah rzeczywiście przeprasza Geordiego za to, że „źle go oceniła”.
Rany boskie Star Trek, co to było? To jakiś mokry sen incela.