Algorytmy piszą
GLAS-8/CC BY-NC-ND 2.0

20 minut czytania

/ Media

Algorytmy piszą

Jakub Dymek

Próby automatyzacji pracy kreatywnej przyspieszyły. Gdy jednak bliżej przyjrzeć się efektom działania robotów, rewolucji nie widać. Choć z dala od naszego wzroku gotuje się coś rzeczywiście istotnego

Jeszcze 5 minut czytania

Gdyby ktoś zechciał w efekciarskim skrócie podsumować kolejną z rewolucji przemysłowych, przez którą dziś przechodzimy, powiedziałby albo powiedziała może: maszyny zastępują już nie robotnika, lecz twórcę. Tak jak kiedyś narzędzia mechaniczne wyręczyły człowieka w wielu znojnych pracach, a później różnorodne instrumenty wzbogaciły jego zmysły i uwolniły od licznych obowiązków, tak dziś nawet do twórczości artystycznej zaprzęgliśmy maszyny. Ba, pozwoliliśmy im myśleć. Komputery malują obrazy, piszą książki, tworzą filmy – algorytmy i sprytne programy zaraz wyręczą malarkę, pisarza, dziennikarkę, scenarzystę.

Rzeczywistość, jak to zazwyczaj bywa, nie daje się jednak łatwo sprowadzić do prostego sloganu. Fakt, w ostatnich latach próby automatyzacji w zawodach kreatywnych – o których wiadomo było tyle, że będą opierać się jej najdłużej – przyspieszyły. Coraz częściej słyszymy o kolejnej piosence albo utworze literackim, który został wygenerowany przez algorytm. Niektóre z tych prób – jak „obrazy” tworzone przez algorytm Google rozpoznający kształty i wzory na podstawie przeogromnej bazy fotografii indeksowanych przez wyszukiwarkę – nawet się bronią jako samodzielne prace. O innych wyczynach „kreatywnych” algorytmów – na przykład kolejnych próbach powieściowych – dowiadujemy się raczej od samych zainteresowanych, czyli pisarzy i dziennikarzy, którzy czują, że ktoś idzie po to, co ich. Przedstawiciele profesji, które zautomatyzowano w przeszłości – wytwórcy świec woskowych albo rzemieślnicy zajmujący się repasacją pończoch – mieli w końcu mniejszy dostęp do mediów. Gdy jednak bliżej przyjrzeć się „automatyzacji” czy – niektórzy puszczają wodze fantazji – przejmowaniu przez roboty różnych dziedzin pracy kreatywnej, rewolucji nie widać. Choć gdzieś tam, po cichu, z dala od naszego wzroku, gotuje się coś rzeczywiście istotnego.

„Widzimy H podnoszącego książkę z półki; przewraca strony, mówiąc: «W przyszłości panuje masowe bezrobocie, młodzi ludzie zmuszeni są sprzedawać krew. To pierwsze, co mogę zrobić», i odkłada ją z powrotem” – to zdanie otwierające scenariusz krótkiego filmu sci-fi „Sunspring”. Po tym początku, błyskawicznie osadzającym akcję w dystopijnych realiach, następuje seria nieprowadzących donikąd dialogów budujących poczucie klaustrofobii i oddających atmosferę jakiejś koszmarnej komunikacyjnej dysharmonii: „nie wiem”, „co robisz?”, „nie obchodzi mnie to”, „co masz na myśli?”, „nie muszę być z tobą szczery”. Kulminacją krótkiej historii, która momentami może przywodzić na myśl młodzieńczą próbę przepisania motywów z Petera Wattsa, jest monolog z nie najgorszym potencjałem – jest miłość, patos, śmierć i nawet kilka dobrych zdań. Nie można pozbyć się jednak wrażenia pewnej sztuczności. Ekranizacja „Sunspring” z udziałem Thomasa Middleditcha z „Silicon Valley” szczęśliwie nieco rozrzedza atmosferę scenariusza, bo ten jest doprawdy przytłaczający – lekka, autoironiczna gra wprowadza niezbędny comic relief. Może jednak nie możemy od autora scenariusza wymagać więcej? To w końcu debiut młodzieniaszka – algorytmu o imieniu Benjamin.

Scenariusz do „Sunspring” został wygenerowany przez program, który Ars Technica nazwała, raczej na wyrost, sztuczną inteligencją. Odpowiedzialni za pomysł i jego realizację są Oscar Sharp (reżyser) i Ross Goodwin (naukowiec). Jak zaprzęgli komputer do napisania scenariusza? W największym skrócie: opierając się na bazie kilkuset scenariuszy filmowych, algorytm przewidział prawdopodobne następstwo liter, słów i całych akapitów dla określonego zasobu, a także zaczął układać je w formule scenariusza. To z korpusu scenariuszy wzięły się mniej lub bardziej spójne konfiguracje rekwizytów i dialogów wskazujących na kino gatunkowe, choć całemu procesowi daleko było do prostego kopiuj-wklej. Benjamin nie mówi cytatami z „Ghostbusters” i „Facetów w czerni”. Można by złośliwie powiedzieć, że to i tak już lepiej niż w przypadku wielu autorów i autorek współczesnego hollywoodzkiego science fiction, które żyje na diecie z odniesień, cytatów i autoparodii. Autorzy eksperymentu (możemy się domyślać, że zawczasu wybrali najlepszy z wariantów scenariusza) zgłosili film do konkursu podczas festiwalu Sci-Fi London, gdzie wyświetlano produkcje zrealizowane w coraz bardziej popularnej formule „wyzwania 48 godzin” – w tym czasie cała rzecz ma zostać nakręcona i wyprodukowana.

Jednak o jakiej spójności filmu tak naprawdę mówić w tym wypadku? Na poziomie studenckiej etiudy, jeśli nie gorzej. Widownię i jurorów festiwalu zachwyciła oczywiście historia powstania filmu i metazabawa z konwencjami – w końcu mówimy o „sztucznej inteligencji” piszącej film science fiction. Sami twórcy uważają jednak, że Benjaminowi udało się uchwycić pewną prawidłowość gatunku. Bohaterowie filmu nie rozumieją swojego otoczenia, nieustannie więc powtarzają: „nie wiem”, „nie jestem pewien”. W ten sposób wydobyta zostaje sama esencja sci-fi, którą stanowi niepewność. Natomiast aktorzy musieli te wprost absurdalne okoliczności oswoić i uogólnić do poziomu jasno zrozumiałych metafor i kodów. „Od obcości do swojskości” jako najkrótsza synteza science fiction dokonana przez komputer? Brzmi trochę pokrętnie, ale nie nudno. Nawet jeśli nic szczególnego nie uda się z tym dalej zrobić, to „Sunspring” na pewno jest dobrą rozrywką.

Teksty generowane przez algorytmy mogą przynieść też trochę bardziej praktyczne rezultaty niż produkcja nieco kuriozalnych scenariuszy. „Trzęsienie ziemi o mocy 4,7 zostało zarejestrowane w poniedziałek nad ranem pięć mil od Westwood, California, podało U.S. Geological Survey. Wstrząs miał miejsce dokładnie o 6:35 czasu pacyficznego” – napisał Quakebot, wyręczając reportera „Los Angeles Times” w stworzeniu zrębu newsa. Quakebot pobiera informacje o wstrząsach, dane wkłada w gotowe szablony zdań, zdania z kolei w redakcyjny edytor służący do publikowania na stronie gazety – i wtedy wysyła powiadomienie do dziennikarza, który po ewentualnych zmianach może newsa „odpalić”. Quakebot stał się znany w 2014 roku właśnie dzięki tej wiadomości, bo zarejestrowany wstrząs był więcej niż rutynowym szarpnięciem żyrandolem, a „LA Times” jako pierwszy opublikował informację. Pod artykułem obok Kena Schwencke’a podpisany był sam Quakebot.

Dzięki dokonaniu Quakebota w 2015 roku Światowa Organizacja Gazet i Dziennikarzy (WAN-IFRA) w dorocznym raporcie „Trends in Newsrooms” zdiagnozowała „powstanie robotów – automatyzację w redakcji” jako jeden z 10 nowych fenomenów, którym należy się przyglądać. „Agencja Associated Press zatrudniła właśnie Redaktora ds. Automatyzacji. Przynajmniej jeden dziennikarz znalazł zatem dzięki temu wszystkiemu pracę” – zaczyna się ironicznie segment raportu o tym, co algorytmy, boty i roboty (choć tak naprawdę, bądźmy szczerzy, chodzi po prostu o kawałki kodu i wtyczki do programów) robią dziś w redakcjach.

W ubiegłym roku Associated Press, globalna agencja newsowa z siedzibą w USA, poinformowała, że raporty o zyskach spółek będą w całości opracowywane i publikowane przez program, a wkrótce do tych wiadomości dołączą też sprawozdania z meczów uczelnianych lig sportowych. Zanim na automatyzację zdecydowało się olbrzymie Associated Press, wcześniej na mniejszą skalę (i nie zawsze od razu się tym chwaląc) boty testowano w innych amerykańskich redakcjach.

Teksty „zlecane” algorytmom należą do najbardziej rutynowych i schematycznych dziennikarskich form: obok wspomnianych newsów o trzęsieniach ziemi i wynikach sportowych albo finansowych, automatyzacji poddają się też z podobną łatwością doniesienia o wynikach sondaży poparcia partii politycznych, wyniki box office, informacje o pogodzie czy nekrologi. Nie powinny więc przesadnie dziwić wyniki pionierskiego badania, które przeprowadził Christer Clerwall z Uniwersytetu Karlstadt w Szwecji. Clerwall przedstawił kilkudziesięciu studentkom i studentom dwa sprawozdania z meczu amerykańskiej ligi futbolowej: jedno napisane przez dziennikarza, drugie wygenerowane przez software. Oceny, jakie po lekturze otrzymały oba teksty – w kategoriach m.in: „czytelność”, „wiarygodność”, „spójność” – były podobne, z niewielkimi różnicami w obie strony. Jedyne widoczne odchylenia – na korzyść „przyjemności czytania” dla dziennikarza i „informacyjności” dla programu – i tak nie były dla całego badania rozstrzygające. Wnioski są takie, że przy ograniczonych, prozaicznych tekstach program robi tak samo „dobrą” lub „złą” robotę jak człowiek – ale czego spodziewać się po stylistycznie i objętościowo ograniczonych doniesieniach? Większe badania, przeprowadzone w Holandii i w Niemczech, potwierdziły intuicje Clerwalla – teksty wygenerowane są wciąż bardziej toporne, ale ogólnie ich percepcja nie jest bardzo różna od obioru rutynowych raportów prasowych. Jednak badacze mediów Hille van der Kaa i Emiel Krahmer znaleźli jeszcze jedną zależność: czytelnicy ufają tekstom dziennikarzy i tym napisanym przez programy w podobnym stopniu, lecz dziennikarze – bardziej ufają tekstom dziennikarzy. Zaskoczenie?

Quakebot w końcu się pomylił. Rok po tym, jak odniósł swój największy sukces, znalazł się na drugim końcu spektrum rzetelności. Odnotował trzy silne wstrząsy w Kalifornii o mocy, która mogła spowodować faktyczne zniszczenia. Wiadomości o wstrząsach zostały zaaprobowane przed redaktorów – Quakebot nie pomylił się więc sam – i trafiły na stronę internetową dziennika. Potężne trzęsienie ziemi rzeczywiście miało miejsce, tyle że w Japonii. Jego echo w Kalifornii zostało zarejestrowane przez sensory, a ich dane – tak jakby miało miejsce faktyczne trzęsienie ziemi – zostały przerobione przez Quakebota na newsa. Redaktorzy sprawdzili, że liczby się zgadzają, i nic nie wzbudziło ich podejrzeń. W tym przypadku konieczny byłby jeszcze jeden, banalny, krok – zajrzenie do mediów społecznościowych, co być może w normalnym relacjonowaniu trzęsienia okazałoby się po prostu niezbędne. Zazwyczaj informacje o wstrząsach pojawiają się tam błyskawicznie, można więc spodziewać się, że przy tak dużym wstrząsie hasło „trzęsienie ziemi” (#quake) zacznie występować częściej niż w każdy inny dzień. Tym razem nic takiego się nie wydarzyło – bo trzęsienia nie było. Wytykając błąd sąsiedniej redakcji, oddział telewizji CBS w San Francisco przypomniał, że Twitter potrafi reagować szybciej niż sensory.

Nauczenie algorytmu rozpoznawania znanych schematów to banał w porównaniu do próby zapisania wszystkich różnorodnych anomalii i wyjątków od reguły. W tym wypadku udało się jedno: napisać scenariusz potencjalnej paniki wywołanej przez błąd algorytmu sterującego wiadomościami. Dałoby się z tego wycisnąć jakąś pulpową nowelę albo film klasy B. Może nawet ktoś powinien je zlecić algorytmom?

W fikcji literackiej formuły i konwencje są zwykle mniej sformalizowane niż w scenariuszu filmu gatunkowego czy artykule newsowym. Fantazja o tym, że komputer będzie w stanie napisać samodzielnie dzieło literackie, jest starsza nawet niż koncept programowania i dzieło Ady Lovelace. Literatura generatywna jako koncept też nie jest nowa. Doniesień o kolejnych książkach „napisanych” przez software nie brakuje. Najnowsza gwiazda świata cyfrowych pisarzy to algorytm uczonych z Hokodate w Japonii, który wygenerował powieść, następnie zatytułowaną „Dzień, w którym – komputer napisał powieść”. Co ciekawe, „Dzień...” przeszedł pierwszy etap eliminacji prestiżowego konkursu literackiego, którego komisja nie wiedziała, że powieść powstała z udziałem komputera i kilku naukowców. Co faktycznie znaczy „pierwszy etap” i na ile książka rzeczywiście ma literacką wartość – tego bez znajomości języka japońskiego się nie dowiemy, ale wiadomość ta pokazuje, że i dłuższe formy prozy generowane przez algorytmy mogą się (do pewnego czasu) bronić. A gdyby tak wygenerować i zgłosić tysiąc manuskryptów? Może choć jeden dostałby się do finału?

Z literackich prób algorytmów wydrukowane zostały „True Love” (w Rosji) i „World Clock” (w USA) – opracowane w różnych proporcjach przez komputery i ich programistów-mentorów. Pierwszy akapit rosyjskiej powieści „True Love”, stworzonej przez komputer i jego programistów i reklamowanej jako „Anna Karenina” w stylu Murakamiego, obiegł anglojęzyczny internet i rozbudził nadzieje na poważne literackie dzieło. Brak późniejszych recenzji sugeruje, że chyba na nadziejach się skończyło. Dziś nie sposób nawet znaleźć oryginalnej wiadomości, która wznieciła zainteresowanie – link jest martwy.

Generowane komputerowo wiersze (szczególnie sonety) czasem się udają i przynoszą zabawne efekty. Od pięciu lat z sukcesami rzeczywistość generatywnie podsumowuje „Sonet niezachodzący” Leszka Onaka, na który składają się zassane do wewnątrz nagłówki newsów prasowych. Pod koniec lipca 2016 roku może brzmieć on tak:

Raport: Pękające implanty piersi nie były toksyczne
Domowe testy na HIV wkrótce w sprzedaży
„Must Be The Music”: Poruszająca historia 23-latki
Chrupiący kąsek – razem, a jednak osobno

Bomby z izraelskich samolotów. Są ofiary śmiertelne
Okaleczone krajobrazy
Miedź Legnica mierzy w awans
Atrakcje, tajemnice i plaże północnego Azerbejdżanu

Jak kobiety czytają (google) mapy…
Tabela kursów średnich NBP nr 144/A/NBP/2016

4-dniowa promocja w sklepach KiK!
79-latka zgwałcona na cmentarzu. Podejrzany to uchodźca z Erytrei

Jak na stronach Ha!artu przypominał Mariusz Pisarski, ostateczny kształt wiersza – szczególnie jeśli zależy nam na czymś bardziej tradycyjnym – i tak uzależniony jest od wkładu początkowego, „rubbish in, rubbish out”. Także w poezji, aby efekt pracy algorytmu dał zadowalające efekty, niezbędny jest ciągły nadzór i manipulowanie materiałem przez potencjalnego twórcę czy twórczynię. W efekcie pojawia się „niezrównoważony bilans energetyczny” – żeby zapożyczyć określenie z innej dziedziny – inwestujemy więcej czasu w pracę z kodem niż ów kod, gdy zostanie sfinalizowany, może nam tej pracy oszczędzić (choć nie jest to regułą). Wiersze pisane przez algorytmy mogą bronić się jako niskokosztowe eksperymenty.

Jednak długie utwory, nawet ściśle podążające za wyznacznikami gatunkowymi i oparte na spójnym uniwersum fabularnym, to wciąż ekstrawagancja. Dobrze pokazuje to próba wygenerowania nowego rozdziału serii o Harrym Potterze przez uczący się algorytm analogiczny do Benjamina. Seria o Harrym daje dobre parametry wyjściowe: korpus materiału jest duży, autorka jedna, różne elementy prozy powracają w podobnych konfiguracjach. Gdy jednak przeczyta się efekty tego eksperymentu, jakikolwiek entuzjazm znika. Postaci niby znamy, czasami nawet wypowiedzą prawidłowe zdanie, ale sensu w tym raczej nie ma.

Co więc naprawdę zrobi za nas – dziennikarki, pisarzy, projektantki, scenarzystów i reporterki – algorytm? Nie tak dużo. Temat automatyzacji pracy i przejęcia przez roboty zawodów kreatywnych powraca raz po raz (nie tylko w literaturze i filmie science fiction), ale na poziomie codzienności zwykle się ośmiesza. Być może rozmijamy się z tym, co owe algorytmy robią naprawdę i gdzie tkwi ich potencjał. Jest szansa, że Benjamin (i jego kuzyni) nigdy nie napiszą wspaniałej powieści, porywającego scenariusza czy otwierającego oczy reportażu. Ale karmione coraz to większym i większym zasobem informacji, czegoś się jednak nauczą. Możliwość precyzyjnego przeskanowania całego korpusu czyjegoś dzieła czy scenariuszy filmowych z danej epoki prędzej przyniesie korzyści historyczkom sztuki i badaczom kultury – software „nauczony” kilku reguł i poprowadzony w świadomy sposób byłby w stanie zasugerować nieoczekiwane powiązania albo podpowiedzieć stylistyczne podobieństwa między tekstami kultury tam, gdzie się ich nie spodziewaliśmy. W dziennikarstwie algorytmy również mogą być bardziej użyteczne, gdy już nauczy się ich formuł, ale zaprogramuje do czegoś więcej niż ich powtarzania. Zdolność rozpoznawania fraz i ciągów znaków oraz słów dałaby się wykorzystać dla kilku celów. Jestem w stanie wyobrazić sobie wtyczkę, która na żywo przestrzega przed nieuświadomionymi plagiatami, wskazuje miejsca wymagające fact-checkingu czy podpowiada przydatne w pracy źródła i odniesienia na podstawie analizy baz danych oraz mediów społecznościowych.

Na razie, poza poezją generatywną (która doskonale możliwa była i bez software’u), skutecznie i spektakularnie udało się wykorzystać „twórczo” algorytmy na jednym polu – sztuk wizualnych. Dobrym przykładem jest ukończony niedawno „The Next Rembrandt” – projekt wygenerowania obrazu na podstawie analizy płócien mistrza, tak jakby ten „wrócił do nas, by namalować jeszcze jedno dzieło”.


Aby stało się to możliwe, zaprzęgnięto do pracy zarówno zaawansowaną, jak i całkiem banalną statystykę: policzono, kto i jak często, jak ubrany i w jakim wieku pojawia się na obrazach Holendra; następnie, gdy już stworzono w ten sposób modela, przy pomocy technologii druku trójwymiarowego nałożono farbę na płótno. Kilkanaście warstw farby ma dawać wrażenie, jakby dzieło faktycznie powstało z użyciem pędzla, i to prowadzonego ruchami Rembrandta. Podobno obliczenia tego, jak rozłożyć każdy piksel na obrazie, trwały pięćset godzin. Podobieństwo do oryginalnych Rembrandtów ma zagwarantować precyzyjne odwzorowanie proporcji i, rzecz jasna, cieni.

Proces powstawania tego obrazu był w równych proporcjach wysiłkiem naukowym i kuglarstwem. Tak naprawdę nie wiadomo, ile w nim faktycznie „sztucznej inteligencji” – to historycy sztuki i programistki musieli pracochłonnie tworzyć reguły, które poprowadziły kod do wygenerowania takich, a nie innych efektów. Czasochłonny i drogi projekt niekoniecznie zwiastuje nadchodzącą rewolucję w sztuce – ale jednocześnie w pełni, albo i z nawiązką, realizuje swoje cele edukacyjne i promocyjne. Setki tysięcy ludzi przeczytało coś więcej o malarzu, poświęciło trochę czasu na obejrzenie jego dzieł, muzeum Rembrandta i Uniwersytet Delft wystawiły sobie piękną wizytówkę. „The Next Rembrandt” okazał się przede wszystkim dopracowanym wydarzeniem medialnym. Gratulować muszą sobie korporacyjni sponsorzy – za pomysłem stoi znana holenderska instytucja finansowa.

Gdzie więc faktycznie widać zmianę i potencjał? Na poziomie tworzenia i analizowania „kreatywnego big data” na pewno – skuteczniej umiemy już zapisywać, kodować, przechowywać i aplikować formuły kreatywne. Uporczywie, i nie bez pewnych sukcesów, próbujemy przepisać procesy prowadzące do powstania tekstu, utworu muzycznego czy obrazu na kod. Sukces używających tych reguł aplikacji, małych zabawek takich jak Prisma, pokazuje, że nierzadko efekty są w stanie porwać miliony. A przynajmniej trafić w chwilowe gusta i dać trochę zabawy. Gra dziś toczy się raczej o to, kto z internetowych gigantów pierwszy zgromadzi taki ogrom danych i taką moc obliczeniową, która da strategiczną przewagę przy tworzeniu faktycznie kreatywnych algorytmów przyszłości, mogących świadczyć usługi, zarabiać i zbierać jeszcze więcej danych autonomicznie. Na razie jednak wciąż przed nami jest stworzenie bardziej prozaicznych usług, które wygenerują rysunek na życzenie albo napiszą list motywacyjny czy ogłoszenie. Skutki dla rynku pracy w polu kreatywnym odczujemy pewnie znacznie później, jeśli w ogóle się zmaterializują.

Pewne jest natomiast to, że już wkrótce zaczniemy inaczej myśleć o procesach tworzenia, a w słowniku pejoratywnych recenzji pojawi się określenie, że coś sprawia wrażenie, jakby napisał to algorytm. Niewykluczone, że w przyszłości sztuka będzie się definiowała przez odniesienia do możliwości algorytmów, na zasadzie odwróconego testu Turinga: że sztuką jest to, czego komputer nie wymyśli.


Tekst dostępny na licencji Creative Commons BY-NC-ND 3.0 PL.