Nowe instrumenty, nowe sposoby i metody wytwarzania dźwięku wpływają na muzykę, to oczywiste. Ma na nią wpływ także technologia zapisu i odtwarzania. Na dziesięciocalowych szelakowych płytach odtwarzanych w 78 obrotach mieściło się około trzech minut muzyki na stronie. Tyle liczy sobie standardowa popowa piosenka. Z tego samego powodu Strawiński swoją fortepianową „Serenadę” z 1925 roku podzielił na cztery trwające po trzy minuty części, a indyjscy muzycy skracali wielominutowe wcześniej ragi. Dwunastocalowa, długogrająca płyta winylowa mieści tej muzyki na stronie już 22 minuty. Kaseta magnetofonowa mogła pomieścić do 120 minut muzyki. Płyta kompaktowa swoją pojemność, według legendy, zawdzięcza IX Symfonii Beethovena. W latach 90. zmorą stały się natomiast albumy składające się z kilku singli i kilkunastu wypełniaczy, których jedynym zadaniem było zajęcie miejsca na płycie.
Na przełomie XX i XXI wieku nagrania dzięki cyfrowej rewolucji, uosabianej przez format .mp3, sieci peer-to-peer, oderwały się od fizycznego nośnika. Obecnie coraz większy wpływ na muzykę mają (meta)dane. Big data, deep learning, algorytmy razem z popularyzacją streamingu i przekonaniem, że wszystko da się skwantyfikować, zmieniają muzykę i jej otoczkę. Weźmy chociażby system rekomendacji i playlisty na Spotify. Każda piosenka znajdująca się w bazie serwisu jest dokładnie opisana nie tylko pod względem gatunku, tempa czy wykonawcy, ale również bardziej wymyślnymi parametrami, jak taneczność, akustyczność, liveness (czy jest nagranie koncertowe czy studyjne) czy nastrój. Każda aktywność w Spotify i innych serwisach streamingowych jest monitorowana, każde kliknięcie zapisane, każda przerwana piosenka zapamiętana. Ale to nie wszystko – dosłownie kilka dni temu światło dzienne ujrzały informacje, że Facebook udostępniał innym korporacjom, w tym Spotify, prywatne wiadomości użytkowników (często bez ich zgody). Wszystko po to, żeby jak najlepiej poznać gust użytkownika (a co za tym idzie, często jego dane demo- i psychograficzne, co miało pozwolić Spotify stać się trzecim pod względem wielkości reklamodawcą w internecie, tak przynajmniej zapowiadał CEO Daniel Ek przed wejściem serwisu na nowojorską giełdę w kwietniu tego roku).
W 2014 roku Szwedzi wykupili Echo Nest, firmę specjalizującą się w identyfikowaniu i analizie muzyki, mającą bazę ponad 30 milionów utworów, a dwa lata później przejęli inny startup, Sonalytics, oferujący narzędzie do rozpoznawania muzyki. Ba, powstało nawet narzędzie przewidujące, czy i kiedy piosenka trafi na listy przebojów (na podstawie danych poprzednich hitów).
Dostęp do wspomnianych parametrów jest publiczny i po podłączeniu do API (interfejsu progamistycznego aplikacji) Spotify można zbadać na przykład, jak rozkłada się taneczność albumów Kanye Westa, który z nich najlepiej nadaje się na imprezę oraz sprawdzić, który z nich jest najbardziej oryginalny. Takie badanie przeprowadził data scientist Chad Bixby (chętnych odsyłam do jego blogowego wpisu, w którym dokładnie tłumaczy, jak je przeprowadził). „Najtaneczniejszym” (i jednocześnie najbardziej docenianym przez krytykę) albumem rapera jest „My Beautiful Dark Twisted Fantasy”, a „najbardziej pozytywnym brzmieniowo” debiutancki „The College Dropout”. Bixby wchodzi w analizę jeszcze głębiej, sprawdzając to samo na poziomie poszczególnych piosenek. Dowiaduje się, czy można na podstawie dostępnych parametrów pogrupować dyskografię Westa (można), oraz czy jego największe hity są do siebie podobne (nie są).
Algorytmy stworzone przez Echo Nest stoją za większością profesjonalnych playlist na Spotify, m.in. „Odkryj w tym tygodniu”. Są one dla wielu użytkowników podstawowym sposobem poznawania nowej muzyki. Ich zawartość opiera się na tym, czego wcześniej słuchał użytkownik (czyli teoretycznie im więcej danych, tym lepiej dopasowana muzyka), utworów słuchanych przez użytkowników o podobnym profilu. Algorytmy te mają jednak jedną wadę: zbyt dobrze znają gust słuchacza, przez co dostarczają coraz więcej tego samego, zamykają w bańce komfortu. Użytkownik może nawet nie wiedzieć, że może mu się spodobać coś, czego jeszcze nie słyszał. Algorytmy dominują nie tylko w playlistach skierowanych do pojedynczych użytkowników. Magazyn „Billboard” donosił, że playlisty dotychczas tworzone przez specjalistów coraz częściej są układane przez algorytmy. Już teraz znalezienie się na najważniejszych playlistach, jak Rap Caviar, obserwowanych w Spotify przez prawie 11 milionów użytkowników, znacznie pomaga w odniesieniu upragnionego sukcesu.
Czy muzycy zaczną działać pod dyktat danych i algorytmów? Tak już się dzieje. Uruchomiony w 2015 roku program Spotify for Artists oferuje dane demograficzne i geograficzne słuchaczy, rozkład popularności piosenek w różnych miastach, co pozwala chociażby różnicować setlisty tak, by jak najlepiej odpowiadały lokalnym gustom. W wideo przygotowanym przez Spotify „How to Read your Data” (ten przykład zaczerpnąłem ze świetnego tekstu Liz Pelly dla Bafflera) występuje m.in. indiepopowy duet, który pod wpływem danych zastanawia się nad graniem setów didżejskich zamiast koncertów z żywym składem.
W dostępie do informacji o tym, co jest popularne, można upatrywać także przyczyn rosnącej homogenizacji i zalewu muzyki bezpłciowej, bezpiecznej. Od samej zawartości muzycznej ważniejszy staje się nastrój, który wywołuje. Jeśli słuchamy playlisty mającej pomóc w nauce, muzyka nie może rozpraszać. A że 31% procent wszystkich odtworzeń na Spotify ma miejsce na oficjalnych playlistach, dostosowanie się do ich wymogów, produkowanie kilkunastu wersji tego samego utworu w różnych nastrojach i gatunkach (co stało się w przypadku „Despacito” Luisa Fonsi, które największy sukces odniosło w postaci remiksu z udziałem Justina Biebera) staje się coraz powszechniejszą praktyką. Wyrazistość – kiedyś zaleta – coraz częściej jest traktowana jako wada, bo wybija z nastroju, zwraca na siebie uwagę, a nie jest tylko „dźwiękową tapetą”.
Metadane piosenek stają się coraz ważniejsze również z powodu rosnącej popularyzacji „inteligentnych głośników”, przede wszystkim Amazon Echo i Google Home. 70% użytkowników słucha na nich muzyki. Dlaczego? Bo korzystanie z nich jest intuicyjne. Wystarczy tylko wejść do domu i powiedzieć, „Alexa, zagraj...”. Tylko skąd Alexa (to nazwa głosowego asystenta w Amazon Echo) wie, co to ma być? W przeciwieństwie do interfejsów wizualnych, lista wyników nie wchodzi w grę, Alexa ma tylko jedną szansę, musi od razu odtworzyć prawidłowy utwór. A zapytanie może być rozmaite – od „Alexa, zagraj «Mr. Brightside» The Killers”, przez „Alexa, zagraj piosenkę, która miała teledysk z Izabelą Miko”, do „Alexa, zagraj piosenkę z tekstem »It was only a kiss«” czy „Alexa, zagraj coś melancholijnego” lub „Alexa, zagraj piosenkę z radia”. Tutaj właśnie w sukurs przychodzą metadane – co jest hitem w radiu, co w serwisach streamingowych, jakie radio jest popularne, czego słuchają rówieśnicy użytkownika, wszystko to, co spowoduje, że Alexa się nie pomyli. Dane te są niezależne od wytwórni, a one nie chcą utracić wpływu na słuchaczy. W artykule dla Pitchforka Will Slatery, digital sales manager Ninja Tune, przewiduje, że labele same mogą dostarczyć odpowiednich metadanych serwisom streamingowym, by zachować choć trochę kontroli. Inteligentne głośniki coraz częściej zastępują także radio. Łatwość w obsłudze, możliwość przekierowania do podcastów to kilka podstawowych przyczyn, dla których tradycyjne radia tracą udział w rynku.
Wraz z rozwojem algorytmów i machine learning pojawiły się próby stworzenia kompozytorskiej sztucznej inteligencji. W mijającym roku ukazała się płyta nieznanej szerzej amerykańskiej piosenkarki Taryn Southern, „I Am AI”. Tytułowa sztuczna inteligencja to Amper. Po wprowadzeniu minimum trzech parametrów – gatunku, nastroju i czasu trwania – w ciągu kilkunastu sekund produkuje ona gotową piosenkę. Im więcej wprowadzonych danych – tempo, rytm, tonacja, instrumenty – tym automat lepiej wie, jaki ma być efekt końcowy, który buduje z potężnej biblioteki sampli prawdziwych instrumentów. W założeniu Amper ma być jedynie pomocą dla muzyków, przyspiesza proces twórczy i pozwala zaoszczędzić pieniądze na studio i muzyków.
Niestety „I Am AI” to muzyka ze stocka, rozwodniona, pozbawiona praw autorskich podróbka znanych patentów, tapetujący sklepy i poczekalnie w prywatnych przychodniach muzak pozbawiony artystycznej wartości. W zasadzie jest to zgodne z duchem biznesowej wersji Ampera, Amper Score, która służy do tworzenia pozbawionych praw autorskich utworów ilustracyjnych. Jednak to dopiero początek. Wystarczy sobie przypomnieć, jak wyglądały pierwsze próby autonomicznych samochodów, czy obrazów tworzonych przez sztuczną inteligencję, a jak wyglądają one dzisiaj.
Oderwanie muzyki od nośnika i narodziny abonamentowego modelu streamingu mają jeszcze jedną ważną konsekwencję. Sprawiły, że coraz ciężej jest utrzymać się artystom z nagrań, a coraz większą część ich dochodów przynoszą koncerty. Nastąpiła zmiana paradygmatu. Kiedyś jeździło się w trasy, żeby promować płytę, dzisiaj wydaje się płytę, żeby móc pojechać w trasę. Nawet uznani muzycy muszą łapać się dodatkowych prac. Wynika to między innymi z tego, że tantiemy wypłacane przez serwisy streamingowe są bliskie zeru. Żeby zarobić na amerykańską minimalną krajową – 1472 dolary – tamtejszy muzyk musi co miesiąc mieć sześciocyfrową (380 tysięcy) liczbę odtworzeń w serwisie Spotify. Tylko 12% zysków branży trafia do muzyków. W tym można także upatrywać przyczyny tak ochoczego sięgania po dane i oddawaniu się ich sugestiom przez artystów, poświęcających własną kreatywność.
Cyfrowej rewolucji udało się za to z pewnością zwiększenie dostępności. Wystarczy tylko łącze z internetem, a miliony utworów są w zasięgu kilku kliknięć. Z tego bierze się rosnąca popularność muzyki nieanglosaskiej, z sukcesem fenomenalnego albumu „El mal querer” hiszpańskiej śpiewaczki flamenco Rosalíi, czy epidemia „Despacito” i jeszcze wcześniej „Gangnam Style”. Powstaje jednak pytanie, czy my – słuchacze – dobrze korzystamy z tej dostępności? Trzy powyższe przykłady to tylko wyjątki. Muzyka niezachodnia na Zachodzie funkcjonuje zazwyczaj w niszy, rzadko przebijając się do mainstreamu.
Obietnica, że dzięki internetowi każdy artysta znajdzie swojego fana, a długi ogon będzie ważniejszy od mainstreamu, nie spełniła się. W streamingach królują największe nazwiska, w 2017 roku za 99% wszystkich odtworzeń odpowiadało 10% utworów. Słuchamy tego, co już znamy, albo tego, co jest podobne do tego, co już lubimy. Również dlatego, że wybór z milionów utworów jest po prostu paraliżujący.
Przyszłość muzyki otwiera się na naszych oczach. Muzycy z zawodowców przeistaczają się w hobbystów, uwiązanych w gig economy. Przecież „sztuka to nie praca, to styl życia i pasja”. W ten sposób twórczość zostaje sprowadzona do zajęcia dla osób, które albo są odpowiednio zdeterminowane, gotowe na wyrzeczenia, albo bogate. Czy jednak nie było tak zawsze? Okres, kiedy gwiazdą mógł zostać każdy bez pomocy najczęściej prywatnego mecenasa lub własnych środków, to tylko krótka aberracja, związana z powojenną sytuacją gospodarczą i silną pozycją klasy średniej i robotniczej oraz silną pozycją państwa. Do dzisiaj w niektórych zachodnich społeczeństwach, np. Kanadzie, Skandynawii, państwo opiekuje się nawet bardzo niszowymi artystami, a muzyka jest jedną z emanacji soft power. Tak samo, jak dominacja nośników fizycznych to krótki okres w historii muzyki, który właśnie się kończy, wraz z przejściem nagrań do cyfrowej chmury.
Algorytmy i AI dążą do wyrugowania czynnika ludzkiego: zastępują kuratorów, didżejów, radiowców, a wreszcie i samych kompozytorów. Pozostaje pytanie, czy muzyki tworzonej i polecanej przez nie będzie chciał słuchać jakiś człowiek. Sądząc po mizernych wynikach „I Am AI” na razie nie chcą. W maszynie póki co wciąż jeszcze nie ma ducha. Ale jak długo?
Tekst dostępny na licencji Creative Commons BY-NC-ND 3.0 PL (Uznanie autorstwa-Użycie niekomercyjne-Bez utworów zależnych).