DŹWIĘKI: Z punktu widzenia uszu
Ophelia Noir / CC BY-NC-SA 2.0

17 minut czytania

/ Muzyka

DŹWIĘKI: Z punktu widzenia uszu

Marcin Rychter

Jeszcze w połowie XIX wieku każda sytuacja dźwiękowa miała charakter unikatowy – nikt nie słyszał dwukrotnie takiego samego szczekania psa ani dwóch identycznych wykonań nokturnu Chopina. Obecnie to, co słyszalne, jest raczej anonimowym dźwiękiem, czystym drganiem powietrza, za którym nic nie stoi

Jeszcze 4 minuty czytania

Audiosfera dość rzadko staje się przedmiotem refleksji. Rewolucja cyfrowa – z ekranem jako swoim orężem – umocniła jeszcze prymat wzroku ugruntowany wcześniej przez kulturę pisma. Dominacja sfery wizualnej nad akustyczną nie jest jednak niczym nowym, ulegali jej już Grecy – Heraklit mówił, że oczy są lepszym świadkiem niż słuch, Platon swoją ideę dobra, czyli metafizyczną podstawę rzeczywistości, przedstawiał metaforycznie jako słońce lub światło, Arystoteles twierdził, że to dzięki wzrokowi rozpoznajemy rzeczy jako odrębne przedmioty. Widzenie zostało sprzęgnięte z poznaniem i rozumieniem, a związek ten zakorzenił się na dobre w metaforyce i frazeologii języków nowożytnych. A co ze słyszeniem? Co i jak pozwala ono przemyśleć i poznać?

Audiosfera odegrała ważną rolę w europejskiej tradycji filozoficznej już u samego jej zarania. Platońska wizja świata jako przenikniętego ponadzmysłowym ładem kosmosu czerpała wiele i zupełnie jawnie z wcześniejszych, raczej mistycznych niż filozoficznych, koncepcji Pitagorasa. Odkrywca znanego twierdzenia o kącie prostym nie pozostawił po sobie żadnych pism, nauczał wyłącznie ustnie i być może dlatego przykładał większą wagę do dźwięku. Według starożytnej anegdoty Pitagoras przechodził kiedyś obok kuźni, gdzie kilku robotników równocześnie uderzało młotami w kowadła. Dźwięki miały różną wysokość i tworzyły rozmaite interwały. Słuchając ich, myśliciel wpadł na genialny pomysł, który zaowocował pierwszym w kulturze europejskiej refleksyjnym czy też naukowym badaniem audiosfery. Naciągnąwszy strunę na kawałek deski, Pitagoras skonstruował urządzenie zwane monochordem, na którym można było grać dowolne interwały jak na prymitywnej gitarze. Uderzenie w pustą strunę dawało niższy ton interwału, a wyższy rozlegał się po skróceniu struny przez przyciśnięcie jej w jakimś miejscu do deski. Jak wielka musiała być satysfakcja badacza, gdy usłyszał, że interwały, którym odpowiadają proste proporcje długości struny (2/1, 3/2, 4/3), brzmią „ładniej”, „dźwięczniej” i „czyściej” od pozostałych! Odkrycie to potwierdzało intuicję stojącą u podstaw jego doktryny – że świat, mimo pozornej chaotyczności, zawiera ukryty wyższy porządek, który dostępny jest wyłącznie rozumowi i daje się wyrazić w języku matematyki. Fundamentalne dla kultury europejskiej przekonanie, że rzeczywistość daje się zmatematyzować, było więc od początku związane z dźwiękiem. Pitagoras jednak wymyślił coś jeszcze dziwniejszego – ideę niesłyszalnej i nieludzkiej muzyki. Uważał, że krążąc po swoich orbitach, ciała niebieskie wprawiają w drgania substancję wypełniającą kosmos, nazywaną później eterem, i wydają harmonijne tony, które składają się na wspaniałą muzykę sfer docierającą także do Ziemi. Dlaczego więc jej nie słyszymy? Ponieważ nazbyt do niej przywykliśmy. Towarzyszy nam zawsze i wszędzie, więc przestaliśmy zwracać na nią uwagę.

Nie musimy wierzyć w Pitagorejską mistykę liczb i kosmologię, żeby poważnie potraktować to rozumowanie. Czy nasza audiosfera zawiera jakieś elementy, na które nie zwracamy uwagi? Jaka jest jej struktura? Co słyszymy? Co możemy usłyszeć? Co wiemy o tym, co słyszymy? Jak słuchamy? Jakie możliwości kryje w sobie słuch? Dobrym punktem wyjścia może okazać się porównanie ze wzrokiem. W obu przypadkach ogólna struktura doświadczenia jest podobna: odnajdujemy w nim pewne „centrum” (nas samych), następnie rozmaite treści wrażeniowe, które do nas docierają, oraz pewien „horyzont”, poza który nasza percepcja już nie sięga. Horyzont słyszenia nie pokrywa się jednak prawie nigdy z horyzontem widzenia, choć mają zazwyczaj jakąś część wspólną. Widzę teraz ekran komputera, na którym piszę, za nim okno i niewyraźne zarysy drzew kołyszących się na wietrze w półmroku. Słyszę natomiast mieszaninę różnych odgłosów, spośród których potrafię wyróżnić szum wentylatora z łazienki, głos sąsiadki rozmawiającej przez telefon za ścianą, liście szeleszczące na wietrze i cichy warkot samochodów na odległej ulicy. Tylko jeden przedmiot znajduje się w obu tych polach – drzewa za oknem. Widzę wiele rzeczy bezgłośnych i słyszę wiele niewidocznych. Mój horyzont słuchowy jest znacznie przestronniejszy niż horyzont wzroku. Ma też inną budowę. Patrzymy zawsze przed siebie, a dźwięki odbieramy ze wszystkich kierunków jednocześnie. Audiosfera, w przeciwieństwie do horyzontu wzrokowego, jest więc rzeczywiście kulista i pozbawiona nadrzędnego ukierunkowania. Następna różnica dotyczy intencjonalności, czyli skierowania uwagi na przedmiot. Patrzymy prawie zawsze na coś konkretnego. Nasz wzrok ma wyraźne, przedmiotowe odniesienie, widzenie jest widzeniem czegoś, jest w swoim zwykłym stanie intencjonalne (przykładem nieintencjonalnego widzenia byłoby letargiczne „zapatrzanie się”).

Inaczej ma się rzecz ze słuchem. Możemy słuchać nieintencjonalnie, nie kierując uwagi na żaden konkretny bodziec, i przeważnie w takim właśnie stanie pozostajemy. Dźwięki docierają do nas wówczas jako bardziej lub mniej zróżnicowana procesualna całość, z której dopiero wtórnie wyróżniamy poszczególne elementy lub w ogóle tego nie robimy. Arystoteles miał rację – dźwięk gorzej niż wzrok oddaje odrębność przedmiotów. Ale możemy też słuchać intencjonalnie, czyli nasłuchiwać, jak czyni to na przykład żołnierz próbujący ustalić położenie wroga na podstawie kierunku, z którego dochodzą wystrzały. W takich sytuacjach inne elementy audiosfery zostają zepchnięte na drugi plan lub wręcz poza granicę świadomej percepcji. O ile słuchanie nieintencjonalne ma charakter niekierunkowy (jesteśmy „zanurzeni” w dźwiękowym pejzażu, który rozbrzmiewa ze wszystkich stron jednocześnie), o tyle nasłuchiwanie wiąże się z koncentracją na kierunku, z którego dobiega poszukiwany dźwięk. Jest też inny jeszcze rodzaj słuchania intencjonalnego, w którym słuchanie kierunkowe i „zatopienie się” w dźwięku mogą występować jednocześnie lub raptownie przechodzić jedno w drugie. Mamy z nim do czynienia, gdy nasza intencja wykracza poza materialne przedmioty obecne wokół nas. Załóżmy, że po mojej prawej stronie stoi włączone radio, którego nie słucham uważnie. Słyszę bliżej nieokreślony, nieco irytujący szum dochodzący wyraźnie z pewnego kierunku. Nagle z głośnika rozbrzmiewa utwór, który dobrze znam, na przykład któryś z „Koncertów Brandenburskich” Bacha. Mimowolnie zmieniam tryb słuchania, świadomie wyodrębniam dźwięk dochodzący z prawej strony spośród innych elementów mojej aktualnej audiosfery i „zanurzam się” w nim. Przestaję zwracać uwagę na kierunek, z którego dochodzi i koncentruję się na znanych motywach, słucham kontrapunktu, odnotowuję wolne tempo, w jakim wykonywany jest utwór, zauważam, że wykonuje go pełna orkiestra, a nie kameralny zespół barokowy, przysłuchuję się interpretacji solowych partii, porównuję to, co słyszę, z wykonaniami, które pamiętam. Jest to słuchanie intencjonalne, lecz intencja nie kieruje się tu ostatecznie na żaden materialny przedmiot w moim otoczeniu, lecz na pewien dobrze znany mi utwór, czyli, jak powiedziałby Ingarden, „przedmiot intencjonalny” będący czymś innym niż jego jednorazowa aktualizacja. Ale dajmy na to, że radio znienacka zaczyna odbierać jakieś zakłócenia i na muzykę nakłada się nieprzyjemny, mechaniczny warkot. Czar pryska. Nie jestem już „wewnątrz” dźwięku. Radio znów staje się po prostu przedmiotem po mojej prawej stronie, który emituje nieprzyjemne zgrzyty. Mimo że muzyka wciąż z niego dochodzi, tracę kontakt z pozaczasowym przedmiotem intencjonalnym.

Fenomen słuchania intencjonalnego stał się w XX wieku przedmiotem kompozytorskich eksperymentów i prowokacji. Jedną z nich jest słynny utwór Johna Cage’a „4’33’’”, którego „partytura” nakazuje artyście powstrzymywanie się od gry na (dowolnym) instrumencie przez czas podany w tytule. Intencja słuchacza kieruje się na oczekiwany przedmiot – muzykę – lecz ta się nie pojawia. Oszukana w ten sposób intencja poszukuje jakiegoś innego wypełnienia i kieruje się ku bodźcom, które inaczej pozostałyby poza sferą świadomej percepcji (podczas prawykonania „4’33’’” był to na przykład deszcz stukający o dach sali koncertowej). Zaczynamy świadomie przeżywać pełnię audiosfery. Ten sposób myślenia kontynuowali artyści tworzący tzw. „nagrania terenowe”, takie na przykład jak utwór „Air Vibration of Elevator Motor Room in Stairwell” Toshiyi Tsunody, w którym pozornie banalne dźwięki otoczenia pozostawione bez żadnej obróbki brzmią jak abstrakcyjna i intrygująca muzyka elektroniczna.

Nagroda im. Barbary Skargi

Do 31 maja 2016 można przesyłać eseje na konkurs organizowany przez Fundację na Rzecz Myślenia im. Barbary Skargi. Temat IV edycji brzmi: „Pomyśleć wspólnotę”. Temat ma skłonić do namysłu nad możliwie szeroko rozumianymi więziami między ludźmi (z uwzględnieniem wszelkich bytów nie-ludzkich), nad podstawami, pochodzeniem i losami relacji w obrębie społeczeństwa, państwa, także w obrębie mniejszych zbiorowości, nad charakterem tych stosunków – zarówno dawniej, jak i dziś. Do 30 września 2016 jury ogłosi nazwiska 5 finalistów. Ostateczne rozstrzygnięcie nastąpi w październiku 2016 roku. Laureat otrzyma nagrodę pieniężną, a jego praca zostanie opublikowana w postaci osobnej książki.

Na uwagę zasługuje inna jeszcze różnica między audiosferą a doświadczeniem wizualnym, wynikająca z fizycznej odrębności przyczyn obu rodzajów bodźców. Wrażenia wzrokowe powstają w efekcie kontaktu oka z falami świetlnymi odbitymi od przedmiotów. Wrażenia dźwiękowe są następstwem drgań cząsteczek powietrza wokół naszego ciała. Cząsteczki powietrza zaczynają drgać, gdy zostają przez coś poruszone. A zatem słyszymy tylko przedmioty poruszające się albo drgające (nawet statyczny z pozoru głośnik zawiera ruchomą membranę). Ograniczenie to nie dotyczy wizualności. Doskonale nieruchomy, pozaczasowy kadr dostarcza wielu wrażeń wzrokowych. Dźwięk nie istnieje poza czasem. Dlatego percepcja dźwięku, na co zwracał uwagę Husserl, mówi wiele o doświadczaniu czasu jako takiego – dźwięk odsłania istotę czasu. W procesie słuchania nie pojawia się nigdy całkowicie nieruchome „teraz”. Najkrótszy „kwant” takiego doświadczenia jest zawsze pewnym rozciągniętym trwaniem, chwytamy zawsze za jednym zamachem „chwilę przed”, „już” i „chwilę po”. Dobrym przykładem jest rozmowa – „kwantami” są tutaj całe słowa lub nawet zdania. Dźwiękowa teraźniejszość może jednak zostać znacznie poszerzona, tak dzieje się niekiedy w percepcji muzyki. Muzycy klasyczni, a zwłaszcza dyrygenci opowiadający o tym, co czują podczas występów, wspominają niekiedy o ekstazie i poczuciu przebywania „poza czasem”. Potrafią oni zapewne w chwilach najwyższej koncentracji objąć jednym aktem świadomości cały – doskonale przecież znany sobie – utwór, a przynajmniej jego aktualnie wykonywaną część. Wówczas „chwila teraźniejsza” mogłaby rozciągać się przez kilkanaście czy nawet kilkadziesiąt minut. Stan taki, choć z pewnością mniej intensywny, nieobcy jest też szeregowym melomanom, którzy umieją – zwłaszcza gdy słuchają dobrze znanego utworu – utrzymać w „teraźniejszości” usłyszane już frazy, a jednocześnie antycypować to, co za chwilę rozbrzmi.

W XX wieku audiosfera – w sensie materialnym, jako drgania powietrza na naszej planecie – zaczęła się zmieniać w bezprecedensowy, a przy tym radykalny i zapewne nieodwracalny sposób. Ten proces, który ma charakter rewolucji tyleż technologicznej, co kulturowej, polega na nieustannym poszerzaniu granic tego, co rozbrzmiewa, co słyszalne – nie tylko dla ludzi. Mikrofony, wzmacniacze i głośniki poszerzyły horyzont audiosfery poza granice przyrodzonej percepcji. Można dziś nagłośnić wszystko: dźwięk wydawany przez spacerującą mrówkę, podwodne nawoływania delfinów lub stukot ziarenek piasku przesypujących się po plaży. Magnetofony i inne urządzenia rejestrujące dokonały zmian jeszcze dalej idących. Za ich sprawą dźwięk został oderwany od jednorazowego, materialnego i historycznego wydarzenia, od którego wcześniej był nieoddzielny. Mówiąc językiem Waltera Benjamina, dźwięk na skutek technicznej reprodukcji utracił swoją „aurę”, niepowtarzalność i związek z jednostkowym kontekstem. Nagrany i odtwarzany dźwięk jest symulakrem, multiplikowalną i manipulowalną kopią całkowicie oderwaną od źródła. Jeszcze w połowie XIX wieku każda sytuacja dźwiękowa miała charakter unikatowy – nikt nie słyszał dwukrotnie takiego samego szczekania psa ani dwóch identycznych wykonań nokturnu Chopina. Obecnie to, co słyszalne, przestało już być z istoty głosem czy odgłosem czegoś, jest raczej anonimowym dźwiękiem jako takim, czystym drganiem powietrza, za którym nic nie stoi. Innym novum w planetarnej audiosferze stały się brzmienia instrumentów elektronicznych. Prosta struktura harmoniczna sygnałów generowanych przez wczesne syntezatory odróżniała je radykalnie od wszelkich odgłosów przyrody czy też brzmień klasycznych instrumentów. Wszystkie te innowacje wchłonęła następnie i zawarła w sobie technika cyfrowa, dodając jeszcze inne niespotykane wcześniej możliwości: nieograniczone sposoby wizualizowania dźwięku i sonifikacji obrazu, swobodną ingerencję w strukturę harmoniczną fali dźwiękowej, syntetyczne kreowanie i edytowanie struktur i form dźwiękowych o dowolnych parametrach, modyfikowanie zarejestrowanych dźwięków na dowolne sposoby, łączenie instrumentów z instalacjami multimedialnymi, spacjalizację (generowanie wirtualnych źródeł dźwięku w dowolnym punkcie nagłośnionej przestrzeni) czy wreszcie natychmiastową dostępność ogromnych bibliotek muzycznych. Równolegle z rozwojem techniki dokonywała się rewolucja w myśleniu o muzyce artystycznej. O ile muzyka rozrywkowa jako „przemysł kulturalny” musi wciąż odwoływać się do utrwalonych przyzwyczajeń słuchaczy, o tyle od początku minionego stulecia ambicją kompozytorów artystycznych – od bruitystycznych futurystów i twórców muzyki konkretnej, przez wysokich modernistów: dodekafonistów, serialistów, postserialistów, po kompozytorów muzyki elektronicznej, sonorystów, aleatorystów, spektralistów, artystów realizujących nagrania terenowe, instalacje multimedialne, twórców noisesilent music i całej rzeszy innych innowatorów – jest radykalne poszerzenie audiosfery, zarówno w sensie „materialnym”, przez wprowadzenie nowego materiału muzycznego i nowych zasad jego organizacji, jak i w znaczeniu „społecznym”, przez zachęcenie słuchaczy do całkowitego porzucenia wyrobionych przyzwyczajeń i konfrontacji z nieznanym im muzycznym językiem. Skoro – jak twierdził Pitagoras – dźwięki najlepiej znane stają się niesłyszalne, to być może muzyka, aby być słyszalną, powinna właśnie odchodzić od wszystkiego, co znane, zwłaszcza w sytuacji gdy konserwatywne w formie i sztampowe produkty przemysłu kulturalnego nachalnie zalewają audiosferę, rozpowszechniane za sprawą łatwej i masowej technicznej reprodukcji, narzucają się jej uczestnikom niezależnie od ich woli.

Awangardowa muzyka współczesna nie nakłada kompozytorom żadnych ograniczeń i nie tworzy żadnych uniwersalnych kanonów, lecz stawia przed nimi zupełnie nowe wyzwanie. Kompozytor, uwolniony od apodyktycznych nakazów konwencji i wyposażony w potężne narzędzia techniki cyfrowej, musi chcąc nie chcąc stać się filozofem i odpowiedzieć po swojemu na ogólne pytanie: „Czym jest muzyka?”. Nawet jeśli w odpowiedzi tej nawiązuje jakoś do tradycji klasycznej lub któregoś z nurtów awangardowych, nie jest w swoim wyborze pod żadnym względem zdeterminowany czy przymuszony, podejmuje tę decyzję na własny użytek i własną odpowiedzialność. Wolność od konwencji i nieograniczone właściwie możliwości techniczne wywołują jednak presję na innowacyjność, za sprawą której współczesna muzyka jest przestrzenią generowania coraz to nowych różnic, a proces ten wydaje się nieodwracalny. Kompozytor bywa więc postrzegany już raczej nie jako romantyczny artysta wyrażający emocje, lecz świadomy konceptualnych, technologicznych i społecznych możliwości badacz, którego zadaniem jest refleksyjno-materialna eksploracja audiosfery oraz odkrywanie w niej zupełnie nowych, nieznanych wymiarów. Słuchacz nowej muzyki z kolei, inaczej niż meloman gustujący w klasyce, nie powinien szczególnie przywiązywać się do swojej erudycji ani też liczyć na ekstazę „rozszerzonej teraźniejszości” wywołaną przez obcowanie z tym, co doskonale oswojone. Jego nagrodą może być raczej dostęp do nieznanych wcześniej obszarów percepcji, nauczenie się słuchania na nowo, refleksja, jaką budzi to doświadczenie i powrót do codziennej audiosfery, która będzie dla niego bogatsza niż wcześniej.

Cykl tekstów filozoficznych „Rzeczy i myśli” powstaje we współpracy z Fundacją na rzecz Myślenia im. Barbary Skargi w ramach projektu finansowanego ze środków Fundacji PZU.
W cyklu, co kilka miesięcy, będziemy też zamieszczać listę filozoficznych nowości wydawniczych z krótkimi omówieniami. Prosimy o nadsyłanie książek na adres redakcji.






Tekst dostępny na licencji Creative Commons BY-NC-ND 3.0 PL.