Rozmowa z Jean-Claudem Rissetem

Maszyna do komponowania
Czy komputer może kiedyś całkowicie zastąpić człowieka w roli kompozytora? Odpowiada nestor muzyki komputerowej.

Jean Claude Risset, w roku 1967 pracownik laboratoriów Bell Telephone, śledzi zapis nutowy muzyki Henry'ego Purcella, słuchając "zsyntetyzowanej" wersji tego utworu generowanej przez komputer. © Hulton-Deutsch Collection/CORBIS 

Komputery są dziś nieodłącznym narzędziem pracy większości muzyków. Większość twórców z kręgów popowych i aletrnatywnych wykorzystuje je jako kompaktowy substytut syntezatora, samplera i sekwenzera. Muzyka komputerowa ma jednak za sobą blisko pół wieku poszukiwań, które zaowocowały o wiele większą pulą możliwych zastosowań układów scalonych.

W 1957 roku Amerykanin Lejaren Hiller powierzył komputerowi zadanie komponowania wedle ustalonych wcześniej reguł: tak powstała epokowa „Illiac Suite”. Od tamtej pory sztaby informatyków, akustyków i kompozytorów pracują w elitarnych ośrodkach badawczych nad poszerzeniem spektrum zastosowań najnowszej technologii cyfrowej. Należy do nich Jean-Claude Risset (ur. 1938), nestor muzyki komputerowej, który lada dzień zawita do Polski, by w ramach „Warszawskiej Jesieni” opowiedzieć o swoich doświadczeniach oraz wysłuchać genialnej klawesynistki, Elżbiety Chojnackiej wykonującej „Pentacle”, jedną z najnowszych kompozycji Francuza. Z prekursorem muzyki komputerowej udało się nam porozmawiać przed rozpoczęciem festiwalu.



Muzyka elektroniczna od czasu pionierskich prób w latach 50. bardzo się chyba zmieniła?

Bez wątpienia. Ówczesne narzędzia studyjne pozwalały syntetyzować tylko niezwykle proste, pozbawione wewnętrznego życia, a przez to po prostu nieciekawe barwy. Z kolei muzyka konkretna – wynalazek Pierre’a Schaeffera i od tamtej pory francuska specjalność – dawała twórcy do dyspozycji nagrania dźwięków natury, cywilizacji, a także tradycyjnych instrumentów. Niezwykle trudne było jednak wtedy ich organizowanie, a ingerencja do ich wnętrza – praktycznie niemożliwa. Zaintrygowała mnie możliwość przełamania barier pomiędzy możliwościami muzyki elektronicznej oraz konkretnej, a także akuzmatycznej (opartej na dźwiękach otoczenia – przyp. red.) oraz instrumentalnej. Dlatego zacząłem eksperymentować z komputerami, w szczególności pracując nad syntezą dźwięku. Miałem już wtedy doktorat z matematyki oraz fizyki, jednak do stworzenia imitacji dźwięku instrumentalnego bądź barwy o podobnej złożoności nie wystarczą znane z nauk ścisłych i przyrodniczych modele akustyczne. Nie uwzględniają one bowiem uwarunkowań ludzkiej percepcji. Efektem moich wieloletnich badań był katalog nowych, komputerowo wygenerowanych dźwięków. Są wśród nich dokładne imitacje brzmień instrumentalnych oraz pewne ich warianty, będące efektem subtelnych przetworzeń oryginalnej barwy bądź modyfikacji sposobu, w jakie te dźwięki rozwijają się w czasie.

W latach 50. istniały dwa odrębne, radykalnie skontrastowane światy: akustyczny oraz elektroniczny. Dziś dysponujemy ogromna paletą technologii umożliwiających swobodne poruszanie się w przestrzeni wyznaczanej przez te dwa bieguny. W praktyce umożliwia to poszerzanie możliwości tradycyjnego instrumentarium o jakości, które bardzo trudno albo po prostu nie sposób przy jego użyciu osiągnąć. Znakomitym przykładem jest chociażby mój utwór „Pentacle”, który Elżbieta Chojnacka wykona na „Warszawskiej Jesieni”. Stworzona przeze mnie partia taśmy zawiera komputerowo wygenerowane warianty brzmień klawesynu bądź ich pieczołowicie przetworzone próbki.

“Pentacle” ilustruje także inną bardzo ważną możliwość współczesnych mediów elektronicznych, mianowicie kontrolowanie przestrzeni, w której rozgrywa się muzyka. System 8 niezależnych głośników umożliwił Panu kierowanie ruchem dźwięków w sali koncertowej, a nawet imitowanie pewnych form geometrycznych. Czy współczesny kompozytor jest w pewnym sensie również architektem?


Dzięki nowoczesnej technologii może nim być. Nie przez przypadek tytuły części „Pentacle” nawiązują do nazw pewnych form architektonicznych, jak „Portyk”, czy „Spirale”. Oczywiście doskonała kontrola możliwa jest tylko w dokładnie zaprojektowanym pomieszczeniu, jednak nawet bez spełnienia tych idealnych warunków efekty mojego „komponowania przestrzeni” będą namacalne słuchowo. Pierre Boulez, guru francuskiej awangardy, zarzucił kiedyś tego typu eksperymentom, iż mają ona charakter pustych ornamentów. Nie mogę się z nim zgodzić, bowiem jako fizyk mam świadomość, że przestrzeń może wpływać na odbiór czysto muzycznej struktury, na przykład barwy lub rytmu, i skwapliwie z tej wiedzy korzystam.

Wielu twórców wykorzystuje również komputer jako „maszynę do komponowania”. Pan rzadko korzysta z tej możliwości?

Komputer może dziś wykonać część prac realizowanych kiedyś przez kompozytora. Pozwala to, zwłaszcza w przypadku muzyki o skomplikowanych zasadach wyjściowych, na oszczędność czasu. Wielkie nadzieje wiązał z tym wspominany już Boulez i bardzo się rozczarował. Końcowy efekt był po prostu mechaniczny, sztuczny, pozbawiony artyzmu. Istnieją oczywiście zastosowania komercyjne, na przykład przy tworzeniu ilustracji do gier komputerowych, jednak nieszczególnie mnie one interesują. Inaczej wygląda sprawa klasyka algorytmicznej kompozycji komputerowej, Iannisa Xenakisa. U niego wynikało to z przyjętej filozofii twórczej, polegającej na przekładaniu pewnych zewnętrznych modeli, głównie matematycznych, na strukturę utworu. W praktyce jednak on sam podejmował ostateczną decyzję, często modyfikując efekty pracy komputera w imię czysto zmysłowego piękna. Mi osobiście stosowanie komputera w pracy kompozytorskiej wydaje się po prostu mało owocne.

Jest Pan za to prekursorem nurtu live-electronics, polegającego na wykorzystaniu komputera jako aktywnego wykonawcy utworu?

Przede mną podobne poszukiwania prowadzili już inni twórcy. Philippe Manoury ma na koncie znakomity utwór „Jupiter”, w którym komputer w oparciu o „wirtualną partyturę” uzupełnia dźwiękami elektronicznymi grę instrumentalisty, dostosowując się do jego interpretacji. W moim „Duecie na jednego pianistę” z 1989 roku poszedłem jednak o krok dalej. Tam maszyna całkiem dosłownie wykonuje drugą partię na fortepianie, reagując na szczegóły interpretacji instrumentalisty: powtarza dźwięki w opóźnieniu i inwersji, dokonuje transpozycji interwałów, wreszcie zmienia tempo własnej gry w zależności od głośności partii pianisty. W kolejnych, opartych na tej same idei, kompozycjach ta relacja staje się subtelniejsza, bardziej abstrakcyjna; na przykład dynamika gry instrumentalisty może decydować o stopniu dysonansowości partii komputera, a więc także o dokonywanym przezeń wyborze wysokości dźwiękowych. Każde wykonanie staje się wówczas nieco inne: często sam kompozytor bywa zaskoczony końcowym efektem.

 

Włoski kompozytor i pianista Libero Mureddu improwizuje grając na instrumencie Yamaha Disklavier używając jednocześnie programu komputerowego Jean-Claude'a Risseta. Program wykonuje prostą operację: generuje dwa nieco zmodyfikowane "echa" muzyki wykonywanej przez Mureddu. 

Czy komputer może kiedyś całkowicie zastąpić człowieka w roli kompozytora oraz interpretatora partytur?

To niewykluczone, jednak powstaje pytanie, czy będzie to jeszcze sztuka. Claude Debussy powiedział kiedyś, że dzieła sztuki tworzą zasady, ale zasady nie tworzą dzieł sztuki. Komputer pozbawiony jest wolnej woli: może działać na zasadzie deterministycznej albo losowej. Realizuje bardzo skomplikowane algorytmy, jednak nigdy nie stworzy własnej, nowatorskiej wizji sztuki.

Zależności między rozwojem technologii a innymi dziedzinami życia doświadczamy dziś wyjątkowo intensywnie. Gdyby nie pewne wynalazki techniczne nigdy przecież nie powstałoby kino ani muzyka elektroniczna, które nieodwracalnie zmieniły nas i nasz sposób postrzegania rzeczywistości. Historia pokazuje jednak, że nie jest to specyfika XX i XXI wieku. Przecież zastąpienie klawesynu fortepianem, do którego doszło w XVIII wieku, ukierunkowało rozwój muzyki na następne dwieście lat, wprowadzając do palety środków kompozytorskich oraz wykonawczych cieniowania dynamiczne i artykulacyjne. Z drugiej strony ów wynalazek podyktowany był istniejącą wcześniej potrzebą związaną z dokonującymi się wtedy przemianami społecznymi. Głównymi odbiorcami i mecenasami sztuki przestała być arystokracja, a zaczęła burżuazja. Koncerty przeniosły się z kameralnych salonów do dużych sal koncertowych i potrzebny stał się instrument klawiszowy, który byłby po prostu głośniejszy od fortepianu. Z kolei w drugiej połowie XX wieku o renesansie klawesynu zadecydowała jedna zaledwie osobna, genialna artystka, Elżbieta Chojnacka. Różne sfery ludzkiej aktywności są ze sobą organicznie powiązane i kierowanie się technologią jako jedynym drogowskazem na przyszłość, może prowadzić na manowce. Znakomicie ilustrują to losy twórców, którzy goniąc ciągle za elektronicznymi nowinkami, skazują własną muzykę na efemeryczne istnienie. Komputery i oprogramowanie zmieniają się dziś z roku na rok i to, co było nowatorskie dekadę temu, obecnie trącić może myszką.


Rozmawiał Michał Mendyk

Międzynarodowy Festiwal Muzyki Współczesnej „Warszawska Jesień
Warszawa, 21-31.09

Spotkanie z Jean-Claudem Rissetem
Austriackie Forum Kultury, 22.09, 10:00

Recital Elżbiety Chojnackiej
Centrum Artystyczne „Fabryka Trzciny”, 23.09, 22:30

 

Aktualności, komentarze

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj