Co słychać w sztucznej inteligencji?

Algorytmy i inne rozwiązania informatyczne, których efekty pracy bardzo przypominają ludzkie – bez poszukiwania urzędowej definicji, to zasadniczo nazywamy dziś sztuczną inteligencją. Jedną z dziedzin, w której rozwija się te technologie, jest muzyka. Nie wygląda jednak na to, żebyśmy, poza traktowaniem tego jako ciekawostki, jakoś specjalnie chętnie się w nią wsłuchiwali. Warto zastanowić się, dlaczego, zanim nadamy robotom prawa obywatelskie i porwiemy się na inne fantazje tego typu (nawet gdy są inspirowane znakomitymi serialami lub grami video).

Najsilniej kojarzone ze sztuczną inteligencją w muzyce są nieliczne produkcje dostępne na YouTube w formie teledysków. Zawierają one piosenki wygenerowane przez algorytmy na podstawie jakiegoś materiału źródłowego: Bacha, Beatlesów, amerykańskich jazzmanów. Efekt wygenerowany zależy zatem od efektów końcowych pracy prawdziwych muzyków zapisanych na jakichś nośnikach (zakładam, że źródłem są zawsze nagrania cyfrowe, które w odróżnieniu od analogowych same posiadają szereg ograniczeń) oraz od założeń dokonanych przez informatyka i dostępnych mu narzędzi (infrastruktura do przeprowadzania założonych analiz, np. uczenia maszynowego). Zatem z jednej strony mamy najbardziej lubiane przez publiczność przeboje pełnowartościowych artystów, a z drugiej informatyków starających się zmaksymalizować efekt końcowy przy pomocy rozwiązań koncepcyjnych, w swej istocie matematycznych i analitycznych, mających ze sztuką coś wspólnego najwyżej w sposób nieoczywisty i mimo wszystko drugorzędny. Takie projekty realizują m.in. Computer Sciences Laboratories firmy Sony.

Inne pomysły na tworzenie muzyki z udziałem algorytmów (współpraca z robotami) to między innymi wykorzystywanie dźwięków niewystępujących na świecie (generowanych przez komputer, m.in. przez Magenta w ramach TensorFlow), śpiewanie przez człowieka muzyki napisanej przez komputer (Taryn Southern i piosenki napisane przez Watsona od IBM), uzupełnianie piosenki ścieżką wygenerowaną przez algorytm (np. piosenka Highteen uzupełniona muzyką z Jukedeck). Pomysły są różne – efekty na razie niezbyt porywające. Może jednak fakt, że mamy świadomość „elektronicznego pochodzenia” danej muzyki wpływa na nasz odbiór? Co gdyby się okazało, że polubiliśmy piosenkę zasłyszaną w windzie, gdyby potem ktoś nam powiedział, że wszystkie dźwięki w hotelu są wynikiem pracy przypadkowego algorytmu?

Trudno o właściwe podejście do poważnych zjawisk, jak muzyka generowana elektronicznie, bez odrobiny filozofii (podobnie jest w dziedzinie prawa, dlatego chętnie podążam tą sprawdzoną ścieżką). Muzyka jest jednym ze sposobów, w jaki wyrażamy się jako ludzie (zarówno tworząc i dzieląc się muzyką z innymi, jak i słuchając, wybierając ulubione piosenki, przeżywając dany kawałek itd.). Jedną z najbardziej antropocentrycznych syntez ludzkiej myśli, jakie znamy, jest zdanie Immanuela Kanta: „człowiek i w ogóle każda istota rozumna istnieje jako cel sam w sobie, nie tylko jako środek, którego by ta lub owa wola mogła używać wedle swego upodobania, lecz musi być uważany zarazem za cel zawsze, we wszystkich swych czynach, odnoszących się tak do niego samego jak też do innych istot rozumnych” (fragment z „Uzasadnienia metafizyki moralności”). Przekładając tę myśl na wąską kategorię tworzenia muzyki, warto się zastanowić, czy w muzyce chodzi o efekt końcowy, czy o proces „stawania się” muzyki i muzyka. Z wielu badań wynika, że mózgi muzyków rozwinięte są nieco inaczej niż mózgi nie-muzyków (w popularyzacji tej wiedzy warto m.in. zwrócić uwagę na wykłady i publikacje Anity Collins). Produkt pracy muzyka nie jest jedynie przypadkowym zbiorem dźwięków, ale stoi za tym cały proces uczenia się swojego instrumentu (od analogowych, jak bęben, skrzypce, głos – aż do cyfrowego pianina i modułów perkusyjnych). Przykładowo, ktoś, kto gra na gitarze i śpiewa będzie miał trudności z nagraniem swojego utworu z użyciem cyfrowego syntezatora głosu i automatu perkusyjnego. Korzystanie z danej techniki wymaga wprawy (aby dany efekt fizycznie móc wywołać) i rozumienia, jak wykorzystanie tego czy innego efektu pasuje do twórcy i co komunikuje słuchaczom. Jest to zdanie prawdziwe także jeśli zauważymy, że muzyka jest sformalizowaną sztuką – orkiestra korzysta z nut i w klasycznym graniu nie ma miejsca na improwizację, jazzman nawet jak improwizuje gra w określonej skali i rytmie, styl muzyczny narzuca do pewnego stopnia wykorzystywane środki wyrazu. Muzyka jest dla ludzi także pewnym kodem i podobnie jak mowa wymaga zachowania określonych zasad, nawet jeśli służy do wyrażenia swojej osobowości, gustu czy nastroju.

W czym zatem leży problem? Automat nie ma potrzeby tworzenia muzyki, nie tworzy jej sam z siebie dla samej przyjemności „usłyszenia” dźwięków zamiast pozostawania w ciszy, nie podejmuje wyzwania stopniowego przekraczania swoich ograniczeń. Żeruje on na efektach końcowych trudów podjętych przez ludzi, a efekty jego pracy będą niczym innym, jak marną imitacją. Muzyka nie jest celem, ale środkiem do osiągnięcia jakiegoś celu (zaciekawienie, zbudowanie zainteresowania trendem; oszukanie ludzkiego odbiorcy; wypełnienie ciszy; sprzedaż z pominięciem wynagrodzenia dla ludzkich twórców; oszczędzenie środków w ramach innej działalności biznesowej). Być może dlatego – i słusznie – muzyka tworzona komputerowo nie budzi szczególnego entuzjazmu, choć większość z nas nie ma nic przeciwko cyfrowym nośnikom, cyfrowo wytworzonym dźwiękom czy muzyce elektronicznej.

Warto wspomnieć też, że zjawisko muzyki tworzonej przez komputery towarzyszy procesowi upowszechnienia tworzenia muzyki przez amatorów. Próg, od którego można zacząć granie, nagrywanie i publikowanie, obniżył się, a wzrosły łatwość komunikacji i dostępność technologii (w tym instrumentów, programów do obróbki dźwięki i obrazu, i ich rejestrowania). Liczba amatorów w muzyce nie spada, a cała branża kreatywna bardzo na tym zyskuje. W moim odczuciu sztuczną inteligencję w muzyce należy traktować raczej jak proces uczenia się przez ludzi narzędzi, jakimi są algorytmy, a zatem bardziej jako etiudy i wprawki informatyków, niż jako produkty umieszczane w kategorii „muzyka”. Abym jednak miała rację warto zadbać, aby nasze gusty nie były kształtowane przez marne imitacje i powielenia sprawdzonych pomysłów, ale rzeczywiście wartościowe produkcje muzyczne.

(Zupełnie inaczej sprawa się ma z wykorzystaniem robotów w muzyce, ale o tym osobny wpis).