JAN BŁASZCZAK: Jako CEO Spawning zajmujesz się sztuczną inteligencją, ale narzędzia, jakie opracowujecie, mają za zadanie przede wszystkim pomagać twórcom. Kudurru i Have I Been Trained? to oprogramowania, które pomagają chronić ich pracę przed wykorzystaniem w procesie uczenia maszynowego. Może dlatego najczęściej w waszym imieniu wypowiada się artystka – Holly Herndon, współzałożycielka Spawning. Ciekaw jestem, jaka była twoja wcześniejsza droga.
JORDAN MEYER: Specjalizuję się w badaniach dotyczących sztucznej inteligencji i uczenia maszynowego. W 2019 roku jako członek trzyosobowej grupy otrzymałem Zillow Prize, wygrywając międzynarodowy konkurs dla danteków. Dostaliśmy wtedy milion dolarów za pokonanie zestimate – algorytmu używanego przez tę firmę do wyceny nieruchomości. Pokonaliśmy cztery tysiące zespołów. Pracowałem wtedy jako CTO w brytyjskiej firmie zajmującej się analityką biznesową. Po tym sukcesie zaproponowano mi pracę w Zillow, gdzie jako naukowiec miałem prowadzić dalsze badania związane z wycenami nieruchomości. Moja wcześniejsza praca w consultingu była bardzo angażująca, a tu miałem nagle więcej czasu dla siebie. Pomyślałem więc, że wrócę do swoich dawnych fascynacji i spróbuję połączyć swoją wiedzę z zakresu uczenia maszynowego z muzyką. Niedługo później na Discordzie trafiłem na osoby, którym chodził po głowie podobny pomysł – w 2022 roku założyliśmy Spawning.
Zaczęliśmy realizować pierwsze projekty artystyczne, kiedy nagle bardzo przyspieszył rozwój modeli pozwalających na bezpośrednią konwersję tekstu w obraz. Od razu wiedzieliśmy, jak wielka to zmiana. My eksperymentowaliśmy na kodach, które moglibyśmy wykorzystać do tworzenia sztuki, a tu nagle wystarczyło napisać cokolwiek na klawiaturze, by stworzyć dzieło. To był dla nas sygnał, że powinniśmy działać. Połączyć siły, aby mieć pewność, że branża kreatywna nie będzie się tylko przyglądała rozpoczynającej się rewolucji.
Jaki jest twój związek z tą branżą?
Początkowo studiowałem na uniwersytecie muzycznym, a programowaniem zajmowałem się w wolnym czasie. Któregoś dnia zdałem sobie jednak sprawę, że mam źle przypisane zawód i hobby. Zacząłem więc studiować informatykę i matematykę – co ciekawe, opłaciłem studia, grając muzykę z różnymi zespołami. Do dziś w wolnych chwilach gram na gitarze i kontrabasie.
Pretekstem dla naszej rozmowy jest robocza wersja AI ACT (aktu o sztucznej inteligencji), która kilka dni temu trafiła do sieci. Za jej sprawą Unia Europejska chce uregulować rozwój i zastosowanie sztucznej inteligencji. Przyglądasz się tym staraniom z perspektywy USA – jak duże różnice dostrzegasz pomiędzy podejściem do AI ze strony Brukseli i Waszyngtonu?
Różnice są bardzo wyraźne. Kiedy zaczynaliśmy jako Spawning, szukaliśmy punktu zaczepienia, fundamentu, na którym moglibyśmy budować rozwiązania, które pomogłyby artystom, odbiorcom i twórcom modeli opartych na samouczeniu. Wtedy znaleźliśmy zapis, który znalazł się w Dyrektywie Parlamentu Europejskiego i Rady w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym z 2019 roku (znana też jako dyrektywa CDSM – przyp. red.). Dopuszczał on eksploracje treści i danych (text and data mining lub TDM.) do celów komercyjnych pod warunkiem, że korzystanie z utworów i innych przedmiotów objętych ochroną nie zostało wyraźnie zastrzeżone przez twórcę (opt-out). Ten artykuł był dla nas kluczowy, ponieważ był to jedyny znany nam przepis, który w ogóle podejmował w ogóle ten temat. Żaden krajowy rząd nie zajął w tej sprawie tak jednoznacznego stanowiska.
W praktyce jednak artyści nie zawsze mają możliwość opt-outu – jest im ona utrudniana lub całkowicie uniemożliwiana. Jak rozumiem, nie ma konsensusu co do tego, czy ten mechanizm dotyczy w ogóle uczenia maszynowego i jak powinno wyglądać zastrzeżenie korzystania z utworów. Bo jeśli należałoby je składać każdorazowo, to najpierw musimy wiedzieć, że nasze dzieło jest wykorzystywane przez algorytmy.
Rzeczywiście, a obecnie bardzo trudno znaleźć taką, wydawałoby się, podstawową informację. Był taki moment, na początku rozwoju generatywnej sztucznej inteligencji – to jest zanim eksplodował ChatGPT – kiedy większość firm tworzących te modele publikowała dokumenty, ujawniając, z jakich danych korzysta. Najpopularniejszą bazę danych opracowała niemiecka firmę LAION, udostępniająca darmowy zbiór danych składający się z 5,8 miliarda obrazów wraz z ich opisami. Ogromna część podmiotów, które zajmowały się uczeniem maszynowym, korzystała właśnie z niej. Trzymanie się jednego źródła miało dla nich sens, ponieważ tylko w ten sposób mogli obiektywnie ocenić rozwój swoich modeli. To ułatwiło nam zbudowanie wyszukiwarki Have I Been Trained?, która pozwalała twórcom w łatwy sposób sprawdzić, czy ich utwory są wykorzystywane do uczenia maszynowego.
Skąd czas przeszły?
Bo ze względu na procesy sądowe i ogólną niepewność dotyczącą regulacji w tym zakresie nikt już nie ujawnia baz danych, na których operuje. Tym bardziej, że na razie nie ma jeszcze takiego obowiązku. Obecnie więc najrozsądniej jest zakładać, że jeżeli twoje prace są dostępne w internecie, to najpewniej są wykorzystywane do trenowania jednego z tych modeli.
Czy to oznacza, że Have I Been Trained? straciło sens?
Myślę, że nie. Za sprawą naszej aplikacji wciąż możesz przeszukać bazę danych LAION-5B, o której wiemy, że jest w użyciu. Algorytmy nadal z niej korzystają, ale firmy po prostu przestały o tym informować. Natomiast zamierzamy rozbudować Have I Been Trained?, by pozwalała na przeszukiwanie bazy danych, która będzie liczyła 12 miliardów obrazów. Twórca będzie mógł wyszukać swoje prace na naszej stronie i zastrzec korzystanie z nich.
I to jest respektowane?
Tak, choć zaledwie przez dwie z kilkudziesięciu największych firm. Rozmawiamy jednak w dość niefortunnym czasie, bo wszystko wskazuje na to, że przed nami duże zmiany. Wprowadzenie AI ACT spowoduje, że w krajach Unii Europejskiej będzie obowiązywała zupełna transparentność w kwestii danych, na których bazują systemy uczące się. Co więcej, firmom wykorzystującym takie modele do celów komercyjnych będzie znacznie trudniej ignorować mechanizmy opt-out, ponieważ prawodawca pisze wprost, że obowiązują je przepisy zawarte we wspomnianym artykule dyrektywy CDSM. W tym zakresie AI ACT nie pozostawia pola do interpretacji.
Podczas prac nad AI ACT pojawiały się głosy, że może on uderzyć w europejskie firmy technologiczne. Bo firmy z Francji czy Niemiec będą musiały respektować opt-outy, a te amerykańskie czy chińskie – niekoniecznie. Co sądzisz o zasadności takich obaw?
Z pewnością jest to argument, po który sięgają firmy technologiczne, którym zależy na minimalnych regulacjach. Po lekturze dostępnej wersji AI ACT mam wrażenie, że jego autorzy wykonali naprawdę dobrą robotę. Ta regulacja wprowadza klarowne zapisy, a z drugiej strony nie ogranicza atrakcyjności europejskiego rynku; Google czy OpenAI wciąż będą chciały sprzedawać na nim swoje usługi. Poszedłbym dalej: wyobrażam sobie, że w niedalekiej przyszłości artyści działający w dowolnym miejscu na świecie będą mogli zastrzec korzystanie ze swoich utworów i będzie to powszechnie honorowane. Ostatecznie przecież wszystkie wielkie firmy technologiczne będą chciały sprzedawać swoje komercyjne modele w Europie. Zadziała ten sam mechanizm, który obserwowaliśmy po ustanowieniu przez UE standardów i przepisów dotyczących polityki prywatności – amerykańskie firmy zaczęły ich przestrzegać tylko dlatego, że chcą sprzedawać w UE i mieć tam swoich klientów. Okazało się nagle, że „ciasteczka” nie są dla nich problemem. Uważam, że wprowadzenie AI ACT będzie naprawdę duża zmianą, bo docelowo doprowadzi do sytuacji, w której twórcy wizualni czy muzycy będą mogli licencjonować swoją twórczość, by sprzedawać ją na potrzeby modeli opartych na samouczeniu.
Mówiliśmy do tej pory o bazach danych wykorzystywanych przez enigmatyczne algorytmy oparte na samouczeniu. Porozmawiajmy o tym, co one tak naprawdę potrafią i dlaczego tak ważna jest dyskusja o prawach autorskich w ich kontekście.
Zajmuję się sztuczną inteligencją i uczeniem maszynowym od bardzo dawna i widzę, że dopiero w ciągu paru ostatnich lat ludzie zaczęli zwracać uwagę na prawa autorskie w kontekście baz danych. A to dlatego, że wcześniej nikt nie zdawał sobie sprawy, że tu mogą czyhać jakieś zagrożenia. Modele generujące obrazy były bardzo prymitywne. Osiągane przez nie rezultaty nie mogły stanowić konkurencji dla artystów. Tak samo z muzyką – te modele były w stanie ledwie wygenerować ścieżkę pojedynczego instrumentu w taki sposób, aby brzmiał on choć trochę przekonująco… A dziś z powodzeniem piszą piosenki. Ta zmiana zaszła tak gwałtownie, że teraz obie strony – zarówno twórcy, jak i praktycy sztucznej inteligencji – muszą zdać sobie sprawę ze stawki. Bo zapewniam cię, że wiele osób zaangażowanych w rozwój sztucznej inteligencji myślało o niej przede wszystkim w kontekście naukowym – a tu nagle okazało się, że ona staje się konkurencją dla twórców sztuk wizualnych, muzyków.
Czy dostrzegasz rosnącą świadomość tych zmian i zagrożeń wśród artystów?
Ona z pewnością rośnie w całym społeczeństwie. Kiedy dwa lata temu spotkałem się z rodziną i powiedziałem, nad czym pracujemy, mój najbardziej zaawansowany technicznie kuzyn uznał, że to są wszystko bardzo niszowe sprawy. Pamiętam, że odpowiedziałem mu wtedy, że dobrze szukać rozwiązania problemów, zanim one urosną do gigantycznych rozmiarów. Minął rok, pojawił się ChatGPT i podczas następnego spotkania nie robiłem nic innego, tylko odpowiadałem na pytania domowników: „Jak to działa? Czy to w ogóle działa?”. Widzę więc, że świadomość rośnie, niestety, edukacja zupełnie nie nadąża za tymi zmianami – stąd bardzo wiele nieporozumień. Szczególnie wśród artystów wizualnych, którzy często nie rozumieją, co się wokół nich dzieje, i nie mają pojęcia, jak mogą się temu przeciwstawić. I ja się im nie dziwię, bo to jest bardzo skomplikowany temat: zarówno na poziomie prawnym, jak i technologicznym.
Czy to oznacza, że muzycy są bardziej zaniepokojeni swoją przyszłością w kontekście sztucznej inteligencji niż twórcy wizualni?
Przeciwnie, ale to wynika z kilku kwestii. Oczywiście, najłatwiej byłoby uznać, że są spokojniejsi, bo sztuczna inteligencja na Jordan Meyer
współzałożyciel i CEO Spawning
ich polu dopiero zaczyna się rozwijać. Myślę jednak, że przyczyny są inne. Po pierwsze muzycy zostali już znokautowani przez streaming, więc w pewnym stopniu pogodzili się z myślą, że technologia wchodzi w ich buty i utrudnia im życie. Druga rzecz jest taka, że muzycy mają jednak do dyspozycji więcej sposobów na zarabianie niż artyści wizualni. Mam na myśli chociażby licencjonowanie muzyki do telewizji oraz oczywiście koncerty – tutaj pozostaną raczej niezastąpieni. Artyści wizualni, szczególnie ci cyfrowi, nie mają nic poza pracą, którą właśnie zabiera im sztuczna inteligencja.
Rozmawiałem niedawno z Damonem Krukowskim, publicystą i współtwórcą zespołu Galaxie 500, który z jednej strony odnajdował pocieszenie w tym, że muzyka tworzona przez sztuczną inteligencję jest skazana na odtwórczość, ale z drugiej strony obawiał się, że źródło dochodów, jakim jest licencjonowanie piosenek do reklam, filmów czy telewizji, prędko wyschnie. Bo po co występować o licencję, skoro dobrze wytrenowany model AI przygotuje ci piosenkę w stylu wybranego przez ciebie zespołu?
Masz rację. Myślę teraz o serialu „Chirurdzy”, w którym zawsze pojawiały się piosenki autorstwa naprawdę fajnych artystów. A że to był bardzo mainstreamowy, popularny program, to jestem przekonany, że oni płacili dziesiątki milionów dolarów w tantiemach. I tak, to prawda, kolejni „Chirurdzy” mogą po prostu zatrudnić jednego pracownika, który będzie zarabiał 50 tysięcy dolarów rocznie i wpisywał, jakie parametry ma mieć utwór do sceny romantycznej, a jakie ten do tej trzymającej w napięciu. Krukowski ma rację – muzycy mogą prędko stracić tę możliwość. Dlatego właśnie tak ważne są zapisy dotyczące konieczności udostępniania baz danych wykorzystywanych przez algorytmy i możliwości opt-outu przez artystów. Natomiast co do tej odtwórczości – tutaj byłbym ostrożny z optymizmem.
Dlaczego?
Muzyka generowana przez sztuczną inteligencję będzie się rozwijać, poruszając się po dotychczasowej trajektorii. A przypomnę, że naprawdę szybko przeszliśmy od niemożności wygenerowania jakiejkolwiek melodii do pisania całkiem sprawnych piosenek. W tym tempie całkiem niedługo sztuczna inteligencja napisze piosenkę, która będzie wiarygodna jako utwór żyjącego artysty. Co więcej, te utwory będą osobiste, spersonalizowane – to znaczy odpowiadająca stanowi ducha użytkownika, który ją wygenerował. Naprawdę nie szukałbym pociechy w tym, że modele muzyczne nie są jeszcze dość dobre.
Już dzisiaj mamy do wyboru sporo, fakt, dość prymitywnych, programów, które błyskawicznie tworzą piosenki na podstawie wybranych tagów: gatunku muzycznego, tempa, nastroju, tematyki utworu.
Radziłbym muzykom, którzy nie traktują takich aplikacji poważnie, aby przyjrzeli się temu, co Midjourney – czyli usługa zamieniająca tekst w obraz – oferowało zaledwie półtora roku temu. Tamte obrazy były toporne, niezgrabne, ale już wtedy mogły robić wrażenie pod pewnymi względami. Natomiast dzisiaj powstające w ten sposób grafiki niejednokrotnie konkurują z dziełami zawodowych fotografów. A przecież minęło jedynie półtora roku! W przypadku programów muzycznych będzie podobnie. Włączyłem sobie niedawno aplikację Suno i słyszałem tam liczne potknięcia: jakieś błędy w miksie, brak spójnej struktury utworu i parę innych rzeczy. Tyle że te problemy ostatecznie znikną. Podejrzewam też, że dla większości odbiorców – którymi nie będą przecież muzycy – sama perspektywa posiadania takiego spersonalizowanego narzędzia umożliwiającego tworzenie hitów – wyłącznie hitów! – jest bardzo kusząca.
Wspomniałeś wcześniej o generowanych przez algorytmy nowych utworach realnych artystów, więc zapytam o rolę wytwórni w tym wszystkim. Czy dla nich finalna treść AI ACT jest powodem do świętowania?
Myślę, że wytwórnie chciałyby, aby Unia Europejska zaoferowała jeszcze więcej w odniesieniu do ochrony praw autorskich. Na przykład aby nie było wyjątków w zakresie eksploracji treści i danych na rzecz badań prowadzonych przez instytucje dziedzictwa kulturowego. Niemniej myślę, że gdy tylko AI ACT wejdzie w życie, wytwórnie będą zastrzegać korzystanie z absolutnie wszystkiego, co znajduje się w ich katalogach. Zrobią to tak szybko, jak to tylko możliwe, by chronić swoje interesy przed generatywną sztuczną inteligencją. Wydaje mi się natomiast, że ich sytuacja jest odrobinę dwuznaczna, bo wytwórnie będą też chciały skorzystać z narzędzi, które może im dać sztuczna inteligencja. Mam na myśli zarówno narzędzia do tworzenia muzyki, jak i do jej odbioru.
Podaj jakiś przykład.
Powiedzmy, że jesteś właścicielem katalogu Drake’a. Można sobie z łatwością wyobrazić stację radiową z niekończącą się rotacją jego piosenek. Ludzie płacą za dostęp do takiego kanału i dostają w pakiecie wszystkie jego utwory plus piosenki, z którymi Drake nie miał nic wspólnego poza tym, że udostępnił dane odpowiednim algorytmom. W rezultacie wszystkie te numery są słuchane w nieskończoność przez jego zagorzałych fanów, a wytwórnia czerpie z tego zyski. Taka wizja będzie podobała się wydawcom tak długo, jak będzie efektem ich inicjatywy lub przynajmniej zrealizuje się za ich zgodą. Wytwórnie powinny się natomiast obawiać się, by technologiczne firmy z Doliny Krzemowej nie wypracowały takich narzędzi na własną rękę. Z pewnością muszą chronić swoje prawa w tym zakresie.
Wydaje się, że serwisy streamingowe przygotowują się już do tego etapu. Spotify przestaje płacić za odtworzenia utworów, które nie przekroczą tysiąca odsłon, bo spodziewa się zalewu amatorskich imitacji i innych bardzo spersonalizowanych treści kreowanych przez sztuczną inteligencję.
I taka wizja przyszłości bardzo mnie niepokoi. Widzimy przecież, że użytkownicy Spotify odchodzą od aktywnego poszukiwania muzyki, która mogłaby się im spodobać, na rzecz wybierania playlist opartych na nastroju. Tym samym relegują twórczość artystyczną do roli tła. Obawiam się, że serwisy streamingowe będą rozwijać się w takim właśnie kierunku.
Jak może wyglądać następny etap takiego rozwoju?
Wyobraź sobie, że użytkownik serwisu będzie miał takie pokrętło, którym będzie kręcił w prawo lub w lewo w zależności od tego, czy podoba mu się słuchana piosenka. Na podstawie tej prostej reakcji platforma w czasie rzeczywistym będzie dawała mu więcej lub mniej tego, czego akurat doświadcza. I z każdym kolejnym użyciem tego pokrętła serwis będzie odpowiadał coraz precyzyjniej, ucząc się słuchającego. Podsuwając mu dokładnie to, co lubi. Aż w końcu będzie spersonalizowany w takim stopniu, że zagra piosenkę o jego ostatnim rozstaniu lub czymkolwiek innym, co emocjonalnie wpływa na niego danego dnia. Nie postrzegam tego wcale w kategoriach science fiction. Myślę, że za dziesięć lat to może być standard, którego użytkownicy będą wymagać od swoich usług streamingowych.
W takim modelu finansowym artyści zarabialiby na udzielaniu licencji algorytmom, które będą pisać dla nas te wszystkie spersonalizowane utwory nawiązujące do ich twórczości...
Tyle że widzimy, jak to działa w przypadku Spotify. A przecież serwisy streamingowe operują na dziesiątkach milionów piosenek, podczas gdy bazy, o których rozmawiamy, zawierają dziesiątki miliardów danych. A co za tym idzie, ten ułamek zysku dla artysty będzie jeszcze mniejszy. Autorowi nie będzie się opłacało w tym uczestniczyć. Dlatego kluczowe jest dla nas wypracowanie nowego modelu redystrybucji i tym zajmujemy się, pracując nad Source+. Chcemy, aby ta platforma pozwalała artystom na określenie własnej ceny za dane, które udostępniają. Jeśli wartość ich twórczości byłaby wysoka, a styl unikatowy, to mogliby ustalić ją na wysokim poziomie. Przy czym Source+ zapewniałby dostęp zarówno do danych i ich kolekcji, jak i do wyszkolonych na ich podstawie modeli.
Ktoś może powiedzieć, że serwisy streamingowe promują równość wśród artystów – każdy odsłuch przynosi twórcy tyle samo pieniędzy. Różnice w zarobkach opierają się jedynie na liczbie odsłon tych piosenek.
Tyle że piosenki mają dla nas różne znaczenie. Dlatego uważam, że odsłuchanie dwóch różnych utworów na Spotify nie powinno zawsze kosztować tyle samo. Kluczową sprawą jest teraz opracowanie innej strategii podziału tych wpływów. Chodzi o stworzenie alternatywy dla modelu wypracowanego przez Spotify, który jest również wykorzystywany w odniesieniu do szkolenia generatywnego AI. W tym drugim przypadku otrzymujesz wynagrodzenie proporcjonalne do ilości danych, które udostępniasz. Ich jakość czy atrakcyjność dla odbiorcy nie mają tutaj żadnego znaczenia.
Jaki jest wasz pomysł?
Naszym celem jest zbudowanie miejsca, które zapewni zarówno badaczom, jak i firmom wykorzystującym uczenie maszynowe miejsca do pozyskiwania danych. Różnica polega na tym, że Source+ będzie zawierało tylko dane znajdujące się w domenie publicznej bądź te, które są dostępne po pozyskaniu licencji od właścicieli praw. Po pierwsze, zbudujemy model generujący obraz na podstawie danych pochodzących z domeny publicznej i licencji CC0. Po drugie, chcemy zaproponować użytkownikom coś, co nazywamy „wtyczkami stylu”. Artysta będzie mógł zgodzić się na wprowadzenie swojego stylu jako dodatkowej opcji do tego podstawowego modelu. Wówczas użytkownik, który będzie chciał się nim posługiwać, zapłaci mu określoną przez twórcę kwotę. Planujemy, by koszt korzystania z modelu podstawowego plus kilku wtyczek nie przewyższał miesięcznego dostępu do Midjourney Pro. Różnica polega na tym, że w naszym modelu artyści otrzymają większość kwoty uiszczanej przez użytkowników za dostęp do ich twórczości. Uważam, że jest to znacznie lepsza alternatywa w stosunku do jednokrotnej opłaty za dostęp do wszystkiego.
Czy planujecie takie rozwiązania również dla muzyki?
Tak, zaczęliśmy od obrazu, podążając za trendami dotyczącymi sztucznej inteligencji. Jednak mamy w planach przygotowanie bardzo podobnego rozwiązania dla muzyków: model podstawowy plus możliwość współpracy ze współczesnymi autorami. Jakby to mogło działać w praktyce? Wyobrażam to sobie jako dostęp do modeli instrumentalistów, z którymi możesz współpracować za pośrednictwem odpowiednich wtyczek. Osobiście byłbym zachwycony, gdybym mógł założyć zespół, w którym na gitarze grałby Jeff Parker. Mógłbym zasubskrybować jego wtyczkę i z nim jammować lub udostępnić kilka zagranych przeze mnie linii basu, by sprawdzić, jakie utrzymane w jego stylu solówki mogłyby powstać. To ekscytująca wizja dla mnie jako muzyka, oczywiście przy założeniu, że Parker dostałby za to odpowiednią zapłatę i w ogóle chciałby wziąć w czymś takim udział.
Stworzyliście już taki model – mam na myśli Holly+, który umożliwia śpiewanie głosem Holly Herndon. Jak sprawdził się ten prototyp?
Kiedy zakładaliśmy Spawning, myśleliśmy o programie „Holly+ dla każdego”. Myśleliśmy o oferowaniu różnych wersji takiego modelu, ich wspólnej sprzedaży z artystami i wspólnym czerpaniu zysków. Jednak niedługo później pojawiło się Stability z programem Stability Diffusion – nagle okazało się, że możesz trenować swój głos na podstawie wszystkiego, co znajdziesz w sieci. Zaczęliśmy się więc zastanawiać, jaką wartość ma Holly+, kiedy za jednorazową opłatą możesz sklonować głos jej i pięćdziesięciu innych artystów. Zmieniliśmy więc sposób myślenia i skupiliśmy się na budowaniu środowiska, w którym artystki takie jak ona będą mogły oferować model swojego głosu na konkretnych warunkach i tylko w przypadku, w którym rzeczywiście chcą uczestniczyć w tym procesie. Bo od tego trzeba zacząć – to zawsze musi być wybór artysty. Dlatego docelowym rozwiązaniem powinno być pozyskiwanie licencji. Chodzi o to, żeby prosić o pozwolenie, a nie o wybaczenie.
Czytałem kilka wywiadów z Holly i Mattem Dryhurstem, w których zwracali uwagę na to, że w stworzeniu nowych modeli dystrybucji muzyki i danych w sieci warto odwoływać się do tradycji sceny niezależnej – w końcu był to sprawny, dobrze zorganizowany system, który działał w alternatywie do głównego nurtu. Co sądzisz o takiej analogii?
Całkowicie się z tym zgadzam. Musimy wrócić do tworzenia scen: samowystarczalnych, zbudowanych na obustronnym wsparciu. To się nie uda za sprawą modelu wykorzystywanego przez Spotify. Bo jeśli scena jest mała, to aby się utrzymać, artysta musi zaproponować wyższą stawkę za stream czy – jak w naszym przypadku – styl. Oczywiście, to się może nie udać, ale każdy twórca powinien mieć taką możliwość – a Spotify jej nie daje. Nie możesz założyć, że twoja publiczność, choć może i jest nieco mniejsza, uwielbia twoją muzykę w takim stopniu, że zgodzi się zapłacić za nią odrobinę więcej. Bo niektóre piosenki są dla nas po prostu ważniejsze. Chcemy mieć pewność, że każdy artysta będzie mógł zbudować własną scenę i ustalić odpowiadające mu stawki – w ten sposób będziemy pielęgnować idee tamtych niezależnych środowisk.
Czy oprócz Holly Herndon testujecie te pomysły na innych artystach?
Tak, rozmawiamy z innymi muzykami, ale to są bardzo wstępne rozmowy, z tymi modelami ruszymy najszybciej w 2025 roku.
Stworzone przez was narzędzia takie jak Kudurru czy wspomniane Have I Been Trained? są dostępne za darmo. Stąd bywacie nazywani „grupą wspierającą artystów”, pisze się o waszym zaangażowaniu – sam myślałem o Spawning raczej przez pryzmat NGO-sów. Jesteście jednak organizacją for profit – jaki jest wasz model biznesowy?
Tak długo, jak to tylko będzie możliwe, będziemy realizować działania mające na celu dobro publiczne. Nie pobieramy żadnych opłat za nasze usługi dotyczące opt-outów i nie chcemy, aby to się kiedykolwiek zmieniło. Naszym celem, nazwijmy go biznesowym, jest oferowanie usługi licencjonowania danych. Aby ten mechanizm był jednak efektywny, musimy najpierw uporządkować kwestie dotyczące zastrzeżenia korzystania z utworów.
Jeśli uda się nam wystartować z Source+, to nasz przychód będą stanowić opłaty za możliwość korzystania z tych podstawowych modeli. Będziemy też pobierać prowizję od modeli oferowanych przez artystów. Przy czym będziemy starali się stworzyć taki model rozliczania, aby maksymalizować ich przychody. Dopóki z tym nie ruszymy, inwestujemy własne środki. Przeprowadziliśmy rundę zalążkową, w ramach której zebraliśmy nieco ponad trzy miliony dolarów, które wydajemy na inwestycje, budowanie baz danych, badania. W końcu będziemy musieli zacząć generować zyski lub pozyskać kolejne środki od inwestorów, ale przez najbliższe półtora roku nie musimy o tym myśleć.