Z drogi, jedzie VLOP
Carlos PX / Unsplash

13 minut czytania

/ Media

Z drogi, jedzie VLOP

Mirosław Filiciak

Za sprawą nowych przepisów niedługo swój feed w mediach społecznościowych będzie można regulować w oparciu o zbalansowany przegląd źródeł albo priorytet dla dobrostanu psychicznego. Ale żeby to zadziałało, niezbędne jest oddolne zaangażowanie

Jeszcze 3 minuty czytania

Wpadliście niedawno na ciężarówkę z reklamą Vlop!, nowej platformy medialnej? Vlop! tak naprawdę nie istnieje, a za akcją stoi fundacja Panoptykon. Ale przecież hasła promocyjne: „Z nami nigdy nie zaśniesz”, „Nasz algorytm cię pochłonie” czy „Będziesz chciał więcej i więcej”, dopiero po umieszczeniu w kontekście takim jak ten artykuł brzmią przerażająco. Bo to, że social media chcą nas od siebie uzależnić, ustawiając się w centrum naszego życia, stanowi dziś oczywistość. Nawet hasło: „Znamy cię lepiej niż ty siebie”, dla wielu osób brzmi jak obietnica treści skrojonych na miarę.

O co jednak chodzi? Zajrzyjcie na stronę vlop.me. Fundacja Panoptykon tłumaczy tam szczegóły regulacji, jakie niedawno wprowadziła Komisja Europejska: „Od 25 sierpnia platformy muszą nie tylko wyjaśniać logikę funkcjonowania swoich feedów, ale też proponować użytkownikom i użytkowniczkom możliwość wyboru przynajmniej jednego systemu doboru treści, który nie bazuje na śledzeniu (czyli nie wykorzystuje danych osobowych do rekomendowania nam treści). Platformy muszą także regularnie oceniać ryzyka związane z działaniem swoich algorytmów i wykazywać, jak starają się im zapobiegać”. A dlaczego VLOP? To po prostu skrót od: Very Large Online Platforms, Bardzo Duże Platformy Online, stosowanej w unijnych przepisach.

Zapisy Digital Services Act i uchwalonego tuż przed wakacjami AI Act nakładają na cyberkorporacje nowe zobowiązania, przede wszystkim związane z szacowaniem kosztów społecznych oferowanych usług. Unia Europejska to duży rynek, a niedawne kary dla Facebooka i TikToka będące pokłosiem wprowadzenia RODO pokazały, że choć efekty procesów regulacyjnych nie są natychmiastowe, to jednak nie ograniczają się do irytujących komunikatów na stronach internetowych. Kolejne problemy dla cyberkorporacji, związane choćby z ich podejściem do prywatności, wydają się tylko kwestią czasu. Nie przypadkiem w Europie wciąż nie wystartowało Threads, potencjalny konkurent dla podupadającego Twittera – oficjalny komunikat w tej sprawie dotyczył „niepewności regulacyjnej”.

Kluczowy będzie jednak proces wdrożenia nowych przepisów – i tu okazuje się, że podział na opór oddolny i odgórnie narzucone regulacje jest dość umowny. Skoro przepisy dotykają szacowania ryzyka społecznego, to niezbędne jest właśnie społeczne współdziałanie – dość ogólne zapisy unijnych aktów trzeba przełożyć na język praktyki. To możliwe, co pokazują choćby działania na rzecz tworzenia nakładek moderujących feed w mediach społecznościowych, w które zaangażowany jest właśnie Panoptykon. Mają one brać pod uwagę parametry inne niż zysk usługodawcy, uwzględniać interes strony społecznej i użytkowniczek. Stąd na przykład feed będzie można regulować w oparciu o zbalansowany przegląd źródeł albo priorytetyzację dobrostanu psychicznego. Ale żeby to zadziałało, niezbędne jest też oddolne przekonanie, że można i trzeba inaczej niż w ostatnich latach.

Stawki są wysokie

Oczywiście wizja unijnej machiny jako ostatniej szansy jest mniej atrakcyjna niż danie odporu TikTokowi i firmom z Krzemowej Doliny w efekcie oddolnego sprzeciwu – ale skoro w wielu innych obszarach życia nadzieje lokujemy w Unii, to czemu w tym wypadku miałoby być inaczej? Zwłaszcza że okoliczności nie sprzyjają. Nie sposób sobie wyobrazić, żeby polski rząd w czasie wojny w Ukrainie miał nagle zaostrzyć kurs wobec chroniących amerykański biznes Stanów Zjednoczonych. Wiemy też niestety, jak bardzo nasi rządzący przejmują się społecznym niezadowoleniem. Ale też – powiedzmy sobie szczerze – akurat w tej kwestii chyba nikt rządu nie ciśnie, co czyni zresztą mniej prawdopodobnym spontaniczny, bezpośredni nacisk użytkowników na korporacje.

To zobojętnienie widać choćby po dyskusjach na temat wspomnianych nowych rozwiązań prawnych: Digital Services Act i AI Act – a w zasadzie po dyskusji tych braku. I chyba już nawet głupio się o to dąsać: krytyką technologii trudno się wszak nie znudzić, im bardziej jest pogłębiona, tym bardziej hermetyczna. Trudno wokół niej zbudować chwytliwą narrację, która mogłaby konkurować z marketingiem. Zwłaszcza w warunkach, w których komunikacyjne pole gry niemal w całości przejęły krytykowane platformy – zarówno jako redystrybutorzy informacji, jak i narzędzia, które zmieniły sposoby przyswajania informacji. Choć jasne, stawki są wysokie.

Michał Krzykawski dobrze ujął to niedawno w OKO.press: „Zostawiając dzisiaj informatykę w rękach (…) elity technicznej, popełniamy dokładnie ten sam błąd, jaki popełniliśmy w Polsce po ’89 roku, gdy ekonomię zostawiliśmy w rękach wąskiej grupy ekonomistów otwierających tę część Europy na »rynek totalny« w przekonaniu, że »nie ma alternatywy«”. Spróbujmy to jeszcze podbić: być może przykręcanie śruby internetowym usługom będzie mieć na nasze życie większy wpływ niż wynik październikowych wyborów. Nie jest to tylko tania próba szokowania, ale też przypominajka, że choć sama technologia ma pewną sprawczość, to przecież stanowi tylko jeden z elementów składających się na całościową wizję rynku, instytucji czy – pozwólmy sobie na odrobinę patosu – społeczeństwa.

To już frazes: prawo nie nadąża za rozwojem technologii itd. W mojej bańce najczęściej przywoływanymi przykładami prób regulowania nowych rozwiązań są te związane z brytyjską rewolucją przemysłową. Pierwsza to bunt tkaczy, inspirujących się prawdopodobnie zmyśloną postacią ludowego bohatera, Neda Ludda. Luddyści z początków XIX wieku podczas gwałtownych protestów niszczyli maszyny w fabrykach tekstyliów. To dlatego stali się symbolem bezmyślnego oporu przeciwko temu, co nieuniknione, ucieleśnieniem niezrozumienia następstw rozwoju technologii. Ale przecież ich historia nie jest historią oporu przeciwko maszynom – ich niszczenie było tylko jednym z narzędzi ruchu. Luddystom chodziło o walkę z pogarszającą się sytuacją ekonomiczną pracowników, która przecież z wprowadzeniem umaszynowienia i automatyzacji nie musi być bezpośrednio powiązana, możemy sobie wyobrazić wręcz przykłady odwrotne (wtedy i dziś).

Jednak w odniesieniu do nowych pomysłów regulacyjnych bardziej adekwatny może być drugi przykład, który zdarza się wyciągać sieciowym dyskutantom: tzw. ustawy o czerwonej fladze, wprowadzane przez brytyjski parlament w drugiej połowie XIX wieku. Obejmowały one m.in. nakaz umieszczenia przed jadącym pojazdem mechanicznym osoby biegnącej z czerwoną chorągiewką lub latarnią. Dziś wyśmiewane, w istocie były pierwszą na świecie próbą całościowej regulacji ruchu samochodowego. Poza czerwoną flagą wprowadzały m.in. limity prędkości, związane z troską o bezpieczeństwo publiczne, a także regulacje związane z ryzykiem eksploatacji i niszczenia dróg oraz mostów. A teraz wyobraźcie sobie ruch samochodowy bez tych ograniczeń. Czulibyście się bezpieczniej?

SI i społeczne imaginarium

Pewnie, jesteśmy spóźnieni, bierzemy się za regulowanie mediów społecznościowych, a za rogiem stoi już kolejne wyzwanie: tzw. sztuczna inteligencja, która za sprawą dużych modeli językowych zanotowała ostatnio kolosalny progres. Kto nie słyszał o ChatGPT czy nie bawił się którąś z usług graficznych opartych na wpisywaniu promptów? SI jest niestety dobrym przykładem, że program programowi nierówny i że model otwartościowy – do którego odwołuje się sporo firm stojących za sztuczną inteligencją, z OpenAI na czele – tym razem nie jest żadnym realnym narzędziem społecznej kontroli. To nie jest kolejna odsłona walki o wolne oprogramowanie i otwarte standardy.

W opublikowanym niedawno tekście pod wiele mówiącym tytułem „Open (for Business): Big Tech, Concentrated Power and the Political Economy of Open AI” David Gray Widder, Meredith Whittaker i Sarah Myers West przekonują, że biznes AI nadużywa otwartościowego języka. Problem jednak nie tylko w tym, że mieszane są pojęcia (czego dotyczy otwartość – kodu, danych, dostępu?), a otwartość jest stopniowalna. Nawet relatywnie najbardziej „otwarte” systemy AI nie poddają się społecznej kontroli. Nie gwarantują też demokratycznego dostępu ani tym bardziej realnej konkurencyjności. „Niektóre firmy wykorzystują »otwartą« sztuczną inteligencję jako mechanizm umacniania dominacji, (…) który pozwala im ustalać standardy rozwoju, jednocześnie korzystając z bezpłatnej pracy twórców otwartego oprogramowania”. Oczywiście, część z tych zarzutów można kierować i do inicjatyw Open Source. Różnica jest jednak zauważalna: systemy SI są scentralizowane, a ich rozwój i utrzymanie wymaga ogromnych zasobów finansowych. I tak, potrzebujemy alternatyw, zarówno dla biznesowych molochów z USA, jak i chińskich modeli, w które inwestuje państwo. Ale nie są nimi, jak się okazuje, modele „open”.

Paradoksalnie w dyskusjach wokół SI jest jednak i sporo nadziei. Po pierwsze dlatego, że w ogóle się toczą; sztuczna inteligencja nie jest jeszcze „wodą z kranu”, jak spowszedniałe i zrośnięte z tkanką życia codziennego social media. Po drugie, bo w odróżnieniu od social mediów, ale też po prostu większości technologii automatyzujących produkcję, SI przynosi całkiem realną groźbę uderzenia w klasę średnią, a nie – jak było dotąd w przypadku automatyzacji pracy – w klasę robotniczą.

Zanim jednak sformułujemy wnioski, musimy popracować nad zbudowanym wokół technologii imaginarium. Nie będzie to proste. Dziś język produkowany przez działy marketingu wiele rzeczy skutecznie maskuje, tak jak w wypadku „otwartości” SI – która nie jest już „tą samą otwartością” – czy choćby niematerialnej chmury, której nazwa przesłania koszty ekologiczne i myślenie w kategoriach rzadkich minerałów, zużycia prądu i wody. Problemem jest wreszcie także „internet”. Sam czuję się z tym dziwnie, przecież kilkanaście lat temu na tych łamach razem z Alkiem Tarkowskim głównie ekscytowaliśmy się możliwościami, jakie on daje. Co się zmieniło?

Wszystko. Internet nigdy nie był tylko zabawką starych hipisów, ale jednak ostatnia dekada to okres bezprecedensowej centralizacji, a także budowy modelu finansowego opartego na emocjonalizacji sieci, co nie pomaga zarówno jednostkom, jak i całym zbiorowościom. Zadziałał ten sam mechanizm, co w innych przestrzeniach neoliberalnego kapitalizmu – bez ochrony słabszych silni ukształtowali cały ekosystem pod siebie, nie patrząc na ponoszone przez resztę koszty. Sprawili też, że choć trudno nie wiązać przemian sieci z masą negatywnych zjawisk społecznych, to zazwyczaj nie myśli się o tym w kategoriach politycznych. To kolejny wymiar języka, który obiecuje uwolnienie nas od problemów, choć w istocie formatuje całą sytuację.

Przypomina się fragment tekstu Nielsa ten Oevera, badacza, który analizując infrastrukturalne przemiany sieci, obserwował m.in. spotkania Internet Engineering Task Force, stowarzyszenia stojącego za definiowaniem sieciowych standardów technicznych i organizacyjnych. Oever natrząsał się z widniejącego na stronie IETF hasła: „W miarę możliwości staramy się unikać pytań dotyczących polityki i biznesu”. Wygodnie, prawda? „Jak na autoregulacyjne ciało zajmujące się rynkiem infrastruktury sieciowej wartym 44 miliardy USD to dość niezwykłe stwierdzenie” – szydził Oever.

Na próbę

Jak osłabić działanie tej ideologii i sprawić, by ludzie korzystający z internetu, także w Polsce, zamiast podniecać się PR-owym przekazem na temat technologicznych nowinek, uznali, że odgórne regulacje są potrzebne? Że nieskrępowana konkurencyjność wcale nie jest czystą grą, bo wychodzimy z różnych pozycji i gramy różnymi kartami? To oczywiście pytania daleko wykraczające poza dyskusję o technologii. W kraju wstrząsanym innymi populizmami, ludowym i średnioklasowym, wytaczanie dział przeciw populizmowi danych nie jest proste. Problemy można mnożyć, co zresztą jest chyba od jakiegoś czasu kluczowym problemem krytyki: łatwo znaleźć milion argumentów na to, że jest źle, trudno dostrzec szanse na to, że może być lepiej. Dlatego daruję sobie dalsze wywody o tym, że dbając o dobro wspólne, musimy wzmacniać mechanizmy społecznej kontroli nad produkcją, także tą, która odbywa się w prywatnych firmach. Zacznijmy skromniej.

Kiedy wpadniecie na program lub nakładkę umożliwiające alternatywną moderację socialmediowego feedu, poświęćcie im parę minut. Poklikajcie chwilę, dajcie im szansę. To jasne, że platformy będą chciały obrzydzić nam tę możliwość na wszelkie sposoby, po raz kolejny manipulując językiem. TikTok, zapowiadając tę opcję, określił ją jako możliwość „depersonalizacji feedu”. Zniechęcające, prawda?

Nie słuchajcie też pożytecznych idiotów, którzy w roli wyimaginowanych przyjaciół obsadzają Marka Zuckerberga i Elona Muska, troszcząc się o stan ich portfeli. Będziemy czytać, że to zamach na wolność, że wolny rynek, wszystkie te dobrze znane bzdety. Ale skoro trudno nam sobie wyobrazić, na czym miałby polegać strajk sieci, skorzystajmy z nadarzającej się okazji, by w oparciu o obowiązujące prawo zmienić warunki świadczenia pracy i pobierania za nią gratyfikacji. Poświęćcie temu kilka minut, opłaci się. Nie dajmy się rozjechać VLOP-om.