Czy androidy śnią o  sprawiedliwości społecznej?
Peter Pham CC BY 2.0

14 minut czytania

/ Media

Czy androidy śnią o
sprawiedliwości społecznej?

Mirek Filiciak / Alek Tarkowski

Czy możemy zorganizować sztuczne inteligencje tak, by nie redukowały naszej ludzkiej rzeczywistości? Czy możemy relacje z maszynami ułożyć inaczej niż w kategoriach konkurowania lub kontroli?

Jeszcze 4 minuty czytania

Czy zwycięstwo Alpha Go nad Lee Sedolem oznacza koniec go jako gry dla ludzi? Czy automatyzacja samochodów oznacza „śmierć kierowcy”? Historie, jakie opowiadamy sobie o sztucznej inteligencji, często operują prostym schematem zastąpienia ludzi przez maszyny. Dla naszego dobra. Uwielbiana w Dolinie Krzemowej wizja Singularity – Osobliwości – zakłada, że ludzka kondycja zostanie przekroczona przez sztuczną inteligencję, która utworzy nowy, oświecony ład społeczny. To ekscytujący temat, ale powiedzmy sobie szczerze: kiedy ostatnio graliście w go? Albo jak często mijacie na ulicy samochody Tesli? Za to z działaniem innych inteligentnych algorytmów stykamy się nieustannie. I nie dla wszystkich są to miłe spotkania.

Joi Ito, dyrektor MIT Media Lab, opublikował niedawno manifest „Resisting Reduction. Designing our Complex Future with Machines”. Zdaniem Ito ideologia sztucznej inteligencji opiera się na przeciwstawieniu ludzi i maszyn, służącym budowie nowych modeli kontroli. Osobliwość, jako byt doskonalszy od człowieka, z tej perspektywy wpisuje się w religijną tradycję sprawowania społecznego nadzoru poprzez odwołania do tego, co z definicji znajduje się poza oceną, przez tych nielicznych, którzy nadludzką istotę znają i rozumieją lepiej niż ogół. Ito proponuje alternatywny model, oparty na wizji „poszerzonej inteligencji” – współdziałania maszyn i ludzi w ramach jednego, partycypacyjnego systemu. Można w tym odnaleźć echa ekologicznego myślenia, zrównującego ludzi z nieludźmi, przede wszystkim jednak pokłosie technologicznego odpowiednika „byliśmy głupi”, zalewającego w ostatnich miesiącach strony magazynów takich jak „Wired”.

Zostawmy jednak Osobliwość, czekając na kolejne aktualizacje prognoz Raya Kurzweila, który od lat dowodzi, że pojawi się ona już za chwilę. Chcąc iść tropem Ito, należy przyglądać się sztucznym inteligencjom działającym dookoła nas. Przecież napięcie między fantastyczną wizją a codziennością technologii działającej w społeczeństwie powinno być wielu z nas dobrze znane. Doświadczaliśmy go na przełomie wieku, gdy internet w postaci kabli doprowadzanych do naszych domów mieszał się w naszych głowach z gibsonowską cyberprzestrzenią. Czekając, aż modem połączy nas z siecią, wierzyliśmy, że lada moment porzucimy nasze ciała i przeniesiemy się do wirtualu. Dzisiaj jest podobnie: trzeźwą ocenę wpływu algorytmów utrudnia nam przekonanie, że lada moment z komórki przemówi do nas Samantha z filmu „Ona”, a na ulicy spotkamy bohaterkę „Ghost in the Shell”.

Wypaczona rzeczywistość, wypaczone algorytmy

Potraktujmy więc Osobliwość jako przerysowany przejaw tego, z czym spotykamy się na co dzień. Nie wszystkie dotychczasowe przykłady inteligencji maszyn dają bowiem powody do optymizmu – wyspecjalizowane algorytmy, również te, które mają same się uczyć, nie tylko rozwiązują problemy współczesności, czasem wręcz je wzmacniają. Anegdotycznym już przykładem jest historia Tay, opartego na sztucznej inteligencji chatbota Microsoftu, który po niespełna dobie na Twitterze został rasistą. Problem w tym, że – podobnie jak w wypadku algorytmów zamykających nas w bańkach informacyjnych na Facebooku – karmił się tym, co wypełnia sieć, działając według logiki „jeszcze więcej tego samego”. Można powiedzieć, że upadek Tay spowodowała niska jakość danych i skrzywienia w procesie ich interpretacji. Ale te problemy dotykają kwestii poważniejszych niż życie chatbotów na Twitterze. Brazylijska organizacja antyrasistowska Desabafo Social odkryła, że popularne serwisy z grafikami stockowymi na hasło baby serwują zdjęcia wyłącznie białych dzieci. Chcąc wykorzystać zdjęcie czarnego lub latynoskiego dziecka, trzeba wprost określić kolor jego skóry. Działacze wymusili na serwisach zmianę algorytmów.

W 2013 roku amerykańska firma Solid Gold Bomb sprzedawała na platformie Amazon koszulki z hasłem „Keep Calm and Rape Her”. Po szybkim i agresywnym tweetstormie Amazon usunął ofertę. Niedługo okazało się, że w liczącej setki sloganów ofercie sklepu pozostały takie koszulki jak „Keep Calm and Hit Her”. Producent tłumaczył się, że teksty na koszulki zostały algorytmicznie wygenerowane i hurtowo udostępnione na stronach sklepu internetowego, bez jakiejkolwiek weryfikacji przez pracowników. Firma zaufała algorytmom, bo tylko tak mogła wygenerować bogatą ofertę, mogącą konkurować w długim ogonie sprzedaży online.

W zeszłym roku artysta internetowy James Birdle napisał długi i nerwowy esej o algorytmicznych filmach dla dzieci, które znalazł na YouTubie. Zauważył bowiem, że milionami odtworzeń cieszą się produkcje będące mutacjami popularnego wideo „Finger Family Song” – dostępnego w 17 milionach wersji. W tych wideo niewinne kukiełki tracą głowy, wyginają się w dziwny sposób, czasem robią sobie krzywdę. Niczym w onirycznych scenach z „Miasta zaginionych dzieci”, gdzie szalony naukowiec żywił się dziecięcymi koszmarami. Te filmy są generowane automatycznie na masową skalę i tagowane tak, by wyłapywały je algorytmy określające popularność treści. Mamy więc do czynienia z algorytmami zoptymalizowanymi pod kątem innych algorytmów, równie jak one nieprzejrzystych. Niedługo po tekście Birdle’a YouTube przeprowadził akcję czyszczenia serwisu z tego rodzaju treści – jednak ich kopie i mutacje szybko z powrotem wypłynęły w sieci. Takie algorytmiczne produkcje powstają nieustannie. Przy całym swoim dziwactwie mają jedną wyraźną cechę – skutecznie zachęcają do klikania i oglądania, generując zyski.

Nietrudno znaleźć przykłady jeszcze bardziej niepokojące. Pisała o tym Cathy O’Neil w wydanej u nas „Broni matematycznej zagłady”, podobnie jak Virginia Eubanks, której poruszająca książka „Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor”, ukazała się niedawno w USA. Publikacja Eubanks poświęcona jest temu, jak komputeryzacja kontroli społecznej sprawowanej nad biednymi zamyka im możliwości zmiany swojego położenia. Przy podejmowaniu decyzji na temat zdolności kredytowej, objęcia opieką społeczną lub zdrowotną czy uruchomieniu dochodzenia w sprawie możliwego złamania przepisów – napędzane danymi z przeszłości algorytmy nie tylko usprawniają cały proces. Usuwają z niego czynnik ludzki, a wraz z nim nie zawsze racjonalną wiarę, że ktoś zasługuje na jeszcze jedną szansę. W przejmującej narracji Eubanks istotny jest – wprowadzony przez Oscara Gandy’ego – termin „racjonalnej dyskryminacji”.

Racjonalna dyskryminacja – pisze Eubanks – żeby działać, nie potrzebuje nienawiści klasowej czy rasowej, ani nawet nieuświadomionej stronniczości. Wystarczy jej ignorowanie już istniejącej stronniczości. Jeśli projektując zautomatyzowane narzędzia do podejmowania decyzji, nie mamy na uwadze usuwania nierówności strukturalnych, to szybkość i skala działania takich narzędzi dramatycznie te nierówności pogłębiają.

Nie jest to bynajmniej problem specyficznie amerykański. Linnet Taylor opisuje hinduski system Aadhaar – bazę danych o miliardzie rekordów, służącą potwierdzaniu tożsamości ubogich osób odbierających zasiłki. Okazuje się, że wykorzystywane systemy biometryczne nie rozpoznają osób o liniach papilarnych zniszczonych ciężką pracą lub tęczówkach uszkodzonych przez niedożywienie. Indyjski system, służąc efektywności administracji, podobnie jak amerykańskie rozwiązania karze i dyscyplinuje najuboższych.

Czyżby mające nas wyzwolić z ludzkiej kondycji technologie w rzeczywistości zamykały możliwość społecznej zmiany? Przywołane przykłady pokazują, że stawką nie jest tylko brak różnorodności czy polaryzacja, ale warunki funkcjonowania całych grup społecznych. Równocześnie wraz z postulatami przejrzystości algorytmów pojawiają się głosy, że jej uzyskanie jest mało realne także z powodów czysto technicznych. Nowoczesne formy maszynowego uczenia się nie dają ludziom wglądu w swoją logikę – mają po prostu realizować powierzone im zadania, nawet jeśli nie bardzo wiemy, w jaki sposób to robią. Nie jest to jednak wyłącznie kwestia uczenia maszynowego, bo zajmujące dziesiątki stron wydruku algorytmy po tysiącach modyfikacji przestają być w pełni czytelne nawet dla swoich twórców.

Nie/sprawiedliwe dane

Rodzący się ruch data justice zakłada, że algorytmy nigdy nie są neutralne, a oparty na danych nadzór najsilniej dotyka właśnie ubogich. Sprawiedliwość danych wychodzi od idei ochrony indywidualnej prywatności, ale wskazuje też na systemowe skrzywienia dyskryminujące całe populacje. Zapewne część czytelniczek i czytelników w tym miejscu zacznie się zastanawiać: „Czy oni naprawdę zamierzają pisać o parytetach w algorytmach?”. Jak najbardziej!

Zanim jednak wrócimy do technologii, rozumianej w kategoriach hardwaresoftware, warto zatrzymać się jeszcze na chwilę przy szerszym jej rozumieniu, przywołanym przez Ito i włączającym dyskusję o sztucznej inteligencji w inną tradycję: technologii społecznej kontroli. Technologii często wykorzystującej jako swoje narzędzie naukę, której wizerunek „obiektywnej metody” pozwalał ukrywać rozmaite wybory ideologiczne. Błyskotliwie analizuje to Alain Desrosières w klasycznej „Polityce wielkich liczb” wydanej we Francji ćwierć wieku temu. To książka pokazująca narodziny myślenia statystycznego. Punktem wyjścia jest w niej napięcie pomiędzy traktowaniem danych jako obiektywnych faktów i tym, co jest wytwarzane w procesie selekcji. A zarazem między opisem rzeczywistości a podejmowaniem na jego bazie wyborów, które niosą ze sobą społeczne i polityczne konsekwencje. To proces, którego początki Desrosières datuje na ponad 400 lat temu (prawo wielkich liczb Jacques’a Bernoulliego i rachunek prawdopodobieństwa).

Oparcie kolejnych aspektów zarządzania rzeczywistością o tworzenie prognoz i uśrednień niesie ze sobą poważne konsekwencje, nie tylko zresztą na poziomie odgórnej kontroli, bo przecież sami nieustannie napotykamy dane na temat tego, co robią inni – i porównujemy się z nimi. Problem w tym, że wykorzystywane w tym celu klasyfikacje, obliczenia i modele są konwencjonalne. Każda wiedza jest usytuowana. I nie chodzi o to, że z wszystkim można dyskutować, bo np. prawa fizyki na te negocjacje mogą nie być zbyt podatne. Nie chcemy więc powiedzieć, że zdobywana w oparciu o statystyki i big data wiedza jest wyssana z palca. Raczej, że jest oparta – jak wszystko – o pewne założenia, które w dobie inteligentnych algorytmów coraz częściej stają się nieprzejrzyste. Bowiem algorytmy te karmią nas informacjami o związkach przyczynowo-skutkowych, jakich nie jesteśmy w stanie zrozumieć. Musimy uwierzyć na słowo, że taki związek istnieje, nawet jeśli nijak nie umiemy go dostrzec. Nie chodzi więc o to, żeby naukę „popsuć”. Raczej o to, by przywrócić kontrolę nad jej narzędziami i wykorzystać ich – także krytyczny – potencjał.

Załóżmy, że jeszcze nie jest za późno. Czy możemy zorganizować sztuczne inteligencje, tak by nie redukowały naszej ludzkiej rzeczywistości? Czy możemy relacje z maszynami ułożyć inaczej niż w kategoriach konkurowania lub kontroli? Czy możemy odzyskać władzę nad infrastrukturą komunikacyjną, która coraz częściej okazuje się całkiem autarkiczna? Pierwszy krok, zaproponowany przez Nishanta Shaha, jest prosty: nigdy nie mówmy tylko o sztucznej inteligencji lub algorytmach. Sytuujmy je zawsze w kontekście jakichś wartości lub w odniesieniu do instytucji i układów społecznych. Żeby tak jednak mogło się stać, częściej niż o inteligencji powinniśmy rozmawiać właśnie o sprawiedliwości. Działając zgodnie z tą zasadą, Berkman Klein Center for Internet and Society zorganizowało konferencję „AI and Inclusion”, na której równie wiele co o algorytmach rozmawiano o biedzie i nierównościach. Gorzej jednak, że na konferencji zabrakło przykładów inkluzywnego AI. Był to raczej postulat działaczy, szukających sposobów oddziaływania na rządy i korporacje tworzące systemy algorytmiczne. Przykładowo, wdrażane w Unii Europejskiej rozporządzenie o ochronie danych osobowych (RODO) zawiera przepisy dotyczące prawa do wyjaśnienia zasad działania algorytmów – choć nie jest jeszcze jasne, na ile będzie to regulacja skuteczna.

Oczywiście będą zapewne powstawać algorytmiczne „małe utopie” – przykłady pozytywnego wykorzystania narzędzi algorytmicznych w sferze zdrowia czy pomocy humanitarnej. Bardzo obiecująco wygląda na przykład diagnostyka niektórych form raka. Jednak barierą dla powszechnego wykorzystania algorytmów będzie na pewno brak swobodnego dostępu do – niezbędnych, by wyżywić sztuczne inteligencje – danych, które przechowywane są na serwerach wielkich korporacji albo instytucji państwowych. Ponadto wszelkie ich otwarcie grozi tym, że nakarmią się nimi algorytmy aspołeczne. Walka o duszę algorytmów odbędzie się więc na poziomie walki o obywatelską, demokratyczną kontrolę nad czarnymi skrzynkami ukrytymi głęboko w firmach i ministerstwach.

Mało to efektowne, ale przecież hasło „postęp technologiczny” od dawna nie miało tak złej prasy – warto tę negatywną energię wykorzystać. Zamiast rozmawiać o rozwiązaniach rodem z science fiction, powinniśmy częściej dyskutować o nowych regulacjach, takich jak te związane z ochroną danych osobowych. Albo szukać nowych zadań dla organizacji konsumenckich, które powinny piętnować złe algorytmy tak samo, jak piętnują producentów wadliwych fotelików samochodowych. Można też rozważyć protest konsumencki. Jeśli 1/3 Polaków zdecydowała się korzystać z ad blockerów, sprzeciwiając się reklamie online, to być może jesteśmy też w stanie zaprotestować przeciw niesprawiedliwym algorytmom?