Twarze pod kontrolą
Jared Rodriguez, Truthout / CC BY-NC-ND 2.0

23 minuty czytania

/ Media

Twarze pod kontrolą

Piotr Fortuna

Technologia rozpoznawania twarzy może wynieść mechanizmy nadzoru na kolejny poziom, segregując nas przy wejściu do sklepu czy restauracji, blokując wstęp na teren uczelni lub na osiedle mieszkalne. Policyjne technologie same mogą wykonywać policyjną pracę

Jeszcze 6 minut czytania

Zgodnie ze słynną tezą Williama Gibsona „przyszłość już tutaj jest, tylko nierówno rozdystrybuowana”. Dodałbym, że przyszłość chodzi okrakiem: najpierw zaszczyca swoją obecnością ubogich (jako eksperyment społeczny) i bogatych (jako futurystyczny gadżet). Polska, uznawana za państwo półperyferyjne, leży gdzieś pomiędzy: jesteśmy zbyt biedni i technologicznie zacofani, by znajdować się w awangardzie, a zarazem zbyt zamożni i zabezpieczeni regulacjami, by robić za króliki doświadczalne. W związku z tym dyskusje dotyczące technologii docierają do nas z opóźnieniem, są rozrzedzone i wypłowiałe, nie tak gorące, letnie. A warto nasłuchiwać, co dzieje się w centrum i na peryferiach cyfrowego kapitalizmu. Wprawdzie nasze zdolności tworzenia innowacji są ograniczone, możemy jednak mieć wpływ na prawa określające, jak innowacje z importu będą kształtować nasze życie.

Do najgorętszych należą dyskusje dotyczące technologii rozpoznawania twarzy (facial recognition technologies). W Stanach Zjednoczonych rozgrzewają debatę publiczną od co najmniej kilku lat, a w tym roku uległy jeszcze zaognieniu. W styczniu wyszła na jaw współpraca amerykańskich organów ścigania z podejrzanym start-upem Clearview AI, który bez niczyjej zgody i prawdopodobnie wbrew prawu pobiera wizerunki użytkowniczek i użytkowników cyfrowych platform. Następnie na fali protestów Black Lives Matter popularność zyskało hasło Defund the police („Wstrzymać finansowanie policji”), a wraz z nim Ban facial recognition („Zakazać rozpoznawania twarzy”).

Symptomatyczne, że nawoływania o regulacje dobiegają także z Doliny Krzemowej, określanej często mianem „nowego Dzikiego Zachodu”. Zazwyczaj korporacje technologiczne traktują państwowe obostrzenia jako hamulec dla innowacji i lejce dla kreatywności. Tymczasem już dwa lata temu prezes Microsoftu Brad Smith zaapelował do amerykańskiego Kongresu o uchwalenie odpowiednich przepisów, „zanim będzie za późno” – w trosce o to, „żeby rok 2024 nie wyglądał jak karta z powieści «Rok 1984»”.

Tego typu głosy odzywają się coraz częściej. W styczniu bieżącego roku dyrektor generalny Google’a Sundar Pichai poparł pomysł pięcioletniego zakazu używania systemów facial recognition na terenie Unii Europejskiej. W czerwcu, niedługo po zabójstwie George’a Floyda, prezes IBM Arvind Krishna zapowiedział rezygnację z prac nad tą technologią, podkreślając przy tym, że firma stanowczo sprzeciwia się „wszelkim jej zastosowaniom […] związanym z masową inwigilacją, profilowaniem rasowym, naruszaniem podstawowych ludzkich praw i wolności”. Błyskawicznie, bo w ciągu kolejnych dwóch dni, zareagowały także Amazon i Microsoft, które w oczekiwaniu na regulacje ogłosiły moratorium na współpracę z organami ścigania.

Nieprzypadkowo pierwsze trzy miasta, które uchwaliły zakazy dotyczące rozpoznawania twarzy – San Francisco, Somerville i Oakland – są zamieszkiwane przez licznych pracowników i pracownice branży informatycznej. Kilka tygodni temu dołączyło do nich Portland, na którego obszarze metropolitalnym funkcjonuje ponad tysiąc firm technologicznych, ulokowanych przede wszystkim w „Krzemowym Lesie”. Obowiązujące tam przepisy są najbardziej restrykcyjne w całych Stanach: zakaz obejmuje nie tylko instytucje publiczne, ale też przedsiębiorstwa (dozwolony jest za to użytek indywidualny, np. skanowanie własnej twarzy w celu odblokowania smartfona).

Można odnieść wrażenie, że branża Big Tech powołała do życia potwora i teraz liczy, że publiczne instytucje pomogą go obezwładnić. Jak to zwykle bywa, sytuacja jest złożona, zdania są podzielone, a podniosłe deklaracje w mediach niekoniecznie przystają do zakulisowych działań lobbystów. Trudno jednak bagatelizować problem, skoro nawet w kolebce technooptymizmu systemy rozpoznawania twarzy wywołują niepokój i rozniecają coraz bardziej dystopijne wizje.

Wróżenie z pikseli

Rozpoznawanie twarzy jest rodzajem widzenia maszynowego. Widzenia, a nie patrzenia: nie chodzi o rejestrację obrazu, ale jego interpretację. Obecnie zajmują się tym „inteligentne”, uczące się algorytmy, które przeczesują piksele w poszukiwaniu znaczących regularności i odchyleń. Porównują obraz (zdjęcie, nagranie wideo, skan, widok z kamery) ze zgromadzoną wcześniej bazą wizerunków i na tej podstawie dokonują weryfikacji lub identyfikacji poszczególnych osób.

Jednocześnie facial recognition jest jedną z wielu metod biometrycznych – zajmujących się pomiarem i analizą cech ludzkiego ciała (obok rysów twarzy m.in. kształtu ucha, wzoru tęczówki, odcisków palców lub dłoni, brzmienia głosu, sposobu chodzenia, charakteru pisma, a nawet rytmu pisania na klawiaturze). Jak wskazywał David Lyon, technologie biometryczne służą do „sortowania społecznego” – współtworzą złożony biurokratyczny system „klasyfikowania populacji i jednostek”, uczestniczą w przyznawaniu i odmawianiu uprawnień oraz przewidywaniu, „kto może popełnić przestępstwo, a kto kupić produkt lub usługę”.

Rozpoznawanie twarzy nie jest metodą najpopularniejszą ani najdokładniejszą (przykładowo, bliźnięta mogą mieć prawie identyczne twarze, ale nie odciski palców). Posiada za to niepodważalne zalety jako narzędzie inwigilacji i kontroli. I to z kilku powodów. Po pierwsze, pomiar może być dokonywany zdalnie (obecnie nawet z odległości jednego kilometra) bez naszej wiedzy i zgody. Po drugie, twarz jest tą częścią ciała, która na ogół pozostaje odkryta – jako medium ekspresji jest wystawiona na widok i w efekcie gotowa do rejestracji. Po trzecie, twarz to przestrzeń gęsta informacyjnie, obok identyfikacji jednostki umożliwia także komputerową analizę (facial analysis) wieku, rasy, płci czy stanów emocjonalnych (a według kontrowersyjnych, szeroko krytykowanych badań również orientacji seksualnejryzyka popełnienia przestępstwa).

Last but not least obszerna baza ludzkich twarzy już istnieje. Jest nią internet z wszelkiej maści platformami społecznościowymi na czele, gdzie wizerunki są na ogół przypisane do tożsamości, a w dodatku występują w rozmaitych, pożywnych dla sztucznej inteligencji ujęciach: pod wszelkimi kątami, w zmiennych warunkach oświetleniowych, w okularach i makijażu, z grzywką i na jeża, z maseczką, bez maseczki, dzisiaj i piętnaście lat temu (to różni je od baz większości instytucji państwowych, np. baz zdjęć paszportowych lub policyjnych).

Najpełniejszy dostęp do tych zasobów od lat miały Google (z wyszukiwarką Google Images) oraz Facebook (będący właścicielem m.in. Instagrama z jego niekończącą się paradą selfies). Obie korporacje rozwijały technologię rozpoznawania twarzy na swoje potrzeby, nie sprzedawały jej jednak jako osobnego produktu w obawie przed ewentualnymi nadużyciami (choć jak pokazała tegoroczna ugoda w wysokości 650 milionów dolarów, Facebook nie uniknął własnych nadużyć). Ostatecznie monopol gigantów technologicznych na dostęp do wizerunków publikowanych online został zakwestionowany, gdy na arenę wkroczył nowy gracz – Clearview AI.

Sekret Clearview AI

Być może do dziś nie usłyszelibyśmy o Clearview AI, gdyby nie śledztwa dziennikarskie Kashmir Hill z „New York Timesa”Luke’a O’Briena z „Huffington Post”. Hill dowiedziała się o istnieniu Clearview od informatora, który trafił na policyjną notatkę służbową o „radykalnie nowym narzędziu do rozwiązywania spraw kryminalnych”. Sytuacja od początku wydawała się podejrzana: adres podany na stronie firmy został zmyślony, a jedyny pracownik oznaczony na LinkedInie występował pod fałszywym nazwiskiem. Kolejne próby kontaktu trafiały w próżnię. Jeden z policjantów zgodził się przeskanować zdjęcie dziennikarki przy użyciu systemu, ale ku swojemu zaskoczeniu nie uzyskał żadnych rezultatów. Po chwili otrzymał za to telefon od Clearview z prośbą o wyjaśnienie, dlaczego kontaktuje się z mediami, i został ukarany utratą dostępu do narzędzia. Okazało się, że tajemnicza (a wówczas prawie nikomu nieznana) firma może ręcznie sterować wynikami policyjnych zapytań i, co gorsza, ma niekontrolowany dostęp do informacji na temat osób, przeciwko którym prowadzone są śledztwa.

Taki stan rzeczy niepokoi tym bardziej, że Luke O’Brien odkrył liczne powiązania Clearview ze skrajnie prawicowymi środowiskami, przede wszystkim z neoreakcjonistami wyznającymi filozofię Mrocznego Oświecenia (Dark Enlightenment). Według badaczki subkultur internetowych Bielli Coleman tajemniczość to modus operandi neoreakcjonistów. Pozostają w ukryciu, ponieważ nie stawiają sobie za cel brylowania w mediach ani zdobywania władzy przy urnach wyborczych. Interesuje ich raczej systematyczne demontowanie demokracji za pośrednictwem nowych technologii oraz cierpliwe budowanie fundamentów nowego systemu. Zdaniem O’Briena rozpoznawanie twarzy ma im pomóc w stworzeniu czystego etnicznie państwa, a pierwszym punktem tego planu jest wykrywanie i deportacja imigrantów pozbawionych prawa stałego pobytu w Stanach Zjednoczonych (co zresztą już się dzieje za sprawą współpracy Clearview ze Służbami Imigracyjnymi i Celnymi).

Dzięki bazie twarzy liczącej 3 miliardy fotografii (ponad czterokrotnie większej niż zasoby FBI) Clearview jest najskuteczniejszym niechińskim systemem facial recognition. Zdjęcia te zostały ściągnięte z sieci, m.in. z najpopularniejszych platform społecznościowych, wbrew oficjalnym zasadom użytkowania oraz interesom nieświadomych niczego internautów i internautek. Facebook, Twitter oraz Google wysłały nakaz zaprzestania działalności („Cease and Desist”), czyli usunięcia z systemu danych, które zostały pobrane z ich serwisów. Clearview nie zamierza jednak spełnić tych żądań: zasłania się prawem do informacji, dobrem publicznym oraz wątpliwymi analogiami do innych usług, z wyszukiwarką Google na czele. W najbliższej przyszłości możemy spodziewać się przeciągania prawniczych procedur. Na to na pewno liczy samo Clearview, w nadziei, że produkt się upowszechni i stanie się nową normą.

Mission creep

Pouczający jest wywiad udzielony stacji CNN Business przez założyciela Clearview AI – Hoana Ton Thata, będący PR-ową reakcją na sensacyjne doniesienia Hill i O’Briena. Na kolejne pytania Ton That odpowiada z łagodnym uśmiechem na twarzy oraz kojącym spokojem w głosie. Wygląda poważnie jak na programistę, który dotąd dał się poznać jako twórca aplikacji phishingowej, a zarazem niewinnie jak na biznesmena, który dostarcza narzędzie inwigilacji kilkuset oddziałom amerykańskiej policji.

W jaki sposób sprzedaje swój produkt opinii publicznej? Przedstawia go jako prostą, statyczną wyszukiwarkę zdjęć (przemilczając, że program może zostać zintegrowany np. z kamerami CCTV w dynamiczny system live facial recognition). Przywołuje przy tym kilka konkretnych przykładów zastosowania – swoich obwoźnych success stories – i wszystkie dotyczą ochrony dzieci przed pedofilami. Kto odważy się z tym dyskutować? Ponadto konsekwentnie podkreśla, że chce przede wszystkim pomagać policji. Innymi słowy: to nie biznes, to misja.

Przyparty do muru, mówi jak urodzony polityk. Odpowiada wymijająco, rozmywa znaczenia, unika definitywnych odpowiedzi. Zamierza się skupiać przede wszystkim na współpracy z organami ścigania, sprzedawać technologię głównie w Stanach Zjednoczonych i Kanadzie itd. Już na podstawie tych oględnych deklaracji moglibyśmy się domyślać, że wszystkie granice prędzej czy później zostaną przekroczone. Niektóre już zostały: współpraca z siecią sklepów Macy’s będzie miała finał w sądzie, na jaw wyszły także interesy z reżimami nagminnie łamiącymi prawa człowieka, takimi jak Arabia Saudyjska czy Zjednoczone Emiraty Arabskie.

W rozmowie z Hill Ton That przyznał, że inwestorzy naciskają na jak najszerszą dystrybucję produktu, skierowaną również do klientów komercyjnych, takich jak hotele, zarządcy nieruchomości czy galerie handlowe. A dlaczego nie do odbiorców indywidualnych? Wielu z nas z pewnością chciałoby posiąść magiczną moc poznawania tożsamości przygodnie napotykanych osób, np. ludzi, którzy nam wpadli w oko albo zaszli za skórę. Takie zjawisko stopniowego przesuwania granic ma w angielskim swoją nazwę: mission creep (dosłownie, ale niezbyt zgrabnie tłumaczoną na język polski jako „pełzanie misji”). Technologie tworzone do bardzo konkretnych, wąskich zastosowań w wojsku czy służbach specjalnych z czasem wymykają się spod kontroli i zaczynają być używane na masową skalę do zupełnie innych celów, często ze szkodą dla społeczeństwa. Już teraz żyjemy w kapitalizmie inwigilacyjnym (surveillance capitalism), jesteśmy profilowani i śledzeni („trackowani”) w internecie przez niezliczone i często nieznane nam podmioty. Rozpoznawanie twarzy może wynieść mechanizmy nadzoru na kolejny poziom, segregując nas przy wejściu do sklepu czy restauracji, blokując wstęp na teren uczelni lub na osiedle mieszkalne. Policyjne technologie mogą wykonywać policyjną pracę w oderwaniu od policyjnego kontekstu, automatyzować działania funkcjonariuszy w służbie właścicieli, zarządców i menadżerów.

Clearview nie jest sednem problemu, ale raczej symptomem. Na tyle dotkliwym, że trudno go zignorować. Prędzej czy później jakiś inny start-up zrobiłby podobny użytek z publikowanych w sieci fotografii. Zresztą kilka miesięcy temu świat dowiedział się o istnieniu podobnej, w dodatku polskiej, aplikacji PimEyes (na początku września firma została jednak przeniesiona z Polski na Seszele, prawdopodobnie w obawie przed europejskimi regulacjami). Wyszukiwarka ma dostęp do 900 milionów zdjęć, m.in. z Tumblra, YouTube’a, Wordpressa oraz licznych stron pornograficznych. Jest znacznie mniej skuteczna od Clearview, ale za to dostępna dla każdego za odpowiednią opłatą. W teorii ma służyć ochronie prywatności – umożliwiać wyszukiwanie zdjęć zamieszczonych w internecie bez zgody i wiedzy osoby fotografowanej. W praktyce może być wykorzystywana do stalkingu i – jak sugeruje Dave Geshgorn – „powodować więcej problemów dotyczących prywatności niż rozwiązywać”. Przykładowo, ułatwiać outowanie osób LGBTQ i sex workerek albo dotarcie do revenge porn.

Podobnie jak Ton That, twórcy narzędzia – Łukasz Kowalczyk i Denis Tatina – deklarują jak najlepsze intencje. Społeczeństwo nie może jednak polegać na zmyśle moralnym i dobrej woli inżynierów, prezesek czy zarządów. Moralnie słuszne decyzje pojedynczych firm nie są w stanie rozwiązać społecznych problemów. A czasem mogą je zaognić: wycofanie się części dostawców kontrowersyjnej technologii tworzy miejsce dla tych, którzy nie mają skrupułów, żeby ją sprzedawać. Potrzebne są rozwiązania systemowe, inaczej zły pieniądz będzie wypierał dobry (albo też zły pieniądz będzie wypierany przez jeszcze gorszy).

Jeden procent

O rozpoznawaniu twarzy najczęściej mówi się w kontekście dyskryminacji rasowej i płciowej wpisanej w dostępne na rynku systemy (które najtrafniej identyfikują białych mężczyzn, a najczęściej mylą się w przypadku czarnych kobiet). Trudno się dziwić moralnemu wzmożeniu: narzędzia stosowane przez publiczne instytucje powinny równo traktować wszystkie obywatelki, a nie pogłębiać już istniejące nierówności.

Co gorsza, pomyłka jest wpisana w działanie technologii, która posługuje się statystycznymi przybliżeniami, więc niejako z definicji nie gwarantuje pewności. Nawet dwa przedstawienia tej samej osoby nie są przecież identyczne, bo nie posiadają jednakowego rozkładu pikseli. Skuteczność algorytmu na poziomie 99% wciąż oznaczałaby, że w ciągu miesiąca na dworcu takim jak Warszawa Centralna błędnie zidentyfikowanych zostałoby kilkanaście tysięcy osób. A cena może być wysoka: od komplikacji w rodzaju spóźnienia na pociąg po utratę wolności. Aktywistka z organizacji ACLU Kade Crockford przytacza historię analityka finansowego Stevena Talleya – białego mężczyzny, którego twarz została utożsamiona przez policję z wizerunkiem złodzieja okradającego banki. Wprawdzie oskarżony ostatecznie wygrał w sądzie i oczyścił swoje imię, ale przeciągający się proces doprowadził go do życiowej ruiny (utraty domu, pracy, zdrowia i opieki nad dziećmi).

Bez wątpienia rozpoznawanie twarzy będzie z roku na rok coraz dokładniejsze, a błędy coraz rzadsze. Przygotowanie dobrze wyważonych danych treningowych, gdzie wszystkie płcie, rasy i grupy wiekowe będą reprezentowane w takim samym stopniu, jest możliwe. Jednak czy włączanie mniejszości w policyjną machinę powinno wyznaczać horyzont refleksji nad masowym nadzorem? Wydaje się, że zamiast kolejnych narzędzi policyjnej kontroli społeczeństwa potrzebne są mechanizmy społecznej kontroli policjantów. Widać to w Stanach Zjednoczonych, ale i we Francji, w Hongkongu, w Białorusi czy w Polsce – wszędzie tam, gdzie ludzie domagają się zmian, masowo wychodząc na ulice. I będzie widać coraz bardziej w czasach narastających społecznych napięć i drastycznych nierówności.

Spojrzenie władzy

Wbrew dominującej narracji cyfrowy nadzór nie jest jedynie kwestią prywatności (a już z pewnością nie jest kwestią prywatną). Dotyczy też anonimowości, która przecież z definicji odnosi się do funkcjonowania w sferze publicznej. To kwestia społeczna, nie indywidualna. Polityczna, a nie lajfstajlowa. Ujmowanie problemu wyłącznie w kategoriach prywatności sprowadza go do poziomu osobistych preferencji i jednostkowej wrażliwości. Tak jakby nadzór był opcją dla ekstrawertyków, którzy lubią występować w świetle reflektorów. Łatwo w to zresztą uwierzyć, skoro widzialność jest miarą sukcesu, a brak prywatności stanowi domenę gwiazd, celebrytek i influencerów.

Tymczasem większości problemów związanych z facial recognition nie da się rozwiązać indywidualnie. Nie sposób odmówić zgody na rejestrację wizerunku przez kamery rozmieszczone na ulicy czy w centrum handlowym (ani na wykonywaną w tle komputerową analizę). Twarzy nie możemy zostawić w domu, w przeciwieństwie do uniwersalnego urządzenia śledzącego, jakim jest smartfon. Możemy ewentualnie zasłonić okna i nigdzie nie wychodzić. Pozostałe rozwiązania – coraz bardziej wymyślne makijaże, fryzury i maski, a zwłaszcza operacje plastyczne – są nie dla wszystkich i nie na każdą okazję. A ostatecznie mogą też przegrać w wyścigu zbrojeń z szerokim arsenałem metod biometrycznych.

Problem z masowym nadzorem facial recognition to m.in. problem ilości przechodzącej w jakość. Policja ma różne sposoby śledzenia osób zagrażających status quo. Jednak liczba detektywów, których można wysłać w teren, jest ograniczona. Trzeba wybierać, których potencjalnych przestępców i politycznych odstępców obserwować. Automatyzacja pracy widzenia zdejmuje ograniczenia ilościowe. Za pośrednictwem kamer ulicznych można śledzić nie tylko kryminalistów, ale też uczestniczki protestów, aktywistów walczących o prawa człowieka albo przedstawicielki określonej mniejszości etnicznej, wyznaniowej czy seksualnej. Oznaczać w systemie, kto był w klubie gejowskim, w klinice aborcyjnej, na spotkaniu anonimowych alkoholików. A w razie potrzeby wstecznie przeanalizować zgromadzone nagrania w poszukiwaniu „haków”. Sama świadomość istnienia tak zaawansowanych form nadzoru może wywoływać efekt mrożący – zniechęcać ludzi do uczestnictwa w demonstracjach lub innych formach życia publicznego z obawy przed ewentualnymi represjami.

Nie chodzi tu o żadne science fiction. Technologia rozpoznawania twarzy jest już stosowana w ten sposób przez państwo chińskie. Zaczęło się od profilowania etnicznego Ujgurów, muzułmańskiej mniejszości zamieszkującej prowincję Sinciang. Gęsto rozmieszczone na ulicach kamery potrafią odróżnić Ujgurów od reszty mieszkańców. Odnotowują, kto chodzi do meczetu, a kto za bardzo oddala się od domu. Nadmierna pobożność czy udział w zgromadzeniach mogą skończyć się zesłaniem do obozu przymusowej pracy. Opór jest tłumiony w zarodku, zanim zdąży się zawiązać.

Jak pisze Kai Strittmatter, autor książki „Chiny 5.0”, rozwiązania testowane na prześladowanej mniejszości są z czasem ekstrapolowane na teren całego kraju, który został objęty „systemem zaufania społecznego”. Sześćset milionów kamer pomaga w automatycznym przyznawaniu i odejmowaniu punktów określających wartość każdego obywatela. „[Celem systemu] jest dopilnować, żeby osoby dotrzymujące swoich obietnic mogły jeździć, gdziekolwiek zechcą, a osoby łamiące dane słowo nie mogły ruszyć się choćby o cal” – mówi menadżer z Alipay, największej na świecie platformy płatności mobilnych, w reportażu ABC News. Materiał pokazuje doskonałą fuzję autorytaryzmu z kapitalizmem, gdzie ludzka twarz może być sposobem płacenia za zakupy (smile to pay), ale także – jak pisała Louise Amoore – ruchomą „biometryczną granicą”, przemieszczającą się wraz z ciałem społecznego wyrzutka odmową dostępu.

Tysiąc cięć

Nieustannie słychać narzekania na kryzys demokracji. W związku z tym łatwo zbyć wzruszeniem ramion opowieści o kolejnej technologii dobijającej ten i tak pokiereszowany ustrój. Zwłaszcza że jesteśmy już przyzwyczajeni do kamer ulicznych, do ciasteczek na stronach internetowych, do geolokalizacji smartfonów. Zdajemy sobie sprawę, że Facebook ma zdolność manipulowania naszymi poglądami, a Google wie o nas więcej niż legendarna Stasi wiedziała o enerdowskich dysydentach. Jedna metoda kontroli więcej czy mniej zdaje się nie robić wielkiej różnicy. Demokracja umiera śmiercią przez tysiąc cięć, kawałek po kawałku (jak to ujęła w innym kontekście filipińska dziennikarka Maria Ressa). Każde kolejne cięcie jest subiektywnie mniej odczuwalne, obiektywnie jednak przybliża ofiarę do tragicznego końca. Być może jednak da się jeszcze zatrzymać egzekucję?

Jak w przypadku każdej technologii, tak i tym razem będziemy słyszeć, że „zawsze jest coś za coś”. Że musimy przehandlować prywatność za wygodę, anonimowość za bezpieczeństwo. Ale czy na pewno? W jakich ilościach? Na czyich warunkach? Jakie są alternatywy? Ostatnie wydarzenia w Stanach Zjednoczonych pokazują, jak ważne jest zaangażowanie różnych społecznych aktorów w rozwiązywanie tych coraz bardziej palących problemów. Badaczek, które ujawniają uprzedzenia algorytmów i przewidują ich wpływ na społeczeństwo. Organizacji pozarządowych, które lobbują u polityczek, edukują wyborców i udzielają pomocy prawnej poszkodowanym. Dziennikarzy, którzy nagłaśniają sprawę w mediach i nadają jej krytyczny wymiar. I obywatelek, które chodzą na demonstracje, piszą listy do senatorów i składają podpisy pod projektami.

W punkcie wyjścia trzeba jednak porzucić determinizm (fatalizm?) technologiczny. Istnienie danej technologii nie przesądza o jej zastosowaniach, a chińska teraźniejszość nie musi być naszą przyszłością. Rozpoznawania twarzy można zakazać w całości albo dopuścić, tak jak Unia Europejska, wybrane zastosowania. Można też, jak proponuje jedna z amerykańskich fundacji, powołać specjalną instytucję zajmującą się kontrolą tej technologii (na podobnej zasadzie jak dziś kontrolowane są urządzenia medyczne i produkcja leków). Przyszłość jest wciąż otwarta i podatna na formowanie i będzie „dystrybuowana” w różnych – mniej lub bardziej orwellowskich – wariantach.

Tekst dostępny na licencji Creative Commons BY-NC-ND 3.0 PL (Uznanie autorstwa-Użycie niekomercyjne-Bez utworów zależnych).