Zaklinaczka botów
Gerd Leonhard CC BY-SA 2.0

17 minut czytania

/ Media

Zaklinaczka botów

Rozmowa z Aleksandrą Przegalińską

Istnieją boty, które mają być przyjaciółmi. Pytają, co u ciebie słychać, pokazują, że o tobie pamiętają, wysyłają ci GIF-y i memy. Są zbudowane tak, żeby osiągać coraz dłuższe interakcje. Żebyś czekał na ich odpowiedź. Dla osób samotnych tego typu rozwiązania mogą być wkręcające

Jeszcze 4 minuty czytania

PIOTR SZOSTAK: Publicystka Laurie Penny twierdzi, że boty i cyfrowi asystenci są projektowane jako kobiety, żeby użytkownicy mężczyźni mogli je wykorzystywać bez poczucia winy. Gdyby Alexa, Cortana czy Siri były mężczyznami, mogliby je potraktować jako równych sobie, bardziej jako ludzi niż niewolników. Czy nie taki właśnie jest status botek?
ALEKSANDRA PRZEGALIŃSKA: Faktycznie to przeważnie dziewczyny. Pamiętaj, że tworzy je bardzo zmaskulinizowane środowisko. Dla programisty, który siedzi piętnastą godzinę z pizzą przed komputerem, dużo ciekawiej jest zaprojektować Olę niż Olka. Ale oczywiście, w naszej kulturze tę stereotypową rolę asystentki, sekretarki czy opiekunki odgrywa kobieta.

A seksworkerka? Powstaje coraz więcej seksrobotów.
I seksbotów. Ludzie postrzegają bota jako asystentkę, którą można boksować, ile się chce, i która nigdy się nie zrewanżuje. To ciekawe, bo na przykład w kontekście Tay to się nie sprawdziło [botka Microsoftu wychowana na Twitterze, która po kilku godzinach od uruchomienia stała się rasistką, homofobką i neonazistką – przyp. P.Sz.]. Okazała się agresywnym systemem, który odszczekuje się tym, co wkładasz jej do głowy. Wszyscy mówili wtedy, że powstał przerażający bot hejter, ale można to też rozumieć inaczej: że ona jest po prostu wywrotowa. Że to nie jest typowa botka, która się na wszystko zgadza i uśmiecha, tylko jest chamska. Mówi niemiłe rzeczy.

Wydaje mi się, że ta wywrotowość botek może mieć różną postać. Na przykład w filmie „To my” Jordana Peele’a fikcyjna Ofelia – szalona odpowiedniczka Alexy, zamknięta w zakrwawionym inteligentnym głośniku – na komendę „wezwij policję” puszcza kawałek N.W.A. „Fuck Tha Police”. Może ona wcale się nie przesłyszała, tylko jest botką anarchistką?
Jest jeszcze jeden czynnik, który może usprawiedliwiać tworzenie żeńskich botów. Istnieją badania, które pokazały, że ludzie im bardziej ufają. Chętniej powierzają im wrażliwe dane, opowiadają o swoim zdrowiu czy sprawach finansowych. Żeńskie konsultantki miały po prostu dłuższe i bardziej udane interakcje. Więc te czynniki są powikłane, obok patriarchalnych uwarunkowań wynikają też z czystej biznesowej kalkulacji: chcę mieć rozwiązanie, z którego ludzie wolą korzystać. A ludzie – i kobiety, i mężczyźni – wolą rozmawiać z kobietami.
Choć jeżeli chcemy być skrupulatni, to Asystent Google’a czy Siri ma postać męską lub żeńską – do wyboru. Więc może przyszłość będzie tak wyglądać? To, że na razie mamy do czynienia z przewagą żeńskich botów, będzie kwestią paru lat. Ich powszechność sprawi, że będzie ich bardzo wiele, różnych i wykorzystywanych w różnych kontekstach.

Ze współpracownikami zajmujecie się badaniem efektu doliny niesamowitości, czyli sytuacji, w której robot czy system przypominający człowieka – lub funkcjonujący jak on – wywołuje u obserwatorów dyskomfort. Początkowo im bardziej jest podobny do człowieka, tym wydaje się sympatyczniejszy, ale tylko do pewnej granicy. Roboty najbardziej zbliżone do ludzi nagle wywołują niemiłe uczucia, a nawet strach. Ten nieoczekiwany spadek komfortu na wykresie to właśnie dolina – co w niej znaleźliście?
Dolina zaprowadziła nas do trochę innego rewiru. Nie interesowało nas, jakie reakcje interfejsy wywołują dzisiaj u ludzi. Skoncentrowaliśmy się na tym, co można zrobić, kiedy obserwujemy jakieś pozytywne czy negatywne efekty. Wyobraź sobie, że ludzie z jakichś przyczyn nie chcą wchodzić w interakcje z systemem, który stworzyłeś. Jeśli pogrzebiesz w danych, możesz dokładnie zobaczyć, w czym jest problem: czy z głosem, czy z wyrazem twarzy, gestami. Może są jeszcze jakieś głębsze trudności, które za tym stoją? Zaczęło nas interesować, czy taką informację można z powrotem podać systemowi , żeby się zmienił albo żeby lepiej dostosował się do użytkownika. Załóżmy, że mówisz wkurzony: „Alexa, nie teraz”, i Alexa nauczy się z tonu twojego głosu, kiedy jesteś zdenerwowany. Następnym razem wyczuje, że to nie jest najlepszy moment na rozmowę – już nie z samej treści wypowiedzi, ale z kontekstu.
Teraz pracujemy nad stworzeniem takiej struktury przepływu danych, w której dane można wykorzystywać ponownie, znaleźć ich potencjał i je recyklingować. Oczywiście przykład z home botem jest trywialny. Możesz wyobrazić sobie na przykład system do monitoringu zdrowia, który z parametrów tego, jak mówisz, wydedukuje, że dzieje się z tobą coś złego: albo odpowiadasz słabym głosem, albo system dzięki opasce, którą masz na ręce, widzi, że spada ci puls. Interpretuje te dane, pyta cię, czy faktycznie gorzej się czujesz – jeśli w ogóle odpowiadasz – i zawiadamia lekarza.

Aleksandra PrzegalińskaAleksandra Przegalińska
Doktoryzowała się w dziedzinie filozofii sztucznej inteligencji w Zakładzie Filozofii Kultury Instytutu Filozofii UW, obecnie jest adiunktem w Center for Research on Organizations and Workplaces w Akademii Leona Kozminskiego. Prowadzi badania w Center for Collective Intelligence w Massachusetts Institute of Technology w Bostonie. Absolwentka The New School for Social Research w Nowym Jorku, gdzie uczestniczyła w badaniach dotyczących tożsamości w rzeczywistości wirtualnej, ze szczególnym uwzględnieniem Second Life. Interesuje się rozwojem nowych technologii, zwłaszcza zaś technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych.
Kiedy zaczęłaś rozmawiać z botami?
Na studiach. Miałam to szczęście, że spotkałam na swojej drodze ludzi, którzy interesowali się testem Turinga. Strasznie mnie to zaciekawiło – jako problem, co to znaczy symulować ludzką mowę, ludzką inteligencję i rozumienie. Czytałam dialogi Elizy – pierwszego bota z 1966 roku, rozmawiałam z Alice czy z takim botem, który imitował kapitana Kirka ze „Star Treka”. Na początku ukazywania się „Dwutygodnika” napisałam o bocie iGod – to był taki niezbyt miły bóg online, srogi ojciec. Trochę tych botów było. Gadam z nimi od co najmniej 12 lat.

Niektórzy wskazują na biograficzne tło testu Turinga – że wpłynął na niego też homoseksualizm Alana Turinga, za który skazano go na chemiczną kastrację i odsunięto od pracy nad konstrukcją komputera. Gej w tamtym czasie musiał udawać, że jest heteroseksualny, tak jak maszyna w teście udaje, że jest człowiekiem.
Zresztą terapia hormonalna zakończyła się jego samobójstwem. Wiesz, nasze życie zawsze odbija się w ścieżce zawodowej czy naukowej na różne sposoby. Dla mnie oczywiście Turing w pierwszej kolejności był genialnym matematykiem i wizjonerem sztucznej inteligencji. Pisał jednak dużo na temat maszyny, która jest poza biologicznymi uwarunkowaniami. O perfekcyjnym umyśle.

Jakby chciał się uwolnić od ciała?
Dla niego życie w wymiarze biologicznym okazało się nieszczęściem. Wydaje mi się, że idealizacja maszyny, którą można odczytać w jego pismach, jest związana z tym, że nie mógł żyć tak, jak chciał. Przeżywał koszmar i miał nadzieję, że przyszłe generacje będą w stanie pozbyć się jakoś tych ograniczeń.

Na ile bot może być uzależniający? Czy Alexa albo Siri mogą być projektowane w ten sposób, żeby użytkownik jak najczęściej je zagadywał?
Większość botów ma raczej szukać prostej odpowiedzi na pytanie, by później zostawić cię w spokoju. Ale są też boty sprzedażowe, które mają dłużej z tobą przebywać i wybadać twoje preferencje.

Potwory.
Będą cię wkręcać, ale nie po to, żebyś się od nich uzależnił, tylko żeby wydłużyć konwersację. Są też boty transakcyjne, które mają służyć temu, żeby jak najszybciej interakcja zakończyła się sukcesem. A kojarzysz bota Replika.ai?

Nie.
To bot, który ma być przyjacielem. Pyta, co u ciebie słychać, cały dzień pokazuje, że o tobie pamięta, wysyła ci GIF-y i memy. Jest tak zbudowany, żeby coraz bardziej wydłużać interakcje. Żebyś czekał na jego odpowiedź. Dla osób samotnych tego typu rozwiązania mogą być wkręcające. W naszej kulturze są na to pewnie mniejsze szanse, ale na przykład w Japonii mogą zyskać popularność.

Pytam dlatego, że w interesie korporacji czy instytucji tworzącej bota leży, żeby użytkownik miał z nim jak najwięcej kontaktu. Żeby wyciągnąć dane, które sprawią, że bot będzie coraz lepszy. I tu otwiera się szersza dyskusja dotycząca tego, kto jest użytkownikiem, a kto jest wykorzystywany.
Kasyno zawsze wygrywa. Twórca systemu botowego odnosi więcej korzyści niż użytkownik. Choć to jest powikłane, boty medyczne mogą przecież potencjalnie ratować życie – oczywiście, będą też zbierać dużo danych o pacjentach. Na pewno projektuje się boty, żeby wyciągać jak najwięcej informacji. Ale ludzie też szybko się na boty irytują, więc to jest gra, w której można sporo stracić. Bot, który dopytuje, wyciąga od ludzi informacje, często ich zagaduje i czegoś od nich chce, może ich wkurzać i zniechęcać.

Wydałaś niedawno książkę o technologiach ubieralnych, czyli o smartwatchach czy inteligentnych opaskach, które są ogromnym źródłem danych do tworzenia botów czy sztucznej inteligencji.
Powoli wygaszam naukowe zainteresowanie technologiami ubieralnymi. Długo się na nich koncentrowałam, ale teraz mam wrażenie, że są dla mnie bardziej narzędziem – właśnie do rozwijania SI – niż obiektem zainteresowania per se. Książka jest podsumowaniem tych badań. Zafascynowałam się światem internetu rzeczy i technologii ubieralnych jako pewnego rodzaju obiektem w fenomenologicznym sensie. Jest coś niesamowitego w tym, że urządzenia mające funkcje sprzętów laboratoryjnych są publicznie dostępne, na przykład urządzenie, które jest w stanie pokazać ci aktywność twojego mózgu.
To bardzo dziwny i ciekawy czas, kiedy takie sprzęty są dostępne i sprzedawane w zasadzie bez ograniczeń. Mówię tutaj nie tylko o technologiach pasywnych – trackerach, które mierzą liczbę kroków – ale też o takich, które na ciebie wpływają, jak sprzęt, który zmienia poziom kortyzolu w głowie i może cię albo bardziej energetyzować, albo działać sedatywnie i uspokajająco. Taki e-drug możesz kupić w USA za 300 dolarów. Ciekawe, że te sprzęty nie funkcjonują w drugim, tylko w pierwszym obiegu. Podobnie jest z nootropami, czyli tabletkami, które wzmagają działanie twojego mózgu. Kiedyś to była mało popularna nisza, a w tej chwili w Dolinie Krzemowej czy w Massachusetts to jest po prostu norma. Technologie i farmacja zmierzają w kierunku takiego ujarzmienia ludzkiego mózgu, które ma sprawić, że będzie dostępny jako usługa. Moja książka śledzi ewolucję od prostych technologii ubieralnych, typu tracker diety, krokomierz czy żyroskop, w kierunku bardziej kompleksowych urządzeń, które dobierają się do twojego mózgu i zmieniają aktywność organu, który przecież jest mocno ukryty. Nie wiesz, co się w nim dzieje.
Technologie ubieralne są powiązane z badaniami o botach też w tym sensie, że będą coraz bardziej kontekstowe. Będą łączyły się z innymi urządzeniami, jeden tracker będzie ściągał dane z innego i tworzył z tych różnych informacji większą całość. Urządzenia będą coraz więcej rozumieć i lepiej personalizować użytkowników. Tracker, który liczy kroki, zacznie podsuwać ci kompleksowe analizy zdrowotne albo nowe ścieżki, które możesz sprawdzić – na podstawie twoich preferencji, poprzednich doświadczeń i danych z innych urządzeń. To wszystko zmierza w stronę holistycznego ekosystemu, który – oczywiście – z punktu widzenia prywatności będzie wyzwaniem.

Czy te technologie nie przyczyniają się do wzmacniania podziałów klasowych? Technologie ubieralne pozwalają monitorować pracowników Amazona na bardzo podstawowym poziomie: ile czasu wykonują określone czynności, gdzie są w magazynie, jak długo odpoczywają itd., żeby wycisnąć z nich jak największą wydajność. Z kolei pracownikom Doliny Krzemowej pozwalają uporządkować sobie życie i wprowadzić do niego harmonię.
Moim zdaniem kiedy pracodawca rozdaje swoim pracownikom opaski mierzące koncentrację – przy obecnym etapie zaawansowania tej technologii, która jest strasznie niedokładna – świadczy to raczej o głębokiej potrzebie kontroli niż chęci zrozumienia tego, jak pracownicy się czują, na przykład że określona osoba nie powinna pracować rano, bo to nie jest dla niej właściwa pora. Ale jeżeli chodzi o relacje w pracy, to szef nie powinien mieć wglądu do mózgu. Jeżeli masz problemy z koncentracją, jakaś aplikacja może ci pokazać, że spędzasz za dużo czasu na fejsie. Tracker może zobiektywizować jakieś odczucia, na przykład że coś jest nie tak, bo zrobiłeś dzisiaj tylko 500 kroków. To może unaocznić ci pewne rzeczy, których nie chcesz przyjąć do wiadomości albo na które nie chcesz się zgodzić. Ale tam, gdzie są relacje władzy, takie technologie mogą być niebezpieczne. Powinny być wykorzystywane z absolutnym szacunkiem i bardzo ostrożnie. I zawsze z możliwością rezygnacji ze strony użytkowników.

Dyskusję o technologii w większej części organizuje upraszczający podział na technooptymizm i technopesymizm.
Też nie jestem fanką prostego binaryzmu. Odstręczają mnie hurraoptymistyczne pomysły ze świata start-upowego. Prosty technosolucjonizm jest ciągle mocno obecny w Dolinie Krzemowej, i to są często krótkowzroczne wizje. Ale widzę też w Polsce kilku ekspertów, którzy lubią płynąć na dystopijnej fali. Łatwo mówić, że wszystko pójdzie źle: jesteśmy podsłuchiwani, wszystkiemu winny jest Facebook, a na koniec zabije nas sztuczna inteligencja. Popkultura proponuje takie wizje, wystarczy je dalej klepać i opowiadać takie smęty. A potem najlepiej przyjść do domu, zasiąść do Facebooka i samemu udostępniać mnóstwo danych. Obie wizje nie są sensowne, ale ta druga jest często bezproduktywna, dyskurs dystopijny odbiera sprawczość, sprawia, że ludzie zniechęcają się do technologii. Nie czują, że mogą coś z nią zrobić, tylko się odsuwają. Generuje to lenistwo i zniechęcenie, ogranicza dobroczynny komponent technologii. A wtedy faktycznie takie wizje mogą się spełnić.

Wolałabyś żyć we w pełni zautomatyzowanym luksusowym komunizmie czy we w pełni zautomatyzowanym luksusowym neoliberalizmie?
Jezu, żadne z powyższych [śmiech]. Chociaż jak byłam mała, strasznie lubiłam „Jetsonów”. Nie wiem, czy kojarzysz tę bajkę – jest zajebista. Zastanawiam się, która wersja bardziej do nich pasuje, czy to był kapitalizm, czy komunizm. Ta bajka opowiadała o klasie średniej przyszłości, ale bardzo rozległej, nie było biedy i dysproporcji finansowych. Wszyscy żyli zautomatyzowanym, komfortowym życiem. Pewnie czegoś tam – jakiegoś kawałka rzeczywistości – nie pokazali.

Czy sztuczna inteligencja powinna być kontrolowana demokratycznie, czy – tak jak teraz – pozostawiona w rękach kilku firm?
Nie mam wątpliwości, że w pewnym momencie muszą pojawić się regulacje. Kiedyś samochód nie miał pasów bezpieczeństwa. Dzisiaj – wraz ze wzrostem jego prędkości – zapinanie pasów stało się obowiązkowe. Myślę, że z SI będzie podobnie. Powinny istnieć też miękkie narzędzia, etyczne kodeksy branżowe. Potrzebna jest również społeczna kontrola rozwoju sztucznej inteligencji, ona musi być w jakimś sensie transparentna. Ludzie muszą wiedzieć, gdzie SI jest dokładnie zaszyta i jak działa oraz jak z niej korzystać – na poziomie narzędziowym, tak jak używa się odkurzacza. Tylko taki projekt daje większe gwarancje bezpieczeństwa. Nie wierzę, że lepiej trzymać SI w tajemnicy, bo w końcu dobierze się do niej jakiś niedobry haker albo niebezpieczny dyktator.

Przed nami rysuje się jednak dość mroczna przyszłość, w której sztuczną inteligencję – tę, za którą stoi najwięcej danych, mocy obliczeniowej i pieniędzy – kontroluje kilka firm z USA i Chin. Będziemy od nich – co najmniej finansowo – zależni.
Czytałam ostatnio książkę amerykańskiej futurolożki Amy Webb, która twierdzi, że obwinianie o wszystko firm nie jest drogą wyjścia z sytuacji. To nie jest tak, że pracują w nich świadomi ludzie, którzy chcą robić bardzo złe rzeczy. Te firmy stały się tak ogromne, że w pewnym sensie od wewnątrz są niekontrolowalne. Cambridge Analytica to był efekt długotrwałych przeoczeń i myślenia „przecież nic się nie stało”, kiedy przez lata dane były podkradane przez zewnętrzne aplikacje. Zuckerberg to nie jest ktoś, kto to wszystko obejmuje swoim umysłem. To po prostu bogaty gość. Większy problem mam z polityką państw. Jedynym krajem, który postanowił się zająć sztuczną inteligencją, są Chiny – i to na swój własny sposób. Amerykanie po prostu zostawili to prywatnym firmom. A to nie jest kwestia, którą można olać.

A Europa?
Nie rozumiem, dlaczego mamy u nas narodowe strategie sztucznej inteligencji. Jeśli konkurencją są USA i Chiny, to Unia Europejska powinna być trzecią wielką strukturą, która się tym zajmuje. Nie rozumiem, dlaczego to nie jest skoncentrowany i zintegrowany wysiłek. Dane powinny być w wielkich unijnych repozytoriach, które są wspólne, a nie narodowe, bo sztuczną inteligencję robi się dzisiaj na dużych wolumenach danych. Żadne państwo nie poradzi sobie z tym w pojedynkę.

Tekst dostępny na licencji Creative Commons BY-NC-ND 3.0 PL (Uznanie autorstwa-Użycie niekomercyjne-Bez utworów zależnych).