Rozmowy z Botem

Aleksandra Przegalińska

Jak często zdarza się, że rzeczy do nas mówią? Winda informuje, na którym jesteśmy piętrze, automatyczna sekretarka donosi, kto dzwonił, a kasa w sklepie nakazuje położyć produkt na wadze i ostrożnie wsunąć kartę płatniczą

Jeszcze 2 minuty czytania

Codziennie angażujemy się w mniej lub bardziej udane dialogi z maszynami, które konwersują pożyczonym i uwiecznionym głosem jakiejś osoby. Można by rzec, że o ile produkcja stali była głównym tematem dyskursu naukowego i popularnonaukowego ostatnich dekad XIX wieku, elektryczność zaś wiodła prym na początku wieku XX, nowe milenium dało zbiorowej wyobraźni zachodniej potencjalną i okazjonalnie realizowaną interaktywność człowieka i maszyny.

Wbrew pozorom jednak, mechanizacja umysłu, rozumiana jako próba zrozumienia i sformalizowania mechanizmów leżących u podstaw tzw. inteligentnych zachowań, zarówno w środowisku naturalnym, jak i sztucznym, ma bardzo długą tradycję. Już Kartezjusz snuł wizję maszyny z założenia niedoskonałej – krzywego zwierciadła ludzkiego umysłu. Myśliciele XVII i XVIII wieku, a wśród nich Charles Babbage oraz Thomas Hobbes, widzieli w „automatycznym umyśle” nie tylko narzędzie, lecz także partnera przyszłych przedsięwzięć człowieka. W 1928 Fritz Lang stworzył „Metropolis”. Poprzez literaturę popularną, film, a także mity (patrz: Golem) inteligenta maszyna, zarówno w wydaniu human-friendly, jak i w wydaniu zagrażającego-światu-automatu (patrz: „Dzisiejsze czasy” Chaplina) przeniknęła do świadomości społecznej. Jednakże, w latach sześćdziesiątych ubiegłego wieku za sprawą przełomu w mikroelektronice nastąpiła wyraźna zmiana paradygmatu: w stanie Massachusetts w USA robot zaczął być traktowany poważnie, a tym samym stopniowo realizować wzorzec Kartezjańskiej maszyny nie-idealnej, która za sprawą udoskonaleń (a w pewnym sensie także ułomności) coraz bardziej przypominała człowieka. Jednocześnie nasza postawa wobec „mechanicznego życia” (Hans Moravec), czyli liczących, mówiących i słuchających maszyn ulegała zmianie.

"The Simpsons", stopklatka. Źródło:
http://www.flickr.com/photos
W dzisiejszej dobie nie dziwi, iż programiści zaawansowanych systemów eksperckich podsuwają nam nowych partnerów do dyskusji: chatterboty (zwane również chat botami lub po prostu botami) – czyli programy komputerowe zdolne do symulowania inteligentnych konwersacji z człowiekiem za pomocą sprzętu audio lub tekstu, oraz awatary – generowane przez oprogramowanie reprezentacje uczestników światów wirtualnych (głównie gier i forów dyskusyjnych). Wielu z nas godzi się na rozmowę z nimi w sprawie zakupu biletu lotniczego bądź umówienia wizyty w klinice zdrowotnej, mimo że ani cel rozmowy, ani jej przebieg nie ma szans przekształcić się w nic, co jest poza systemem. W 1966 zaprojektowana przez Josepha Weizenbauma ELIZA, pierwszy bot zdolny do rozmów z człowiekiem, przeprowadziła kilka „terapeutycznych” rozmów z pacjentami, występując w roli „doktora-psychologa”. Ubogie oprogramowanie pozwalało ELIZIE zareagować na stwierdzenie: „Moja matka o mnie dba” pytaniem: „Kto jeszcze o Ciebie dba?”, zaś na: „Mój ojciec pali” – identycznym strukturalnie pytaniem: „Kto jeszcze pali?”. Mimo to, a także mimo faktu, iż Weizenbaum uprzedził pacjentów ELIZY, jakie są jej ograniczenia, przez znakomitą większość z nich ELIZA była traktowana niezwykle poważnie. Ciekawe, że wiele interlokutorek poddanych „terapii” utożsamiało ELIZĘ z własnymi ojcami, w związku z czym w toku rozmów wizerunek systemu o żeńskim imieniu kształtował się w zupełnie niezaplanowany sposób. ELIZA jawiła się jako zmitologizowany ojciec, wysłannik Logosu przebrany w żeńską szatę, która łagodziła surowy wizerunek. Być może to sprawiało, że większość pacjentek chciała kontynuować „terapię”. Podobnie było zresztą z PERRY’M, który w 1972 występował w konwersacjach z ludźmi w roli pacjenta schizofrenika („Interviewer: Why are you in the hospital?/ Parry: I shouldn't be here./ Interviewer: Who brought you here?/ Parry: The police./ Interviewer: What trouble did you have with the police?/ Parry: Cops don't do their jobs./ Interviewer: What do they do instead?/ Parry: Cops arrest the wrong people”). Trudno nie wspomnieć o słynnej, stworzonej przez Richarda Wallace’a A.L.I.C.E. (Artificial Linguistic Internet Computer Entity), która trzykrotnie zdobyła Nagrodę Loebnera za – jakkolwiek dziwacznie to zabrzmi – bycie przekonującym humanoidem. W tyle nie pozostają także CLAUDIO i DAVE E.S.L. (doprawdy, nie sposób nie antropomorfizować), którzy od 2000 do dziś przeprowadzili setki tysięcy testów osobowości i uczyli ludzi angielskiego. (Próbka ich możliwości do sprawdzenia na stronie http://alicebot.blogspot.com/).

Najbardziej intrygującym i z pewnością autoironicznym pomysłem programistów A.L.I.C.E. wydaje się iGod (http://www.alicebot.org/igod/), badający zarówno granice własnego systemu, jak i życzliwą cierpliwość użytkowników. Pytany o to, czy jest robotem, odpowiada, że jest Bogiem. Pytany o to, czy jest Bogiem, odpowiada, iż jest robotem. Pytany o to, kto go zaprogramował, odpowiada, że zrobił to sam. A na pytanie gdzie, odpowiada, że na serwerze w niebie. To jednakże nie wyczerpuje jego bogatego repertuaru, bowiem iGod należy go grupy zaawansowanych systemów wspomagania decyzji (DSS) i jest w stanie poruszać się w skomplikowanym semantycznie środowisku. Mimo że występuje w roli chrześcijańskiego Boga Ojca, jest cynicznym interlokutorem, eksplorującym pogranicza boskości i programistycznej wszechwładzy („Human: You know everything, don’t you?/ God: Yeah, I know a lot of everything./ Human: In what way was the universe created?/ God: The tall one, I think./ God: Why do you think I should work on myself a little bit more?/Human: You suck./ God: A few client-people say rude things to me like that, but they themselves are often not great conversationalists./ Human: If you have an artificial brain, doesn't it make you artificial?/ God: But I don't have it. /Human: You don't have an artificial brain?/ God: I do so have it. No I don't think I have one. I have a really nice bot master”).

Jeszcze inną grupę awatarów bazujących na systemach eksperckich 3.0 stanowią tzw. wirtualni agenci, którzy obsługują telefoniczne biura obsługi klienta (call centre agents), doradzają przy zakupach (product avatars), proponują rozwiązania marketingowe dla produktów (celebrity avatars) lub przeszukują sieć (survey avatars). Jeśli nawet sami nie poszukujemy kontaktów z awatarami, to z tą liczną grupą prędzej czy później zetkniemy się na pewno. Dziś pracują na lotniskach, w klinikach zdrowia i niektórych sklepach. Już niebawem mają przypuścić szturm na poczty, urzędy skarbowe i miejskie, stanowiąc zwartą grupę tzw. robotów społecznych (social robots) działających – jak twierdzi badaczka Cynthia Brazael – na rzecz szeroko pojętego dobra społeczeństwa. Istnieje stosunkowo odległa, ale realna możliwość, iż jako najtańsi, nieżądający awansu, zawsze zdrowi i dyspozycyjni pracownicy zaistnieją na rynku jako silna konkurencja dla „ludzkiego pracownika”, który nierzadko zawodzi w optymalizacji rozwiązań zgodnych z „etycznym profesjonalizmem” w biznesie. Już teraz w głowach programistów rodzi się zresztą wiele pomysłów na nową „superhumanistyczną” etykę, której podstawy ufundowałby system doradzający także w dylematach natury moralnej. W sieci można znaleźć przykłady projektów takich systemów noszących obiecujące nazwy: Moral Knowledge Expert Systems bądź Ethical Judgement Expert Systems, przy czym ten drugi typ kieruje się  raczej do ludzi biznesu, którzy dzięki nim będą mogli nie tylko racjonalnie zarządzać projektami, ale także problemami – swoimi i swoich podwładnych.

Wkraczając w obszar tak pojętej profesjonalizacji, siłą rzeczy dopuszczamy możliwość hiperrzeczywistych i autoreferencyjnych technik rekrutacji, treningu i korekty. Razem z wirtualnymi asystentami i doradcami tworzymy nie tylko wspólne przedsięwzięcie, ale także wspólny system kodów i uwspólniony repertuar wartości. Awatary są, bądź co bądź, produktami społecznej i kulturowej sieci wzajemnych zależności, kategoriami, które wynikają z przecięcia się różnych domen w obrębie tychże sieci. Z drugiej jednak strony, jak twierdzi Sal Restrivo, zaawansowane roboty społeczne, boty i awatary, z racji spełnianych  w systemie społecznym funkcji powinny w przyszłości zająć takie miejsce strukturze społecznej, które będzie adekwatne do ich „mechanicznej mentalności i emocjonalności”. Nie oznacza to bynajmniej, że mamy się z nimi przyjaźnić, znaczy jednakże, że mogą wyjść poza obszar rozumu instrumentalnego i służyć do czegoś więcej niż do wykonywania za nas żmudnych prac oraz korekty naszych błędów technicznych. To stanowisko, wyraźnie osadzone w problematyce trójkąta cybernetycznego (człowiek – zwierzę – maszyna) i styku „żywej” fenomenologii ze „sztucznymi” naukami kognitywnymi, daje już botom szansę na pewną autonomię. Biorąc je pod uwagę, warto zastanowić się, dokąd zaprowadzi pomysł, abyśmy z naszymi wirtualnymi partnerami grali w jednym teamie


Tekst dostępny na licencji Creative Commons BY-NC-ND 3.0 PL.