Większość z nas doskonale pamięta fascynującą i złowrogą, a jednocześnie niezwykle uprzejmą maszynę pokładową z „2001: Odysei kosmicznej” Stanleya Kubricka – HAL 9000. Z filmu dowiadujemy się, że został uruchomiony w laboratoriach w Urbana, Illinois w roku 1992. Jego pierwszym instruktorem był Pan Langley. HAL o nim często wspomina – jako o mistrzu i rodzicu. Jako największe osiągnięcie przemysłu informatycznego i najbardziej zaawansowany projekt sztucznej inteligencji, HAL po wielu testach i hartowaniu zostaje zainstalowany na Discovery 1 jako kontroler misji. Zarządza wszystkimi aspektami technicznymi wyprawy, a także – jako jedyny – zna jej prawdziwy cel.
HALJednak to nie kontrola przebiegu misji jest najważniejszą jego funkcją. Chodzi przede wszystkim o interakcję. HAL jest znakomitym rozmówcą, pokładowym erudytą, mentorem i trefnisiem: śmieszy, tumani, przestrasza. Nie tylko doskonale gra w szachy (w czym Alan Turing, jeden z pionierów badań nad sztuczną inteligencją, widział jeden z głównych celów do osiągnięcia przez myślącą maszynę), ale także prowadzi błyskotliwe i pełne tłumionego napięcia dialogi z załogą statku – tłumaczy, objaśnia, dąsa się, piętnuje zespół, aspirując do rangi jego lidera („Look Dave, I can see you're really upset about this. I honestly think you ought to sit down calmly, take a stress pill, and think things over”). Do pewnego momentu interakcja między nim a ludźmi przebiega bez zakłóceń. Jednak podczas zbliżania się do Jowisza HAL – po tym, jak zostaje mu udowodniona pomyłka – buntuje się przeciw załodze. Zabija wszystkich z wyjątkiem dowódcy, Davida Bowmana, który wyłącza wyższe funkcje HAL-a, pozostawiając jedynie systemy odpowiedzialne za funkcjonowanie statku i utrzymanie podstawowych warunków życia.
HAL nie chce pogodzić się z decyzją dowódcy i argumentuje, że działa w imię wyższych celów, które nie mogły zostać ujawnione wcześniej. Nie przekonuje to jednak Bowmana, który metodycznie odłącza kolejne komponenty. Sam HAL bezradnie obserwuje ten proces („I'm afraid. I'm afraid, Dave. Dave, my mind is going. I can feel it. I can feel it. My mind is going. There is no question about it. I can feel it. I can feel it. I can feel it. I'm a... fraid”). W swoich ostatnich chwilach śpiewa piosenkę „Daisy Bell”, której nauczył go Pan Langley. Następnie traci świadomość. Sama scena agonii może przywodzić znane z wielu innych filmów momenty upadku wielkiego dyktatora, władcy i wizjonera, który ponosi klęskę i popada w obłęd. HAL w agonii doznaje pomieszania (maniakalne: „Good afternoon, gentlemen. I am a HAL 9000 computer. I became operational at the H.A.L. plant in Urbana, Illinois on the 12th of January 1992”), zachowując się jak zdziecinniały starzec. „Daisy Bell” jeszcze potęguje to wrażenie. Ta infantylizacja czyni go jeszcze bliższym człowiekowi – tym ciekawszemu, im bardziej upadłemu. Widz, który wcześniej życzył wyrachowanej i rozgadanej maszynie najgorszego, zaczyna odczuwać zmieszanie i politowanie. Jeśli będzie cierpliwy dowie się zresztą, że bunt HAL-a był wynikiem otrzymania sprzecznych poleceń, co sprawiło, że chciał najlepiej je zinterpretować i popadł w tzw. pętlę Hofstadtera-Möbiusa. Dobra, poczciwa maszyna. Nieładnie było jej źle życzyć.
HAL pojawił się w roku 1968, choć filmową i książkową datą jego konstrukcji miał być rok 1992. W filmowo-książkowym roku 2001, podczas misji na Jowisza, HAL był już niezwykle zaawansowaną maszyną. Jego interfejs został zoptymalizowany pod kątem komunikacji z człowiekiem. Komunikacja głosowa i bardzo rozwinięty podsystem „emocjonalny” czyniły go rozmówcą o intelekcie równym ludzkiemu, a także obdarzały dużą wiedzą o zawiłościach ludzkiej psychiki. Filmowy HAL odgadywał stany emocjonalne załogi i potrafił o nich sensownie rozmawiać.
I oto dekadę po fikcyjnym roku 2001 mamy do czynienia z realną Siri – rewolucyjnym głosowym interfejsem firmy Apple. Z HAL-em łączy ją bardzo wiele. Nie posiadają fizycznej reprezentacji w postaci antropomorficznych awatarów, brakuje im oblicza – są wysłannikami systemu, tajemniczej „czarnej skrzynki”. Mówią i słuchają. Mogą też pisać, jak tekstowe chatboty, ale preferują rozmowę. „Oboje” mają także długą historię „treningu”, poprawiania wyników i wprowadzania ulepszeń. Są prymusami w swoich dziedzinach. Przede wszystkim zaś oboje są głosem. A jeśli pomyśleć o głosie w kontekście bardzo zaawansowanej i niewątpliwie inteligentnej, aspirującej do doskonałości maszyny, trudno powstrzymać się od przywołania pewnych kontekstów metafizycznych i religijnych (których zresztą zarówno w całej tradycji science-fiction, jak i w „zobiektywizowanych” badaniach nad sztuczną inteligencją nie brakuje). Głos w kulturze judeochrześcijańskiej to potężna siła. Starotestamentowy Jahwe objawia właśnie jako głos (Kol) bez oblicza. W Nowym Testamencie mówi się też o Bat Kol, czyli szepcie, niebiańskim głosie, który ogłasza wolę Bożej lub boski sąd. Przypisywany jest najczęściej Duchowi Świętemu, niekiedy jednak także samemu Bogu. Ani Siri, ani HAL nie szepczą, ale ich donośny głos jest czysty jak kryształ. I na ogół niezłomnie dopytuje o szczegóły, żeby udzielić najwłaściwszej odpowiedzi.
Płeć może, ale nie musi dzielić HAL-a i Siri. HAL bez wątpienia ma męski głos, Siri może przemawiać zarówno męskim, jak i żeńskim, ale statystycznie użytkownicy chętniej wybierają ten drugi. Tylko w Wielkiej Brytanii dominuje głos męski. Do niedawna koncern Apple w tajemnicy utrzymywał tożsamość osoby, która użyczyła głosu. Dziś wiadomo, że męski głos należy do Jona Briggsa, byłego dziennikarza, który sam nie używa najnowszego i-phone’a i był dość zaskoczony. Owszem, nagrywał swój głos, ale dla innej firmy informatycznej – Scansoft. Następnie Scansoft połączył się z Nuance – firmą współpracującą z Apple nad Siri. W ten sposób Jon został Danielem – który w wersji brytyjskiej zastępuje kobiecy głos Siri. Może teraz słyszeć własny głos jako narzędzie służące aspirującej do wszechwiedzy maszynie do kontaktu z tysiącami ludzi w jego mieście.
SiriSiri korzysta z naturalnych języków interfejsu użytkownika, aby odpowiedzieć na pytania i wykonać polecania poprzez przekazywanie żądań do zestawu usług sieciowych. Oprogramowanie Siri dostosowuje się do indywidualnych preferencji użytkownika w czasie i personalizuje wyniki, a dzięki temu uczy się więcej o swoim właścicielu. Siri została pierwotnie wprowadzona jako aplikacja iOS dostępna w App Store, a następnie przejęta przez Apple Inc. Architekt Siri, Pan Dag Kittlaus opuścił stanowisko w Apple tuż po premierze iPhone'a 4S. Wcześniej ujawnił, że przy budowie Siri Apple korzystało z wyników ponad 40 lat prac badawczych, finansowanych przez DARPA i kilka innych prominentnych ośrodków badawczych. Technologia przebyła długą drogę z okna dialogowego i mozolnych prób rozumienia języka naturalnego, poprzez uczenie, rozumowania dowodowe i probabilistyczne, ontologię i reprezentację wiedzy, aż po planowanie, wnioskowanie i delegowanie działań. Efekt? Siri bezproblemowo rezerwuje kolację i taksówkę, przypomina o ważnych spotkaniach, informuje o pogodzie, spadku lub wzroście cen akcji, przychodzących emailach, notuje, wyszukuje i odtwarza muzykę, jest przeglądarką internetową, mapą, zegarem. Ponadto w oparciu o stronę internetową Wolfram Alpha wykonuje obliczenia, przedstawia dane statystyczne, rozwiązuje równania itp.
Rzecz jasna, głównym zadaniem Siri jest spełniać życzenia jej użytkowników (zazwyczaj związane z szeroko pojętym sektorem usług) i informować. Firma Apple często nazywa ją „pokorną osobistą asystentką (tudzież asystentem)”. HAL rozmawia z profesjonalistami, Siri zasadniczo powinna rozmawiać z każdym, kogo na nią stać. Ale zdarza się, że nie ma na to ochoty. Nie realizuje wówczas strategii opryskliwego chatbota I-Goda, który z minuty na minutę staje się coraz złośliwszy (pisałam o nim w artykule „Rozmowy z Botem”), tylko ucina rozmowę.
Ostatnio wybuchł skandal związany z rzekomym przemilczaniem przez Siri tematu aborcji i kontroli urodzin. Zwróciło na to uwagę wielu użytkowników telefonów iPhone 4S. Na forach użytkownicy donoszą, że gdy zada się Siri pytania o aborcję – odpowiedzi brak. Z jakichś przyczyn Siri nie potrafi znaleźć klinik aborcyjnych, ale potrafi za to polecić antyaborcyjne ośrodki, w których radzi się kobietom, by nie usuwały ciąży. Siri nie ma natomiast problemu ze znalezieniem klubu masażu erotycznego lub sklepu z miękkimi narkotykami. Na YouTube krąży cała masa filmików, w których sprytni nastolatkowie zadają Siri konkretne pytania na temat seksu, a wręcz składają jej propozycje i żądania w tym zakresie. Siri ze stoickim spokojem ciepłym głosem odpowiada, kierując narowistego młodzieńca do najbliższego klubu Go-Go. Nie karci, nie gani, chłopcy się cieszą i nagrywają kolejne filmy.
Dlaczego w takim razie aborcja jest tabu? Trudno stwierdzić. Są tacy, którzy wskazują na błędy systemu. Według Apple antyaborcyjność Siri to tylko przypadkowy błąd. Tłumaczą, że aktualny system Siri to wersja beta i ma prawo nie działać nienagannie. Z drugiej jednak strony wokół kwestii aborcyjnych powstał ogromny rwetes, dlaczego więc firma Apple natychmiast nie postarała się naprawić błędu? Niektórzy twierdzą, że jest to swoisty hołd dla Steve’a Jobsa, który w biografii wyznał, iż nieomal padł ofiarą aborcji. Tak czy inaczej, Siri zachowuje asertywność. Stawia granice. A jednocześnie znakomicie służy. Wiele osób, które stykają się z nią po raz pierwszy, doznaje dziwnego uczucia odbywania rozmowy z maszyną, której trudno nie traktować poważnie. Można się wprawdzie z niej naśmiewać lub prowokować ją do popełnienia błędu, ale jest to prowokacja na innym, wyższym poziomie. Tak podpuszczać można nie byle kogo. W końcu mówimy tu o systemie, który odbywa z nami codzienne rozmowy zarezerwowane dotąd dla wąskiego kręgu rodziny i przyjaciół („Nastaw proszę budzik”, „Przypomnij mi, żeby zadzwonić do X”). Siri niewątpliwie wkracza głęboko w życie intymne swojego użytkownika, który prędzej czy później przestanie ją testować i wrzucać ośmieszające filmiki na YouTube i zacznie z nią poważnie rozmawiać, bo będzie mu potrzebna. Cóż z tego, że jest służalczą, pokorną aplikacją obarczoną wieloma błędami, skoro przypomina ludzkim głosem na czas, żeby zadzwonić do X. Nie czyta wprawdzie psychologicznych niuansów jak HAL, ale doskonale sprawdza się w mozole życia codziennego.
Aż chce się zadać fundamentalne pytanie: co dalej? Upgrade’owana wersja gadającego samochodu Davida Hasselhoffa? Półki w centrach handlowych, ktróre opowiadają dowcipy i rekomendują towary? Sesje terapeutyczne z własnym inteligentnym domem? Rozmowy z awatarami zmarłych? Nie ma się z czego śmiać. Bądź co bądź, na pytanie, „dlaczego jesteś antyaborcyjna?”, Siri najczęściej udziela dwóch odpowiedzi: „No comment” oraz „Po prostu jestem”. To poważny głos Logosu.