Nie obiecuję, że stworzę bezpieczną technologię
affectiva.com

15 minut czytania

/ Media

Nie obiecuję, że stworzę bezpieczną technologię

Rozmowa z Rosalind W. Picard

Teraz jest moda na produkty inteligentne, wszystko staje się „smart”, a sama koncepcja inteligencji się dewaluuje. Moim celem nie jest robienie fury pieniędzy na gadżecie, którym ktoś się pobawi, pochwali w mediach społecznościowych i po tygodniu odłoży

Jeszcze 4 minuty czytania

ALEKSANDRA PRZEGALIŃSKA: Zacznijmy od Affectivy. Twoim pierwszym komercyjnym projektem była śledząca emocje opaska na rękę. Po co powstała?
ROSALIND W. PICARD:
Affectiva miała być pierwotnie urządzeniem służącym ludziom z autyzmem do przewidywania emocjonalnych wybuchów. Z projektu badawczego przekształciła się jednak w technologię komercyjną, ponieważ chcieliśmy, żeby była rzeczywiście dobra. Jako zespół wiedzieliśmy doskonale, że nawet tysiące próbek ekspresji różnych emocji, które moglibyśmy zebrać i zarejestrować w warunkach laboratoryjnych, to stanowczo za mało. Potrzebowailśmy milionów przykładów grymasów twarzy, skurczów mięśni, uniesień brwi czy drgań warg, żeby nasz system zasilić autentyczną wiedzą. Chcieliśmy, żeby to było adekwatne do doświadczenia w prawdziwym życiu, gdzie stykamy się z milionami różnych wyrazów twarzy. Nie było nas jednak stać na linearne skalowanie w laboratorium ani nie mogliśmy do niego zapraszać milionów ludzi. Dlatego wyszliśmy z laboratorium i wkroczyliśmy w świat online. Postanowiliśmy w sieci zarejestrować miliony wyrazów twarzy, a do tego potrzebni nam byli komercyjni partnerzy.

Jacy partnerzy?
Przede wszystkim przeglądarki internetowe. Nasz software chciało stosować również wiele zespołów projektowych na MIT – choćby do trenowania autonomicznych samochodów, ćwiczenia maszyn w zakresie sprzedaży czy zbierania doświadczeń zakupowych klienta, przewidywania reakcji graczy komputerowych, testowania innowacyjnych metod dydaktycznych wykorzystujących pomiary zaangażowania ucznia. Kiedy rozbudowujesz taki projekt, chcesz, żeby był użyteczny dla jak największej liczby innych zainteresowanych zespołów. Dlatego zaprosiliśmy do współpracy inwestorów, którzy potrafią adaptować projekt do potrzeb kolejnych grup konsumentow, koncentrować się na działaniach rynkowych i budować interfejsy, których rynek faktycznie potrzebuje. Tak powstała Affectiva, czyli narzędzie stosowane między innymi do optymalizacji trailerów filmowych pod kątem treści, które użytkownik faktycznie chciałby zobaczyć i na które będzie reagował z większym zaangażowaniem. Partnerstwo z biznesem dało nam wystarczającą ilość danych. Teraz nasze oprogramowanie jest darmowe dla każdej firmy, której wartość nie przekracza 1 mln dolarów. Ty i każdy użytkownik indywidualny możecie mieć Affdexme na swoim telefonie. To całkowicie darmowa aplikacja do  pomiaru emocji – pozwala rozumieć, na czym polega przetwarzanie emocji i jak się je wykonuje.

Rosalind W. Picard

Założycielka laboratorium informatyki emocjonalnej (inaczej zwanej przetwarzaniem afektywnym) w Media Labie na MIT w Bostonie. Pomysłodawczyni i współwłaścicielka dwóch startupów: Affectivy  – oprogramowania do rozpoznawania afektów z wyrazu twarzy, oraz Empatiki – opaski na rękę, która bada parametry emocjonalne i fizyczne, m.in. chorych na padaczkę

Twój kolejny projekt to opaska Empatica.
To była naturalna konsekwencja poprzedniego projektu. W przypadku Affectivy postawiliśmy jedynie na oprogramowanie, nie rozwijając do tego żadnej ubieralnej technologii. Jednak w mojej głowie cały czas tkwiła idea, że to właśnie sprzęt jest bardzo ważny i że w niedługim czasie nastąpi bardzo dynamiczny rozwój technologii ubieralnych. I zaczęłam nowy projekt, którego celem było zbudowanie opaski na rękę. Na początku nasza firma nazywała się Physio i koncentrowała na przetwarzaniu płynących z organizmu danych fizjologicznych. Na tym etapie wiele firm i startupów pukało do moich drzwi. Wszyscy potencjalni partnerzy chcieli tworzyć produkty typowo konsumenckie, ale ja tym razem chciałam zrobić projekt stricte medyczny, który będzie pomagać ludziom. Uparłam się na produkt medyczny, który byłby jednak na tyle atrakcyjny, że każdy konsument, a nie tylko pacjent, chciałby go posiadać. To była spora różnica. Często jest tak, że produktom czysto konsumenckim po prostu brakuje długotrwałej wartości. W efekcie bardzo szybko stają się bezużyteczne i trafiają na półkę. Spójrzmy chociażby na te wszystkie świetnie wyglądające gadżety do rzekomego pomiaru stresu albo innych parametrów, które obiecują, że dzięki przestrzeganiu mniej lub bardziej wyrafinowanych reguł nasze życie zmieni się na lepsze. Nic z tego nie wynika. Chcieliśmy, żeby nasz produkt zyskiwał z czasem i żeby użytkownicy i użytkowniczki stopniowo odkrywali jego nowe cechy. Teraz jest moda na produkty  inteligentne, wobec czego wszystko staje się inteligentne albo „smart”, a sama koncepcja inteligencji po prostu się dewaluuje. Moim celem nie jest robienie fury pieniędzy na gadżecie, którym ktoś się pobawi, pochwali w mediach społecznościowych i po tygodniu odłoży.

To prawda. Również z moich badań i obserwacji wynika, że jeden tracker zastępuje następny. Zabawa trwa maksimum kilka miesięcy, a potem na rynku pojawia się coś nowego albo użytkownik czy użytkowniczka po prostu się nudzi i przestaje używać danego urządzenia.
Rosalind W. Picard / fot. Andy RyanRosalind W. Picard / fot. Andy RyanDlatego stworzenie kolejnego konsumenckiego produktu wcale mnie nie interesowało. Widzę ogromny potencjał urządzeń ubieralnych w medycynie. Rzadko używam słowa rewolucja, ale tu nie waham się go użyć. Technologie ubieralne w medycynie to rewolucja, ale rewolucja kosztowna i trudna. Musisz zbudować produkt bardzo wysokiej jakości, a wielu producentów po prostu nie chce iść tą drogą, bo to nastręcza problemów i kosztów, wymaga znacznie więcej cierpliwości i wytrwałości. Nie jest łatwo znaleźć zrozumienie na rynku urządzeń tego typu. Szczęśliwie w czasie prac nad Physio do naszych drzwi zapukali twórcy Empatiki – dotychczas konkurencja wobec naszej Affectivy. Okazało się, że nasze cele są zbieżne i po 6 miesiącach „biznesowych randek” doszło do fuzji dwóch małych firm. Tak powstała Empathica Inc. Razem z włoskimi partnerami zdecydowaliśmy, że w pierwszej kolejności nasze urządzenie będzie wspierać epileptyków.

I  jak? Działa?
Działa! I ratuje życia wielu ludzi na całym globie. Człowiek, który cierpi na epilepsję, żyje w nieustającym stresie, bo w każdej chwili może spotkać go atak choroby. Dzięki trackerowi pozwalamy mu na bieżąco monitorować stan organizmu. Ciało przestaje być tajemnicą w najbardziej negatywnym sensie – przestaje być czarną skrzynką, której nie da się rozszyfrować. Dostajemy maile z budującymi informacjami od pacjentów i ich rodzin. Empatica stała się towarzyszem ich życia 24 godziny na dobę.

Produkty medyczne to trudna ścieżka w królestwie gadżetów?
Tak, ale opłaciła się, właśnie w niefinansowym sensie. Mamy certyfikat medyczny w UE – jesteśmy oficjalnie medycznym urządzeniem, także w Polsce. Jestem szczęśliwa, że zarówno w przypadku Affectivy, jak Empatiki zrobiliśmy jedną ważną rzecz – dobrze wybraliśmy inwestorów. Na początku, kiedy tworzysz startup, zwłaszcza niekonsumencki, koniecznie chcesz uzyskać inwestorskie finansowanie. My odmawialiśmy wielu firmom, wprawdzie z ciężkim sercem, i szukaliśmy tego właściwego inwestora, rozumiejącego nasze cele. Odrzucaliśmy projekty, które mogły przekształcić się w narzędzia kontroli.

Co dzieje się z danymi osób używających Empaticę?
Nic specjalnego – budujemy za ich pomocą analitykę i nic poza tym. Nie sprzedajemy ich ani nie rozdajemy. Zresztą zawsze możesz nie wyrazić zgody na ich zbieranie. 

Trudno oprzeć się wrażeniu, że projekty, które tworzysz to – w sensie społecznym – obosieczne miecze.
Przetwarzanie emocji to dyscyplina, którą jakiś czas temu sama wymyśliłam. Pisząc pierwszą książkę na jej temat, kiedy dziedzina była jeszcze w zarodku, jeden rozdział poświęciłam zagrożeniom, jakie ona ze sobą niesie. Wielu ludzi mówiło mi wtedy, że strzelam sobie w stopę, hipotetycznie oskarżając rodzącą się dopiero dyscyplinę naukową, która nawet jeszcze nie jest uformowana i przed którą daleka droga. Uważałam jednak, i dalej się tego trzymam, że podkreślenie problemów, jakie może ona ze sobą nieść, jest absolutnie niezbędne. Musiałam otwarcie powiedzieć, że nie dam nikomu gwarancji, że ta dyscyplina się nie wykoślawi. Nie obiecam, że stworzę technologię, która będzie stuprocentowo bezpieczna.

Stawiam sprawę jasno i zależy mi, żeby społeczeństwo rozmawiało na ten temat. My wszyscy powinniśmy móc zadecydować, czy można pewne technologie stosować i w jakich okolicznościach, po jakich trajektoriach mają się one rozwijać. Na przykład, wykrywacza kłamstw nie można stosować podczas rekrutacji do pracy. Jest to narzędzie, które w sensie praktycznym nadaje się do takich rozmów, ale absolutnie nie nadaje się do nich w sensie etycznym. Zatem w przypadku wykrywacza kłamstw na to się umówiliśmy i mam nadzieję, że tak pozostanie. Musimy debatować na wczesnym etapie.

Technologia nuklearna istnieje, ale nie stosujemy jej, nie myślimy o niej cały czas – umówiliśmy się, że co do zasady jej nie używamy. I to samo odnosi się do każdej nowej technologii. Naszym zdaniem – myślę, że zdaniem wielu ludzi na MIT – technologia taka jak Affectiva jest tworzona z myślą o tym, by okazywać szacunek ludzkim emocjom. Jeżeli zaczynasz ludzi nagrywać, to może to mieć wiele rozmaitych odcieni. Nagrywając bez uprzedzenia i w niewiadomych celach kobietę, która bierze prysznic, nie wykorzystujesz technologii dobrze. Ale jeżeli zamontujesz kamerę rejestrującą reakcje w oczach pluszowego misia, którego umieścisz w miejscu publicznym, i poinformujesz o obecności tej kamery, a dzięki temu misiek nawiąże interesujący dla ciebie kontakt – to będzie to poznawczo ubogacające. Inna rzecz, że przy okazji może on nakłonić do zajrzenia do sklepu z zabawkami podobnymi do niego – ale tutaj już klasyfikacja moralna wcale nie jest tak jednoznaczna. Według mnie nie można tej sytuacji jednoznacznie potępić.

W kapitalizmie nie można.
Niezależnie od systemu społeczno-politycznego spodziewasz się kamery w oku robota. Robot, który cię nie widzi, jest głupi. Ale ta sama kamera, która śledzi cię w toalecie, jest przerażająca. Nie chodzi zatem o to, żeby w ogóle nie instalować nigdzie kamer, tylko żeby instalować je z poszanowaniem uczuć ludzi, którzy staną się ich obiektami.

Niedawno pokazałam swoim studentom w Polsce Affectivę w wersji ze strony internetowej. Oglądałam reklamę, a potem dostawałam informację zwrotną o tym, jakie emocje towarzyszyły mi podczas oglądania. Studenci zareagowali dwojako: grupa pierwsza, sceptyczna, pytała, czy jeśli to narzędzie wejdzie w sojusz z YouTube'em, to my będziemy wtedy oglądali YouTube, a on będzie oglądał nas…
Wiesz, Affectiva już teraz może to robić, w końcu jest wtyczka do YouTube i innych narzędzi…

O, szybko poszło! Druga grupa studentów mówiła mi, że nie przeszkadza im monitoring i zbieranie danych tak długo, jak długo są dobrze obsługiwani, a prywatność i tak nie istnieje.
No właśnie, to ciekawe zagadnienie. Nie tak dawno temu postawiliśmy tu w Cambridge przed Media Labem tak zwany moodmeter – tak naprawdę to po prostu detektor uśmiechu, ale nazwa jest chwytliwa, więc został detektorem nastroju. Kiedy go wystawiliśmy, stresowałam się bardzo, przygotowałam stronę internetową, na której ludzie mogliby składać zażalenia, uruchomiliśmy linię telefoniczną i… nic. Nie było żadnych skarg. Nikt się nie przejął. A kiedy dziesięć lat temu w Media Labie zainstalowana została – ze względów bezpieczeństwa – kamera rejestrująca, kto wchodzi do biura, wszyscy szaleli ze strachu i ze złości. Sama się zastanawiam, czy jeszcze rozumiem tych ludzi. Myśląc, że będą się skarżyli, popełniłam błąd nie mniejszy niż światowe sondażownie przed wyborem Donalda Trumpa na prezydenta. No cóż, wydaje mi się, że studenci nie dosyć się boją.

Wolałabyś, żeby się bardziej bali?
Wiesz, nasuwa mi się tu skojarzenie z eugeniką. Zwolennicy i praktycy hitlerowskiej eugeniki chcieli mierzyć parametry twarzy i głowy, by stwierdzać, kto będzie najbardziej inteligentny, kogo warto hodować. Ja się boję skrzyżowania ogromnej ilości danych z pomysłem na porównywanie ludzi – wybieranie lepszych i gorszych.

No to może regulacje prawne?
Andrew Fletcher, szkocki poeta i polityk, powiedział kiedyś: „Pozwólcie mi pisać pieśni narodu, nie dbam o to, kto stanowi jego prawa” (Let me make the songs of a nation, I care not who makes its laws). Dla mnie, tak samo jak dla Fletchera, ważniejsze jest rozmawianie o wartościach, głęboki dialog ze społeczeństwem, a nie regulacje prawne. Ludzie łamią prawo, którego nie rozumieją i z którym się nie zgadzają. W przypadku technologii chciałabym, żebyśmy się wszyscy dobrze zrozumieli.

A co z przyszłością twojej dziedziny? Czy w informatyce afektywnej należy się spodziewać kolejnej rewolucji?
Czy znasz narzędzie do prognozowania firmy Gartner, które nazywa się Hype Cycle? W skrócie jest to taka oś, na której ustawione są różne nowinki technologiczne z perspektywy oczekiwań konsumenta: tych rozdmuchanych i czekających na spełnienie oraz tych zawiedzionych.

Tak, twojej dyscyplinie w ciągu ostatnich dwóch lat wywróżono rozwój szybszy, niż sama byś chciała. [Śmiech]
No tak… Jesteśmy na samym czubku osi ludzkich oczekiwań. Wszyscy spodziewają się po naszej dyscyplinie cudu albo apokalipsy. Ja natomiast uważam, że jeżeli mądrze będziemy nią sterować, czyli tak, by ludzie stali się lepsi dla siebie i dla innych, to powinno być w porządku. Zresztą to w ogóle dotyczy całego wielkiego obszaru sztucznej inteligencji.

Sztuczna inteligencja ostatnimi czasu generuje masę oczekiwań, ale i lęków.
Ludzie myślą, że nadejścia generalnej sztucznej inteligencji nie da się uniknąć. Marvin Minsky – znakomity naukowiec i mój serdeczny przyjaciel, który niedawno zmarł – powiedział kiedyś prowokacyjnie, że w przyszłości zbudujemy takie maszyny, że będziemy mogli się cieszyć, jeśli zechcą one utrzymać nas przy życiu jako swoje domowe zwierzątka. Ktoś jednak wziął to na poważnie i teraz coraz więcej ludzi głosi radosną lub mrożącą krew w żyłach nowinę, że osobliwość jest nieuchronna.

Technologiczna osobliwość

Hipotetyczny punkt w przyszłym rozwoju cywilizacji, w którym postęp techniczny stanie się tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne. Głównym wydarzeniem, mającym do tego doprowadzić, byłoby stworzenie sztucznych inteligencji przewyższających intelektualnie ludzi.
Za: Wikipedia / CC BY-SA 3.0

Osobliwość nadejdzie… i co się wtedy stanie?
Różnie może to wszystko wyglądać, ale na razie wiele jeszcze zależy od nas. My, naukowcy, chcemy budować rzeczy, których ludzie potrzebują, a świat musi z nami rozmawiać.

Jak świat ma rozmawiać z naukowcami?
Każda okazja jest dobra. Róbmy ludzkie rzeczy: dyskutujmy, nie zgadzajmy się ze sobą, debatujmy. I tak żyjemy głównie online, więc naukowcy – nawet jeśli kiedykolwiek tak o sobie myśleli – już nie przebywają w wieży z kości słoniowej. Ostatecznie jako gatunek chcemy optymalnego świata dla nas i dla maszyn. Informatyka afektywna w tym pomoże. Moja dziedzina to rzeczywiście taki akcelerator, ale ten akcelerator nie zajmuje się wartościami. O wartościach decydujemy my. Wszyscy.


Tekst dostępny na licencji Creative Commons BY-NC-ND 3.0 PL.