Warunek lady Lovelace
rys. Joana Coccarelli, CC BY 2.0

24 minuty czytania

/ Media

Warunek lady Lovelace

Karolina Fedyk

Z kim rozmawiam, kiedy odpowiada mi ChatGPT? Czy jeśli uznam, że algorytm jest kreatywny i posiada umysł, znaczy to, że ma też przeżycia wewnętrzne? Czy będziemy w stanie kiedykolwiek to ocenić?

Jeszcze 6 minut czytania

„Maszyna analityczna nie ma możliwości stworzenia czegokolwiek” – stwierdziła w 1842 roku Ada Lovelace, pierwsza programistka, opisując projekt komputera Babbage’a. „Dopiero gdy komputery będą potrafiły coś zapoczątkować, będzie można uznać, że posiadają umysły”. Dla lady Lovelace zdolność zapoczątkowania czegoś była dość prosta: polegała na zrobieniu czegoś, czego nie przewidywał kod.

Gdy widzę obrazy wygenerowane przez algorytmy, wracam do tych słów. Bo może osiągnęliśmy już ten punkt, który Adzie Lovelace wydawał się nieosiągalny? Kto jest twórcą ilustracji zbudowanej na podstawie słów kluczowych i promptów? Z kim rozmawiam, kiedy odpowiada mi ChatGPT? Czy Midjourney jest twórcze? A jeśli uznam, że algorytm jest kreatywny i posiada umysł – czy to znaczy, że ma też przeżycia wewnętrzne? Czy będziemy w stanie kiedykolwiek to ocenić?

Choć zagadnienie myślących komputerów pasowało raczej do powstających wówczas pierwszych powieści science fiction, lady Lovelace nie była w swych rozważaniach odosobniona. Niedługo po jej śmierci pisarz Samuel Butler, ukrywający się pod pseudonimem Cellarius, opublikował list zatytułowany „Darwin wśród maszyn”. Przepowiadał w nim powstanie gatunków maszyn nie tyle równych żywym organizmom, ile przewyższających nas pod każdym możliwym względem. Butler nie miał wątpliwości, że między nami a maszynami dojdzie do konfliktu, który niechybnie przegramy. Znalazł jednak rozwiązanie: maszyny należy zniszczyć, nim osiągną stadium rozwoju tak zaawansowane, że umożliwiające dominację nad ludźmi.

Choć Butler użył właśnie tego słowa – „zniszczyć” – był świadom, że w ten sposób uczłowiecza i uosabia naszych przeciwników. Niemal z zazdrością opisywał ich umysły, wolne od wstydu i smutku. Wyobrażał sobie maszyny rodzące maszyny, lecz przyznawał, że jego ludzki umysł nie obejmie zawiłości maszynowych zalotów. Nie bez powodu przywołał Darwina; jak wielu jemu współczesnych, postrzegał ewolucję jako siłę kształtującą hierarchię żywych organizmów, od ciał prostych do złożonych. To właśnie maszyny miały stać się koroną stworzenia.

Metafory w naszej nauce

W głośnej książce „Metafory w naszym życiu” George Lakoff i Mark Johnson zwracają uwagę na metaforyczną naturę naszych procesów myślowych. Dowodzą, że metafora nie jest kwestią wyłącznie językową – tworzymy pojęcia metaforyczne jako umysłowe reprezentacje rzeczywistości (np. „argumentowanie, czy spór to wojna”). Przez to metafory nie tylko nadają strukturę naszym działaniom, ale determinują też, jak rozumiemy to, co robimy. Co więcej, metafory zawsze są niepełne i ograniczone: podkreślają pewne cechy opisywanego zjawiska, ale ukrywają inne. Na powyższym przykładzie autorzy pokazują, jak głębokie konsekwencje dla naszej komunikacji ma postrzeganie sporu jako sytuacji, w której trzeba „bronić” swojego stanowiska przed „przeciwnikiem”, by „wygrać”. Czy gdybyśmy spotkali przedstawicieli kultury, w której rozumie się spór jako taniec, rozpoznalibyśmy tę samą aktywność, która dla nas jest wojną? – pytają. Czy byłaby to dla nas inna, choć może podobna do sporu, forma dyskursu?

Nauki o poznaniu – psychologia poznawcza, neuronauka poznawcza, kognitywistyka i dziedziny pokrewne – są z konieczności uwikłane w metafory. Umysłu nie da się dotknąć ani zważyć. W laboratoriach psychologicznych posługujemy się silnie metaforycznymi modelami. Umysł staje się więc systemem współpracujących ze sobą bloków bądź modułów, rozległą siecią, magazynem lub czymś, co można trenować jak mięsień. W pamięci krótkotrwałej wyodrębniamy szkicownik wzrokowo-przestrzenny i pętlę fonologiczną, podobną do taśmy magnetofonowej. Nad wszystkim czuwa zaś centralny system wykonawczy.

Żadna teoria nie odcisnęła swojego śladu na naukach o poznaniu tak jak metafora komputerowa. Postrzeganie mózgu i umysłu przez pryzmat hardware’u i software’u jest powszechne i przezroczyste. Gdy opowiadam studentom o pamięci krótkotrwałej, z sali odzywa się głos: „To taki nasz RAM!”. Już dawno zdecydowaliśmy, że komputery są jak umysły. Wystarczyło tylko odwrócić metaforę. Maszyny stały się nam jeszcze bliższe.

Gra w naśladowanie

Gdy zaczęto budować maszyny o coraz większym stopniu złożoności, pytanie o to, czy potrafią one myśleć, wydawało się zasadne: wszak już porównaliśmy je do nas. Innego zdania był jednak Alan Turing. Zamiast tego pytania – na które nie dało się według niego odpowiedzieć – zaproponował inną miarę. Test Turinga w postaci, która przeniknęła do kultury popularnej, sprawdza to, jak dobrze maszyna potrafi udawać człowieka. Ale eksperyment myślowy słynnego kryptografa był jednak bardziej złożony.

Wyobraźmy sobie, jak proponuje Turing, grę, w której bierze udział troje ludzi: mężczyzna, kobieta i badacz (bądź badaczka), którego zadaniem jest ustalić płeć pozostałych uczestników rozgrywki na podstawie zadanych im pytań. Kobieta powinna pomagać badaczowi i udzielać odpowiedzi zgodnych z prawdą. Mężczyzna zaś wygra grę, gdy zmyli badacza. Jeśli więc mężczyzna zostanie zapytany o długość włosów, powinien odpowiedzieć coś w stylu: „Moje włosy są kręcone, a najdłuższe kosmyki mają dziewięć cali długości”. Co jednak się stanie, jeśli gracza zastąpi komputer? W tym teście to nie komputer podlega sprawdzianowi, a ludzki badacz. Pytanie, które zadaje Turing, brzmi: czy grając z kobietą i komputerem, badacz będzie się mylił równie często, co grając z kobietą i mężczyzną?

Jak zauważa transpłciowa pisarka Elizabeth Sandifer, test Turinga to w istocie test na passing – przekonujące odgrywanie roli społecznej przypisanej danej płci. Nie ma wszak znaczenia, kim są uczestnicy rozgrywki, jakiej długości mają włosy ani czy w ogóle są ludźmi – wystarczy, że ich odpowiedzi będą dostatecznie dobrze wpisywać się w przekonania badacza na temat płci. Sandifer przekonuje, że konstrukcja „gry w naśladowanie”, jak nazwał ją Turing, jest silnie zakorzeniona w doświadczeniu twórcy – kryptoanalityka i homoseksualnego mężczyzny, który wiedział, że nawet w czasach pokoju ukrywanie nienormatywnej tożsamości było dlań kwestią życia i śmierci.

Korzystając z komputera i internetu, staję się badaczką w grze Turinga. Jakie będą moje oczekiwania, nastawienia, przekonania? Komu i w jakich warunkach przyznam człowieczeństwo – a przynajmniej płeć kulturową, którą Turing uznał za coś inherentnie ludzkiego? Czy skoro mogę się mylić w tak podstawowych kwestiach, powinnam mierzyć się z jeszcze trudniejszymi pytaniami? Kim jestem, by odmawiać innym posiadania procesów psychicznych, stanów emocjonalnych, zdolności twórczych?

BRUTUS pisze opowiadania bizarro

Nie wszystkich przekonał test Turinga. Na początku XXI wieku naukowcy Selmer Bringsjord, Paul Bello i David Ferrucci wskazali jego istotną wadę: gra w naśladowanie rozgrywała się tak naprawdę pomiędzy dwójką ludzi – badaczem i osobą, która zaprogramowała komputer. Ostatecznie sukces komputera zależał od tego, jak dobrze przygotowano program; komputer tylko zapośredniczał zmyślność programistki. Jej celem było zaś nie zaprogramowanie komputera, który naśladowałby kobietę, a przewidzenie, jakie pytania zada badacz w grze i jak najlepiej go oszukać.

Moim zdaniem nie przekreśla to znaczenia testu Turinga jako narzędzia refleksji nad tym, komu i jak przypisujemy ludzkie cechy, choć traci on siłę jako eksperyment myślowy mający badać możliwości komputerów i sztucznej inteligencji. Tymczasem Bringsjord i współpracownicy zaproponowali alternatywę, nazywając ją testem Lovelace, na cześć pierwszej badaczki, która zakwestionowała twórcze zdolności maszyn.

Test Lovelace będzie zdany, jeśli twórca komputera nie będzie w stanie wyjaśnić, w jaki sposób komputer na podstawie informacji wejściowych stworzył informację wyjściową. To bardzo trudny warunek (lub, jak twierdzi profesor informatyki Mark Riedl, wręcz niemożliwy do spełnienia). Bringsjord i Ferrucci postanowili sprawdzić, jak z testem Lovelace poradzi sobie BRUTUS, napisany przez nich system, którego zadaniem było tworzenie opowieści twórczych literacko z punktu widzenia odbiorcy.

Czytałam jeden z tekstów „napisanych” przez BRUTUS-a – absurdalną, lecz spójną opowieść o ambitnym młodym akademiku, który przecenił swoje możliwości. Moją uwagę zwróciły barwne, poetyckie frazy, jak „bujna zieleń ochlapana słońcem”. Przy poszukiwaniu materiałów do tekstu o metaforach dotyczących algorytmu to algorytm zaskoczył mnie metaforą. Jak bowiem można opisać w ten sposób światło słońca, jeśli nigdy nie widziało się jego gry w koronach liści?

Bringsjord i Ferrucci dali mi na to odpowiedź. W kodzie BRUTUS-a zamieścili komendę umożliwiającą tworzenie fraz w stylu bizarro poprzez łączenie określonych typów obiektów (słońce, rośliny, ubrania, groby, oczy) z modyfikatorami – paradoksalnymi imiesłowami, jak „krwawiący”. Gdy BRUTUS „pisał” o oczach jak krwawiące słońca, nie znaczyło to, że rozumiał intensywność spojrzenia czy grozę tego obrazu. Ta fraza była tylko kombinacją dopuszczoną przez programistę. To Ferrucci przewidział, co zaskoczy czytelniczkę.

Dziecięca maszyna

Choć Turing odrzucał zasadność pytania o zdolność maszyn do myślenia, i tak nie uciekł przed metaforą umysłu. Gdy opisał programowanie komputera, który zagrałby w naśladowanie, postulował symulację umysłu dziecka. Według Turinga taki prosty mechanizm – choć nazwanie umysłu dziecka „prostym” jest z punktu widzenia psychologii rozwojowej i neurobiologii rażącym błędem – należałoby nauczyć pewnych faktów o świecie. Nauczyciele dziecięcej maszyny korzystaliby z warunkowania jako narzędzia nadzoru i kontroli: za złe odpowiedzi groziłaby kara, za dobre – nagroda. Te byłyby zaś wyrażone w postaci kodu, gdyż uczeń nie posiadałby fizycznego ciała. Tym samym kodem nauczyciele przekazywaliby polecenia. Uczeń-dziecko-komputer wykonywałby je, korzystając z zapisanych w pamięci danych i przeprowadzając na nich operacje logiczne, które z czasem stawałyby się coraz bardziej precyzyjne i efektywne. Jak? Ze względu na ogromną moc obliczeniową uczeń mógłby w krótkim czasie przetestować wiele możliwych kombinacji osiągnięcia rezultatu i wybrać tę najlepszą. Turing porównał ten proces do ewolucji zachodzącej w karkołomnym tempie. Nauczyciele nie musieliby – a wręcz nie mogliby – prześledzić wszystkich stadiów tego procesu.

Obecnie uczenie maszynowe (machine learning, w skrócie ML) jest bodaj najpowszechniejszym paradygmatem stosowanym w badaniach nad sztuczną inteligencją, do tego stopnia, że potocznie utożsamia się go z całą dziedziną. Metafora wrosła jeszcze głębiej. Komputer stał się już nie tylko umysłem, ale umysłem ucznia, umysłem dziecięcym, czystą tablicą do zapisania. Uczył się – co dla informatyków znaczyło, że coraz szybciej i dokładniej wykonywał polecenia. Behawioryści i biolodzy starej daty przytaknęliby: uczenie się to proces prowadzący do modyfikacji zachowania, ta z kolei zwykle prowadzi do lepszego przystosowania do środowiska.

Ta definicja celowo nic nie mówi o tym, jak ta modyfikacja zachowania zachodzi. Nie obejmuje różnorodności form zapamiętywania i organizowania informacji przez zwierzęta (w tym ludzi). Pomija wpływ kontekstu i tego, jak rekontekstualizujemy wiedzę w obliczu nowych doświadczeń i wrażeń; nastawienie emocjonalne; społeczny wymiar uczenia się; kwestie wyznawanych i nabywanych wartości, wglądu, zrozumienia. Jest bardzo szeroka, ale pomija to, co dla mnie najciekawsze – opis doświadczenia, tego, jak to jest: uczyć się.

Nie twierdzę, że badacze ML kierują się niecnymi pobudkami, przywołując metafory związane z ludzkim i zwierzęcym doświadczeniem. Ale widzę w tym przejaw tego, co badaczka sztucznej inteligencji Timnit Gebru określa jako „nazywanie aspiracyjne”: nadawanie nazwy, która sprawi, że w naszych oczach opisywana przezeń rzecz zyska określone właściwości. Na przykład słowa „dane w chmurze” sugerują lekkość i swobodę, nie gigantyczne zużycie energii elektrycznej. Jeśli uznamy, że algorytm się uczy, to zaczniemy przypisywać temu procesowi cechy, które kojarzymy z własnym umysłem. Ale zdaniem Gebru drugi cel nazywania aspiracyjnego to przesunięcie odpowiedzialności. Skoro algorytm uczy się, nie musimy pytać o to, kto właściwie go uczy.

Stochastyczne papugi

Nazywanie aspiracyjne, szczególnie w Dolinie Krzemowej, nie jest niczym nowym – przekonuje Gebru. Samo określenie „sztuczna inteligencja” w odniesieniu do istniejących obecnie systemów jest jego przejawem, brandem, optymistycznym życzeniem, które niewiele ma wspólnego z rzeczywistością. Podobnie „sieć neuronalna”. Ale nasza kultura kocha takie mrzonki. Technologiczni bogacze uwodzą nas, pudrując niekompetencję pewnością siebie. Nieważne, czy obiecują nam samodzielnie jeżdżące samochody, wyczerpujące badania lekarskie na podstawie pojedynczej kropli krwi czy sztuczną inteligencję. Nieważne, ile wcześniejszych obietnic okazało się oszustwami. Może tym razem się uda. Entuzjazm nie słabnie. Dolina Krzemowa nie toleruje sceptyków.

Przekonała się o tym sama Gebru, która jeszcze niedawno przewodziła zespołowi do spraw etyki sztucznej inteligencji w Google. Gdy w 2020 roku ukazał się artykuł o etycznych i społecznych ograniczeniach modeli językowych (algorytmów generujących wypowiedzi, takich jak GPT-3 i bazujący na nim ChatGPT), którego Gebru była współautorką, jej pracodawcy postawili ultimatum: albo wycofa artykuł, albo straci pracę. O zwolnieniu dowiedziała się od zdumionego współpracownika, który napisał jej wiadomość: „rzuciłaś pracę???”.

Autorki artykułu zwracają uwagę, że wraz ze wzrostem zbioru danych, na którym trenowany jest algorytm, rośnie trudność dokumentowania tego procesu. Można powiedzieć, że w ten sposób ChatGPT mógłby zdać test Lovelace – lecz nie dzięki kreatywnemu przetworzeniu informacji, a ze względu na ludzkie zaniedbania i rosnący „dług dokumentacyjny”. Im ten dług większy, tym słabsza kontrola twórców systemu. W praktyce znaczy to, że taki system będzie częściej utrwalać uprzedzenia, krzywdzące stereotypy i hegemoniczne poglądy na rzeczywistość. Usunięcie z bazy danych obraźliwych czy nieprawdziwych treści wymaga przecież odpowiedniej dokumentacji i wnikliwej pracy.

Dwa lata późnej firma OpenAI znalazła na to sposób. Dziennikarze magazynu „TIME” dotarli do kenijskich pracowników, którzy miesiącami czytali opisy tortur, groźby, obelgi i brutalne fantazje seksualne, by treści te nie zostały włączone do ChatGPT. Pracownicy nie otrzymali obiecanego wsparcia terapeutycznego. U wielu z nich rozpoznano objawy stresu pourazowego. To, obok ogromnego zużycia energii, dewastacji środowiska i wykorzystywania prac artystów bez ich zgody, kolejny ukryty koszt sztucznej inteligencji.

Modele językowe nie mają poglądów. Nie kierują się żadną ideologią. Są, jak twierdzi lingwistka Emily Bender, stochastycznymi papugami – generują pozbawione znaczenia komunikaty, zachowując pozory spójności. Powtarzają za nami zdania, frazy, obelgi, które często padają w ludzkich komunikatach, tych, które włączono w modele (a decyzje o włączaniu bądź wykluczaniu treści neutralne nie są nigdy). To my, użytkownicy, nawykli do komunikacji z innymi ludźmi, do wypowiedzi, za którymi stoją intencje i przekonania, tworzymy sobie iluzję znaczenia.

Wobec tak złożonych systemów kuszące jest przyjęcie postawy agnostycznej i dopuszczenie możliwości, że algorytm ma umysł – bo czy ChatGPT na pewno nie rozumie, co „mówi”? Jestem jednak pewna, że nie. Will Hickman, doktorant z George Mason University, wielokrotnie poprosił algorytm o podanie najczęściej cytowanego artykułu w historii ekonomii. ChatGPT za każdym razem „podawał” inny, fikcyjny artykuł. Entuzjaści modeli językowych czule przezwali to halucynacjami programu, przydając mu jeszcze więcej ludzkich cech. Jednak sposób, w jaki ChatGPT „tworzył” fałszywe artykuły, stanowi ciekawy wgląd w jego mechanizmy – w cytowaniach znajdowały się słowa często padające w tytułach (jak „historia”, „teoria” albo „zarys”), wśród autorów pojawiali się znani ekonomiści, a rok publikacji zbiegał się z czasem, gdy ukazało się dużo głośnych prac z zakresu ekonomii. Stochastyczna papuga zlepiała ze sobą słowa często pojawiające się w jednym kontekście. Żaden z podanych przez nią artykułów nie istniał. Jej odpowiedzi były bez znaczenia.

Naśladowcy Hickmana zauważyli też, że ChatGPT potrafi powoływać się na rzeczywiste źródła, by poprzeć nimi nieprawdziwe informacje. Udzielane przezeń odpowiedzi prezentowane są z dużą pewnością, co potęguje wrażenie wiarygodności. W krótkim czasie poleganie na odpowiedziach modelu językowego stało się na tyle poważnym problemem, że uczelnie na całym świecie zaczęły publikować materiały dla studentów na temat ograniczeń ChatGPT. Jest wysoce prawdopodobne, że w przyszłości programistom uda się wyeliminować przynajmniej część tych „halucynacji”, wprowadzających użytkowników w błąd. Ale czy to będzie znaczyć, że ChatGPT zyskał zdolność krytycznej oceny tego, co „mówi”?

ChatGPT ma nad nami tę przewagę, że w każdej chwili może czerpać z ogromnego zbioru informacji i szybko go przeszukiwać. Nie znaczy to jednak, że tworzy system wiedzy; wiedza to uporządkowany system, bogaty w kontekst umożliwiający interpretację zarówno znanych, jak i nowych treści, podlegający nieustannym przetworzeniom – pod wpływem nowych doświadczeń czy wyznawanych wartości. Twórcy sieci neuronalnych starają się modelować te procesy poprzez przypisywanie konkretnym „węzłom” sieci większej bądź mniejszej wagi. Wciąż jednak jest to sytuacja, w której szybkość procesu ma tworzyć iluzję wiedzy eksperckiej. Jeśli, zapytana o definicję słowa, potrafię bardzo szybko przewertować słownik i ją wskazać – nie znaczy to jeszcze, że wiem, co to słowo znaczy ani w jakich kontekstach jest używane.

Wspólnota

Nie dziwi mnie nasze zagubienie w konfrontacji z nowymi, agresywnie reklamowanymi technologiami. Nie jesteśmy przygotowani na interakcję z czymś, co nie rozumie zdań czy obrazów, które tworzy. Jak zauważają Bender i Gebru, zawsze zakładamy, że nasi rozmówcy mają cele i przekonania, które wyrażają w kontekście. Wspólnie z nimi konstruujemy sens. Komunikacja ma charakter współpracy. Nawet jeśli czytam książkę nieznanej mi autorki, tworzę pewne ograniczone wyobrażenie na temat tego, jaką jest osobą i co chce mi przekazać. To odruch, który wykształciłam, gdy tylko zrozumiałam, że inni też mają umysły. Trudno go pohamować. Ale ChatGPT nie chce mi nic przekazać. Nie wie, że toczymy rozmowę, a ja ulegam nawykowi przypisywania mu przeżyć wewnętrznych.

Gdy opublikowano generator obrazów Midjourney, Dave McKean – autor onirycznych ilustracji komiksowych – zaobserwował u siebie objawy depresji. „Poczułem się zbędny” – powiedział. To, co jednak daje mu nadzieję, to celowość pracy twórczej. W jego obrazach nic nie jest przypadkowe. Za każdym detalem i każdą plamą koloru kryją się doświadczenia, przekonania, spostrzeżenia, przeżycia estetyczne. W obrazach wygenerowanych przez Midjourney nie ma zamiaru ani inspiracji. Podobnie jak w „rozmowie” z ChatGPT, jest tylko iluzja celu stworzona przez nawyki odbiorców. Stąd, jak wnioskuję, złość osób, którym przedstawiono wygenerowany obraz jako dzieło człowieka; zostały one oszukane i nakłonione do wykonania pracy interpretacyjnej tam, gdzie nie ma czego interpretować. Gdzie nie ma twórcy.

Z drugiej strony, jak przekonuje Bruno Latour i osoby pracujące w nurcie nowych materializmów, obiekty nieożywione też na nas wpływają. Jesteśmy zależni zarówno od działań ludzi i innych zwierząt, jak i tego, jak na nas oddziałują mijane na ulicy śmieci czy temperatura powietrza. Są też wreszcie badaczki i badacze, którzy odpowiedzieliby mi, że wcale nie potrzebuję figury autora, a patrząc na obraz – tylko szukam sobie zwierciadła, w którym odbiję własne doświadczenia i przemyślenia. Myślę jednak, że nie wolno nam zapomnieć, jak silnie społecznymi zwierzętami jesteśmy. Dążymy do wspólnotowości, ustalamy ją i nieustannie negocjujemy jej warunki – a wyrażanie siebie jest w tej perspektywie tylko jeszcze jedną formą tych negocjacji, bogatą i różnorodną. U swego źródła „komunikować” znaczy tyle, co „dzielić się”, „czynić wspólnym”.

Trzecie prawo Clarke’a

Entuzjaści sztucznej inteligencji często pytają: czym właściwie różni się algorytm od ludzkiego mózgu i ludzkich procesów poznawczych? I czy ta różnica, o ile istnieje, jest w ogóle istotna, jeśli efekt końcowy jest podobny?

To pytanie jest o tyle mylące, że wciąż bardzo mało wiemy o tym, jak działa nasz umysł. Mimo ogromnej pracy tysięcy ludzi i coraz bardziej skomplikowanych metodologii nasza wiedza jest szczątkowa – i, jak wskazałam wcześniej, silnie metaforyczna. Krótko mówiąc, nie możemy porównać algorytmu do umysłu, bo nie wiemy dość, by móc to porównanie przeprowadzić.

Patronite

Psycholog Robert Epstein zauważa, że metafora komputerowa, zrównująca umysł i algorytm, jest „lepka” – trudno wyzwolić się z myślenia poprzez tę ramę. Od siebie dodam, że jest także atrakcyjna: opisuje nasze życie wewnętrzne w kategoriach prostych, powtarzalnych i możliwych do zmierzenia procesów. Daje poczucie uporządkowania i przewidywalności. A jesteśmy przecież nieprzewidywalni: jeśli dwie osoby przeżyją to samo wydarzenie, wpłynie ono na nie w różny sposób. Nie możemy dokładnie zaplanować naszych reakcji. Nie jesteśmy komputerami. Między mną a ChatGPT zieje przepaść.

Co w takim razie jest w uczeniu maszynowym? Kto tworzy, jeśli nie algorytm? Czyja to praca i czyje powinny być tantiemy? To, co dla mnie jest przede wszystkim filozoficznym zagadnieniem, jest też pytaniem do prawników. Gdy piszę te słowa, w amerykańskich sądach toczą się spory o to, ile pracy musi wykonać ludzka użytkowniczka, by wygenerowany z pomocą algorytmu obraz był chroniony prawem autorskim. Nie zamierzam udawać, że potrafię je rozwikłać. Ale będę kierować się słowami twórców testu Lovelace i BRUTUS-a, starszego brata współczesnych modeli językowych. Nie mieli oni wątpliwości, czym są jego dziwne opowiadania: funkcją pracy ludzi. Programistów, twórców materiału, na którym był uczony, użytkowników. Źle opłacanych moderatorów treści, którzy oglądają obrazy przemocy, byśmy nie musieli na nie patrzeć. Biorąc pod uwagę sposób pozyskiwania danych dla modnych obecnie algorytmów, pewnie wszyscy pracowaliśmy na sukces ChatGPT.

Brytyjski pisarz science fiction i futurysta Arthur C. Clarke sformułował trzy aforyzmy, nazywane prawami technologii. Trzecie brzmi: „Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii”. Lubię czytać prace badaczy sztucznej inteligencji. W ten sposób zdejmuję uroki. Zaklęcia takie jak „sieć neuronalna” i „sztuka AI” tracą swoją moc. Metafory blakną. Iluzja rozpryskuje się i zostaje tylko kod. Bardzo złożony, ale jednak bardzo prosty.