Kognitywistyka i modele umysłu
valeriy osipov / CC BY 2.0

23 minuty czytania

/ Literatura

Kognitywistyka i modele umysłu

Marcin Miłkowski

Żaden z modeli nie wyjaśnia funkcjonowania umysłu całkowicie i bez reszty. Może nie potrzebujemy wcale jednego modelu, tylko wielu modeli konkurencyjnych, które zastosujemy jednocześnie?

Jeszcze 6 minut czytania

Jak można rozumieć umysł dzięki kognitywistyce? I cóż w kognitywistyce nowego? Na te dwa pytania można by odpowiedzieć, wskazując na to, jakich metafor używano do objaśniania umysłu. Platon porównywał pamięć do odciśniętego w wosku pierścienia. Z kolei na początku XX wieku rozumiano umysł w kategoriach centrali telefonicznej. Potem, gdy nastała cybernetyka, jako regulator zachowania, a później jako komputer, jako park rozrywki czy jako organizm osadzony w środowisku. Wiadomo, że nie wchodzi w grę dosłowne rozumienie umysłu jako centrali telefonicznej. Neurony nie wybierają numerów, nie odkładają słuchawki, nie ma sygnału zajętości.

Jeśli bliżej przyjrzymy się kognitywistyce, zobaczymy, że wcale nie musimy zgłębiać istoty metafory. Prace badawcze wcale nie rysują mglistych porównań. Przenośnie pozwalają tworzyć nowe wyjaśnienia, ale wyjaśnianie nigdy nie może kończyć się na samych przenośniach. Pamięć przecież nie jest dosłownie woskowa. Tymczasem od wyjaśnienia wymaga się, żeby było prawdziwe. Wyjątkiem są idealizacje, które są fałszami wprowadzanymi umyślnie po to, aby pozwalając skupić się na istocie opisywanych zjawisk, upraszczały teorie czy ułatwiały ich stosowanie. Taką idealizacją jest chociażby ciało doskonale czarne czy gaz idealny, w którym np. zderzenia cząstek są idealnie sprężyste. Gaz idealny nie istnieje, ale to nie metafora. To precyzyjne pojęcie, które pozwala wyjaśnić podstawowe własności prawdziwych gazów.

Wyjaśnianie wymaga więc odejścia od samych metafor do reprezentacji wiedzy, które są precyzyjne, dosłowne i prawdziwe. Jedną z takich reprezentacji jest sformalizowana teoria: zinterpretowany rachunek logiczny. Inną – modele, które opisują rzeczywistość. Modele rzadko są kompletne – wczesny mechaniczny model przypływów doskonale sprawdzał się w przewidywaniu, ale nie wskazywał przyczyny przypływów.

Dobre modele ujawniają istotne cechy opisywanych zjawisk, gdyż je przypominają w pewnym dosyć abstrakcyjnym sensie.Model przepływów lorda Kelvina / fot. William M. ConnolleyModel przepływów lorda Kelvina / fot. William M. Connolley I tak model Kelvina składa się z wielu krążków, które nie wyglądają jak przypływy, ale wytwarzają oscylacje w różnych częstotliwościach, generujące wykres amplitudy przypływów. Operacje wykonywane na modelach zastępują znacznie trudniejsze operacje na rzeczywistości: łatwo zmienić parametr odpowiadający wilgotności w modelu pogody, ale jest to niewykonalne w atmosferze nawet dla rosyjskich myśliwców, rozwiewających chmury przed defiladą.

Wróćmy do metafor umysłu. We wszystkich tych metaforach jest coś, co może posłużyć do rozumienia umysłu, jeśli przekształcimy je w coraz lepsze modele wyjaśniające. Jednak żaden z tych modeli nie musi wyjaśniać funkcjonowania umysłu całkowicie i bez reszty. Może nie potrzebujemy wcale jednego modelu, tylko wielu modeli konkurencyjnych, które zastosujemy jednocześnie?

Czas przeszły i jego modele

Modeli w kognitywistyce nie brak. Kognitywistyka jest interdyscyplinarnym konglomeratem. Łączy narzędzia różnych nauk, które formują specyficzne, zwykle dwunazwowe poddziedziny, np. neuronaukę poznawczą, antropologię poznawczą, modelowanie komputerowe w psychologii, filozofię psychologii czy psycholingwistykę. I tak chociażby psycholingwistyka bada zjawiska językowe z perspektywy psychologicznej, co nie znaczy, że nie odwołuje się do badań neuronaukowych czy do modelowania obliczeniowego. Wartością kognitywistyki jest zarówno jej pluralizm, jak i dążenie do jedności. Kognitywistyka nie rozpada się na poszczególne poddziedziny, nie są one traktowane jak izolowane wyspy. Przeciwnie, psychologia nie jest uznawana już za dziedzinę autonomiczną wobec neuronauki (stąd tak częste dzisiaj wykorzystanie neuroobrazowania), a neuronauka poznawcza korzysta z wyników uzyskanych w eksperymentach psychologicznych. Co nie znaczy, że obie te dyscypliny zawsze się łączą.

Nurty badawcze w kognitywistyce zwie się często „paradygmatami”, choć nie w pełnym znaczeniu tego terminu, jakie przypisywał mu Thomas Kuhn w „Strukturze rewolucji naukowych”, książce przełomowej dla współczesnej filozofii nauki. Kuhn pokazał filozofom nauki, że kluczem do zrozumienia nauki jest badanie rzeczywistych badań naukowych, a nie wyłącznie teoretyzowanie na temat logicznej struktury teorii naukowych. Jednym z pojęć, które wprowadził, opisując przełom kopernikański, jest właśnie pojęcie „paradygmatu” oznaczające zbiór pojęć i teorii danej nauki. Zdaniem Kuhna konkurencyjne paradygmaty są niewspółmierne, czyli nie można ich bezpośrednio porównywać. Na przykład astronomia geocentryczna i kopernikańska są właśnie niewspółmierne. Zwyciężyła ta druga, bo konserwatywni zwolennicy pierwszej po prostu wymarli, nie zaś dlatego, że dali się przekonać. Oni nawet nie mogli tych argumentów zrozumieć.

Jednak chyba nikt w kognitywistyce nie głosi, że jej paradygmaty są niewspółmierne. Można więc mówić o ich łączeniu czy o bezpośredniej konkurencji. Wyniki uzyskane za pomocą jednej metody są nieustannie porównywane z wynikami uzyskanymi w inny sposób przez konkurencję. A więc paradygmaty kognitywistyczne to raczej pewne podejścia czy ramy teoretyczne. Można wskazać ich co najmniej kilka: komputacjonizm (lub kognitywizm) klasyczny, koneksjonizm, dynamicyzm, podejście cybernetyczne, bayesizm, podejście ucieleśnione i enaktywizm. Granice między nimi czasem są rozmyte, ale też nie trzeba dbać o czystość ideologiczną, a czym są – pokażę po prostu na przykładzie.

Nagroda im. Barbary Skargi

Do 31 maja 2016 można przesyłać eseje na konkurs organizowany przez Fundację na rzecz Myślenia im. Barbary Skargi. Temat IV edycji brzmi: „Pomyśleć wspólnotę”. Ma skłonić do namysłu nad możliwie szeroko rozumianymi więziami między ludźmi (z uwzględnieniem wszelkich bytów nie-ludzkich), nad podstawami, pochodzeniem i losami relacji w obrębie społeczeństwa, państwa, także w obrębie mniejszych zbiorowości, nad charakterem tych stosunków – zarówno dawniej, jak i dziś. Do 30 września 2016 jury ogłosi nazwiska 5 finalistów. Ostateczne rozstrzygnięcie nastąpi w październiku 2016 roku. Laureat otrzyma nagrodę pieniężną, a jego praca zostanie opublikowana w postaci osobnej książki.

Jednym z ciekawszych zjawisk w rozwoju psychicznym człowieka jest specyficzny przebieg uczenia się nieregularnych odmian wyrazów. Zwykle uczenie się przebiega stopniowo, a różni się co najwyżej szybkością. Tymczasem w uczeniu się np. form czasu przeszłego czasowników angielskich sprawa jest nieco bardziej złożona. Okazuje się, że dzieci początkowo nabywają niewiele czasowników, którymi posługują się sprawnie – czasem przeszłym czasownika go jest went. Potem robi się ciekawiej: poprawność gwałtownie spada! Dzieci zaczynają traktować wszystkie czasowniki jak regularne, tworząc tak osobliwe formy jak goed. Dopiero w następnej fazie rozwojowej opanowują czasowniki nieregularne. Zjawisko jest dosyć zastanawiające: dlaczego dzieci miałyby zapominać coś, czego się już nauczyły? Czyżby dwa razy uczyły się tego samego?

Zwolennik komputacjonizmu, czyli obliczeniowej teorii umysłu, uważa, że myślenie jest rodzajem przetwarzania informacji. Od razu warto zauważyć, że praktycznie wszystkie inne modele kognitywistyczne są także obliczeniowe, to znaczy, że odwołują się do pewnych prawidłowości przetwarzania informacji. Ale klasyczne modele komputacjonistyczne opierają się nie tylko na pojęciu obliczania, lecz także na pojęciach składniowych symboli i reguł. Taki komputacjonizm pożeniony z symbolami i regułami nazywa się „kognitywizmem” (nie mylić z kognitywistyką jako taką!). Kognitywizm powiada: początkowo dzieci zapamiętują po prostu listę czasowników, następnie przez indukcję wyuczają się pewnych reguł. Wtedy pierwsza lista przestaje być istotna. Dopiero potem, gdy dzieci już opanują regułę, muszą znowu nauczyć się listy czasowników nieregularnych. Takie wyjaśnienie tego zjawiska promuje chociażby Steven Pinker.

Kognitywizm został jednak podważony w latach 80. przez zwolenników koneksjonizmu. Dlaczego? Otóż koneksjoniści uważają, że klasyczna architektura obliczeniowa odbiega za bardzo od biologicznego mózgu. Tymczasem obliczenia mózgowe są realizowane przez neurony połączone w sieć. Każdy neuron jest stosunkowo prostym elementem obliczeniowym, a realna złożoność wyłania się z oddziaływań wielu neuronów w całej sieci. Co ciekawe, takie sieci wcale nie wymagają reguł. Są one uczone, czyli powoli dostosowuje się siłę połączeń między neuronami, a połączenia jako całość dają wynik.

I tak znani koneksjoniści Donald Rumelhart i James McClelland w połowie lat 80. pokazali, że można zasymulować uczenie się czasowników przez dzieci bez postulowania jakichkolwiek reguł. Jak to możliwe? Otóż sieć o odpowiedniej architekturze też będzie cechować się nadmiernym uogólnianiem. Sieć nie kieruje się regułami – to tylko uczenie sieci daje takie efekty uboczne. Sieć Rumelharta i McClellanda była zbudowana tak, że przekształcała informacje kodujące wymowę czasowników w formie podstawowej (np. „go”) w formę czasu przeszłego (np. „went”). Stopniowo, w trakcie podawania kolejnych przykładów do wyuczenia (a więc tak jak dzieci), sieć poprawiała swoje wyniki, których przebieg obrazować może krzywa w kształcie literki U. Ta sama krzywa, która stanowiła zagadkę dla kognitywizmu, okazuje się naturalną konsekwencją uczenia. I nie ma tu żadnych cudów.

A jednak Pinker z Alanem Prince'em przeprowadzili druzgocącą krytykę modelu Rumelharta i McClellanda. Ponieważ model opierał się na czysto fonetycznej reprezentacji czasowników, tak samo brzmiące, a mające różne formy czasowniki musiały być błędnie przetwarzane. Czasownik „wring” i „ring” mają tak samo brzmiące formy podstawowe, a inne formy przeszłe („wrung” i „rang”). Jednak w kolejnych latach powstało wiele lepszych modeli, pozbawionych wad dosyć uproszczonej, oryginalnej sieci. Pamiętajmy, że w owych czasach przeprowadzanie symulacji w stylu Rumelharta i McClellanda na typowych komputerach trwało całe tygodnie; dzisiaj w kilka minut można byłoby te same obliczenia przeprowadzić na smartfonie. A może nawet na starej nokii. Dlatego celowe uproszczenie zjawiska – a więc idealizacja – było z powodów praktycznych wręcz nieuniknione.

Dla zwolennika dynamicyzmu i podejść w różnoraki sposób nawiązujących do cybernetyki modele koneksjonistyczne uczenia się czasu przeszłego są jednak w zasadniczy sposób niepełne. Przede wszystkim są to modele, w których abstrahuje się od rzeczywistej dynamiki – od przebiegu procesów poznawczych w czasie. Nauka czasowników nie odbywa się w oderwaniu od nauki innych części mowy.

Psycholingwiści korzystający z narzędzi dynamicyzmu – tacy jak Joanna Rączaszek-Leonardi czy Stephen Cowley – pojmują procesy komunikacji językowej w kategoriach współpracy między działającymi systemami biologicznymi. Warto jednak podkreślić, że i sami koneksjoniści – zwłaszcza McClelland – w późniejszych pracach mocno podkreślają, że należy badać wyłanianie się struktur w trakcie nauki. Używają też modeli coraz bliższych dynamicyzmowi.

Cóż to oznacza? Przede wszystkim to, że sieci neuronowe przestaje się traktować jako statyczne połączenia elementarnych elementów. Zjawiska modeluje się przy użyciu bardziej biologicznie wiarygodnych sieci impulsowych.  Mówiąc w największym uproszczeniu, neurony impulsowe aktywują się z pewną częstotliwością, ale też razem z innymi. Innymi słowy, jeśli wyobrazimy sobie, że te częstotliwości są dźwiękami, to neurony nie tylko wydają różne dźwięki w zależności od tego, jakie impulsy do nich dotrą, ale także razem z innymi mogą tworzyć skomplikowane struktury – całe melodie i symfonie. Teoretyczne studia nad możliwościami kodowania w sieciach impulsowych wskazują, że mogą one przechowywać wręcz ogromne ilości informacji. Jednocześnie sieci połączeń w samych mózgach są trudne do bezpośredniego zbadania – mimo postępów w neurobiologii – a więc trudno przekonać się, czy te teoretyczne studia odpowiadają rzeczywistości.

Dynamiczna sieć neuropodobna powinna więc móc wyuczyć się form czasowników z realnego materiału językowego – nie z samych list czasowników, lecz z pełnych wypowiedzi, które nie zostały sztucznie podzielone na zdania. O ile mi jednak wiadomo, taki model jeszcze nie powstał. Istnieją jedynie elementy składowe: chociażby sieci neuropodobne, które są w stanie rozkładać ciągłą wypowiedź na różne części mowy, nie mając żadnego wbudowanego słownika czy listy reguł (takie modele budował już w latach 80. Jeffrey Elman).

Konkurencyjnym podejściem wobec dynamicznych sieci neuropodobnych jest podejście probabilistyczne, zwane zwykle bayesizmem. Wedle takiego podejścia procesy poznawcze to procesy wnioskowania probabilistycznego. Występują one wszędzie: od postrzegania, w którym na podstawie niepewnych informacji z receptorów zmysłowych mamy wnioskować o przyczynach pobudzeń tychże receptorów, po wnioskowanie dedukcyjne czy sterowanie ruchem kończyn.

W artykule opublikowanym niedawno w „Behavioral and Brain Sciences” znany filozof Andy Clark podkreśla, że bayesizm to teoria całego umysłu. Umysł to machina zmniejszająca niepewność – czy raczej zaskoczenie nowymi informacjami. Przewiduje ona bowiem, jaka będzie rzeczywistość, a gdy te przewidywania od rzeczywistości odbiegają, może albo je zmodyfikować, albo zmodyfikować rzeczywistość (ten drugi proces nazywa się aktywnym wnioskowaniem – gdyż konkluzją wniosku ma być aktywność). Na przykład kiedy jestem głodny, niespełnione jest oczekiwanie mojego najedzenia się. Innymi słowy, system przewiduje, że powinienem być najedzony, a jednocześnie odkrywa, że nie jestem; ma więc informacje o błędzie. Aby błąd usunąć, generuje kolejne sygnały pobudzające mnie do działania – w związku z czym idę do lodówki i podgrzewam zupę. Takie przewidywania mają być tworzone dzięki specyficznym algorytmom mózgowym, zwanym kodowaniem predykcyjnym.

Wedle koncepcji kodowania predykcyjnego umysł jest obliczeniowy, ale twierdzi się, że obliczenia rzeczywiście realizuje mózg – wnioskowania predykcyjne mają przeprowadzać zorganizowane hierarchicznie sieci neuronowe. Do wyższego stopnia hierarchii docierają dosyć abstrakcyjne wyniki wnioskowań niższego rzędu, które mogą być konfrontowane z rzeczywistością; w razie błędu przesyła się sygnał o rozbieżności przewidywań w dół hierarchii. Początkowo sygnał o głodzie powstaje w układzie pokarmowym i dopiero po jakimś czasie dociera do wyższych stopni hierarchii.

Tak też zapewne należy sobie wyobrazić proces uczenia się czasowników angielskich – w ramach hierarchicznie zorganizowanej architektury wnioskowania probabilistycznego. To uczenie oczywiście przebiega w czasie. Można zatem wskazać moment, w którym mózg będzie przewidywać zbyt proste formy czasu przeszłego.

Czy jednak kodowanie predykcyjne i dynamicyzm rzeczywiście się tak wykluczają? W pewnej mierze są zgodne: mózg pojmowany jest w nich jako układ sterujący działaniem ciała. A ucieleśnienie w ogóle odgrywa w kognitywistyce ważną rolę – do tego stopnia, że niektórzy badacze chcą wywodzić umiejętności językowe z umiejętności planowania ruchu istniejących wcześniej w ewolucji organizmów żywych. Mózgi bowiem, jak podkreślają zwolennicy ucieleśnienia, przydają się tylko organizmom zdolnym do poruszania się.

Kognitywistyka ucieleśniona to nurt, w którym pokazuje się, jak istotne są zdolności postrzeżeniowe – nawet przy wykonywaniu operacji logicznych czy matematycznych. Psychologowie za pomocą różnych eksperymentów starają się pokazać, że proste geometryczne uporządkowanie notacji matematycznej może wpływać na przebieg operacji matematycznych bardziej niż np. reguły pierwszeństwa (takie jak: mnożenie najpierw, dodawanie potem). Obecnie nurt ten jest szeroki, a rolę motoryki i zmysłów w procesach poznawczych neguje bardzo niewielu badaczy. Jednak rolę ciała można postrzegać bardziej radykalnie.

Takim radykalniejszym nurtem ma być enaktywizm. W enaktywizmie, tak jak w amerykańskim pragmatyzmie, poznanie postrzega się jako nieodłączne od działania. Zmysły i ruch są niezbędne w poznaniu. Zapewniają dopiero możliwość oddziaływania ze środowiskiem, dzięki której w ogóle można mówić o systemach poznawczych i poznawanym przez nie środowisku. Krytycy enaktywizmu wskazują wszelako, że nie jest tak trudno myśleć i nic nie robić. Ba, ludzie sparaliżowani nie mogą poruszać kończynami, lecz wiemy – między innymi dzięki istnieniu interfejsów mózg-komputer – że mimo to pozostają świadomi i mogą się komunikować. Byłoby więc to stanowisko zupełnie nierozsądne. Jednak enaktywistom chodzi zwykle o coś innego, o to mianowicie, że zdolności poznawcze człowieka wyewoluowały dzięki temu, że jest on nieustannie poruszającym się i aktywnym zwierzęciem. Innymi słowy, osoby sparaliżowane, mimo że nie mogą się same poruszać, to należą do populacji organizmów, która taką możliwość normalnie posiada. Nieruchome organizmy, co najwyżej dryfujące swobodnie, to raczej plankton, a nie ludzie.

Zwolennicy enaktywizmu czasem także wskazują nie tylko na biologiczne korzenie zdolności poznawczych, ale na możliwość wykorzystania robotyki, zwłaszcza tak zwanej robotyki rozwojowej, w badaniach poznawczych. Symulacje enaktywistyczne dotyczące uczenia się czasu przeszłego mogłyby więc dotyczyć grupy rozwijających się poznawczo robotów. Wbrew pozorom nie jest to wyłącznie fantastyka naukowa. Już dzisiaj wykonuje się uproszczone eksperymenty na grupach robotów, które mają samodzielnie nabyć zdolność do komunikacji. 

Pluralizm i poszukiwanie jedności

Na zjawisko uczenia się końcówek czasu przeszłego można patrzeć z bardzo różnych perspektyw. Perspektywy te jednak się nie wykluczają. Mogą być nie tylko konkurencyjne – jak klasyczny kognitywizm i koneksjonizm – ale także komplementarne, jak dynamicyzm i koneksjonizm lub enaktywizm i dynamicyzm. Każda z tych perspektyw prowadzi do powstawania szczegółowych modeli zjawisk poznawczych. Oznacza to, że w przeciwieństwie do lat 60., kiedy wydawano entuzjastyczne książki o cybernetyce – sprzężenie zwrotne ujemne miało być istotą sterowania, a więc i umysłu – teraz nie poprzestajemy na ogólnikowych metaforach. Wystarczy rzut oka na prace z cybernetyki czy psychologii poznawczej z tego okresu, by się przekonać, że to zupełnie inny świat niż dzisiejsza kognitywistyka.

Przede wszystkim dzisiaj uważa się za oczywiste, że trzeba uwzględniać wyniki różnych dziedzin nauki. Inaczej nie można tworzyć zadowalających modeli zjawisk poznawczych. I te wyniki się powoli kumulują. We wczesnych latach 60. było ich stosunkowo niewiele. Przeprowadzano eksperymenty dowodzące niewielkiej pojemności pamięci krótkoterminowej. Wskazywano, że możliwe jest zapamiętanie na bieżąco maksymalnie około siedmiu elementów, plus minus dwa. Dostępne były też neuropsychologiczne dane o ogniskowych uszkodzeniach mózgu – zwykle po postrzałach wojennych – prowadzących do określonych zaburzeń. Postrzelenie ośrodków mowy skutkowało specyficznymi zaburzeniami rozumienia języka lub mówienia. Behawioryści uzyskali też wyniki dotyczące możliwości uczenia się organizmów żywych. Biologowie mieli wstępne obserwacje funkcjonowania neuronów w postaci nagrań aktywności elektrycznej z elektrod w mózgu. Modele były bardzo proste. Weźmy model perceptronu, traktowany podówczas jak objawienie. To mechaniczny – sterowany potencjometrami i silniczkami – układ uczący się. Wczesna i bardzo prosta sieć koneksjonistyczna. W porównaniu z dzisiejszymi sieciami impulsowymi wypada jak hulajnoga przy autobusie. Nic dziwnego, że zamiast sprawdzalnych modeli złożonych zjawisk więcej było metafor.

Dziś jednak powstają sprawdzalne modele. Modele, które zarówno wyjaśniają, jak i przewidują przebieg procesów poznawczych. Przy ich tworzeniu z kolei często wykorzystuje się wyniki z różnych innych modeli, także wywodzących się z innych dziedzin nauki, takich jak chociażby biologia ewolucyjna.

Kognitywistyka stoi więc nie tylko metaforami, lecz także modelowaniem. To modelowanie oczywiście ma hasłowo wyrażane zasady, które wymieniałem wyżej, lecz jego wartość nie tkwi w pomysłowości zasad. Wartość tkwi raczej w tym, że za pomocą symulacji i modeli można bardzo precyzyjnie określać parametry, których nie sposób kontrolować doświadczalnie – a także łączyć je z danymi eksperymentalnymi. Jedność kognitywistyki może brać się między innymi stąd, że dzisiaj tak realistycznie traktuje się w niej mechanizmy neurobiologiczne, psychologiczne, emocjonalne i społeczne – które stanowią różne poziomy organizacji złożonych, oddziałujących ze sobą układów. Dlatego właśnie wyniki z różnych dziedzin mogą wzajemnie ograniczać swobodę modelowania i radosnej spekulacji w innych obszarach kognitywistyki.

Dzięki temu rozumiemy, że nie można zignorować dorobku innych dziedzin, głosząc wytarte hasła w rodzaju: „umysł jest centralą telefoniczną” czy „poznanie to sprzężenie zwrotne z otoczeniem”. Jedno jest pewne: złożoność umysłu nie daje się wyrazić jednym komunałem, choć może poszukiwania ogólnych prawidłowości, jak w koncepcji mózgu bayesowskiego, stanowią też twórczy ferment, przekładając się na tworzenie modeli. Metafory zostały zastąpione przez praktykę, która prowadzi do powstawania złożonych modeli mechanizmów poznawczych. Mechanizmy te są jednocześnie biologiczne i cielesne, są mechanizmami sterowania (jak chcieliby cybernetycy), ale są też informacyjne (jak chcieliby komputacjoniści), a także funkcjonują w realnym czasie i świecie (co podkreślają dynamicyści i enaktywiści).

Kognitywistyka pozostaje w pewnym napięciu wewnętrznym dzięki konkurencyjnym podejściom, jednak jest także jednością. Spory teoretyczne angażują również filozofów, którzy starają się z jednej strony zrozumieć, a może i usprawnić metody stosowane w różnych podejściach kognitywistycznych, a z drugiej strony – mogą ułatwiać wzajemne porozumienie. Tak też swoją rolę pojmuje autor tego tekstu.

Praca nad tekstem była częściowo wsparta przez grant NCN, decyzja DEC-2014/14/E/HS1/00803. Autor dziękuje Pawłowi Gładziejewskiemu, Mateuszowi Hoholowi i Jakubowi Matyi za uwagi do wcześniejszej wersji tekstu.

Cykl tekstów filozoficznych „Rzeczy i myśli” powstaje we współpracy z Fundacją na rzecz Myślenia im. Barbary Skargi w ramach projektu finansowanego ze środków Fundacji PZU.






Tekst dostępny na licencji Creative Commons BY-NC-ND 3.0 PL.