Bobryk historia 8


Psychologia humanistyczna, wtedy, kiedy powstawała była zwana trzecią siłą. Dzisiaj będziemy jeszcze mówić o czymś, co się współcześnie nazywa siłą czwartą. Czwarta siła jest to specyficzna kontynuacja psychologii humanistycznej, związana z takim światopoglądem, który się nazywa ruchem nowej ery.

O ile psychologia humanistyczna tradycyjna wyrastała z pewnego kryzysu kontaktów społecznych i zainteresowania miała i podejście raczej socjologiczne i nastawiona była w swoich aspektach poza akademickich na reformy społeczne, to siła czwarta ma podejście naturalistyczne. Interesuje się kosmosem raczej niż stosunkami społecznymi, preferuje też, próbuję to realnie scharakteryzować, nie takie techniki jak psychoterapia rodzinna, czy grupowa, ale różnego rodzaju techniki indywidualne. Takie, które właściwie może wykonywać sama jednostka, jak medytacje, relaksacje itp.

Ten światopogląd, z którym jest związana czwarta siła nazywana często psychologią transpersonalną, kościół nazywa światopoglądem neopogańskim, zresztą słusznie. Ponieważ jest to światopogląd, który próbuje jakoś tam restaurować albo odległe w czasie, a związane z naszą kulturą pomysły, jak różnego rodzaju wierzenia celtyckie, czy inne jakieś dawne wierzenia ludowe, sprzed chrześcijańskiego okresu. Albo nawiązuje się do pomysłów dalekowschodnich. Jeżeli jest się przeciwnikiem tego światopoglądu to psychologia transpersonalna będzie tłumaczona jako psychologia nie zajmująca się osobami. Jeżeli jest się jej zwolennikiem, to wtedy to słowo będzie tłumaczone jako psychologia zajmująca się czymś ponad osobowym. Przy czym to ponad osobowe jest rzeczywiście czymś nieosobowym. Jest to kosmos, albo jest to nie osobowo rozumiany Bóg, jak w dalekowschodnich religiach, albo coś, co rzeczywiście jest zbliżone do bóstw w przedchrześcijańskich religiach.

Ten ruch, podobnie jak psychologia humanistyczna ma zainteresowania wykraczające poza samą psychologię, czy nawet każdą pojedynczą dyscyplinę humanistyczną. W związku z nastawieniem na zainteresowanie się kosmosem i raczej czymś nieosobowym, najczęściej nawiązuje się tutaj do pomysłów w naukach fizycznych, przy czym robią to albo ludzie, którzy byli fizykami, więc robią to w miarę fachowo, albo nie jest to robione bardzo fachowo, ale po amatorsku. Taka najpopularniej cytowana teoria, czy hipoteza, jaka pozostaje w kręgu psychologii transpersonalnej i jakoś mają ją uzasadniać, to jest hipoteza dotycząca cząstek elementarnych. Jak długo się mówi o cząstkach elementarnych, to jest to porządna, jakoś tam teoretycznie i częściowo badawczo uzasadniona hipoteza.

Historia tej hipotezy była taka, że najpierw wymyślono pewien model matematyczny, związany z posługiwaniem się macierzami typu S, ale to nas nie interesuje, potem ten model dało się zastosować do opisu zachowań cząstek elementarnych. Mianowicie problem, jaki stwarzają te cząstki polegał na tym, że nie dało się wyjaśnić tego, co się dzieje z cząstką i przewidywać, co się będzie z nią działo, w oparciu o takie tradycyjne, przyczynowo-skutkowe wyjaśnienia, w oparciu o znajomość stanów tej cząstki, którą się właśnie bada. I ten model matematyczny, jak i sama teoretyczna hipoteza zakłada, że stan cząstki w zasadzie zależy od stanu wszystkich innych cząstek, zatem cząstki elementarne na poziomie są ze sobą powiązane i w gruncie rzeczy nie można rozpatrywać i przewidywać tego, co dzieje się z jedną, jak nie wie się, jakie związki ją łączą z innymi. I do tego momentu jest to porządna, naukowa hipoteza.

Ale można na zasadzie analogii powiedzieć, skoro tak jest z cząstkami elementarnymi, skoro tak jest na poziomie mikroświata, to może tak samo, albo bardzo podobnie jest na poziomie makroświata i w zasadzie ze wszystkimi innymi zjawiskami w świecie. Zatem wszystko jest ze wszystkim powiązane i stan Państwa to, czy jesteście na wykładzie, czy nie zależy od jakiś skomplikowanych układów w kosmosie. Na tym tle staje się znowu racjonalną astrologia tak, jak była racjonalną w średniowieczu.

To są te, jak gdyby naukowe, mniej lub bardziej naukowe inspiracje hipotezy transpersonalnej. Tego słowa zresztą użył Maslow po raz pierwszy, zatem można powiedzieć, że Maslow jest tutaj prekursorem czwartej siły. Innym prekursorem jest Jung, głównie w swoich zainteresowaniach parapsychologicznych. W tych aspektach związanych z psychologią religii. Otóż Jung utrzymywał, że najlepiej jest wyjaśniać religię, czy wszelkie religie, odwołując się do danych psychologicznych. Zatem można powiedzieć, że hipoteza Boga nie wchodzi w to, czy to ma być Bóg osobowy, czy jakikolwiek inny. Wiara w boga, jakiegokolwiek jest uzasadniona pewnymi psychologicznymi właściwościami człowieka. Natomiast czy są jakieś inne powody wiary w Boga, czy nie, to sprawa, która go nie interesowała.

To tyle kończąc psychologię humanistyczną, przechodzimy do psychologii poznawczej.

W psychologii poznawczej, myślę bardziej niż w innych podejściach, czy kierunkach nie ustalony jest moment powstania tego kierunku. Jedno uważają, że powstał on w latach 50-tych, inni, że w latach 70-tych. Z całą pewnością w latach 70-tych to było dominujące podejście w psychologii - podejście poznawcze.

Tutaj na początku rozróżnienie paru terminów. Psychologia poznawcza to jest szkoła psychologii, tak jak behawioryzm, psychoanaliza itd. Psychologia procesów poznawczych to jest gałąź psychologii tak, jak psychologia sportu, ale niestety się zamiennie używa tych terminów, psychologia poznawcza i psychologia procesów poznawczych. Nie wiem na jakie wykłady Państwo chodzili, czy na psychologię poznawczą, czy na psychologię procesów poznawczych, a to nie znaczy dokładnie to samo.

Z tym się też utożsamia, czy też miesza termin, który po angielsku się nazywa cognitive science, po polsku nie ma dobrego przekładu: nauka o poznawaniu, nauka poznawcza, ale to źle brzmi, najlepiej to chyba przekładać jako kognitywizm. To jest coś szerszego niż psychologia. To jest takie podejście w wielu dyscyplinach nauki. Obecnie wszystko jest poznawcze: gramatyka, etnografia, ekologia, socjologia, cokolwiek byście Państwo nie wymyślili.

No więc albo 50-te, albo 70-te lata. Można np. przyjąć rok 1975, kiedy cognitive science powstała, ale jako ruch ponaddyscyplinarny. Ruch, który miał integrować osiągnięcia wszystkich dziedzin wiedzy, które zajmują się poznawaniem. Zintegrował przede wszystkim osiągnięcia teorii sztucznej inteligencji i psychologii procesów poznawczych.

Pojawia się też pytanie, czy psychologia poznawcza jest w miarę jednolitym ruchem. Czy można by podać jakieś wspólne cechy każdej teorii, która do tego nurtu się zalicza, bądź jest zaliczana. Ponieważ ten nurt jest bardzo..., jak jest dominujący, to jest bardzo rozproszony, więc mamy społeczną psychologię poznawczą, ona jest wywodzona od jakiś prac, które w momencie kiedy powstawały były uważane za behawiorystyczne. Z kolei inne jakieś kawałki tego ruchu mogą być wywodzone od czegoś innego.

Wydaje się, że istnieją jednak takie trzy cechy obecne w każdej teorii procesów poznawczych, która jednocześnie należy do psychologii poznawczej.

Te trzy elementy są następujące: po pierwsze jest to neomentalizm. To jest prosta sprawa, bo to jest nawiązanie do tej idei, która była w psychologii introspekcjonistycznej, że trzeba badać procesy poznawcze przede wszystkim i dla wyjaśnienia różnych zjawisk, to znajomość procesów poznawczych jest najważniejsza. Tam chodziło przede wszystkim o świadomość. Tutaj nie, a tam stosowane metodę introspekcji. Tutaj także można stosować, ale nie tylko, ale poza tym jest to podobne. Drugi, charakterystyczny element to jest tzw. neostrukturalizm, o nim jeszcze za moment. Trzeci to jest pewien nacisk na badanie czegoś, co się nazywa przetwarzaniem informacji.

Neostrukturalizm. Jak neostrukturalizm tzn., że był już strukturalizm, także w psychologii. Taki najbardziej znanym strukturalistycznym podejściem w psychologii to jest podejście piagetowskie coś, co się przed II wojną światową ukonstytuowało. Sam strukturalizm, jako podejście w wielu dziedzinach, a pojawił się najpierw w lingwistyce, pojawił się jako pewna idea stwierdzająca, że system języka naturalnego jest właśnie systemem, czyli, że jest całością. To oznacza, że nie jest zbiorem elementów. Jak się doda do tego jakiś nowy element, to zmienia się w gruncie rzeczy całość. Zatem jeśli pojawiają się jakieś nowe słowa, to zmienia jeszcze inne..., np. lekko modyfikuje znaczenie innych słów w danym języku. Zatem dodanie elementu wymaga przeorganizowania całości. System ma to do siebie, że jest całością, która jeśli jest wytrącona z równowagi przez utratę jakiegoś elementu, to ta równowaga jest przywracana przez przeorganizowanie systemu.

Tak to widzieli językoznawcy, ale jednocześnie ten strukturalizm językoznawczy uczynił lingwistykę taką nauką bardziej, można powiedzieć, abstrakcyjną. Badającą nie tyle realne zjawiska empiryczne, co jakieś wyabstrahowane ich modele. Z tym wiązało się pewne przekonanie, że za zmiennością zjawisk językowych, czy innych zjawisk, jeżeli się strukturalizm przeniesie na inne tereny, kryją się pewne stałe, niezmienne struktury. Co to są struktury? Struktury to są jakieś elementy, które można wyróżnić, które są połączone relacjami. Zatem trzeba badać, jakie to są elementy, jakie elementy można wyróżnić i jakie relacje je łączą. No i językoznawcy wyróżniali różne elementy. Na poziomie fonetycznym wyróżniali fonemy, ustalali jakie fonemy są w każdym języku, czym się one różnią, jakimi cechami: dźwięczność, bezdźwięczność itd. i opisywali system, przynajmniej tą część systemu języka, opisując te elementy i powiązania, relacje. Np. różnice i podobieństwa między nimi. Na poziomie semantycznym są to morfemu na przykład, najmniejsze jednostki znaczeniowe, które też łączą pewne relacje. Np. są słowa homonimiczne, słowa synonimiczne itd. Podobnie, to już w późniejszym okresie, zaczęto się interesować gramatyką, badano strukturę zdań, z jakich elementów się składa. Zdanie składa się np. z pracy werbalnej i nominalnej, ta z kolei się składa z jeszcze mniejszych elementów. Badano, jakie to są struktury. Zaczęto zresztą badań, jak one się zmieniają.

Strukturalizm można podzielić na dwie formy: strukturalizm dynamiczny i klasyczny.

Klasyczny nie interesuje się zmiennością tylko stałością. Strukturalizm dynamiczny i do takiego należał też strukturalizm piagetowski, interesuje się zmiennością struktur.

Po krótce, jak to było u Piageta, bo przez analogię potem są budowane w psychologii poznawczej te bardziej nowe teorie. Mianowicie Piaget ustalił, co jest podstawową jednostką, bo każdy strukturalizm musi to ustalić, co jest podstawową jednostką systemu poznawczego. Piaget powiadał, że jest nim operacja, albo inaczej przekształcenie. Przekształcenie albo czegoś, co istnieje na zewnątrz, albo przekształcenie jakiejś reprezentacji psychicznej: przekształcenie pojęcia, przekształcenie sądu, przekształcenie wyobrażenia. Tak, czy inaczej jest to jakaś operacja czy przekształcenie. Ale te podstawowe jednostki czyli operacje łączą się w większe całości i opisanie systemu poznawczego oznacza podanie związków pomiędzy tymi przekształceniami. A jak to można podać? Np. tak, że jak chcemy dokonać jednego przekształcenia, to zamiast niego można dokonać u innych i efekt będzie ten sam. Np. jak się chcemy przemieścić z punktu A do punktu B, mówimy o tym systemie najwcześniejszym, który jest zewnętrzny, to możemy się bezpośrednio przemieścić z punktu A do punktu B, ale jeżeli na drodze jest jakaś przeszkoda, to najpierw się możemy przemieścić z punktu A do punktu C, a potem z punktu C dopiero do punktu B, albo w sposób jeszcze bardziej skomplikowany.

Tu już przykład laboratoryjny. Mamy taki prosty przedmiocik. Jak są trzy koraliki nanizane na drucik, albo na nitkę, jest to koralik czerwony, biały i niebieski, no i jakich przekształceń można dokonywać? Można to obracać w przestrzeni, można obrócić koraliki o 180º, wtedy kolejność będzie: niebieski, biały, czerwony. Ale obrócenie koralików o 180º, to to samo, co obrócenie koralików dwa razy o 90º, albo obrócenie o 360º w jedną stroną, a potem o 180º w drugą. Zatem tego typu przekształcenia, obroty, łączą się w jakiś system. To, co badał Piaget, to jak te przekształcenia się wzajemnie się ze sobą wiążą.

Ale strukturalizm piagetowski jest strukturalizmem dynamicznym nie tylko z tego powodu, że podstawową jednostką systemu poznawczego jest operacja, ale także z tego powodu, że tam się mówi o zmienności samych struktur. Te struktury się zmieniają na skutek asymilacji i akomodacji, włączenia nowego elementu do struktury asymilowania i przystosowania tego elementu potem, żeby on odzyskał równowagę. Więc to Piaget badał, jak się zmieniają struktury asymilując nowe elementy i dostosowując się z powrotem po tej asymilacji do tego, żeby być najlepiej zorganizowaną całością. Jednocześnie te struktury dojrzewają. Przekształcają się jakościowo. I dlatego Piaget wyróżniał trzy, albo sześć etapów rozwoju struktur. Tak się zdarzyło, że ktoś, kiedyś Piageta niedokładnie opisał i w psychologii języka angielskiego się wyróżnia cztery etapy i tak to się już utrwaliło, jest powtarzane, niezależnie od tego, co Piaget wymyślił.

Jest ich trzy albo sześć, ponieważ Piaget powiadał, że są trzy fazy rozwoju poznawczego: fazy inteligencji sensomotorycznej, faza inteligencji konkretnej, czyli wyobrażeniowej i faza inteligencji abstrakcyjnej, czyli inaczej formalnej. To są takie najbardziej elementarne zmiany, przechodzenie od jednej fazy do drugiej, a jednocześnie w ramach fazy zawsze można wyróżnić dwie podfazy. Faza, w której struktury poznawcze są jeszcze nie zrównoważone i dojrzewające, czyli jakby taka faza wstępna, przygotowawcza. Faza, w której te struktury są już dojrzałe, zbudowane, tak jest w inteligencji sensomotorycznej. Najpierw mamy system operacji, który nie jest jeszcze dojrzałym systemem, on dojrzewa stopniowo, a jak dojrzeje, to się zacznie przekształcać w następny system, system operacji konkretnych. Ten system też na początku jest niezrównoważony, więc są dwa jak gdyby etapy, a zatem jeżeli trzy razy dwa to mamy sześć.

Jak to wygląda, odwołując się do tego przykładu z koralikami, żeby najkrócej scharakteryzować podejście Piageta. Na początku, jak mówi się dziecku, że ma koraliki: czerwony, biały i niebieski, to dziecko się pyta, co będzie jak obrócilibyśmy to w taki sposób? Nie mówi mu się, że o 180º, bo ono jeszcze tego nie rozumie, jakoś inaczej, do góry nogami, czy jeszcze inaczej. To wtedy dziecko, jeżeli jest w fazie pierwszej, to nie potrafi odpowiedzieć na to pytanie, jeżeli sobie tego nie obróci. Rzeczywiście nie wykona takiej operacji sensomotorycznej. Natomiast jak jest w fazie drugiej, w fazie inteligencji wyobrażeniowej, czyli konkretnej, to może to sobie wyobrazić. Dziecko sobie wyobraża, jest koralik czerwony, biały, niebieski, obracamy je, kolejność jest odwrotna. Wyobraża sobie i odpowiada na to pytanie. A Państwo, którzy już jesteście w fazie operacji formalnej, to nawet nie musicie sobie tego wyobrażać.

To najbardziej podstawowe i jeszcze strukturalistyczne pomysły Piageta.

Neostrukturalizm oznacza, że podobnie jak u Piageta, usiłuje się opisać system poznawczy, wyróżniając jego elementy i ustalając, jakie relacje je łączą, a zatem rekonstruując coś, co można by nazwać systemem poznawczym. Potem, jak już się to zrobi, jak się wie z jakich elementów on się składa, jakie relacje go łączą, to albo wie się wszystko o systemie poznawczym, albo wie się najważniejsze rzeczy.

Teraz przechodzimy do trzecie, poza mentalizmem, neomentalizmem i neostrukturalizmem, do kolejnej cechy wspólnej, łączącej podejście w psychologii poznawczej, mianowicie do tego wspomnianego przeze mnie przetwarzania informacji.

Tutaj, żeby wiedzieć na czym polegają podstawowe założenia, to trzeba się trochę cofnąć do czegoś, co się nazywa korzeniami i cognitive science i psychologii poznawczej. Tych korzeni się szuka w okresie II wojny światowej, w okresie, w którym część zwłaszcza przedstawicieli nauk formalnych, ale nie tylko, alianckich przedstawicieli nauk formalnych, zajmowała się taką sprawą, jak rozszyfrowywanie kodów niemieckich. To się udało z sukcesem. Ten sukces był przez długie lata przypisywany wyłącznie Allanowi Turingowi.

Ja Państwu powiem o polskich aspektach tych prac, o których się w Polsce mówiło od początku. Na zachodzie zaczęło się mówić od niedawna, Mianowicie jeszcze przed wybucham II wojny światowej, grupa polskich badaczy Rejewski, Zygaliski i Różycki, podjęła pracę nad czymś, co się nazywało potem Projektem Enigma. Ponieważ wiadomo było, że Niemcy zbudowali pewne urządzenie szyfrujące to Rejewski, Zygalski i Różycki próbowali zbudować analogiczne urządzenie szyfrujące. Gdyby to się udało, to można by było rozszyfrowywać kody niemieckie. Zatem podsłuchiwać niemieckie, jakieś tam wojskowe komunikaty. Co stało się szczególnie aktualne po wybuchu II wojny światowej, ale badania były podjęte, przynajmniej w Polsce, wcześniej. Kiedy wojna wybuchła, to jak Państwo możecie wiedzieć np. z serialu, który był w telewizji, ci panowie przenieśli się najpierw do Francji, potem do Anglii, potem ostatecznie skonstruowali taką maszynę. Skonstruowali w taki sposób, że ona stała się użyteczna i pozwalała na łamanie niemieckich kodów.

Metoda Rejewskiego, Zygalskiego i Różyckiego, a także Turinga, a także innych przedstawicieli aliantów, którzy się tym zajmowali, była następująca: nie można się było dowiedzieć, jak właściwie zbudowana jest maszyna niemiecka, owa Enigma, prawdopodobnie ukrywano ją bardzo skrzątnie i to była największa tajemnica, próbowano zatem zbudować funkcjonalnie analogiczną maszynę, przyjmując pewne założenia teoretyczne, jak to może być szyfrowane, budując trochę prototypów działających na trochę odmiennych zasadach. Jednocześnie obserwując zasady działania tych prototypów i porównując efekty działania tych prototypów z komunikatami, szyfrowanymi, niemieckimi. Jeżeli się uzyskiwało z tych prototypów jakieś sensowne i zbliżone do tych niemieckich komunikaty, to można było powiedzieć, że prototyp jest zbliżony do tej niemieckiej maszyny. Jeżeli tam były jakieś różnice, co w pewnym momencie się robiło bezsensowne, to trzeba było coś zmienić w prototypie, żeby wypróbować, jakie będą efekty tej zmiany.

To jest taka metoda, która doprowadziła jednak do sukcesu. Zbudować funkcjonalny odpowiednik czegoś, czego się nie widziało, czego się nie zna, co działa jakoś, prawdopodobnie wg podobnych zasad, co funkcjonalnie jest odpowiednikiem. Można krótko powiedzieć, że w tym podejściu psychologii poznawczej, zwłaszcza tych różnych badań, które się koncentrowały na syntezie psychologii procesów poznawczych i teorii sztucznej inteligencji, przyjęto dokładnie te same zasady, które przyjmowali Rejewski, Zygalski, Różycki, czy Turing i inni. Mianowicie jest jakaś Enigma, o nieznanej budowie i konstrukcji, ale o znanych efektach działania w ludzki umysł i budujemy jakieś jego funkcjonalne jego odpowiedniki, czyli programujemy komputery, sprawdzamy czy działanie odpowiednio zaprogramowanych komputerów daje takie same, czy identyczne efekty, jak działanie ludzkiego umysłu i im bardziej te efekty są porównywalne, tym bardziej można powiedzieć, że zaprogramowany komputer jest funkcjonalnym odpowiednikiem ludzkiego umysłu.

Nigdy się nie udało uzyskać identycznych efektów, ani nie udało się skonstruować maszyny i zaprogramować jej, żeby mogła ona zastąpić ludzki umysł, ale może mogą komputery zastępować ludzki umysł w niektórych obszarach, czy w niektórych aspektach jego działania, a zatem można uznać, że to są funkcjonalne ekwiwalenty, przynajmniej części ludzkiego systemu poznawczego, czy części ludzkiego umysłu, czy jakby to nie określić. Metoda, zatem podobna, jak u aliantów, sedno oczywiście bardziej rozległe i trudniejsze. Aliantom się udało, to psychologom poznawczym sztucznej inteligencji, jeszcze się nie udało, ale nadzieje związane z tym podejściem jeszcze jakieś są. Co to znaczy? To znaczy, że jeżeli przyjmiemy tę drogę działania systemu poznawczego, o którym nic nie wiemy, poprzez symulacje komputerowe, czy symulacje komputerowe jakiejś jego części, no to to nam odpowiada na pytanie z jakich części ma się składać ludzki system poznawczy. Mniej więcej z takich, z jakich składa się komputer. Nie mówię i części w sensie części komputerowej, tylko części funkcjonalnej. A jak on ma być zorganizowany, jak mają być zorganizowane operacje ludzkiego systemu poznawczego, czy czynności poznawcze, czy procesy poznawcze. Ano w sposób analogiczny, jak są one zorganizowane w zaprogramowanych komputerze, w którym udaje się jakoś tam uzyskać efekty działania, podobne do efektów działania ludzkiego umysłu. Czyli teoria sztucznej inteligencji nam odpowiada na pytanie: jakie tam są części, jak są zorganizowane i mniej więcej jak one działają. Cały czas się podkreśla, że tutaj nie ma podobieństwa materialnego, czy jak to się mówi w tym języku hardwerowego, jest tylko podobieństwo funkcjonalne, czy softwerowe.

To podejście, oparte właśnie na badaniu przetwarzania informacji, czyli tych procesów, które się dzieją w maszynach cyfrowych, czy w odpowiednio zaprogramowanych komputerach, spowodowało przynajmniej taką rewolucję w psychologii, którą można nazwać rewolucją terminologiczną. Już się nie mówi o nieświadomym myśleniu, tylko o nieświadomym przetwarzaniu informacji, co prawda nie ma żadnej definicji informacji, którą by wszyscy przyjmowali, i która by mogła być zastosowana zarówno w informatyce, jak i w psychologii i innych kognitywistycznie nastawionych naukach. Niemniej ta terminologia przenika. Mówi się o ramach, czyli o takich podstawowych pakietach w systemie poznawczym, co jest w przybliżeniu, chociaż można to odróżnić, można też utożsamić z synonimem skryptu, albo schematu poznawczego, no i mówi się tam o jakiś innych rzeczach, które mają istnieć w ludzkim umyśle.

Tak cognitive science, jak psychologia poznawcza przechodziła, mówiąc znowu w największym uproszczeniu, przez dwa etapy. W pierwszy etapie usiłowano, jak gdyby większość autorów, koncentrowała się na modelowaniu w maszynach cyfrowych, właśnie procesów poznawczych, czyli procesów, które są opisywane, charakteryzowane na poziomie psychologicznym, a zwłaszcza czegoś, co się nazywa wyższymi procesami poznawczymi, jak myślenie krytyczne, jak rozumienie języka, które usiłowano wymodelować w maszynach. Okazało się, że stosunkowo łatwo można, jeszcze w latach 70-tych, było wymodelować takie procesy, jak sprawdzanie poprawności formalnej różnych formuł matematycznych, czy logicznych, jak tworzenie nowych tautologii. Z trudem modelowano coś, co się w psychologii uważa, że są to niższe procesy poznawcze, jak procesy percepcyjne, jak np. procesy rozpoznawania wzorów czy to dźwiękowych, czy to graficznych, czy jakiś innych. Stopniowo, jak się zaczęto na tym koncentrować, to zaczęto zmieniać różne pomysły teoretyczne i można powiedzieć, że rozwój cognitive science i psychologii poznawczej polegał na tym, że porzucono myśl o wymodelowaniu zadowalającym, w każdym razie w maszynach poznawczych procesów poznawczych, a zaczęto w nich modelować procesy nerwowe, czy procesy neurofizjologiczne. Ja gdyby zaczęto modele tworzyć i symulacje na tym niższym, nie psychologicznym, tylko fizjologicznym poziomie. I tak, jak wtedy zamiast umysłów ludzkich badano maszyny, tak obecnie zamiast mózgów ludzkich, też się bada maszyny, a mózgi też się bada poza tym, ale chętniej się bada maszyny, bo łatwiej, jak się tak postępuje może to robić, a może łatwiej wydawać pieniądze, nie wiem. Zakłada się, że można stworzyć symulacje tego, jak tam neurony się łączą w mózgach ludzkich, jak sobie przesyłają impulsy, jak się wzajemnie pobudzają, bądź hamują, co tam potrzeba, jakich połączeń i jakich systemów neuronów, żeby można było rozpoznać wzory, co potrzeba żeby jakiś element, żeby jakiś system poznawczy mógł się nauczyć rozpoznawania nowych wzorów, no to znowu ma częściowe przynajmniej sukcesy, bo na obecnym etapie, już nawet proste komputery są w stanie rozpoznawać te wzory.

Całe to podejście związane jest z pewną ideologią, mianowicie ta ideologia chyba najlepiej wyraża się w tzw. teście Turinga. Turing w 30-tych latach podał definicję obliczania, do której nawiązuje cognitive science i psychologia poznawcza, tworząc tzw. teorię umysłu. Powiadał, obliczanie jest to manipulowanie symbolami, jakimiś fizycznymi symbolami, według z góry ustalonych wzorów. I stworzył taki model abstrakcyjny czegoś, co może przeprowadzać dowolne obliczanie, czego nie należy utożsamiać z rachowaniem, zwanym maszyną Turinga. Ucieleśnieniem, czy też jedną z form maszyny Turinga są oczywiście komputery.

W latach 50-tych sam Turing, zapominając zresztą, że obliczanie nie jest procesem umysłowym, tylko procesem psychofizycznym, bo musi być tu jakieś manipulowanie fizycznymi symbolami, wymyślił coś, co się nazywa testem Turinga. Wyobraźmy sobie taką sytuację, czyli przeprowadźmy taki eksperyment myślowy, że ono mamy osobę badaną, która porozumiewa się albo z komputerem, albo z inną osobą, nie wprost, tzn. nie wiedząc z kim się porozumiewa, tylko np. przy pomocy jakiś peryferyjnych urządzeń, powiedzmy przy pomocy klawiatury i ekranu. Wypisuje np. jakieś pytania do tej osoby na klawiaturze, na ekranie pojawiają się odpowiedzi, ona może wypisywać dowolne pytania i teraz, jeśli byśmy taką sytuację, powiada Turing, że osoba badana, jeśli jej pozwolimy na zadawanie dowolnych pytań, damy dowolnie dużo czasu, nie jest w stanie stwierdzić, czy ma do czynienia z komputerem, czy z inną osobą, no takiego komputera w latach 50-tych jeszcze nie było, ale hipotetycznie zakładano, to gdyby tak było, to można by powiedzieć, że ten komputer, z którym rozmawia osoba, jest tym funkcjonalnym ekwiwalentem, czyli w gruncie rzeczy ma umysł równoważny, przynajmniej funkcjonalnie, z umysłem ludzkim.

Oczywiście i teoria sztucznej inteligencji i cognitive science i psychologia poznawcza, a przynajmniej w części swoich wysiłków, do stworzenia czegoś takiego ma dążyć i zaczęła rzeczywiście dążyć.

Jeszcze w latach 60-tych, w gruncie rzeczy test Turinga został sfalsyfikowany empirycznie. Najciekawsze jest to, że falsyfikacja testu Turinga jest w niektórych podręcznikach tak przedstawiana, że właściwie to wygląda jak potwierdzenie tego testu. No tak np. jest u Normana i Lindseya. I właściwie w prawie wszystkich znanych i popularnych podręcznikach.

Niejaki Weisenbaum w latach 60-tych wymyślił taki prościutki programik, który pozwalał na dialog z komputerem tak, jak w teście Turinga, ten programik funkcjonuje w literaturze pod dwiema nazwami, albo pod nazwą Eliza, albo pod nazwą Doktor, jak Państwu powiem o tym programie, to Państwo zobaczycie, od czego ta druga nazwa. Otóż ten programik w gruncie rzeczy nie był oparty na jakimkolwiek rozumieniu języka naturalnego, ale sprawiał wrażenie. To był taki sprytny sposób, że programik, można powiedzieć rozmawiał z osobą badaną tak, jak terapeuta - nie dyrektywnie, tzn. na pytanie odpowiadał pytaniem. W programie było tam zadane: jak się pojawi w wypowiedzi rozmówcy (ludzkim) słowo ojciec, to trzeba spytać o matkę, albo o rodzinę, itd., zresztą przykład takiego dialogu możecie Państwo zobaczyć u Normana i Lindseya, lub w innych podręcznikach, a jak już nic nie znalazł program, o co można było się zaczepić, na co były przewidziane jakieś reakcje, w postaci zdań na ekranie, to reagował tak, że na ekranie pojawiało się zdanie: to powiedz coś jeszcze na ten temat. Osoba badana coś jeszcze mówiła, a jak mówiła, to tam się w końcu pojawiło takie słowo, na które można było zareagować jakimś sensownym, takim, jak produkują terapeuci niedyrektywni zdaniem.

Osoby badane poddane takiemu badaniu, które nie wiedziały nic o samym programie, tylko używały go, rzeczywiście miały wrażenie, że rozmawiają z żywą osobą, która rozumie, a w każdym razie miały wrażenie, że rozmówca rozumie, co się do niego mówi. Tak oczywiście nie było, bo to było założenie tego programu. Jeśli to tak jest, to można powiedzieć, że tutaj sfalsyfikowano test Turinga. Nie ma żadnego, nawet funkcjonalnego ekwiwalentu ludzkiego umysłu, a mimo tego osoby badane są skłonne powiedzieć, że rozmawiają z jakąś inteligentną istotą, a może nawet z człowiekiem. Tam zresztą, jak Państwo będziecie przeglądać te przykłady dialogów, to tam zobaczycie, że tam nawet można było podejrzewać o emocje rozmówcę, a w każdym razie jakoś tam emocjonalnie reagował. Bo np. mówił (komputer), a bo ty jesteś taki, jak mój ojciec.

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Powiedzieliśmy na początku, że psychologia sto trzydzieści parę lat temu, wybrała pewien model uprawiania swojej dyscypliny, model oparty na badaniach empirycznych, model wzorowany na naukach przyrodniczych, a może nawet ścisłych. Wiecie Państwo także, że mamy, mieliśmy i prawdopodobnie będziemy mieć w psychologii wiele szkół, paradygmatów, pojęć, teorii, teoryjek, które na ten sam temat mówią coś trochę innego, a przynajmniej mówią innym językiem. Wiele jest takich teorii, których właściwie nie można porównywać, ale też są takie, które porównywać można i wtedy dochodzi się do odmiennych konkluzji. Zatem na koniec pytanie, czy się z tego faktu należy martwić, czy cieszyć. Czy psychologia jest najbardziej zaawansowana z nauk empirycznych, czy najmniej zaawansowaną z nauk empirycznych?

Państwo sobie na to pytanie odpowiecie po tym, jak Państwu krótko przypomnę, jak właściwie można uprawiać nauki empiryczne. Co to jest metodologia nauk empirycznych i też jakie bywają, bo jednak nie ma, nie było i prawdopodobnie nie będzie, zgody na ten temat.

Otóż w metodologii nauk empirycznych, nie mówimy już o tych naukach, czy tych aspektach psychologii, których do tego worka nie da się wrzucić, a więc o naukach fenomenologicznych, humanistycznych, jakiekolwiek by jeszcze inne nie były, tylko „porządne” tzw. nauki. W metodologii nauk humanistycznych można wyróżnić kilka podejść. Ja je kolejno scharakteryzuję chronologicznie, ponieważ każda jest modyfikacją poprzedniej. Otóż taki najwcześniejszy model, to jest ten, który wymyślił jeszcze Bacon, a który w taki dojrzały sposób i najbardziej systematyczny, realizowano w neopozytywizmie, zwłaszcza w tej szkole filozoficzno - metodologicznej, która nazywa się Kołem Wiedeńskim i ten pierwszy, chyba najczęściej obecny w podręcznikach psychologii model uprawiania nauki nazywa się modelem indykcjonistycznym.

Indukcjonizm, zarówno ten baconowski, jak i ten wiedeński, charakteryzują dwie cechy. Po pierwsze silny nacisk na eliminację z refleksji naukowych takich poglądów i takich zdań, które najczęściej są określane mianem metafizyczne, które są nieuzasadnione, których nie powinnyśmy przejmować, nie dlatego, że są nieprawdziwe, tylko dlatego, że ma dostatecznych powodów, żeby je przyjąć. Czyli eliminacja tego, co nie pewne, a być może błędne.

I wreszcie jakby pozytywny aspekt. W tym pozytywnym aspekcie twierdzi się, że fundamentem każdej teorii naukowej są tzw. zdania o faktach, oczywiście zaświadczonych empirycznie, czyli stwierdzonych w eksperymentach, albo w obserwacjach. Te zdania, zgodnie z tym podejściem powinny być budowane sposób taki nie skażony jakąkolwiek wstępną teorią. Czyli mają to być czyste opisy faktów, tylko sprawozdanie z tego, co się dzieje, ponieważ jak się to sprawozdaje, używając języka jakiejś teorii, no to już się zaczyna interpretować, a być może tworzyć jakieś poglądy. A więc teoria składa się z takich opisów faktycznie stwierdzonych zjawisk i zależności pomiędzy nimi, wyrażonych możliwie obojętnie teoretycznie, językiem czystego opisu. Potem oczywiście są uogólnienia takich stwierdzeń np. jeżeli X w sytuacji Y zachowa się w sposób A i Z w sytuacji R zachowa się w sytuacji A, to można powiedzieć, że wszyscy bądź prawie wszyscy w takiej sytuacji zachowują się tak. To są już uogólnienia, zdania już nie dotyczące jednostkowych faktów, czy jednostkowych przedmiotów, a jakby ogólnych zależności, a z tego można dedukcyjnie, najlepiej w sposób sformalizowany, a w każdym razie możliwie zbliżony do takiego sposobu rozumowania, jaki jest w naukach formalnych, wyprowadzać następne zdania i w ten sposób tworzyć jakąś teorię, która jest oczywiście zbiorem różnych twierdzeń, zarówno tych czysto opisowych, jak i tych uogólniających, jak i innych z nich wyprowadzonych. Gdybyśmy przestrzegali tego systemu, to mielibyśmy w każdym wypadku jakąś porządną teorię, którą nie sposób byłoby zakwestionować.

Ja pomijam tutaj taką specyfikę rozumowania indukcyjnego, ile trzeba faktów zaobserwować, żeby można było to uogólnić na wszystkie podobne fakty, czy wszystkie podobne zjawiska, zwykle się mówi to, co się stwierdza to nie jest takie stu procentowo pewne, ale pewne z pewnym prawdopodobieństwem, w zależności od tego, ile razy, jak gdyby to się dało stwierdzić. Im więcej razy to było zaobserwowane, tym jest bardziej prawdopodobne.

W latach 30-tych, głównie przedstawiciele neopozytywizmu, Koła Wiedeńskiego, starali się pokazać, jak mają przede wszystkim te zdania obojętne teoretyczne, czyste opisy faktów. Proponowano najrozmaitszą ich formę, różnie też je nazywano, czy zdanie protokólarne, czy inne, w każdym razie nie uzgodniono, jak te opisy mają wyglądać. Zaczęto sobie stopniowo uświadamiać, ponieważ wtedy w tych takich ważnych metodologicznie i filozoficznie rozważaniach uczestniczyli także Polacy, zaczęto przyjmować stopniowo argumenty, także przez Tatarkiewicza formułowane, że w gruncie rzeczy nie można zbudować języka czystego opisu. Za jakimkolwiek językiem, czy to będzie język naturalny z tych języków etnicznych, jak polski, angielski, chiński, które istnieją w świecie, czy nawet jakiś stworzony język sztuczny, kryją się pewne założenia natury ontologicznej, jakieś inne założenia, zatem zawsze jest tam ukryta jakaś teoria. W związku z tym już to samo zadanie pierwsze, jakie stawiała przed nauką metodologia indukcjonizmu, jest nie do zrealizowania.

Metodologowie z Koła Wiedeńskiego mieli także świadomość, że łatwiej jest coś sfalsyfikować niż zweryfikować. Łatwiej jest powiedzieć, jak nie jest, niż jak jest. Łatwiej jest udowodnić, że dana teoria nie jest prawdziwa, niż stworzyć jakąś zadawalającą, prawdziwą teorię. Oni to wiedzieli, ale nie robili z tego twierdzenia, czy głównego punktu zainteresowania swojej metodologii, dopiero jak się pojawił Karol Popper, który właśnie z tego poglądu uczynił podstawę swojej metodologii. Ta metodologia zresztą ewoluowała, zmieniała się, w każdym razie we wszystkich swoich postaciach ona nazywana jest falsyfikacjonizmem. A więc najpierw indukcjonizm, a teraz omawiamy falsyfikacjonizm.

Indukcjonizm koncentrował się przede wszystkim na budowaniu teorii, na tym wg jakich zasad można zbudować teorię, jak jej nie można tworzyć itd. Popper powiadał, że teorię mogą sobie powstawać właściwie w dowolny sposób. Nie to ma być podstawą zainteresowania metodologów, nie samo tworzenie teorii, tylko jej weryfikacja. Teoria może być kwestią intuicji, snu nawet, czy czegokolwiek innego, może ona sobie, oczywiście przesadzę trochę, ale chcę zilustrować, o co mi chodzi, może sobie mieć najrozmaitsze źródła, zwykle ma jakieś mieszane źródła, to zależy od tradycji, trochę od danych empirycznych, trochę od pomysłów jakiś innych, natomiast tak naprawdę metodologia zaczyna się wtedy, kiedy chcemy tę teorię weryfikować. I jest tylko jeden warunek stawiany przed nową, tworzoną właśnie teorią, żeby ona była potencjalnie falsyfikowalna. To znaczy, żeby można było powiedzieć, jakie ewentualnie stwierdzone w badaniach, bądź w obserwacjach fakty, będą ją falsyfikować, to znaczy będą zmuszać do jej odrzucenia.

Popper zresztą powiadał: niedobre są takie teorie, które tego nie określają i nie przewidują albo, które są tak skonstruowane, że nie można tego przewidzieć i najczęściej wymieniał, jako teorie nie naukowe, w tym sensie, marksizm i psychoanalizę. Cokolwiek by nie zrobił człowiek, to da się to uzgodnić z psychoanalitycznym podejściem, da to się wyjaśnić psychoanalitycznie, a zatem nie ma takich faktów, nie jest możliwe zaobserwowanie takich faktów, które by psychoanalizę falsyfikowały. Jest ona zatem nie naukowa. Podobnie marksizm. Marksiści celowali w pewnej elastyczności modyfikowania swojej teorii tak, żeby cokolwiek się nie zdarzyło, było wyjaśniane na gruncie marksizmu. Prawdopodobnie i upadek samego marksizmu też by się dał wyjaśnić. Popper powiadał, że to są takie najbardziej popularne, najbardziej znane przykłady, ale ich może być więcej.

Ale kiedy Popper wystąpił z takim pomysłem metodologicznym, który po jakimś czasie zaczął być nazywanym falsyfikacjonizmem naiwnym, to zaczęto mu zwracać uwagę, że jak nie można ostatecznie teorii udowodnić, czyli nie można zrobić tego, co chcieli indukcjoniści, to nie można jest sfalsyfikować. Dlaczego nie można? Ze względu na to, że jak my mamy jakieś fakty empiryczne, to już je interpretujemy w jakimś języku i teraz nie wiemy, czy ten język, którego założenia są nieuświadomione, dobrze nam te fakty zinterpretował. Przecież nie porównujemy faktów z teoriami, tylko jedne zdania z innymi. I możemy stwierdzić czy one są sprzeczne, czy nie są sprzeczne. A zatem w momencie, kiedy natrafimy na jakieś fakty niezgodne z teorią, to nie wiadomo, z czym one są właściwie niezgodne. Czy są niezgodne z teorią, którą właśnie weryfikujemy w sensie falsyfikujemy, czy z różnymi dodatkowymi założeniami, w ... czegoś, co się najczęściej nazywa „milcząco zakładaną wiedzą”, czyli z tymi założeniami, które są nieuświadamiane, nie wyrażane wprost, np. jakimiś podstawowymi założeniami ontologicznymi. A zatem nie wiadomo, co tu sfalsyfikowaliśmy, czy te milczące założenia, czy samą teorię, czy jedno i drugie, czy jeszcze coś innego.

Zatem powiada się, że trzeba zmodyfikować falsyfikacjonizm i przejść od falsyfikacjonizmu naiwnego do tzw. falsyfikacjonizmu wyrafinowanego, albo jeszcze dalej, ja będę to traktował jako synonimy, falsyfikacjonizmu metodologicznego. Powiada się tak, jak się konwencjonalistycznie, czyli na zasadzie wstępnej umowy przyjmuje pewne teorie w nauce, to można też jak gdyby umownie je falsyfikować. Zatem pojawia się pytanie, a kiedy my odrzucamy teorię. Ile trzeba faktów zgodnych, niezgodnych stwierdzić, żeby ją odrzucić. I tutaj zaczęto formułować następujące zasady. Odrzucamy starą teorię, na rzecz nowej w następujących warunkach: po pierwsze stwierdziliśmy ileś tam faktów, które są niezgodne, bądź wydają się być niezgodne z tą weryfikowaną, czy falsyfikowaną teorią. Po drugie mamy nową teorię, która jest pod pewnymi względami lepsza od starej. Pod jakimi względami? Np. pod takimi, że obejmuje ona szerszy zakres zjawisk niż stara, że da się z nią wyjaśnić więcej empirycznie zaobserwowanych zjawisk, niż ze starą. Zawsze są takie efekty badań, które są zgodnie, albo niezgodne z jakąś teorią, więc ta druga teoria musi mieć szerszy zakres. Musi wyjaśniać więcej zjawisk niż stara, bo inaczej nie opłacałoby się odrzucać starej na rzecz nowej, bo zawsze część zjawisk będzie wyglądać na zgodne, a część na niezgodne z jakąś teorią.

Ponieważ te dyskusje na temat falsyfikacjonizmu i modelu nauki trwały dłuższy czas, ja przynajmniej miałbym trudności z powiedzenie, co jest zasługą poszczególnych autorów, a co ich oponentów. W każdym razie jednym z takich oponentów, nie tyle oponentów, co z jednej strony oponentów, a z drugiej strony jednym z kontynuatorów myśli popperowskiej, był taki węgierski emigrant, którego nazwisko pisze się Lakatos, a czyta się Lakatosz, zgodnie z węgierskimi zasadami. Otóż Lakatos przedstawił coś, co jest jeszcze dalszą modyfikacją popperyzmu, a co już nie jest nazywane ani falsyfikacjonizmem naiwnym, ani wyrafinowanym, ani metodologicznym, tylko u niego się nazywa skromnie „Metodologią naukowych programów badawczych”. Metodologia Lakatosa powiada mniej więcej to, co Popper, tylko jeszcze to modyfikuje. Podaje, na jakich warunkach można odrzucać i przyjmować teorie, to są takie, jakie Popper wymienił, czy też wymienił Popper pod wpływem dyskusji z Lakatosem, ale dodatkowo mówi jeszcze coś innego: w każdej teorii trzeba założyć, ze istnieją jak gdyby, dwa rodzaje zdań, czy twierdzeń. Są takie zdania, czy twierdzenia, które należą do czegoś, co po polsku można by nazwać nienaruszalnym rdzeniem teorii, po angielsku to jest [hard core], czyli ten nienaruszalny rdzeń to jest taka grupa zdań, których się nie modyfikuje, nie falsyfikuje, pomimo stwierdzania jakiś rzeczy niezgodnych z tymi twierdzeniami.

Można powiedzieć, że psychoanaliza ma taki nienaruszalny rdzeń, to jest twierdzenie o wpływie np. nieświadomości na człowieka, o dominacji procesów nieświadomych i jeszcze parę innych zdań z psychoanalizy by należało do tego nienaruszalnego rdzenia, a inne rzeczy to można modyfikować. Psychoanalitycy, w miarę jak się rozwijała, to modyfikowali. Zatem mamy nienaruszalność rdzenia jakiejś teorii, jeżeli się stwierdza jakieś fakty niezgodne z teorią, to tego rdzenia się nie rusza, tak samo jak nienaruszalnym rdzeniem teorii jest to założenie, które można by metaforycznie określić, że umysł ludzki jest podobny do komputerowego, czyli cała [komputacyjna], obliczeniowa teoria umysłu. Zatem jest nienaruszalny rdzeń, cokolwiek by się nie zdarzyło, to my tego nie zmieniamy, natomiast modyfikujemy inne twierdzenia danej teorii tak, żeby dostosować te fakty do twierdzeń zawartych, czasem to może być jedno twierdzenie, w tym nienaruszalnym rdzeniu. Przyjmujemy jakieś dodatkowe założenia, modyfikujemy inne zdania, modyfikujemy teorię przez jakiś czas. No oczywiście po jakimś czasie teoria już się nie da zmodyfikować i pojawia się ta wspomniana teoria doskonalsza, tzn. lepiej wyjaśniająca większą ilość faktów i wtedy ją się odrzuca, porzuca na rzecz innej.

I to byłby taki nurt, który jest w miarę jednolitym nurtem, i który jest pewną modyfikacją tych wcześniejszych, neopozytywistycznych pomysłów. Pozytywiści też mieli świadomość, że w gruncie rzeczy nigdy naukowcy nie postępują tak, jak chcieliby metodologowie, niezależnie, czy to są popperyści, zwolennicy Lakatosa, czy jacykolwiek inni. Zawsze naukowcy badają nieco inaczej. Ale powiadali neopozytywiści, my możemy jednak formułować pewne ideały badania naukowego, oni to najczęściej nazywali racjonalnymi rekonstrukcjami postępowania badawczego, no i naukowcy jakoś tam się zbliżają do tego ideału.

W latach ostatnich pojawiają się jeszcze takie pomysły, o których wspomnę, a mianowicie pomysły Thomasa Kuhna, które akurat są dosyć znane w psychologii, czy pomysły Paula [Hajraweda], te są mniej znane w psychologii, które pod pewnymi względami mówią to, co mówi Lakatos, ale idą trochę dalej. U Lakatosa jest przede wszystkim nacisk na to, zresztą także w metodologicznym falsyfikacjonizmie, że trzeba akceptować w nauce istnienie w danym czasie, wielu wyjaśnień teoretycznych, bo nigdy nie wiadomo, jak się będzie rozwijać teoria i kiedy doprowadzimy do stworzenia takiej teorii, która jest możliwie doskonała i najwięcej zjawisk wyjaśnia. Przez to jakieś teorię wyjaśniające niewielką ilość zjawisk, mają jakąś słabą moc wyjaśniania, są mimo wszystko utrzymywane w nauce i bardzo dobrze, bo one potem się rozwijają w mocnego konkurenta tamtych teorii.

Wracamy do samej psychologii poznawczej. Tak, jak się pojawiła jeszcze w latach wojennych, pojawiły się postawy do tworzenia psychologii poznawczej, to także w tych samych latach, ale jakby nie zwrócono na to uwagi, bo dotyczyło to tylko percepcji, pojawiło się takie podejście, które przynajmniej niektórzy, którzy próbują przewidywać, co będzie dale z kognitywistyką i z psychologią poznawczą, podejście, które ma rzekomo zastąpić podejście poznawcze, a mianowicie podejście ekologiczne. Ja nie będę o nim mówił, ale ono dotyczyło oryginalnie, jak było tworzone, dotyczyło tylko percepcji i zwracało uwagę na to, że percepcję łatwiej jest opisać nie jako używanie reprezentacji, tylko jako działanie określonego organizmu, w określonym środowisku, z określonym celem. To się zresztą uogólnia teraz i usiłuje się tak opisać wszelkie procesy poznawcze. A więc jest jakaś teorią, która gdzieś tam na peryferiach bytowała, potem nagle zaczyna sobie zwolenników zjednywać i może się zdarzyć, że w końcu stanie się teorią dominującą, czy też taką, do której najchętniej się wraca.

Pluralizm teoretyczny, który mówi, że jest konieczność utrzymywania w nauce wielu podejść i wielu opisów teoretycznych, jest chyba zgodny ze stanem psychologii, a w każdym razie najbardziej jest zgodny ze stanem psychologii. Jakoś tak się zdarza, że psychologia jest niezadowolona z tego pluralizmu i chcieliby psychologowie, żeby takiego pluralizmu nie było. Najczęściej chyba skłaniają się do podejścia indukcjonistycznego, niezależnie od tego, czy o tym wiedzą, czy nie.

Są jeszcze inne teorie o twierdzeniach, które jak gdyby w innych metodologiach, czy w innych racjonalnych rekonstrukcjach nauki się pojawiają. Mianowicie tak u Kuhna, jak i wspomnianego tu [Hajwareda] jest idea wspomnianej jest idea tzw. niewspółmierności teorii, które się proponuje. Powiada się, że teorie bywają bardzo często, jeśli nie z reguły, niewspółmierne. Pomysły trochę inspirowane indukcjonizmem, ale nie koniecznie, żeby wyrobić w nauce tzw. eksperymenty krzyżowe. Mamy powiedzmy dwie teorie i wykonujemy eksperyment, który nam sfalsyfikuje jedną teorię, a potwierdzi następną. Zdaje się, że w takim duchu jest pisana większość artykułów w psychologii. Jeżeli założymy, że teorie są niewspółmierne, to eksperymentów krzyżowych nie można wykonywać, ponieważ teorie niewspółmierne, to są teorie nieporównywalne. To nie są ani teorie sprzeczne logicznie, ani teorie komplementarne, które się mogą uzupełniać, jedna teoria drugą w tych aspektach ..., tylko one są nieporównywalne. Nie wszyscy akceptują ideę niewspółmierności teorii.

Myślę, że stosunkowo łatwo to wyjaśnić na podstawie fizyki. Mianowicie była dyskusja, jako tej najbardziej rozwiniętej, przynajmniej w opinii wszystkich, była dyskusja swojego czasu, teraz się chyba tak nie dyskutuje, czy fizyka newtonowska, ta fizyka klasyczna, którą znamy ze szkoły, jak się ma do fizyki einsteinowskiej, czyli tej fizyki, która mówi o ugięciu przestrzeni, o różnym upływie czasu, o wzroście masy w miarę jak się ciała poruszają, w gruncie rzeczy takiej fizyki dla prędkości i obszarów kosmicznych. Jedno powiadali, ze są to teorie komplementarne. Tu mamy fizykę newtonowską na ziemi, a w kosmosie to już mamy fizykę relatywistyczną, czy einsteinowską. Inni powiadali nie. To są zupełnie inne obrazy, sprzeczne obrazy rzeczywistości fizycznej. A prawdopodobnie to są teorie niewspółmierne. Niewspółmierność widać chociażby, jak się rozważy to, że obydwa rodzaje fizyki, mówię i einsteinowskiej i newtonowskiej, oparte są na różnych, podstawowych założeniach ontologicznych, które w pewnym momencie były milcząco przyjmowane i oczywiste i w pewnym momencie sobie je uświadomiono, ale uświadomiono sobie je, jak był kryzys zarówno fizyki klasycznej, jak i einsteinowskiej. Mianowicie założenia te dotyczą np. czasu i przestrzeni. Dla fizyki newtonowskiej, dla tej znanej nam ze szkoły, to czas i przestrzeń istnieją nawet, jak nie istnieje nic poza nimi, jak nie istnieje żadna materia. Czas i przestrzeń są homogeniczne tzn. upływa mniej więcej czas tak samo, z taką prędkością, jeśli można zrozumieć tę metaforę, kiedyś płynie czas, jaki płynął, dawniej, jaki będzie płynął. Przestrzeń jest homogeniczna. Jednakowa w każdym punkcie kosmosu.

U Einsteina jest zupełnie inaczej. Przestrzeń jest niehomogeniczna, może się np. zaginać, czas też płynie albo szybciej, albo wolniej, a co najważniejsze w fizyce współczesnej powiada się, że nie istnieje czas i przestrzeń, jak nie istnieje materia. Poza istnieniem materii nie można mówić o czasie i przestrzeni. W ogóle jest bez sensu pytanie, co się działo, jak upływał czas, jeżeli jeszcze materii nie było. I podobnie można by doszukiwać się odmiennych założeń ontologicznych różnych teorii psychologicznych. A to, że np. wypierają, czy zdają się wypierać, czy mogą wyprzeć teorie ekologiczne podejście poznawcze, związane jest m.in. z tym, że jak gdyby inaczej się rozumie naturę procesów umysłowych, w jednym i w drugim wypadku. W przypadku psychologii poznawczej, procesy umysłowe są, do pewnego przynajmniej stopnia niezależne i mogą być przynajmniej opisywane, niezależnie od innych procesów, stąd do twardego rdzenia kognitywizmu należy coś, co się nazywa metodologicznym solipsyzmem. Można badać i opisywać umysł nie przejmując się rzeczywistością pozaumysłową, co tam jest poza umysłem. Można badać same reprezentacje poznawcze i sposoby ich organizowania. Podejście ekologiczne powiada, nie ma sensu mówienie o procesach umysłowych w oderwaniu od działania. Jedno z drugim jest splecione i nawet teoretycznie trudno to oddzielić. Inna jak gdyby natura tego, co umysłowe, ale też nie uświadamiana często, przynajmniej do pewnego momentu wtedy, kiedy się teorie tworzy i kiedy się wymyśla sposoby jej weryfikacji, bądź falsyfikacji.

Pytania:

  1. Libido wg Freuda to:

    1. popęd dążenia do przyjemności

    2. instynkt seksualny

    3. popęd zniszczenia

    4. instynkt agresji

  2. Archetyp wg Junga

    1. część nieświadomości zbiorowej

    2. stereotyp na temat ról społecznych

    3. część ego

    4. jakikolwiek symbol ze snu

Będzie prawdopodobnie parę trudniejszych pytań, ale nie specjalnie.

Historia myśli psychologicznej wykład 8

Prof. Bobryk str. 10



Wyszukiwarka

Podobne podstrony:
Bobryk historia 4
Bobryk historia 2
Bobryk historia 5
Bobryk historia 3
Bobryk historia 6
Historia Bobryk
Psychologia ogólna Historia psychologii Jerzy Bobryk wykład 4 Psychoanaliza 2
Psychologia ogólna Historia psychologii Jerzy Bobryk wykład 5 Kompedium
Psychologia ogólna Historia psychologii Jerzy Bobryk wykład 1 Wprowadzenie
Psychologia ogólna Historia psychologii Jerzy Bobryk wykład 3 Twardowski
Psychologia ogólna Historia psychologii Jerzy Bobryk wykład 0 Sylabus
Historia psychologii prof Bobryk
Historia książki 4
Krótka historia szatana

więcej podobnych podstron