Pamięć, uczenie się, język
Ida Kurcz
p. Tło historyczne
adania nad pamięcią należą do najstarszych w naukowej psychologii sperymentalnej. Pierwsza monografia poświęcona pamięci, której autorem t Ebbinghaus, ukazała się w 1885 r. W wyniku tych badań opracowano ereg specyficznych metod badania pamięci, wyodrębniono fazy procesu mięciowego, zastanawiano się nad rodzajami i cechami pamięci. Poznano ereg czynników ułatwiających lub utrudniających zapamiętywanie, pczekowanie i odtwarzanie zapamiętanego materiału (czynniki te omawiamy rozdziale o uczeniu się).
Ebbinghaus rozpoczął kierunek badań nad pamięcią, który można reślić jako badanie uczenia się werbalnego. Kierunek ten został następnie ejęty przez behawioryzm, gdyż mieścił się w jego schemacie badań nad
czepiem. Psychologowie europejscy, zwłaszcza psychologowie radzieccy (Smirnow, Zinczenko), a także polscy (Szewczuk) krytykowali Ebbinghausa za posługiwanie się materiałem bezsensownym, nie występującym w norąnalnych sytuacjach życiowych, i rozwijali badania nad pamięcią przy użyciu :różnorodnych materiałów sensownych. Generalnie rzecz ujmując, lata międzywojenne i bezpośrednio po drugiej wojnie światowej charakteryzowały ;się spadkiem zainteresowań psychologów problematyką pamięci:
W latach sześćdziesiątych zaznaczył się dość gwałtowny wzrostzainteresowań problematyką pamięci w związku z postępami wiedzy neuro:psychologicznej, także dzięki nowym technicznym możliwościom stosowania niezwykle precyzyjnej aparatury do ekspozycji bodźców i mierzenia reakcji, jak również w wyniku ograniczoności teoretycznej dotychczasowych schematów S - R.
W powstałym pod koniec lat sześćdziesiątych nowym paradygmacie badawczym psychologii poznawczej, zajmującej się procesami przetwarza
7
nia informacji przez umysł ludzki, problematyka pamięci zajęła szcze eksponowane miejsce. Rozróżnienie dwóch rodzajów pamięci: krótkoi i długotrwałej wyzwoliło w latach siedemdziesiątych całą lawinę eksperymentalnych. Kolejna zmiana paradygmatu badawczego poja~n się na początku lat osiemdziesiątych spowodowała odejście od ana nych metod laboratoryjnych; przesuwając zainteresowanie badac procesy pamięci zachodzące w wyniku codziennych doświadczeń v życiowych czynności. Specyfiki tych procesów badania laboratoryjne w stanie uchwycić. Ten nowy paradygmat określa się jako badani pamięcią ekologicżną.
W niniejszym rozdziale, po krótkim omówieniu tradycyjnych rozrc rodzajów pamięci i faz procesów pamięciowych, a także głównych i badania tych procesów, stosowanych od początku powstania nau psychologii, oraz po przeglądzie podstawowych wyników uzysk owymi metodami, zajmiemy się rodzajami i systemami pamięci bad. przez psychologów poznawczych. Poświęcimy też nieco uwagi naj szemu paradygmatowi badawczemu, jakim jest badanie pamięci w na nym jej przebiegu, czyli pamięci ekologicznej. Na zakończenie roz~ zajmiemy się teoriami pamięci.
Fazy-procesów pamięci i jej rodzaje
W procesie opanowywania przez człowieka jakiegoś materiału ezy czyn wielu badaczy wyodrębnia trzy fazy. Pierwsza faza - to zmami t r,~...wąn kodowanie, druga -_pr~~~how~ie. i trzecia - odtwarzanię tego, co zc przechowane w pamięci. Faza zapamiętywania (kódowania) określar bywa jako faza nabywania. W fazie tej jednostka zapamiętuje, mi najogólniej to, co na nją oddziałuje, lub jakieś formy swojego zachovt Faza ta może się sprowadzać do jednego aktu spostrzeżeniowego, a mo być złożoną aktywnością jednostki, polegającą na opanowywaniu trud zadania, poprzedzonego jego rozwiązaniem, na przyswojeniu sobie mat· werbalnego lub umiejętności sensomotorycznych czy umysłowych:
Faza przechowania jest fazą utajoną, o jej przebiegu wnioskujen podstawie fazy następnej. Czas trwania fazy .przechowania może wynos kilku sekund do wielu lat. Faza trzecia, tzw. faza odtwarzania', polec, ponownej aktywizacji czy aktualizacji nabytych reakcji, czyli tego, co zc przyswojone i przechowane. Stopień przechowania możemy porówn stopniem zapamiętania w pierwszej fazie. Odtwarzanie jest więc procesów pamięci. Istnieje kilka rodzajów tej miary. Wyróżnia się najcz~
' 1-ermin odtwarzanie przyjmujemy tutaj za Hilgardem (1967). Uważamy, że jest on nazwą ogólną,.obejmującą przypominanie, rozpoznawanie i ponowne uczenie się; niż przypominanie jako nadrzędny, jakkolwiek niektórzy polscy autorzy (Włodarski, 1967, Budohoska i Włodarski, 1970) używają tych terminów w znaczeniu odwrotnym.
!nie (Florćs, 1964;~Hunter 1963; Budohoska i Włodarski, 1970) trzytakie miary: ałej p~in~ ni rozpoznawanie i _uczeni~ sig_n_,~,nowo. iań Przypominanie moźe~przyjąć formę: 1 ) reprodukcji tego, czego uczyliś
fca my się uprzednio (np. recytacja wiersza, serii słów, sylab czy cyfr, słówek cz- jęryka obcego, twierdzeń itp.) lub wykonania jednej czy całego układu na reakcji motorycznych (np. w labiryncie czy w tańcu); 2) przypomnienia sobie oku tego, co było treścią naszego przeżycia, np. sceny czy zdarzenia, w którym są udział nasz mógł być zarówno czynny, jak i bierny. Tę formę przypomnień iad Hilgard (1967) wyodrębnia jako oddzielną, czwartą miarę pamięci, nazywając ją pamięcią wspomnieniową.
ień Rozpoznawanie polega na identyfikacji bodźca czy sytuacji występująod cej uprzednio. W przeciwieństwie do przypominania, przedmiot zapamiętywania pojawia się tu ponownie w polu spostrzeżeniowym człowieka.
~ch Trzecia miara jest miarą pośrednią poprzez ponowne uczenie się. 'm~ Pozwala ona wnioskować o procesie przechowania na podstawie zaoszczędzania czasu, liczby prób itp. w drugim uczeniu się w porównaniu z pierwszym uczeniem się zachodzącym w fazie zapamiętywania.
iłu Te trzy miary wyróżniane są też często ze względu na specyficzne metody badania każdej z nich (patrz niżej).
Niezależnie od faz, w tradycyjnych badaniach psychologicznych wyodrębniano też różne rodzaje pamięci. Jeszcze w XIX wieku psychologowie badali zakres pamięci bezpośredniej (Jacobs, 1887). Osobie badanej eksponowano szeregi cyfr, liter, zgłosek itp., które ona natychmiast powtarzała
.ci z pamięci. Zakres pamięci określany był liczbą cyfr, liter itp., które osoba ~b badana potrafiła poprawnie powtórzyć. W badaniach tych wystąpił ciekawy to problem jednostki pamięci. Okazało się, że badani zapamiętują mniej więcej ~z
jednakową liczbę elementów, niezależnie od ich rodzaju, a więc niezależnie I od tego, czy są to np. słowa czy litery (5 liter i 5 słów 5-literowych). George
Miller (1956) obliczył, że ta jednostka pamięci wynosi 7±2. Jest ona -z wyraźnie jednostką znaczeniową, a nie formalną. To, co jest percypowane '° jako całość mająca określone znaczenie, może stanowić taką jednostkę. u ł Jednostka pamięci pojawia się też w badaniach pamięci krótkotrwałej,
gdyż jej ujmowanie bywa zbliżone do ujmowania pamięci bezpośredniej (por. s. 39).
Inne rozróżnienie polega na powiązaniu pamięci jako właściwości a układu nerwowego z poszczególnymi analizatorami (Włodarski, 1964). Pamięć zależną od rodzaju analizatora - a więc wzrokową, słuchową, dotykową itp., można określić jako zdolność peryferyczną. W eksperymentach Włodarskiego, dotyczących zapamiętywania prostych bodźców na
'I granicy progu czułości, okazało się, że osoby badane różniły się nie tytko interindywiduałnie, lecz i intraindywidualnie pod względem trwałości parnięci, zależnie od zaangażowanego w procesie odbiorczym analizatora, jeśli możliwość werbalizacji została wyeliminowana. Tak więc można mówić o istnieniu pamięci jako zdolności ogólnej, funkcjonującej przy działaniu
bodźców złożonych dzięki wynikom pracy wielu analizatorów, I składnik stanowi pamięć werbalna. Można jednak badać odrębr ry, których zdolności przechowywania śladów uprzednich pob być różne u tej samej osoby badanej (por. uwagi o pamięc s. 36 i o modułowości, s. 54).
W wielu podręcznikach psychologii (por. Witwicki, 1962, v odróżnia się pamięć mechaniczną i logiczną- pierwsza dotyczy c zapamiętywania materiału; druga - wiąże się ze zrozumie i zdolnością wyłuskania istoty rzeczy. To rozróżnienie odnosi ; innych procesów psychicznych (jak np. odtwórcze i twórcze n uczenie się przez próby i błędy przeciwstawiane uczeniu sil wiązywanie problemów).
W badaniach pamięci ważne jest wyodrębnienie fcryterii których jest ona oceniana. Kryteria takie w dawnych podręcznik logii (Witwicki, 1962) określane są jako cechy pamięci. Są to:
1 ) trwałość pamięci - kryterium odnoszące się do fazy prz 2) szybkość-kryterium dotyczące fazy zapamiętywania; o jako łatwość uczenia się;
3) dokładność lub wierność - kryterium odnoszące się między odtwarzaniem a tym, co stanowiło treść fazy zapamięty~ 4) gotowość - kryterium odnoszące się do fazy odtwarzani<
o to, czy przypominanie przebiega giadko i bez oporów czy teź p. dodatkowe aktywizujące bodźce;
5) zakres pamięci lub jej pojemność określająca, ile rc go materiału potrafimy zapamiętać w czasie jednej próby, jed zycji materiału (porównaj wymienioną wyżej jednostkę pamięci 7~2).
Jak już powiedzieliśmy, dalszego podziału rodzajów pamięc krótkotrwałą i długotrwałą dokonano analizując przebieg proc twarzania informacji. Wyodrębniono jeszcze- trzeci rodzaj pap pamięć ultrakrótką lub sensoryczną (patrz podrozdział "Pamięć p i pamięć trwała"). W ramach pamięci długotrwałej analizowa semantyczną, czyli ogólną wiedzę o świecie, i pamięć epizodyczni osobistych doświadczeń danej jednostki. Rozróżnieniami tymi z< bardziej szczegółowo w podrozdziale. "Pamięć semantyczna i epi
Metody badania pamięci
Dwa kryteria zwykle decydują o wyborze metody w konkretny Pierwsze z nich to wybór miary pamięci, a więc takiej lub i odtwarzania. Drugie to cecha pamięci (trwałość, szybkość, c gotowość), którą w danym badaniu chcemy wyeksponować.
W ciągu dziesięcioleci badań nad pamięcią opracowano w
11
z nich dotyczy tej formy odtwarzania, którą określamy jako gnie. Przypomnienia występują w formie wspomnień lub re
Pamięć wspomnieniową badał Bartlett (1932), analizując przypomeiienia opowiadań lub zdarzeń. Wysłuchane lub przeczytane opowiadanie po t~llywie określonego czasu odtwarzane jest z pamięci. Tego typu przypom
rtia mogą być wywoływane kilkakrotnie w ustalonych odstępach czasu ~ńawet kilku lat). Wskaźnikami analizowanymi w takim badaniu są: liczba ',;upamiętanych szczegółów i zmiany wprowadzane przez osobę badańą fi~ł~olejnych odtworzeniach.
Przy metodzie reprodukcji dany materiał powtarza się kilkakrotnie aż do ciągnięcia kryterium jednego lub więcej bezbłędnych potwórzeń: Mierzy fig: czas uczenia się, liczbę prób do osiągnięcia kryterium, liczbę błędów w kolejnych próbach itp. Szczególnymi odmianami badania przypomnień typu reprodukcji są metody antycypacji i skojarzeń parami.
W metodzie antycypacji materiał jest ułożony w szereg a -ł b -> c
itd. Po jednorazowym przedstawieniu takiego szeregu (ekspozycja słuchowa b wzrokowa - na raz jeden element szeregu - często przy użyciu i~ecjalnego aparatu, zwanego mnemometrem) oczekuje się od osoby badanej, że będzie ona antycypować kolejne elementy (porządek ekspozycji jest ~taiy), wypowiadając je lub zapisując, zanim zostaną jej pokazane. Po
tycypacji elementu następuje jego ekspozycja aż do wyczerpania się liczby ilłementów szeregu.
Z kolei metoda skojarzeń parami polega na prezentacji materiału iWparach. Pierwszy element pary określa się jako bodziec, drugi jako reakcję. Osoba badana ma zapamiętać podane jej pary tak, aby następnie, po podaniu, hej pierwszego członu pary, wymieniała drugi. Kolejność ekspozycji par jest zwykle losowa.
Dwie pozostałe formy odtwarzania materiału: rozpoznawanie i uczenie uę na nowo, bada się także specyficznymi dla nich metodami.
W metodzie rozpoznań prezentuje się osobie badanej dwa rodzaje bodźców: stare (tzn. wyuczone uprzednio), które powinna rozpoznać jako jej !ńane, i nowe, nie znane jej. Bodźce prezentuje się na dwa sposoby. Pierwszy
nich polega na przedstawieniu bodźców w serii (liście itp.) złożonej zrówno ze starych, jak i z nowych bodźców przemieszanych w porządku mowym, a zadaniem osoby badanej jest wskazanie tych, które występowały tprzednio. Drugi sposób polega na porównywaniu bodźców parami lub na wyborze z więcej niż dwu bodźców (liczba nowych przewyższa liczbę tarych). Porównuje się zawsze bodziec nowy ze starym.
Rozpoznanie zależy od Liczby bodźców nowych i stopnią ich podobieńtwa do uprzednio działających. Może je zastąpić zgadywanie i dlatego przy obliczaniu wyników należy wziąć pod uwagę możliwość, że osoba badana rzez przypadek wybiera właściwy bodziec. Jednakże, im większa jest liczba odźców nowych, tym mniejsza teoretycznie szansa przypadkowego wy
11
12
brania przez osobę badaną odpowiedzi prawidłowej (gdy np. do 1 i starych dodamy 10 nowych, to szansa zgadnięcia przez osol wynosi 1 do 2, ale gdy 10 starym bodźcom przeciwstawimy 30 r szansa ta spada od 1 do 4).
Innym problemem, wiążącym się z podobieństwem stosowan ców, jest konieczność uwzględnienia, przy zapisie odpowiedzi fałszywego rozpoznania bodźców nowych jako starych. Jeśli ~ A rozpoznała 4 bodźce z 10 starych, ale żadnego nowego nie r~ fałszywie, to wydaje się, że powinniśmy wyżej ocenić jej wynik v naniu z osobą B, która także rozpóznała 4 bodźce, ale jednocześni bodźce oceniła jako już jej znane z poprzednich prób.
W celu uwzględnienia powyźej przedstawionych wątpliwo: formy rejestracji wyników rozppznania, Postman (1950) zaprc następujący wzór do badania rozpoznań:
R=I- B N-1
gdzie R oznacza miarę rozpoznania, 1 liczbę prawidłowych idei bodźców starych, B - liczbę błędnych identyfikacji, N - ogólr wyborów.
Metoda powtórnego uczenia się, zwana też metodą zaoszcz polega na tym, że występują w niej zawsze dwa etapy - ucz pierwotne i po upływie pewnego czasu - uczenie się powtói zastosowaniu tego samego kryterium wyuczenia się.
Różnica między liczbą prób lub czasem trwania pierwszego się w porównaniu; z drugim jest miarą zaoszczędzania. Jednakże ta w swej wielkości absolutnej nie jest dokładną miarą (porównajmy w pierwszym uczeniu się i 15 w drugim z sytuacją, gdy przy bach w pierwszym uczeniu potrzebnych jest 5 prób w drugim wypadkach zaoszczędzenie wynosi 5 prób). Konieczna okazała się w miara zaoszczędzenia. Opracował ją Hilgard (1934) w formie ~ zaoszczędzenia:
O = 100(U-K) - (W-K) - 100~U-W~, (U-K) (U-K)
gdzie O jest miarą zaoszczędzenia, U jest liczbą prób uzyskanych w się początkowym, W-liczbą prób w uczeniu się wtórnym, a K-lici odpowiadającą przyjętemu kryterium (jeśli przyjmuje się za kryteriu czenia pierwsze poprawne powtórzenie, to K = 1 ).
Te klasyczne już dziś metody pamięci wciąż są stosowane w ba laboratoryjnych nad pamięcią. Wzbogacone zostały wieloma specyi dla określonych zadań metodami, o niektórych z nich będziemy w podrozdziale pt. Pamięć przemijająca i pamięć długotrwała.
13
Prawidłowości odnoszące się
~o faz procesów pami~ci
Przebieg pierwszej fazy - zapamiętywania lub kodowania - zależy od różnych czynników. Jednym z nich jest powtarzanie, które okazuje się niezbędne do wyuczenia się materiału przekraczającego zakres pamięci bezpośredniej. Innym takim czynnikiem jest strukturalizacja materiału, jego obróbka, jak np. nadawanie tytułów poszczególnym partiom czy fragmentom tekstu, robienie streszczeń, konspektów itp. Kolejną grupę czynników stanowią różne sposoby uczenia się, jak: rozłożenie powtórzeń w czasie, uczenie się całości lub części, wpływ próbnego odtwarzania, wpływ rodzaju materiału, rola przyjmowanych nastawień lub instrukcji otrzymywanych przez osobę uczącą się.
Wpływ wymienionych tu czynników na fazę zapamiętywania ujawnia się w tym, jak szybko materiał został opanowany (szybkość ta mierzona jest zwykle liczbą prób do pierwszego bezbłędnego powtórzenia materiału lub do trzech kolejnych bezbłędnych powtórzeń). Wpływ ten bada się jednak także iwfazie odtworzenia, tzn. wtedy, gdy sprawdza się stopień przechowania już wyuczonego materiału po upływie jakiegoś czasu.
Czynniki związane z różnymi sposobami uczenia się omawiamy w rozdziale o uczeniu się (s. 98). W niniejszym podrozdziale po przedstawieniu klasycznej krzywej przechowywania w czasie wyuczonego materiału (zwanej też krzywą zapominania lub krzywą Ebbinghausa) zajmiemy się różnicami między rodzajem odtwarzania, zwłaszcza między przypominaniem a rozpoznawaniem oraz źjawiskiem reminiscencji, a następnie samym pojęciem przechowania i związanym z nim pojęciem zapominania. Szukając wyjaśnień zjawiska zapominania, przedstawimy badania nad interferencją pro- i retroaktywńą oraz inne koncepcje wyjaśniające zapominanie, takie jak: koncepcja zacierania się śladu pamięciowego, wygasania czy tłumienia. Na zakończenie tego podrozdziału poświęcimy nieco uwagi szczególnej roli procesu rozpoznawania i jego związku z percepcją i procesami decyzyjnymi.
Krzywe Ebbinghausa
Pierwsze eksperymentalne badania nad zapamiętywaniem i przechowywaniem materiału werbalnego przeprowadzał Hermann Ebbinghaus (1850 1909). Przedstawił je w pracy zatytułowanej O pamięci (Ober das Geda'chtnis) opublikowanej w 1885 r. W badaniach tych sam sobie służył za osobę badaną, zapamiętując, a następnie odtwarzając z pamięci tysiące list złożonych ze zgłosek bezsensownych (dwie spółgłoski z jedną samogłoską wśrodku, np. zap lub lik. Ebbinghaus skonstruował ponad 2 tys. takich sylab i napisawszy każdą na oddzielnej kartce wyciągał je losowo, tworząc listy zgłosek o długości od 7 do 36 elementów.
14
Zapamiętywał owe listy zgłosek stosując metodę antycypacji, aparaturę służył mu metronom, na uderzenie którego starał się repro z pamięci kolejny element szeregu zgłosek. Uczył się list stosując I jednego bezbłędnego powtórzenia całej listy. Używał list różnej i ustalił zależność między liczbą prób potrzebnych do opanowania ~ (w stałej kolejności występowania jej elementów) a jej długoś rys.
Rys. 1. Zależność między dlugościa listy sylab bezsensownych a liczba prób potrzet jednego bezblędnego powtórzenia calej listy. (Według: H. Ebbinghaus, 1985
Najbardziej jednak znana jest jego krzywa zapominania, którą w usiłując przypomnieć sobie wyuczoną w fazie zapamiętywania li upiywie jakiegoś czasu - od jednej godziny do 48 godzin (posług różnymi listami dla różnych odcinków czasu). Krzywa zapominania c teryzuje się gwałtownym spadkiem w pierwszej godzinie uczenia się i I nym w dalszym przebiegu czasu. Ebbinghaus badał, ile razy musi pov~ ponownie daną listę sylab, aby znów ją bezbłędnie odtworzyć. Jest pamiętamy, metoda zaoszczędzenia prób w ponownym uczeniu się równaniu z uczeniem się pierwotnym (por..s. 12). Rysunek 2 przec krzywą zapominania mierzonego procentem zaoszczędzonyctl prób v~ wnaniu z uczeniem się wyjściowym, w zależności od czasu przechow~
14
15
2. Krzywa zapominania Ebbinghausa. Przedstawia procent zaoszczędzenia powtórzeń listy w ponownym jej uczeniu się w porównaniu z pierwszym uczeniem się tej listy.
(Według: H. Ebbinghaus, 1985).
pamiętanego materiału, upływającego między pierwszym a drugim uczesię.
Ebbinghaus zakładał; iż między poszczególnymi elementami danej listy wstają skojarzenia i są one tym silniejsze, im bardziej przeuczona jest dana ' a, tzn. powtarzana dalej po osiągnięciu pierwszego bezbłędnego po
órzenia (por. uwagi na temat powtarzania w rozdziale o uczeniu się . 111 ). Przypomnijmy, że pojęciem skojarzenia, czyli związku czasowego, sługiwał się też Pawłow w swoich pionierskich badaniach nad warun
owaniem. Pojęcie to we współczesnych badaniach nad pamięcią nabiera 'nnego sensu. Niejasne jest bowiem, co znaczy "siła skojarzenia". Zastępuje ię więc samo pojęcie skojarzenia pojęciem określonej relacji (np. podrzędości) między elementami struktury pamięci. Do rozważań tych wrócimy podrozdziale pt. "Modele pamięci semantycznej".
Dla Ebbinghausa pojęcie skojarzenia było kluczowe w jego rozważalach nad pamięcią i tylko po to, aby nie korzystać z nie kontrolowanych skojarzeń, jakie mogą istnieć np. między różnymi wyrazami, posługiwał się gioskami bezsensownymi, między którymi tworzył w swoich eksperymen
Mach nie istniejące dotąd związki i starał się badać ich naturę. Psychologowie ~za)mujący się po nim badaniami pamięci zarzucali mu niejednokrotnie, że iodsensownienie materiału werbalnego nie jest potrzebne, gdyż w gruncie rzeczy interesuje nas przede wszystkim to, jak zapamiętujemy materiał sensowny. Nie możemy przenosić wniosków uzyskanych w badaniach
:materiału bezsensownego na uczenie się materiału sensownego. j Materiałem werbalnym, jakim wiele laboratoriów psychologicznych
na świecie posługuje się od czasów Ebbinghausa, są wyrazy, litery, cyfry i coraz rzadziej, zgłoski bezsensowne. Okazało się przy tym, że krzywa
15
16
Ebbinghausa nie ma tak gwałtownego spadku, jeśli stosuje się i sensowny (por. s. 18).
Trzeba stwierdzić, że paradygmat badawczy zapoczątkowan Ebbinghausa - uczenie się w laboratorium różnych elementów werk seryjnie lub parami - okazał się niezwykle trwałym paradygmaten swojonym przez psychologię behaviorystyczną pod nazwą ucze werbalne (verbal learning), a następnie dalej wykorzystywanyn psychologię poznawczą.
Zjawisko reminiscencji
Reminiscencją oznacza przypomnienie sobie bez dodatkowych pov materiału, "który w poprzedniej próbie nie został całkowicie odtw Rozróżniamy dwa rodzaje tego zjawiska. Jeden rodzaj, tzw. z Warda-Hovlanda, oznacza ilościową poprawę odtworzenia z pamięci sie następującym bezpośrednio po wyuczeniu się bez dodatkowe wtarzania.
', Drugi rodzaj, tzw. zjawisko Ballarda, oznacza stopniową ilc poprawę odtwarzania w czasie kolejnych przypomnień.To ostatnie zj uważane jest na ogół za właściwą reminiscencję. Przyjrzyjmy się irr
Zjawisko Warda-Hovlanda [badania zapoczątkował L. B. Ward (' rozwinął je i potwierdził jego wyniki C. J. Hovland (1938 a, b)] prze< rysunek 3.
Rys. 3. Procent pamiętanych elementów po krótkich odstępach czasu od momentu ucz (Według: L. B.' Ward, 1937).
W eksperymencie Warda badani uczyli się metodą anty~ypac złożonych z 12 zgłosek: w jednej grupie do pierwszego bezbł~ powtórzenia całej serii i dó 7 prawidłowych antycypacji (na 12 możl w drugiej grupie. Następnie obie grupy podzielono na podgrupy, w I sprawdzono efekty pamięci po różnych okresach czasu od momentu czepia fazy zapamiętywanią: po 6 sek., 30 sek., 2 min., 5 min.,10 min., ;
16
17
unku 3 obserwujemy poprawę wyników dla odtwarzania po 30 sek, aż _, _
min. w porównaniu z przyjętymi za 100% wynikami odtwarzania po Efekt ten jednak już po 10 min. wyraźnie się osłabia. W dalszych piach (Hovland, 1938 a, b) użyto innego materiału: list przymiotników, ń ruchowych, uzyskując analogiczne wyniki.
Zjawisko, które tu opisujemy, ma bardzo wiele wspólnego z efektem lżenia prób w czasie (por. rozdział "Uczenie się", s.153) i tak samo da się Weśnić hipotezą dotyczącą konsolidacji śladu pamięciowego. Konsolidacja Wymaga pewnego czasu i dlatego zbyt szybkie odtwarzanie jest mniej ~tywne od odtwarzania po tym hipotetycznym okresie konsolidacji.
Schemat badań Ballarda (1913) różni się od schematu Warda-Hovlanda iede wszystkim tym, że odstępy czasu są tu dłuższe (w badaniach samego Narda wynosiły od 1 do 7 dni), a także materiał, jaki śtosował Ballard, był ocznie bardziej ustrukturalizowany (wiersze, kavvałki prozy) w porównaniu daniami użytymi przez Warda i Hovlanda. Poprawę wyników obserwuje wtoku kolejnych prób przypominania wyuczonego materiału (por. rys. 4).
Badani (dzieci w wieku 12 lat) uczyli się róźnego materiału werbalnego ,zasie, Który nie wystarczał na całkowite jego opanowanie. Następnie da osoba badana dwukrotnie przypominała sobie wyuczony tekst lub ę zgiosek bezsensownych - raz bezpośrednio po zakończeniu uczenia (przyjęto to za 100% na rys. 4), następnie po upływie pewnego czasu, jego dla róźnych grup badanych (od 1 do 7 dni).' Reminiscencja ajawia się w fakcie lepszego drugiego odtworzenia w porównaniu
Przedziaty cz°sowe (w dni°ch)
4. Przebieg w czasie przechowania trzech różnych materialów: wiersza (A), innego wiersza (B) i zglosek bezsensownych (C). (Według: P. B, Ballard, 1913).
pierwszym. Utrzymuje się ona w zależności od rodzaju materiału od 1 do dni. Kształt krzywej reminiscencji jest, jak widzimy, zależny od rodzaju ateriaiu (sensownego lub bezsensownego). Jednakże charakterystycżne lwisko poprawy wyników w drugim odtworzeniu utrzymuje się niezależnie ~ rodzaju materiału. Dalsze badanu (~Ar~c~ons i trion, 1954), które miały na (u weryfikację wyroków, Ballarda, potwierdziły występowanie tego zjawis~
17
18
ka i wykazały dodatkowo, że efekt ten znika, kiedy zrezygnujemy z I szego odtwarzania bezpośrednio po uczeniu się. Pierwsze odtworzeni więc ważną rolę w konsolidacji śladów pamięciowych. Dla wyjaś zjawiska Ballarda oprócz hipotezy konsolidacyjnej przyjmuje się j~ hipotezy dotyczące zniesienia zmęczenia (występującego przy pierv odtwarzaniu) i wygasania reakcji nieprawidłowych.
Zjawisko reminiscencji świadczy o możliwych odchyleniach od kl< nej krzywej zapominania, ustalonej przez Ebbinghausa, nawet przy sto: niu materiału bezsensownego (krzywa C z rys. 4). Zwróćmy uwab krzywe przechowania materiału sensownego mają znacznie wolt spadek w porównaniu z krzywą dla materiału bezsensownego.
Przechowanie a zapominanie
Wyniki odtwarzania są miarą przechowania. Tak więc wszystkie te czy których wpływ na zapamiętywanie i późniejsze odtwarzanie analizi w rozdziale o uczeniu się, pośrednio odnoszą się do procesu przechov lub procesu zapominania, jeżeli wynik odtwarzania jest niższy niż v zapamiętywania.
Zapominanie nie jest jednak odwrotnością lub brakiem procesu chowania. Procesowi przechowania towarzyszy lub nakłada się nań równie czynny proces, który określamy jako zapominanie. Świadczą c takie fakty, jak np. przypominanie sobie czegoś po uprzednim zapomni bez ponownego uczenia się.
Hipotetyczną jednostką przechowania jest ślad pamięciowy, czyi gram. Przeprowadzono wiele badań w celu ustalenia neurofizjologu istoty tych śladów (gdzie one są przechowywane i jak są reaktywow; ostatecznej odpowiedzi jeszcze nie znamy.
W koncepcjach psychologicznych począwszy od Wundta i Ebbingh ' używano starego, wywodzącego się od Arystotelesa pojęcia skojarz (asocjacja), które traktowano jako powstałe w umyśle połączenie mi
''ł różnymi elementami czy zjawiskami psychicznymi.
W klasycznej koncepcji behawiorystycznej połączenia te traktov~ jako połączenia typu S-R (bodziec-reakcja), w ujęciach bardziej złożoi może istnieć wiele stopni pośrednich, np. S ~ r --· s -· R, gdzie i s i r oznaczają procesy pośredniczące o właściwościach bodźcowych reakcyjnych. Tak więc przechowanie zależy od tego, czy wytworzyły odpowiednie połączenia (skojarzenia).
Współczesnymi koncepcjami psychologicznymi, wyjaśniającymi zac dzenie procesów pamięciowych, zajmujemy się w podrozdziale "Te pamięci".
Koncepcje dotyczące zapominania nie wiążą się ściśle z koncepc przechowania, tzn. pogląd danego autora na przechowanie nie wyzrn jego poglądu na zapominanie. Istnieją dwie główne grupy teorii wy
18
19
niających proces zapominania:_p~~rxsz_z~cieranie się śladów na skutek ich ni~ąni~"i,Q~przex nakładanie się jednych śladów na..,drugie. To drugie zjawisko określane jest często terminerri ińterferencja. Zanim przejdziemy do omówienia różnych teorii zapominania zapoznamy się bliżej z badaniami eksperymentalnymi nad zjawiskiem interferencji, Zwanym też hamowaniem pro- i retroaktywnym.
Interferencja retroaktywna i interferencja proaktywna
Interferencja retroaktywna. Interferencja lub hamowanie retroaktywne odnosi się do faktu obniżonego przechowania jakiegoś zadania A w wyniku uczenia się nowego zadania B, które nakłada się (interferuje, hamuje) na odtwarzanie A. Zjawisko to odkryte w 1900 r. przez Mullera i Pilzeckera było wielokrotnie badane i analizowane przez różnych psychologów (w Polsce zajmowała się nim W. Budohoska, 1967).
W eksperymentach dotyćzących interferencji retroaktywnej stosuje się następujący schemat:
Grupa eksperymentalna Uczenie się zadania A
Grupa kontrolna Uczenie się zadania A Procentowy wskaźnik interferencji i wzoru:
Uczenie się Odtwarzanie zadania B zadania A Odpoczynek Odtwarzanie
zadania A etroaktywnej można obliczyć według
Odtwarzanie grupy Odtwarzanie grupy 100 x ' kontrolnej eksperymentalnej
Odtwarzanie grupy kontrolnej
Badano wpływ różnych zmiennych na wielkość tego zjawiska, takich jak: podobieństwo między zadaniem pierwotnym a zadaniem interpolowanym, stopień wyuczenia się zadań, wielkość materiałów, wpływ metod uczenia się i inne.
Kiedy zadanie A i następujące po nim zadanie B są do siebie podobne, to przechowanie zadania A zmniejsza się w miarę wzrostu podobieństwa między tymi zadaniami.
Wyniki badań przeprowadzonych przez McGeocha i McDonalda (1931 ) dobrze ilustrują tę zależność. Badani uczyli się metody antycypacji w ciągu 5 prób pierwszego zadania złożonego z 11 przymiotników, następnie podzielono badanych na 6 grup, z których jedna odpoczywała (czytanie humorystycznych opowiadań), a pozostałych 5 uczyło się w ciągu 10 prób interpolowanego materiału: 1 ) serii 11 przymiotników - synonimów listy pierwszej; 2) serii 11 przymiotników - antonimów z listy pierwszej; 3) serii 11 przymiotników nie powiązanych z listą pierwszą; 4) serii 11 zgłosek bez sensu i 5) 11 cyfr. Dla każdej osoby uzyskano następujące pomiary:
19
20
a) Reprodukcja 1 - liczba słów poprawnie antycypowanych w pieron próbie ponownego uczenia się zadania A; b) Reprodukcja 2 - liczba ; poprawnie antycypowanych w drugiej próbie ponownego uczenia zadania A; c) Ponowne uczenie się 1 - liczba powtórzeń do osiągni kryterium jednej bezbłędnej reprodukcji zadania A; i d) Ponowne ucz się 2 - liczba powtórzeń do uzyskania trzech bezbłędnych reprodi zadania A. Wyniki uzyskane w tym badaniu przedstawia tabela 1.
TABELA 1. ŚREDNIE I ODCHYLENIA STANDARDOWE REPRODUKCJI I PONOWA UCZENIA SIĘ ZADANIA A W WARUNKACH fNTERFERENCJi RETROAKTYWNEJ
Rodzaj Reprodukcja 1 Reprodukcja 2 Ponowne
interferencji uczenie się 1
średnie odchy- średnie odchy- średnie odchy-.
lenia lenia lenia
standar- standar- standar-
dowe dowe dowe
Ponowni uczenie sil
średnie I ode
stan do
Odpoczynek 4,50 0,83 6,50 0,63 4,58 0,66 5,17
Synonimy 1,25 0,49 4,17 0,65 7,33 0,91 9,08
Antonimy 1,83 0,55 4,42 0,45 6,67 0,80 7,00
Nie powiązane 2,17 0,70 5,00 0,75 5,17 0,59 6,67
Cyfry 3,68 0,72 7,58 0,68 4,42 0,53 5,0$
Zgłoski 2,58 0,64 5,42 0,38 4,50 0,46 7,17
Ź r ó d ł o: J: V. McGeoch i W. T. McDonald, 1931, s. 582
Z danych zamieszczonych w tej tabeli wynika, że przypomnienie jesl słabsze i tym wyższa liczba prób potrzebnych w ponownym uczeniu sig wyższy jest stopień podobieństwa materiałów w zadaniu A i B. Inni bad uzyskali analogiczne wyniki.
Wpływ stopnia wyuczenia się zadań można określić następujące lepiej opanowane jest pierwsze zadanie, tym mniejsza interferencja r~ aktywna. Wpływ stopnia opanowania drugiegó interpolowanego zac jest różny, w zależności od stopnia wyuczenia się zadania pierwszego ogół lepsze opanowanie zadania B zwiększa interferencję. Zależnoś znane już Mullerowi i Pilzeckerowi (1900) badało wielu psycholo (McGeoch,1929; Postman i Riley, 1959; Briggs,1957). Przytoczymyw G. E. Briggsa, gdyż pokazują wielostronne zależności. Briggs wprow 4 warunki kontrolne i 15 eksperymentalnych, które pozwalały na kombii 4 stopni opanowania zadania pierwotnego A (2,5,10 lub 20 powtói z 4 analogicznymi stopniami opanowania zadania interpolowanego B
Materiałem w obu zadaniach A i B były listy złożone z 1 C przymiotników. Przerwa między uczeniem się zadania A a pierwszą K jego przypomnienia trwaia 17 i pół minuty i wypełniona była w warun kontrolnych odpoczynkiem, a w warunkach eksperymentalnych ucze się zadania B. Wyniki tego badania ilustruje tabela 2.
21
rszej iłÓ W
się ęcia ginie akcji
EGO
Liczba powtórzeń zadania B
0 (Warunki kontrolne) J Reprodukcja
2 Reprodukcja interferencji retroaktywnej
5 Reprodukcja ~o interferencji retroaktywnej
10 Reprodukcja interferencji retroaktywnej
20 Reprodukcja °% interferencji retroaktywnej
" t r ó d ł o: G. E. Briggs, 1957, s. 61
TABELA 2. ŚREDNIA LICZBA POPRAWNYCH ODPOWIEDZI W PIERWSZEJ PRÓBIE REPRODUKCJI ZADANIA A I % INTERFERENCJI RETROAKTYWNEJ
Liczba powtórzeń zadania A
2 I 5 I 10 I 20
3,25 4,94 7,19 9,44 1,94 2,38 5,44 7,88
40,3 51,8 * 24,3 16,5 0,94 2,12 4,19 6,44
71,0 57,0 41,7 31,7 0,94 2,06 3,12 4,75
71,0 58,2 56,6 49,6 0,94 1,62 3,06 4,38
71,0 I 67,2 I 57,4 I 53,6
Wskazują one, że interferencja retroaktywna zmniejsza się wraz ze wzrostem opanowania zadania A (z jednym wyjątkiem oznaczonym w tabeli gwiazdką). Z drugiej strony, interferencja ta wzrasta wraz ze wzrostem opanowania zadania B.
Wpływ wielkości materiału jest różny w zaleźności od tego, które z dwu zadań ulega zwiększeniu. Jeżeli zwiększa się liczbę elementów składających się na zadanie A przy nie zmienionym zadaniu B, interferencja się obniźa. I odwrotnie, wzrost interferencji wynika ze zwiększenia liczby elementów zadania B (przy stałym zadaniu A). J. A. McGeoch i A. L. Irion (1952) wyjaśniają tę pierwszą zależność zwiększonym wysiłkiem potrzebnym do opanowania dłuższego materiału, którego pewne elementy zostają przeuczone, a więc stają się bardziej odporne na wpływy zewnętrzne.
Wpływ uczenia się różnymi metodami każdego z dwu zadań polega ogólnie na zmniejszeniu interferencji. W. O. Jenkins i L. Postman (1949) porównywali wpływ metody antycypacji i rozpoznawania (jedna grupa uczyła się zadania A pierwszą, a zadania B - drugą z wymienionych metod zaś druga odwrotnie, grupy kontrolne uczyły się obu materiałów tą samą metodą). Zmiana metod uczenia się w sposób istotny zmniejszała interferencję w porównaniu z wynikami grup kontrolnych. Podobne wyniki uzyskała W. Budohoska (1966). Zajmowano się jeszcze badaniem wpływu innych czynników, jak np. wpływem długości przerw między zadaniami, jednakże uzyskane wyniki nie są jednoznaczne.
21
22
Interferencja proaktywna. Innym rodzajem interferencji zadań jest interfe cja lub hamowanie proaktywne. Chodzi tu o obniżone przechowanie zad B w wyniku uprzedniego wyuczenia się zadania A. Zjawisko to zos odkryte w 1927 r. przez P. L. Whitely'ego. Schemat eksperymentu pr: stawia się następująco:
Grupa eks- Uczenie się A Uczenie się B Odpoczynek perymen
talna
Grupa kon- Odpoczynek Uczenie się B Odpoczynek trolna
Reproduk lub ponov uczenie si
Reprodukc lub ponov uczenie się
Interferencji proaktywnej poświęcono znacznie mniej badań niż interferer retroaktywnej. Problemy badawcze są tu podobne, jak też podobne są stwi dzone zależności. Zajmiemy się wpływem podobieństwa między zadania i wpływem stopnia wyuczenia się zadań.
Podobieństwo międzyzadaniami badali A. W. Melton i W. J. Lackum (194 Główne zadanie B składało się z 10 zgłosek bezsensownych. W dwóch grupa eksperymentalnych poprzedzone było uczeniem się materiału A złożonec w jednej grupie z 10 zgłosek podobnych do zgłosek z zadania B, w drugiej z zgłosek niepodobnych. Uczenie się zarówno zadań A, jak i zadania B, xaws sprowadzało się do 5 powtórzeń danej listy. Przechowanie badano 20 minutach od vvyuczenia się zadania 8. Procent interferencji dla zadar podobnego wynosił 51, a dla niepodobnego 25.
Stopień wyuczenia zadania uprzedniego A wpływa na wielkość interferęn proaktywnej. Im lepiej jest ono opanowane, tym większa interferencja. Z ko przez zwiększenie stopnia opanowania zadania B zmniejszamy interferencję.
Weiss-Morgolius
80 ~1 WlrbmS o Gibson °' ~~ v Wiliams
60 Underwood~Richordson $, ~~ Johnson
v ~ Underwood 40
$ Lester
~ ~ Cheng Hovlond Luh
20 Krueger ~ \ U
O Q_
yOUlZ 0 0 5 10 15 20
Liczba uprzednio wyuczonych serii
Rys. 5. Wplyw interferencji proaktywnej na pomiar efektów uczenia się. Wyniki otrzymane pr: różnych badaczy zestawia Underwood w 1945 r. (Według: W. Budohoska i Z. Wlodarski,1970
22
23
Jako przykład wpływu interferencji proaktywnej przytoczymy analizę dokonaną przez Underwooda (1945), dotyczącą zależności między uprzednim doświadczeniem z materiałem określonego typu a późniejszymi wynikami uczenia się podobnego materiału (patrz rys. 5). Underwood zastanawiał się, dlaczego wjednych eksperymentach psychologicznych badani zapamiętują 80% wyuczonego materiału, a w innych tylko 10%. Postawił hipotezę, że to dawne doświadczenia z podobnym materiałem przeszkadzają w pamiętaniu nowego. Prześledził wyniki wielu badań nad zapamiętywaniem, porównując uzyskany w nich procent zapamiętania z liczbą uprzednich doświadczeń osób badanych z tego typu materiałem. Rezultaty tych porównań potwierdzają hipotezę dotyczącą wplywu interferencji proaktywnej. Im więcej doświadczeń, tym gorsze pamiętanie nowego materiału.
Teorie zapominania
Przytoczone tu przykłady badań nad interferencją proaktywną i retroaktywną wilżą się ściśle z jedną grupą teorii wyjaśniających istotę zapominania. Jak powiedzieliśmy, są dwie podstawowe grupy teorii psychologicznych wyjaśniających ten proces. Pierwsza grupa teorii wywodzących się od E. L. Thorndike'a (1921 ) głosi, że zapominanie polega na zacieraniu się śladów pamięćiowych wskutek braku ich używania. Zgodnie ze sformułowanym przez Thorndike'a prawem ćwiczenia, powtarzanie zapobiega zapominaniu. Jednakże teorii tej brak jest waloru ogólności. Powtarzanie nie zawsze jest potrzebne do nie zmienionego przechowania, czasem po upływie dłuższego czasu pamiętamy coś doskonale, a nawet obserwujemy przykłady dokładniejszego przypomnienia po pewnym czasie (reminiscencja). Ponadto można niewątpliwie wykazać wpływ innych czynników niż brak aktywizacji śladów pamięciowych, jak np. czynników związanych z interferencją. Wszystkie te zarzuty, jakkolwiek wykazują ograniczony charakter hipotezy zacierania się śladów, nie obalają jej całkowicie. Jeżeli przyjmiemy, po pierwsze, poprawkę na podstawie teorii Mullera i Pilzeckera, mówiącej o konieczności kónsolidacji śladu pamięciowego (teorią tą wyjaśniano efekty uczenia się rozłożonego w czasie i reminiscencji), to oczywiście nie przeczy to temu, że po okresie konsolidacji może z kolei następować jakiś samoistny proces zacierania się tego śladu w miarę upływu czasu. Być może, pewien stopień konsolidacji uniemożliwia ten proces. Hipoteza ta nie neguje również wplywu innych aktywizujących czynników, które ten samoistny proces przyspieszają.
Anderson (1985) podkreśla z kolei, że oparcie wyjaśnienia zapominania wyłącznie na procesach interferencyjnych jest niewystarczające i że proces osłabienia śladu na skutek braku jego aktywizacji ma podłoże fizjologiczne, Powołuje się na badania Barnesa i McNaughtona (1980), którzy wykazali osłabienie wraz z upływem czasu przewodnictwa synaptycznego. Krzywa zapominania Ebbinghausa wskazuje, że przebieg tego procesu zgodny jest z prawem potęgowym, podobnie prawu temu podlegają procesy deterioryzacji funkcji
23
24
synaptycznych wraz z uplywem czasu. Tak więc zapominanie może być w c wyjaśnione czysto fizjologicznie.
Druga grupa teorii wyjaśniających proces zapominania akcentuje czynny charakter. Teorie te nazwiemy interferencyjnymi, gdyż właśnie zjaN interferencji proaktywnej i retroaktywnej większość z nich prryjmuje za p wyjścia. Teorie te mają charakter bądź pychologiczny-wyjaśnienia dokonuj na poziomie zachowania - lub psychofizjologiczny, kiedy na podstawie ot wacji na poziomie zachowania usiłuje się wnioskować o neurotizjologiczi procesach pamięci. Zajmiemy się tu tylko wyjaśnieniami psychologicznymi
Spośród psychologicznych teorii interferencji wymienimy teorię I kurencji między reakcjami McGeocha i teorię generalizacji-różnicowi E. J. Gibson. Ta pierwsza (rozszerzona przez A. W. Meltona i J. M. Irv~ 1940) głosi, że zapominanie jest wynikiem konkurencji (wzajemr oddziaływania na siebie) reakcji należących do dwu zadań A i B. W syri interferencji retroaktywnej w momencie przypominania lub ponown uczenia się pierwszego zadańia A, reakcje należące do drugiego zad B przeszkadzają w przywołaniu A. Analogicznie interferencja proaktywna wynikiem nakładania się wcześniejszego zadania A na odtwarzanie gł nego zadania B. Obserwujemy więc przypadki intruzji reakcji A w cz przypominania sobie B, oraz intruzji reakcji B w czasie przypómin~ sobie A.
Teoria Gibson (1940) wyjaśnia występowaniem procesu generalia wzmożoną interferencję zadań podobnych i zakłada konięczność różnico nia reakcji (tym trudniejszego, im większa była generalizacja) potrzebnycl opanowania zadań.
Teorie interferencji nie ograniczają się tylko do wyjaśniania fak stwierdzonych w badaniu hamowania proaktywnego i retroaktywnE Dokonują uogólnienia swych stwierdzeń na wszelki proces zapomina który w tym ujęciu polega na nakładaniu się, przeszkadzaniu jednych re~ w wyśtąpieniu innych. Zapominanie w życiu codziennym również mc wyjaśnić tym, że zawsze po wyuczeniu się czegoś mamy do czynienia z ini materiałem, który efekty pierwotnego uczenia się zniekształca, z kolei ża uczenie się nie dokonuje się w próżni i uprzednie doświadczenia inge w przebieg i przechowanie jego rezultatów. Idealną sytuacją (niwelu, w każdym razie interferencję retroaktywną) byłaby taka sytuacja; ki po wyuczeniu się jakiegoś materiału następuje przerwa, odpoczynek wypełniony żadną aktywnością. Optymalnym brakiem aktywności psych nej wydaje się sen. Tak więc uczenie się, po którym następuje sen, powinno podlegać hamowaniu retroaktywnemu. Eksperyment przepro~ dzony przez J. G. Jenkinsa i K. M. Dallęnbacha (1924) miał na ~ wykazanie zależności hamowania retroaktywnego od rodzaju czynn~ interferującej. Dwie osoby badane uczyły się 10 zgłosek bez sensu aż kryterium jednego bezbłędnego powtórzenia. Następną reprodukcję bad po upływie 1, 2, 4 lub 8 godzin wypełnionych bądź snem, bądź różn
24
czynnościami według upodobania badanych. osoby badane spały w laboratorium. Wyniki przedstalrvia rysunek 6.
Krzywa zapominania w okresie czuwania ma bardziej gwałtowny spadek niż krzywa w czasie snu, co potwierdza interferujący wpływ na siebie różnych, nawet nie powiązanych ze sobą czynności. Jednakże w czasie snu obserwujemy także spadek krzywej, co możemy ewentualnie wyjaśnić samoistnym procesem zanikania czy rozpadania się śladu pamięciowego, który to proces w wypadku czuwania został wyraźnie przyśpieszony przez interferencję nowych doświadczeń.
~o
0 4 N
Rys. 6. Przebieg w czasie przechowania sylab po okresach snu i czuwania u dwóch osób: H. i Mc. (Według: J. G. Jenkins i K. M. Dailenbach, 1924).
Nowsze badania nad rolą snu w procesach pamięci wykazały jego wpiyw nie tyle poprzez eliminowanie interferencji, ile poprzez działanie konsolidujące uprzednie ślady pamięciowe. Taką rolę pełni zwłaszcza faza snu paradoksalnego, która jest tym dłuższa, im więcej poprzedzało ją zdarzeń w okresie czuwania, a także jej zakłócanie wpływa destrukcyjnie na konsolidację owych śladów (por. Bloch, Hennevin, Leconte, 1979).
W roku 1959 L. R. Peterson i M. J. Peterson, stosując technikę Browna, (1958) postanowili jeszcze raz zweryfikować obie koncepcje zapominania. Zamiast podawać badanym całą listę do zapamiętania i odtworzenia po pewnym czasie, stosowali oni pojedyncze trigramy (złożone z trzech liter, np. PRF), które badani mieli odtworzyć albo natychmiast, albo po pewnym czasie wynoszącym od 1 do 18 sek. W tym czasie, tzn. między ekspozycją
1 2 4 9 Przedzioty czasowe Iw godzinach)
25
trigramu a jego odtworzeniem, badani nie mogli go powtarzać s w pamięci, gdyż otrzymali dodatkowe zadanie liczenia w myśli wstecz cc liczby, począwszy od pewnej podanej liczby. Petersonowie stwiei (rys. 7) spadek procentu przypomnień wraz z upływem czasu wypełnior liczeniem wstecz; po upływie 18 sek. przypominanie osiąga prawie
10
.C V d_!
C E ó. 4 T
N
O.
2 d
U O
0
3 6 9 12 15 18 Czas trwania zadania interferujqcego fw sek.]
Rys. 7. Eksperyment Petersonów. Zapominanie trigramów w wyniku interferencji zadania. (Według: L. B. Peterson i M. J. Peterson, 1959.)
Wprawdzie wyniki te często interpretuje się jako świadczace na kory koncepcji interferencji (liczenie wpłynęło hamująco na przechowanie gramu), to jednak z eksperymentu tego wyciągnięto znacznie dalej id wnioski. Wskazywały one na rolę powtarzania, które zostało tu unierr liwione - powtarzania, które odsłoniło podwójną naturę pamięci. Z jec strony umożliwia ono utrzymywanie się materiału w pamięci, nazwijmy j. Jamesem (1890) pierwotną, natychmiastową, a z drugiej pozwala utrwalenie się tego powtarzanego materiału, czyli zakodowanie go w pam wtórnej. Uniemożliwienie powtarzania narusza oba rodzaje pamięci. rodzajów pamięci i związanej z tymi rodzajami problematyki zapomin< wrócimy w podrozdziale pt. "Hipotetyczny model trzech bloków parnię
Jako pewne specyficzne zjawiska zapominania wymienja się jesa wygasanie i tłumienie. Wygasanie ma miejsce wtedy, gdy wytworz reakcja przestaje być skuteczna (jest niewzmacniana), w związku z c~ przestaje występować (por. rozdz. o uczeniu się, s. 98). Możliwość samoistnego odnowienia się wskazuje, że nie została ona zatarta, zniesie lecz tylko zahamowana. Wydaje się, że istnieją różnice między zapominan a wygasaniem: po pierwsze, wygasanie jest wytworzone przez okoiiczn~ zewnętrzne (brak wzmacniania), a zapominanie jest procesem samoistn a po drugie, odporność na zapominanie jest zupełnie inaczej wytwarz niż odporność na wygasanie -ta pierwsza zależy od liczby powtórzeń, c od przeuczenia się, a ta druga od rozkładu stosowanych wzmocn
26
Wzmacnianie nieregularne w porównaniu z regularnym wzmaga tę odporność, choć nie oznacza zwiększenia powtórzeń.
Tłumienie, termin wprowadzony przez Z. Freuda, dotyczy pewnej szczególnej kategorii przeżyć, a mianowicie przeżyć o zabarwieniu emocjonalnym, i- jak to interpretuje S. Rosenzweig (1943) -szczególnie tych, które zagrażają Ego. Jakkolwiek tłumienie nie może być traktowane jako ogólny mechanizm zapominania, to jednak ani zacieranie śladów, ani interferencja nie wyjaśniają wybiórczego charakteru tłumienia. Musimy więc uznać, że tłumienie jest specyficznym procesem zapominania.
Omawiane hipotezy, z wyjątkiem freudowskiej, dotyczą przede wszystkim sytuacji, w których faza zapamiętywania składa się z wielu powtórzeń, materiał jest opanowany, a następnie, po upływie pewnego czasu, stwierdza się ubytki w pamięci. Trudniej jest opisywać zapominapie w odniesieniu do pamięci wspomnieniowej, która polega na przechowaniu często jednorazowych doznań (por. podrozdział pt. "Emocje a pamięć: efekt lampy bfyskowej".). Gdy jesteśmy świadkami jakiegoś zdarzenia i po upływie pewnego czasu zdajemy z tego sprawę, i nie pamiętamy wielu szczegółów, to powstaje pytanie, czy zapomnieliśmy je, czy nie zapamiętaliśmy ich. Zapewne jedno i drugie. Nie wszystko z tego, co spostrzegamy, zostaje przechowane w pamięci trwałej. Ponadto pewne szczegóły nie tylko zacierają się, lecz wiele z nich zostaje zmienionych w procesie przechowania. Do spraw tych wrócimy przy omawianiu pamięci ekologicznej).
Różnice miedzy rodzajami odtwarzania
Pierwsze badania konsekwentnie stosujące różne rodzaje miar pamięci dla porównania uzyskanych tymi metodami efektów odtwarzania wykonał C. W. Luh (1922). Śledził on, wzorem Ebbinghausa, stopień przechowania materiału (bezsensowne zgłoski) po różnych odstępach czasu przy stosowaniu różnych metod w fazie odtwarzania tego materiału (por. rys. 8). Metoda rozpoznawania okazuje się skuteczniejsza od róźnych metod przypominania, a metoda zaoszczędzania przy ponownym uczeniu się znajduje się pośrodku. Wielu innych badaczy potwierdziło przewagę rozpoznawania nad pozostałymi miarami pamięci, a szczególnie nad przypominaniem typu reprodukcji. Przewaga ta występuje zarówno w klasycznych eksperymentach z zastosowaniem zgłosek bezsensownych, jak i w badaniach nad przypominaniem i rozpoznawaniem materiału sensownego, werbalnego i niewerbalnego (np. twarzy ludzkich). Przykładem z praktyki szkolnej mogą tu być egzaminy typu otwartych pytań w porównaniu z pytaniami, do których dołącza się odpowiedzi do wyboru (z jedną poprawną). Średnio w tym drugim przypadku uzyskuje się odpowiedzi o 500 lepsze, tzn. jest więcej prawidłowych rozpoznar5 niż przypomnień. Nie można więc porównywać ze sobą wyników uzyskanych przy stosowaniu tych dwu metod. istnieje jednak wysoka korelacja dodatnia między wynikami uzyskanymi obiema metodami, tzn.
27
28
100
90 60 1 Rozpozn°wonie 1
70 1 60 ~<
_ _ _ _ Ponowne uczenie Sig
Ąek°nsf j° ~ekonstruk - _ _ 40 rukc no c o ustn Piśmie 30
20 Antycypoc jo 10
0 1godz.~ 1 dzień 2 dni 20 min. 4 godz.
Rys. 8. Krzywe przebiegu w czasie przechowania mierzonego różnymi metodami: antycypacji, rekonstrukcji na piśmie, rekonstrukcji ustnej, ponownego uczenia się i rozpoznawania
(Według: C. W. Luh, 1922).
osoby otrzymujące wysokie wskaźniki przy użyciu jednej metody uzyskuj także wysokie i przy drugiej, jest więc wszystko jedno, za pomocą której z tych metod określimy pamięć osoby badanej.
Wyjaśnienie tych różnic między rozpoznawaniem a przypominaniem da się zapewne sprowadzić do tego, że przy rozpoznawaniu bodźce działające w fazie zapamiętywania pojawiają się ponownie (jakkolwiek wraz z innymi, nowymi bodźcami). Jest więc wysoce prawdopodobne, że ponowna aktualizacja śladów pamięciowych przez pobudzenie z zewnątrz jest efektywniejsza od aktualizacji czysto wewnętrznej.
Rozpoznawanie w ujęciu teorii detekcji sygnałów
Rozpoznawanie będące jedną z miar pamięci wiąże się też ściśle z percepcja i z podejmowaniem decyzji. Spostrzegając przedmioty z otoczenia, człowiek rozpoznaje je jako już znane bądź nie, czyli podejmuje decyzję, czy działający bodziec jest stary czy nowy, znany mu czy też nie. Ustalanie progów zmysłowych: wrażliwości i czułości opiera się też na procesie rozpoznawania: bodziec progowy to taki, który w 50% przypadków jest odbierany, czyli rozpoznawany jako bodziec, a w 50% przypadków nie jest. Podobnie próg różnicy ustala się jako tę wartość bodźca, która w 50% przypadków rozpoznawana jest jako taka sama jak wartość bodźca wzorcowego, a w 50°/
jako różna.
'' Rozpoznanie jakiegoś sygnału, który pojawia się na tle innych czasem nawet podobnych doń sygnałów, może wiązać się z ważnymi życiowo sytuacjami: Taką sytuacją jest np. sytuacja lekarza, który nasłuchuje pewnych
28
29
szumów serca, charakterystycznych dla podejrzewanej u pacjenta choroby, i musi je wyłowić na tle innych szumów organicznych. Jeszcze trudniejsza w sensie detekcji sygnału okaże się sytuacja; gdy przyjdzie nam wyłowić bzyczenie komara na tle zgrzytów piły mechanicznej, a z kolei w tym samym sensie łatwiejsza jest sytuacja, gdy mamy zidentyfikować strzał z rewolweru w cichym, choć niebezgłośnym wnętrzu muzeum sztuki.
Takie sytuacje wyławiania sygnałów spośród innych sygnałów czy na tle ciągłego szumu, i to przy zmiennej intensywności zarówno sygnału, jak i tła, interesowały psychologów inżynieryjnych w związku z istnieniem tego typu stanowisk pracy, a od czasów drugiej wojny i psychologów wojskowych. Jest to bowiem typowa sytuacja pilota samolotu czy operatora obsługującego urządzenia radarowe do wykrywania nieprzyjaciólskich rakiet. Teoria zajmująca się opisem takiej sytuacji rozpoznawania określonych bodźców na tle innych bodźców nosi nazwę teorii detekcji sygnałów. Ma ona swe źródła zarówno w klasycznej psychofizyce (zajmującej się progami wrażliwości i różnicy), jak i w teorii decyzji. W badaniu detekcji sygnałów występują dwa możliwe stany: brak sygnału przy obecności szumu (np. szum dźwiękowy lub ekran, na którym pokazują się różne błyski) i sygnał plus tenże szum (określony błysk na ekranie lub określony dźwięk na tle szumu), są to więc albo sam szum, (Sz), albo sygnał plus szum (S+Sz). Na rysunku 9 pokazano
Szum Sygnat + szum
Obserwowane dane
Rys. 9. Model teorii detekcji sygnalów. (Według: R. Lachman, J: L. Lachman i E. C. Butterfield, 1979.)
model takiej sytuacji. Szum i sygnał należą, jak powiedzieliśmy, do tej samej modalności. Szum występuje zawsze, ale jego intensywność się zmienia, zmienia się też intensywność sygnału. Im silniejszy jest sygnał, tym łatwiej jest go wyłowić i na ogół sytuacje sygnał plus szum charakteryzują się wyższą intensywnością od sytuacji samego szumu. Możliwe są jednak takie sytuacje, kiedy słaby sygnał plus szum nie jest silniejszy od samego szumu. Dlatego też krzywe obserwacji, jedna dla szumu, druga dla sytuacji, w których na tle szumu pojawia się sygnał, mogą się na siebie częściowo nakładać, jak to pokazuje rysunek 9. .
Zadaniem obserwatora (osoby badanej) jest odpowiedzieć ,;tak", gdy rozpoznaje sygnał, i "nie", gdy widzi lub słyszy tylko szum. Te dwa rodzaje odpowiedzi badanego rozpadają się jednak na cztery kategorie, jak to
29
30
pokazuje tabelka 3. Dla każdego bowiem obserwowanego stanu S. możliwe są zarówno odpowiedzi poprawne, jak i błędne. Popraw powiedzi "nie" na szum nazywają się p r a w i d ł o w y m o d r z u c t natomiast błędne odpowiedzi "tak" na sam szum noszą nazwę f w e g o a I a r m u. Z kolei'poprawne "tak" na sygnał plus szum okre jako trafienia, a błędne "nie" jako opuszczenia.
TABELA 3. RODZAJE ODPOWIEDZI W EKSPERYMENCIE Z DETEKCJI SYGNAŁÓW
Odpowiedzi TAK NIE Sygnał plus szum Trafienia Opuszczenia Szum Fałszywe alarmy I Prawidłowe odrzucenia
Z modelu detekcji sygnałów (rys. 9) wynika w sposób oczyw prawidłowe reakcje zależą od średnich intensywności obu rozkłac i S+Sz, i od stopnia ich zachodzenia na siebie. Miarą zachodzenia n. obserwacji obu rodzajów (Sz i S+Sz) jest w teorii detekcji sygnałć d' (d prim). Oblicza się je przez odjęcie niższej średniej od v i podzielenie tego wyniku przez wartość zmienności obu rozkładów średnie odchylenie standardowe. Jeśli np. średnia dla Sz wynosi 10,
Sz d, S a $z (A)
Sz d, S a Sz (B)
(C) ~ d, Sa Sz iks
Rys. 10. Trzy różne wartości d' w trzech sytuacjach: (A) bzyczenie komara (sygnalj r mechanicznej (S+Sz) i sam dtwięk pity (Sz), (B) szmery.serca (sygnalj na tle innych organizmu (S+Sz) isameszmery organiczne (Sz), (C) strza!(sygnalJ wmuzeum (S+:
w muzeum (Sz). (Według: R. Laehman, J. L. Lachman i E. C. Butterfield, 197
dla S+Sz 30, a odchylenie standardowe dla obu rozkładów - 5, to wartość d'równa się 4 [(30-10):5=4].
Jeśli, jak to uczyniliśmy na rysunku 10 (adaptowanym z Lachmana, Lachman i Butterfielda; 1979), przedstawimy hipotetyczne sytuacje wykrywania bzyczenia komara na tłe ryku piły mechanicznej czy strzału rewolwerowego w muzeum, jak też sytuację oskultacji serca, to wartości d' dla każdej z nich pokażą: trudność w uzyskaniu prawidłowych odpowiedzi w sytuacji pierwszej i wręcz pewność takich reakcji w sytuacji drugiej oraz pośrednie efekty w sytuacji trzeciej.
Wartość d' jest miarą wrażliwości układu obserwującego, którym może być zarówno człowiek, jak i maszyna. W teorii detekcji sygnałów opracowano jeszcze inną miarę, tzw. wartość /3 (beta). Jest to punkt, powyżej którego badany (obserwator) daje wszystkie odpowiedzi twierdzące, a poniżej którego wszystkie jego odpowiedzi są przeczące. Innymi słowy, jest to kryterium działania układu obserwującego. Weźmy przykład lekarza z sytuacji B na rysunku 14 i przedstawmy go jeszcze raz na rysunku 11 jako sytuację A. Przypuśćmy, że wartość d' wynosi tu 3 i że obserwator ustali sobie
Sz d' S a Sz (A) ~
Trafienia
(.93321 Fatszywe alarmy 1.06681 Kryterium
Sz d' Sa Sz (B)
Trafienia
(.999971 Fatszywe alarmy (. 84131
Sz d' SaSz
l3 Trafienia
(C) I.0228T Fatszywe alarmy 1.00001
Rys. 11. Wplyw różnegó ustalenia kryterium Li na wyniki detekcji sygnalów. (Według: R. Lachman, J. L. Lachman i E. C. Butterfield, 1979.)
31
kryterium (3 na 1,5 odchylenia standardowego powyżej średniej dla rozkładu Sz i 1,5 odchylenia standardowego poniżej średniej dla S+Sz, punkt ten znajdzie się wtedy dokładnie w punkcie przecięcia obu rozkładów, co widać na rysunku 11 (A). Jeśli każdy szmer powyżej (3 lekarz oskultujący uzna za poszukiwany śzmer serca, uzyska on 0,93 procent trafień, będzie on też mial tyleż samo prawidłowych odrzuceń, ale 0,07°I° szmerów serca nie zostanie rozpoznanych, czyli zostanie opuszczonych, i pojawi się tyleż samo fałszywych alarmów. Strategia taka, tzn. takie ustalenie kryterium ji, wydaje się względnie optymalna w omawianej sytuacji. istnieją jednak sytuacje, kiedy każde opuszczenie może być niezwykle kosztowne bądź też nie możemy sobie w ogóle pozwolić na fałszywy alarm. Wyobraźmy sobie operatora radaru obserwującego sygnał pojawienia się nieprzyjacielskiej rakiety. Koszt opuszczenia napływającego sygnału może wyrażać się ceną wielu istnień ludzkich i w takiej sytuacji "opłaci się" mieć znaczną liczbę fałszywych alarmów. Sytuację taką obrazuje wykres B na rysunku 11. Z kolei nadmierny koszt fałszywych alarmów spowoduje obniżenie ficzby trafień, co przedstawia wykres C na rysunku 11.
Koszt poszczególnych typów odpowiedzi przy detekcji sygnałów i jego wpływ na rozkład tych odpowiedzi badano eksperymentalnie, ustalając różne macierze wpłat i wypłat dla badanego. Dla przykładu tabela 4 przedstawia
TABELA 4. TRAFIENIA I FAtSZYWE ALARMY PRZY PIĘCIU RÓŻNYCH MACIERZACH WPŁAT I WYPŁAT"
Trafienia Fałszywe alarmy
1. Surowe kryterium (Wysokie koszty przy fałszywych alarmach. .28 .08 Niskie zyski przy trafieniach.)
2. Mniej surowe kryterium (Wysokie koszty przy faiszywych alar- .52 .20 mach. Średnie zyski przy trafieniach.)
3. Pośrednie kryterium (Koszty i zyski zrównoważone.) .68 .32 4. Bardziej łagodne kryterium (Wysokie zyski przy trafieniach. .88 .64 Średnie koszty przy fałszywych alarmach.)
5. tagodne kryterium (Wysokie zyski przy trafieniach. Niskie .96 .84 koszty przy fałszywych alarmach).
" Ź r ó d ł o: R. Lachman, J. L. Lachman, E. C. Butterfield, 1979
procent trafień i fałszywych alarmów przy pięciu różnych kryteriach, wedle których badany otrzymywał nagrodę przy trafieniu i płacił karę przy fałszywym alarmie. Różne są tu wzajemne relacje kar i nagród (wpłat i wypłat). Wyniki z tabeli można też przedstawić na tzw. krzywej operacyjnych charakterystyk odbiorcy (ROC- Receiver Operating Characteristic). Obrazuje to rysunek 12. Zwróćmy uwagę; że im bardziej wzrasta proporcja trafień,
a v
U
ó a 0
a
32
tym większa też liczba fałszywych alarmów. Osoba badana tym łatwiej daje odpowiedzi "tak", im "lżejsze" stosuje kryterium.
Rysunek 13 przedstawia krzywe ROC dla sygnałów o coraz wyższej intensywności w stosunku do szumu. Przekątna (linia ciągła, na tym wykresie przedstawia sytuację, kiedy liczba trafień równa się liczbie fałszywych alarmów, począwszy od lewego dolnego rogu, gdzie obie wartości równają się.zeru, aż po górny róg prawy, gdzie wprawdzie jest 100% trafień, ale i tyleż fałszywych alarmów. Sytuacje te obrazują układ odbiorczy pozbawiony wrażliwości, bowiem w każdym wypadku wartość d' równa się 0. 100% trafień przy zero procent fałszywych alarmów, czyli maksimum wrażliwości, znajduje się w lewym górnym rogu. Krzywe A, B, C obrazują różny stopień wrażliwości układu odbiorczego, krzywa A przedstawia układ najbardziej wrażliwy. Zwróćmy uwagę, że przekątna oznaczona linią przerywaną przedstawia wartości d' dla poszczególnych krzywych (A, B, C) ROC.
100
8 6
.c 4 a
U O
O.
0 2 a`
Rys. 12. Krzywa ROC do wyników z tabeli 4. (Według: R. Lachman, J. L. Lachman i E. C.
Butterfield, 1979.)
1.00
75
.c v ° .50 v
U O
n 0
a .25
Rys. 13. Krzywe ROC dla sygnalów o róźnej intensywności w stosunku do szumu. (A najsilniejszy, a C najslabszy.) Im silniejszy bodziec, tym bardziej krzywa ROC oddala się od przekąt
1.00 nej. Odchylenie to jest miara wrażliwości na dany bodziec. (Według: H. Gleitman, 1981.)
2 - Psychologia ogólna
0 2 4 6 8 100 Proporcje fatszywych °lormów
0 25 50 75 Proporcje fotszywych alarmów
Model proponowany przez teorię detekcji sygnałów może mieć bezpośrednie zastosowanie w badaniu rozpoznawania jako miary pamięci, jak to wykazują Atkinson i Juola (1974), tj. w sytuacjach, kiedy badany stwierdza, że dany element należał uprzednio do eksponowanego mu zestawu (odpowiedź "tak") lub że nie należał (odpowiedź "nie"). Jeśli w takim badaniu mierzy się ponadto czas reakcji, to okazuje się, że wystąpi wyraźne zróżnicowanie reakcji na szybkie odpowiedzi twierdzące, szybkie odpowiedzi przeczące oraz wolne odpowiedzi twierdzące, jak też wolne odpowiedzi przeczące. Czynnikiem determinującym czas tych odpowiedzi jest, zdaniem Atkinsona i Juoli, poczucie znaności eksponowanych bodźców. Jeśli na osi rzędnych (por. rys. 14) przedstawimy stopień znaności od najmniej do
Przeszukiwanie pami~ci prowodzcyce do dtuższych odpowiedzi twierdzGcych
i przeczących
Szybkie odpowiedzi ~'-~ Szybkie odpowiedzi przeczGce e~???;~~'JJJ~ twierdzqce
Prawidtowe odrzucenia Trof ienio
Fotszywe °larmy ~puszczenio
Stopień znaności
Rys. 14. Rozklad ocen znaności dla bodźców starych i nowych w badaniu rozpoznawania. (Według: R. C. Atkinson i J. F. Juola, 1974.)
najbardziej znanego, idąc z lewa na prawo, to można przyjąć, że badany ustanawia sobie dwa kryteria: jedno (3, stanowi kryterium nieznaności eksponowanego materiału, drugie (3z kryterium jego znaności. Jeśli eksponowany element w teście rozpoznawania należy do klasy elementów znajdujących się poniżej kryterium (3,, to pojawia się szybka odpowiedź . przecząca (wśród tych odpowiedzi może się też znajdować pewna liczba opuszczeń, jak to przedstawia rysunek 14). Jeśli natomiast element taki należy do klasy powyżej kryterium ~2 występuje szybka odpowiedź twierdząca (łącznie z pewną liczbą fałszywych alarmów). Decyzja podejmowana jest wtedy wyłącznie na podstawie oceny stopnia znaności materiału. Jeśli natomiast elementy bodźcowe plasują się między obydwoma kryteriami, to wtedy decyzja o wyborze odpowiedzi twierdzącej czy przeczącej nie opiera się wyłącznie na ocenie znaności, lecz pojawia się drugi etap przetwarzania polegający na przeszukiwaniu w pamięci eksponowanego uprzednio zestawu bodźców w celu podjęcia decyzji, czy eksponowany w teście rozpoznawania element należał do tego zestawu czy też nie. Ze względu na
34
występowanie tego drugiego etapu czas reakcji w tym wypadku jest dłuższy. Odnosi się to zarówno do odpowiedzi twierdzących, jak i przeczących.
Rozważyliśmy model rozpoznawania proponowany przez teorię detekcji sygnałów. Rozpoznawanie, jako proces identyfikacji bodźców zewnętrznych, w którym umysł musi w jakiś sposób korzystać z wzorców wewnętrznych, umożliwiających taką identyfikację, jest oczywiście przedmiotem każdej teorii wyjaśniającej procesy korzystania z zasobów naszej pamięci. W tym szerszym kontekście powrócimy do problematyki rozpoznawania rozważając teorie pamięci.
Pamięć przemijająca i pamięć długotrwała.
Blokowy model pamięci
Istotne zmiany w podejściu do badań nad pamięcią zaszły w ciągu lat sześćdziesiątych naszego wieku. Zmiany te spowodowane zostały ograniczonością interpretacyjną teorii behawiorystycznej, dominującej do wczesnych lat sześćdziesiątych na gruncie amerykańskim. Podejście wywodzące się z teorii poznawczych stało się podejściem dominującym w całej psychologii światowej. Pamięć rozpatruje się tu w kontekście odbierania i przetwarzania informacji przez umysł ludzki.
Psychologiczna problematyka przetwarzania informacji ma swoje źródła w teorii informacji i teoriach sztucznej inteligencji. Psychologowie poznawczy chętnie posługują się metaforą komputerową, wskazującą na analogię w pracy ludzkiego umysłu i komputera. Tak jak w komputerze istnieje pamięć operacyjna i trwała, tak w odniesieniu do umysłu zaczęto mówić o pamięci krótkotrwałej i długotrwałej. Dla tego rozróżnienia istnieją w literaturze psychologicznej pewne precedensy. Już William James w 1890 r, w swoich Principles of psychology (Zasady psychologii) odróżniał pamięć pierwotną (krótkotrwałą) i wtórną (trwałą). Rozróżnienie między pamięcią świeżą a pamięcią trwałą wprowadził w swojej pracy z 1949 r. D. 0. Hebb, jak też D. E. Broadbent (1958), który jako pierwszy zastosował pojęcie przetwarzania informacji do badań nad pamięcią (por. też wyniki eksperymentu Petersonów (1959) (s. 26), jednak w tym czasie większość autorów uznawała jednorodność procesów pamięci. Argumenty za tym ostatnim stanowiskiem przedstawił A. W. Melton w artykule z 1963 r., atakując dychotomiczny podział procesów pamięci. Twierdził on, że w świetle istniejących faktów teoria interferencji wyjaśnia zapominanie zarówno procesów krótkotrwałych, jak i długotrwałych. Nie ma, jego zdaniem, potrzeby przyjmowania dwóch rodzajów procesów, skoro stosują się do nich te same prawidłowości. Artykuł ten stał się inspiracją wielu pomysłów badawczych dotyczących rodzajów pamięci. W efekcie w wielu pracach (Atkinson i Shiffrin,1971; Peterson,
1966; Łuria, 1973; Konorski, 1969; Sołtysik, 1970; Posner, 1969; Sperling, 1960, 1967; Coltheart, 1972) zaczęto rozróżniać dwa, a nawet trzy rodzaje pamięci, wyodrębniając ponadto tzw. pamięć sensoryczną. Omówimy te trzy rodzaje i przedstawimy dowody przemawiające za ich istnieniem, jak też ogólny model mechanizmów pamięci, wyłaniający się z tych badań.
Pamięć s(r)nsoryczna
Pamięć sensoryczna dotyczy przechowywania przez pewien czas po zakończeniu działania bodźca sensorycznego efektów tego działania. Czas ten jest bardzo krótki, dlatego też Łuria (1973) użył tu terminu pamięć ultrakrótka. Początkowo odkryto jeden rodzaj pamięci sensorycznej, tzw. pamięć ikoniczną związaną ze zmysłem wzroku, następnie wyodrębniono pamięć zwaną echem, związaną ze zmysłem słuchu. Baddeley (1976) postuluje jej istnienie dla różnych zmysłów, wyodrębniając dodatkowo pamięć: smakową, węchową, kinestetyczną itp.
Pami~ć ikoniczna
Trzecim rodzajem pamięci, wyodrębnionym oprócz pamięci krótkotrwałej i długotrwałej, była początkowo tzw. pamięć ikoniczna (Neisser, 1967). Określa się też ją czasem jako efekt Sperlinga (1960), który jako pierwszy wykazał eksperymentalnie istnienie tego rodzaju pamięci. On to wprowadził ciekawą modyfikację do typowego eksperymentu nad zakresem pamięci bezpośredniej polegającego na krótkiej ekspozycji (ok., pół sekundy) układu liter lub cyfr (w liczbie kilkunastu); ekspozycję tę poprzedza instrukcja dla badanego, aby starał się zapamiętać jak najwięcej z prezentowanych liter lub cyfr. Badany pamięta zwykle około 4 - 5 elementów. W eksperymencie Sperlinga badanym eksponowano w czasie pół sekundy karty z literami ułożonymi w trzech rzędach, po cztery litery w każdym. Modyfikacja polegała na tym, że badani mieli następnie wymienić nie wszystkie z eksponowanych liter, lecz tylko te, które znajdowały się w określonym rzędzie. To, który rząd ma być odtworzony, wskazywał badanym sygnał w postaci tonu, podawany bezpośrednio po ekspozycji liter: wysoki ton oznaczał rząd górny, średni - rząd środkowy, a niski ton odnosił się do dolnego rzędu (por. rys. 15A). Osoby badane przed ekspozycją karty z literami nie wiedziały, który rząd liter maje ż niej odtworzyć, potrafiły jednak dokładnie wymienić litery z oznaczonego odpowiednim tonem rzędu. Technika ta nosi nazwę odtwarzania częściowego w porównaniu z poprzednią, zwaną odtwarzaniem całościowym. Wynika z tego, że badani przez . pewien czas po ekspozycji muszą przechowywać w pamięci nie tylko te cztery, lecz wszystkie dwanaście liter, z których dopiero wybierają odpowiedni rząd liter (por. rys. 15B).
Sperling zbadał następnie, jak długi może być odstęp czasu między
100
~c v
Odtwarzanie cz~ściowe E
0
~ 50 N
n Wysokość tonu
v
Odtwarzanie carościowe 0
Z Q B R Wysoki d M C A W Średni
0 .50 1.0 T K N F Niski Czos [w sek.) podania tonu ~o ekspozycji korty
Rys. 15. a) Przyklad karty z eksperymentu Sperlinga. b) Odtwarzanie częściowe i calościowe. (Według: G. Sperling, 1960.)
zakończeniem ekspozycji karty a podaniem tonu. Wydłużając ten odstęp do pół sekundy, stwierdził stopniowe pogorszenie się wyników, zaś po przekroczeniu tego czasu osoby badane nie potrafiły wymienić więcej elementów ze wskazanego rzędu niż z jakiegokolwiek innego. Wyniki te wskazują, zdaniem Sperlinga, że obraz wzrokowy pozostaje przez jakiś czas (ułamek sekundy) w tak zwanym przez niego magazynie pamięci wzrokowej (pamięć ikoniczna w terminologii Neissera, 1967), gdzie następnie zanika (zaciera się) bardzo szybko. Jeżeli prezentowany obraz ma być zapamiętany dłużej, musi zostać przetworzony tak, aby mógł być przechowany w sposób bardziej trwały. Ton wskazuje, które elementy prezentowanego obrazu wzrokowego mają zostać zakodowane trwalej.
Sperling (1963) wyraźnie podkreśla wzrokowy charakter pamięci ikonicznej. Jeżeli pole widzenia w czasie pomiędzy ekspozycją karty z literami a podaniem tonu jest ciemne, to czas trwania pamięci ikonicznej wynosi, jak to podaliśmy powyżej, pół sekundy; jeżeli natomiast pole widzenia bezpośrednio po ekspozycji bodźca zostanie silnie rozjaśnione, to pamięć ikoniczna zostaje upośledzona. Podobnie, .gdy pole widzenia zostanie wypełnione jakimś złożonym bodźcem (np. plątaniną biało-czarnych kwadracików), tzw. szumem wzrokowym, pamięć ikoniczna w.ogóle zanika. Zjawiska te noszą nazwę następczego maskowania wzrokowego.
Pamięć ikoniczną można więc sobie wyobrazić jako śladowe trwanie bodźca, co wielu psychologów i fizjologów zakładało od dawna w swoich teoriach. Zasługą Sperlinga jest pokazanie parametrów czasowych i innych tego procesu. Przetwarzanie i kodowanie informacji zarejestrowanych przez pamięć ikoniczną odbywa się już jednak poza nią. To przetwarzanie rozpoczyna się najpewniej natychmiast po ekspozycji bodźca, obejmuje wszystkie elementy przechowywane w magazynie pamięci ikonicznej, jednakże ze względu na krótkotrwałość tego przechowania nie wszystkie z tych
elementów, jeśli jęst ich więcej niż 4~5, zdąży się przetworzyć. Dodatkowy sygnał, jakim w eksperymentach Sperlinga był ton, wskazuje, które elementy mają być przede wszystkim przetwarzane. Podmiot nie czeka jednak bezczynnie na sygnał, jeśli ten nie następuje natychmiast po ekspozycji bodźca, zachodzi proces nieukierunkowanego przetwarzania informacji. Pewnych dowodów na to dostarczają eksperymenty D. J. K. Mewhorta (1967), który eksponował swoim badanym karty z dwoma rzędami złożonymi każdy z ośmiu liter, używając Sperlingowskiej techniki z tonami wskazującymi, który rząd (dolny czy górny) ma być przez badanego odtworzony. Ton podawano w ułamek sekundy po ekspozycji bodźca. Ilość pamiętanego materiału ze wskazanego przez ton rzędu była wyższa, kiedy litery w drugim (nie wskazywanym) rzędzie tworzyły układ zbliżony do wyrazu angielskiego (języka ojczystego badanych), a więc łatwiejszego do przetworzenia w porównaniu z układem liter nie spotykanym w wyrazach angielskich. Wskazuje to, że osoby badane jeszcze przed otrzymaniem sygnału musiały zacząć przetwarzać cały eksponowany materiał, w przeciwnym razie ułatwiające to przetwarzanie właściwości niesygnalizowanego rzędu nie miałyby żadnego wpływu na proces odtwarzania sygnalizowanego rzędu.
Pamięć typu echo
Za pomocą technik modelowanych na eksperymentach Sperlinga zademonstrowano także istnienie sensorycznej pamięci słuchowej. Darwin, Turvey i Crowder (1972) eksponowali słuchowo swoim badanym 9 liter słyszanych po trzy z trzech rozmieszczonych w różnych miejscach głośników. Osoba badana słyszała jednocześnie pierwsze trzy litery z każdego trzyliterowego zestawu, w ułamek sekundy drugie trzy litery i zaraz po tym trzecie trzy litery. Prezentacja całości materiału trwała sekundę. W sytuacji całościowej reprodukcji po każdej takiej prezentacji osoby badane miały powtórzyć wszystko to, co usłyszały. W sytuacji reprodukcji częściowej miały odtworzyć to, co usłyszały ze wskazanego głośnika. Przy czym tak samo jak w eksperymentach Sperlinga wskazanie głośnika następowało po prezentacji liter, a nie przed tym. Uzyskano analogiczne wyniki: reprodukcja częściowa jest lepsza od całościowej i ta przewaga podobnie zmniejsza się w miarę wydłużania się czasu między ekspozycją bodźców a podaniem sygnału wskazującego głośnik. Kiedy czas ten wynosi więcej niż cztery sekundy, różnica między odtwarzaniem całościowym a częściowym zanika.
Istnieje względnie powszechna zgodność co do tego, że ikona i echo trwają krótko i że stanowią coś w rodzaju kopii tego, co dostarczają nam receptory zmysłowe. Jest to informacja jeszcze nie zanalizowana, np. jeśli jest to litera, to w pamięci sensorycznej trwa jedynie jej obraz, ani jej nazwa, ani jej reprezentacja foniczna nie są jeszcze obecne. Następuje to później w wyniku dalszych operacji przetwarzania informacji, dokonujących się w następnym bloku pamięci, jakim jest pamięć krótkotrwała.
Zależności wzajemne między pamięcią krótkotrwałą i pamięcią długotrwałą
Pamięć krótkotrwała (w skrócie w wielu pracach określana jako STM - od angielskiego terminu short-term memory) jest pierwszym etapem przetwarzania informacji, pamięć sensoryczną traktuje się bowiem jako rodzaj biernego magazynu. Charakteryzuje się ona ograniczoną pojemnością i jest przemijająca, czyli czas jej trwania jest także ograniczony. Pojemność STM wynosi 7±2 jednostki (Miller, 1956), którymi mogą być dowolne elementy tworzące pewne całości, a więc np. zarówno litery, jak i słowa. Ten rodzaj pamięci określa się też czasem jako pamięć świeża lub pierwotna.
Pamięć długotrwała (w skrócie LTM - od terminu angielskiego long-term memory) stanowi trwały magazyn zakodowanych śladów pamięciowych (Łuria, 1973) o nieograniczonej pojemności i czasie przechowywania. Kodowanie informacji polega na włączaniu ich do kategorii czy systemu kategorii istniejących już w umyśle podmiotu lub na tworzeniu nowych kategorii. Łuria mówi tu o funkcjonowaniu wielowymiarowych matryc pamięciowych (por. tworzenie się schematów, rozdz. o uczeniu się, s. 135 i nast., i tamże Piagetowskie pojęcia asymilacji i akomodacji). LTM określa się jako pamięć trwałą lub wtórną. Z przyjętych przez nas w dotychczasowych rozważaniach faz procesu pamięci, tylko faza przechowania odnosiłaby się do LTM, zaś fazy zapamiętywania i odtwarzania - do STM.
Proces kodowania informacji w LTM, czyli przechodzenia ich z STM do LTM, interesuje wielu psychologów. Nie każda bowiem informacja, która pojawi się w STM, przechodzi do LTM, a ta, która nie przejdzie, zanika. Badanie czynników wpływających na zapamiętywanie jest tą dziedziną badań, która w tradycyjnej psychologii poprzedziła współczesne badania nad LTM i STM. Jakie są dowody potwierdzające istnienie tych dwóch procesów?
Pierwsza grupa dowodów pochodzi z klinik neurochirurgicznych. Wskazują one, że pamięć krótkotrwała może być zaburzona bez naruszenia pamięci długotrwałej, i odwrotnie.
Występują dwa typy zaburzeń pamięci: amnezja wsteczna, gdy człowiek traci pamięć i nie wie, kim jest i skąd przybył, ale Zachowuje zdolność przyswajania sobie rzeczy nowych (STM nie jest naruszona), i amnezja naprzednia (zwykle po różnego typu uszkodzeniach czy przecięciach spoidła wielkiego, czyli hipokampa), kiedy to zachowana jest pamięć rzeczy dawnych (LTM), a zaburzona zdolność uczenia się nowych (STM).
Druga grupa dowodów wywodzi się z laboratoriów psychologicznych. Można w niej wyróżnić cztery rodzaje dowodów. Po pierwsze, w wielu krzywych uczenia się można wyodrębnić oddzielną część krzywej, reprezentującej procesy STM, i oddzielną dla LTM. Po drugie, odmienne czynniki ograniczają funkcjonowanie obu tych rodzajów pamięci. Po trzecie, różne są systemy kodowania w STM i w LTM. Po czwarte, inaczej przebiega w nich
39
Zależności wzajemne między pamięcią krótkotrwałą i pami~cią długotrwałą
Pamięć krótkotrwała (w skrócie w wielu pracach określana jako STM - od angielskiego terminu short-term memory) jest pierwszym etapem przetwarzania informacji, pamięć sensoryczną traktuje się bowiem jako rodzaj biernego magazynu. Charakteryzuje się ona ograniczoną pojemnością i jest przemijająca, czyli czas jej trwania jest także ograniczony. Pojemność STM wynosi 7±2 jednostki (Miller, 1956), którymi mogą być dowolne elementy tworzące pewne catości, a więc np. zarówno litery, jak i słowa. Ten rodzaj pamięci określa się też czasem jako pamięć świeża lub pierwotna.
Pamięć długotrwała (w skrócie LTM - od terminu angielskiego long-term memory) stanowi trwały magazyn zakodowanych śladów pamięciowych (Łuria, 1973) o nieograniczonej pojemności i czasie przechowywania. Kodowanie informacji polega na włączaniu ich do kategorii czy systemu kategorii istniejących już w umyśle podmiotu lub na tworzeniu nowych kategorii. Łuria mówi tu o funkcjonowaniu wielowymiarowych matryc pamięciowych (por. tworzenie się schematów, rozdz, o uczeniu się, s. 135 i nast., i tamże Piagetowskie pojęcia asymilacji i akomodacji). LTM określa się jako pamięć trwałą lub wtórną. Z przyjętych przez nas w dotychczasowych rozważaniach faz procesu pamięci, tylko faza przechowania odnosiłaby się do LTM, zaś fazy zapamiętywania i odtwarzania - do STM.
Proces kodowania informacji w LTM, czyli przechodzenia ich z STM do LTM, interesuje wielu psychologów. Nie każda bowiem informacja, która pojawi się w STM, przechodzi do LTM, a ta, która nie przejdzie, zanika. Badanie czynników wpływających na zapamiętywanie jest tą dziedziną badań, która w tradycyjnej psychologii poprzedziła współczesne badania nad LTM i STM. Jakie są dowody potwierdzające istnienie tych dwóch procesów?
Pierwsza grupa dowodów pochodzi z klinik neurochirurgicznych. Wskazują one, że pamięć krótkotrwała może być zaburzona bez naruszenia pamięci długotrwałej, i odwrotnie.
Występują dwa typy zaburzeń pamięci: amnezja wsteczna, gdy człowiek traci pamięć i nie wie, kim jest i skąd przybył, ale zachowuje zdolność przyswajania sobie rzeczy nowych (STM nie jest naruszona), i amnezja naprzednia (zwykle po różnego typu uszkodzeniach czy przecięciach spoidła wielkiego, czyli hipokampa), kiedy to zachowana jest pamięć rzeczy dawnych (LTM), a zaburzona zdolność uczenia się nowych (STM).
Druga grupa dowodów wywodzi się z laboratoriów psychologicznych. Można w niej wyróżnić cztery rodzaje dowodów. Po pierwsze, w wielu krzywych uczenia się można wyodrębnić oddzielną część krzywej, reprezentującej procesy STM, i oddzielną dla LTM. Po drugie, odmienne czynniki ograniczają funkcjonowanie obu tych rodzajów pamięci. Po trzecie, różne są systemy kodowania w STM i w LTM. Po czwarte, inaczej przebiega w nich
proces zapominania. Ostatnie zagadnienie jest przedmiotem dyskusji i sporów między pśychologami, omówimy je pokrótce przy charakteryzowaniu hipotetycznego modelu pamięci. Rozpatrzymy teraz trzy pierwsze rodzaje dowodów pychologicznych.
1. Odrębność obu rodzajów pamięci obrazuje krzywa uzyskana w eksperymencie tzw. swobodnego przypominania materiału eksponowanego osobie badanej. Podaje się np. badanemu listę słów (zwykle zawiera ona od 15 do 30 słów, gdyż wielkość jej musi przekraczać zakres pamięci bezpośredniej), prezentując poszczególne słowa sukcesywnie w tempie umożliwiającym ich normalną percepcję (tzn. powyżej progu rozpoznawania słów), a zadaniem badanego jest po zakończonej prezentacji tej listy odtworzeniejej z pamięci w dowolnym porządku. Przypominanie poszczególnych elementów listy zależy od miejsca słowa na liście. Pierwsze i ostatnie słowa są pamiętane lepiej. Nazwano to odpowiednio efektem pierwszeństwa i efektem świeżości (por. krzywa A na rysunku 16). Otóż efekt świeżości (końcowa część krzywej) traktowany jest jako przejaw pamięci krótkotrwałej. Efekt świeżości przypisywany jest STM, gdyż dotyczy ostatnich słów z prezentowanej listy, których odtworzenie następuje zaraz po zakończonej prezentacji, czyli w czasie, gdy pozostają jeszcze w STM. Przez opóźnianie przypominania i zarazem uniemożliwienie powtarzania w tym czasie materiału efekt świeżości zostaje zniesiony przy nie zmienionym kształcie pozostałej części krzywej (por. rys. 16, krzywe B i C). Efekt pierwszeństwa odnosi się do pierwszych słów z listy, nie mogą one pozostawać w STM, gdyż jej pojemność jest ograniczona, są to więc słowa wydobyte już z LTM. Dlaczego
~o
~ 60
n ° 50
r u c 3 ° 40 n
0 n
c
v 30 0
o_
20
czas opóźnienia - 0 sek
----10 sek
r \ /
5 10 15 Miejsce stawa na liście
Rys. 16. Efekt świeżości i efekt pierwszeństwa (A). Zanikanie efektu świeżości przy opóźnionym przypominaniu i uniemożliwionym powtarzaniu (B i C). (Według: A. D. Baddeley, 1972.)
jednak te pierwsze słowa pamiętane są lepiej np. od środkowych z listy wyjaśnia eksperyment Atkinsona i Shiffrina opisany dalej na s. 43. Występowanie efektów pierwszeństwa i świeżości znane było psychologom od dawna, jednakże nie wiązali oni z tym różnych rodzajów pamięci. Decydujące dla tego rozróżnienia stały się dowody wykazujące wpływ na oba rodzaje pamięci odmiennych czynników.
2. Jak zaznaczyliśmy na wstępie tego podrożdziału, pamięć krótkotrwała ma ograniczoną pojemność, natomiast pamięć długotrwała ma ograniczone możliwości rejestrowania informacji. Czynniki wpływające na pojemność pamięci będą oddziaływaiy tylko na STM, a czynniki utrudniające rejestrację tylko na LTM.
Pojemność STM jest w przybliżeniu stała. Tak np. stwierdzono, że efekt świeżości nie zależy od długości listy słów. Na rysunku 17 jest on taki sam dla listy krótkiej, jak i długiej, chociaż lista krótka jest lepiej pamiętana w pierwszej swojej części (czynniki wpływające na LTM). Uważa się więc, że efekt świeżości, podobnie jak zakres pamięci bezpośredniej, jest miarą STM. Na pojemność STM musi więc wywierać wpływ dodatkowe jej przeciążenie lub opóźnienie przypomnienia (por. krzywe B i C z rys.1ó). Jeżeli STM wykonuje inne zadanie zaraz po prezentacji listy słów, efekt świeżości zanika, krzywa jest wyrównana w swoim końcowym przebiegu (por. rys. 18), przypominanie słów z listy dokonuje się wyłącznie na podstawie LTM.
0 3
Ń ·C
`C v
~ C D
O O 9 d
O T O N O ~
d 3
0
d
Miejsce słowa w serii
Rys.17. Niezależność efektu świeżości od długości listy. (Według: R. C. Atkinson i R. M. Shiff~in, 1971.)
Rysunek 18 przedstawia dwie sytuacje przypominania listy słów po upływie 30 sekund od chwiłi zakończenia jej ekspozycji. W pierwszej sytuacji osoby badane nic nie robiły przez tych 30 sekund, w drugiej w tym czasie rozwiązywały zadanie arytmetyczne (eksperyment ten wzorowany jest na badaniu Petersonów, 1959, por. s. 26). W drugiej sytuacji brak jest efektu świeżości.
Na przechodzenie informacji z STM do LTM, czyli na kodowanie w LTM, mają wpływ z kolei inne czynniki. Jeśli utrudnimy to przejście, np. przez
01 10 20 30 40 Miejsce snowa w serii
Rys. 18. Eliminacja efektu świeiości przez nowe zadanie dla STM. (Według: R. C. Atkinson i R. M. Shiffrin, 1971.)
dodatkowe zadanie w czasie (nie po) prezentacji listy (może nim być sortowanie kart), to w krzywej przypominania słów występuje tylko efekt świeżości, pamięć pierwszej części listy jest prawie zniesiona. Szybkość prezentacji listy jest także czynnikiem, który wpływa tylko na LTM. Wolniejsze tempo prezentacji poszczególnych elementów listy ułatwia kodowanie
w LTM. Na rys. 19 przedstawiono krzywe przypominania listy, której kolejne 'i elementy były eksponowane w jednej sytuacji przez 1 sekundę każdy,
a w drugiej przez 2 sekundy. Efekt świeżości (STM) jest identyczny w obu sytuacjach, różni się pierwsza część krzywej związana z LTM.
Rys. 19. Wplyw tempa prezentacji materia/u na LTM. (Według: R. C. Atkinson i R. M. Shiffrin, 1971. )
Innym czynnikiem oddziałującym na LTM jest powtarzanie. Sądzi się, że efekt pierwszeństwa występuje dzięki temu, że pierwsze elementy listy są powtórzone więcej razy niż pozostałe i dlatego łatwiej przechodzą do LTM. Ujednolicenie liczby powtórzeń poszczególnych elementów materiaiu powinno znieść efekt pierwszeństwa. Założenie to zostało potwierdzone
0 1 10 20 30 40
Miejsce słowa w Beri i
w eksperymencie R. C. Atkinsona i R. M. Shiffrina (1971 ). Uczyli oni swoich badanych listy złożonej z 16 słów. Jedna grupa badanych powtarzała trzykrotnie każde z kolejno eksponowanych jej słów. Drugiej grupie polecono powtarzać trzy poprzednie elementy (w przypadku pierwszego elementu on sam był powtarzany trzykrotnie). Schemat eksperymentu przedstawia tabela 5, a krzywe przypominania obrazuje rysunek 20.
Obserwujemy na nim, iż kiedy średnia liczba powtórzeń poszczególnych elementów jest wyrównana, to efekt pierwszeństwa zanika, jest natomiast
Miejsce stowa w serii
Rys. 20. Zniesienie efektu pierwszeństwa przez ujednolicona liczbę powtórzeń poszczególnych elementów listy. A. Sytuacja normalna. B. Ujednolicone powtarzanie. (Według: R. C. Atkinson i R. M. Shiffrin, 1971.)
TABELA 5. SCHEMAT EKSPERYMENTU ATKINSONA I SHIFFRINA
Powtarzanie jednego elementu listy
pozycja prezento- elementy średnia
w szeregu want' powta- powtó-
element rzane rzeń
jednego
elementu
1. A AAA 3
2. B BBB 3
3. C CCC 3
4. D DDD 3
15. O 000 3
16. P PPP 3
Powtarzanie trzech elementów listy pozycja prezento- ~ elementy ~ średnia
w szeregu want' powta- powtóelement rzane rzeń
jednego elementu
1. A AAA 5
2. B BBA 4
3. C CBA 3
4. D DCB 3
15. O ONM 2
16. P PON 1
Ź r ó d ł o: R. C. Atkinson i R. M. Shiffrin, 1971.
43
wyraźny, kiedy pierwsze elementy uzyskują więcej powtórzeń od pozostałych.
Oczywiście, wszystkie czynniki wpływające na organizację materiału i jego kategoryzację wpływają na lepsze zakodowanie tego materiału w LTM. 3. Istnieją też dowody, że w obu tych rodzajach pamięci dominują różne
kody. Charakterystyczny dla STM jest kod akustyczny2, a dla LTM -semantyczny. Tak np. zdania, w których występuje podobieństwo sensoryczne (np. fonemiczne słów), wpływają dezorganizujące na STM, a podobieństwo semantyczne utrudnia organizację w LTM (Baddeley, 1966). Podobnie badania J. S. Sachs (1967) nad rozpoznawaniem zdań prezentowanych w różnych formach gramatycznych wykazują, że w LTM zachowane zostały przede wszystkim relacje semantyczne występujące w tych zdaniach, a zapomniane ich cechy formalne, jak np. forma gramatyczna.
Hipotetyczny model trzech bloków pamięci
Z relacjonowanych powyźej badań wyłania się pewien model pamięci. Ściślej mówiąc, opracowano kilka takich modeli (Norman 1969; Lindsay i Norman, 1972; Neisser, 1976; Shiffrin i Aktinson, 1969). Wspólne tym koncepcjom jest wiązanie pamięci z procesami odbioru i przetwarzania informacji, akcentowanie roli uwagi. Pojawiło się też szereg prac wyjaśniających mechanizmy pamięci na podstawie danych neurofizjologicznych (por. Łuria, 1973; Pribram, 1969; Gurowitz, 1973). Przedstawiamy poniżej psychologiczny model pamięci Shiffrina i Atkinsona. Ilustruje go rysunek 21.
Strzałki na rysunku 21 wskazują kierunek przepływu informacji. Wejście zewnętrzne, czyli bodziec, wywołuje pobudzenie sensoryczne, które jest początkiem przetwarzania informacji przez organizm. Pobudzenie to przekształca się w pamięć sensoryczną, czyli rejestrator danych sensorycznych (pamięć ikoniczna jest jedną z lepiej poznanych form tej pamięci), z którego czerpie informacje pamięć krótkotrwała (STM). W pamięci tej zachodzi szereg procesów kontrolne-regulacyjnych. Z magazynu lub banku STM informacja może być przekopiowana do LTM i powiązana czy włączona do odpowiedniego jej systemu. Z drugiej strony informacja, która znajduje się już w LTM, może być tam aktywowana i przejść ponownie do STM.
Procesy kontrolne-regulacyjne dzielą się na cztery grupy: procesy analizy napływających bodźców, procesy związane z przechodzeniem informacji z STM do LTM (zapamiętywaniem), procesy polegające na wydobywaniu informacji z LTM i procesy związane z zapominaniem.
Na procesy analizy napływających bodźców składają śię zarówno transfer przepływu informacji z rejestratora sensorycznego do STM, jak
2 Conrad (1964) przedstawił dowody, że nawet wzrokowo prezentowany materiał werbalny przekodowywany jest w STM na kod akustyczny.
r pr na wl nad gr< uH
des jad pa syn
44
Reakcja Generator reakcji -
r________
i Powtarzanie
Rejestru- ~__________J
tor
S T M
danych
Bodziec serso-
rycznych
Bank pamiqci
przemijajoFej
I I PROCESY KONTROLNO-REGULACYJNE L__-.-__
· Programy anqlizy bodźców
· Programy usuwania zakCóceń z kanakow sensorycznych
· Mechanizm aktywacji procesów powtarzania
· Transfer przeptywu informacji z rejestru sensor. do STM
· Kodowanie i transter ińformacji z STM do LTM
· Poszukiwanie w LTM
· Operacje heurystyczne na zakodowanych informacjach · Zbiór kryteriów decyzyjnych · Inicjowanie generatora reakcji
LTM
Bank pamiqci samoadresujqcej i nieprzemijajqcej
I I I
_ - - J
Rys. 21. Model pamięci R. M. Shiffrina i R. C. Atkinsona (1969). .
i programy analizy sensorycznej bodźców i ich identyfikacji. Stąd hipotetyczna droga (oznaczona linią przerywaną) z rejestratora sensorycznego do LTM, w której przechowywane są wzorce umysłowe, służące do rozpoznawania napływających bodźców. Do grupy tej należą też procesy związane z programami usuwania zakłóceń z kanałów sensorycznych i ogólnie z procesami uwagi.
Podstawowe procesy transferu informacji do LTM to powtarzanie i organizowanie (strukturalizowanie) materiału. Pojemność magazynu STM jest, jak wiemy, ograniczona (7±2 jednostek informacyjnych), powtarzając jakąś informację podmiot może ją dłużej zatrzyrraać w STM i ułatwić jej powielenie w LTM. Dlatego też efekt pierwszeństwa wyrażony na krzywych swobodnego przypominania wyjaśniany jest większą liczbą powtórzeń pierwszych elementów szeregu w porównaniu z następnymi (por. omawiany powyżej eksperyment Atkinsona i Shiffrina). Organizowanie materiału polega na znalezieniu właściwego kodu i integrującego schematu dla danej informacji czy grupy informacji (np. sztuczki mnemotechniczne). Stracona w STM informacja nie może być odzyskana. Skoro zaś zostanie przekopiowana w LTM, pozostaje tam na trwałe. Problem stanowi jednak jej wydobycie.
Z procesami wydobywania informacji z LTM związana jest cała rodzina strategii, jakie podmiot podejmuje w tym celu. Znalezienie dojścia do
45
przechowywanej w LTM informacji nie zawsze jest łatwe. Wybrana z magazynu LTM informacja przechodzi do STM, tu jest analizowana i ewentualnie wykorzystywana w dalszym przetwarzaniu. Strategie STM w odniesieniu do LTM polegają na wyborze z LTM informacji próbnej i na wytworzeniu odpowiedniego nastawienia poszukiwawczego w LTM, nastawienia pozwalającego na ocenę informacji. Jeśli nastawienie poszukiwawcze nie znajduje pożądanej informacji, proces jej poszukiwania może zostać wstrzymant' jub powtórzony z nową próbną informacją wydobytą z LTM. Jak wynika z powyższych rozwiązań, słabym ogniwem naszej pamięci są procesy transferu informacji do LTM i z powrotem. Główna umiejętność uczenia się polega na umiejętności organizowania materiału kodowanego na trwałe i opanowaniu strategii jego wydobycia.
Procesy zapominania przebiegają różnie w poszczególnych blokach pamięci. W pamięci sensorycznej mamy do czynienia z zacieraniem się śladu pamięciowego, możliwe jest też maskowanie tego śladu przez nową napływającą informację. W pamięci krótkotrwałej zapominanie zachodzi przez
TABELA 6. CECHY STRUKTURALNE TRZECH BLOKÓW PAMIĘCI'
Blok Czas przecho- Kod, czyli Źródło Pojemność Utrata pamięci wywania forma informacji informa- informacji
informacji przechowy- cyjna wanej
informacji Pamięć do ok. Wzrokowy, Receptory Nie znana, Zanikanie sensoryczna 1 sek. słuchowy, i in, ale znaczna śladu, mas
kowanie STM tak długo, Słuchowo- Pamięć Mała Zanikanie jak długo -werbalny, sensoryczna śladu trwa koncen- wzrokowy i LTM
tracja uwagi (np. powtarzanie), jeśli bez koncentracji uwagi - 15 d 30 sek.
LTM Nieokreślony, Wzrokowy, STM Nieograni- Zanikanie często na słuchowo- i być może czopa śladu, trwałe -werbalny, pamięć różne
semantyczny, sensoryczna rodzaje aspekty cza- interfesowe, węcho- rencji wy i inne
sensoryczne itp.
' Adaptowane z: R. Lachman, J. L. Lachman i E. C. 8utterfield, 1979.
zacieranie się, zanikanie śladu, ale - jak wiemy - powtarzanie może temu zapobiec. Niektórzy autorzy (Waugh i Norman, 1965) sądzą, że i tu informacja może zanikać w wyniku interferencji (nowo napływające informacje wypierają już istniejące). W pamięci długotrwałej działają także różne mechanizmy zapominania, jak zacieranie się śladu, interferencja, osłabienie siły śladu itp.
Omawiane w niniejszym podrozdziale cechy strukturalne trzech bloków pamięci podsumowaliśmy w tabeli 6. Przedstawia ona stanowisko i argumenty tych autorów, którzy taką blokową koncepcję pamięci sformułowali. W następnym podrozdziale przejdziemy do omówienia głównych argumentów krytycznych wobec blokowego modelu pamięci.
Podstawowe kierunki krytyki blokowego modelu pamięci.
Analiza procesów pamięci
Przedstawiony na rysunku 21 strukturalny model trzech bloków pamięci, mimo jego rozpowszechnienia w pracach psychologicznych, poddany też został ostrej krytyce (Hintzman,1974; Neisser,1976; Craik i Lockhart,1972). Zakwestionowano przede wszystkim statyczny charakter 'takiego modelu, akcentując dynamiczny charakter procesów pamięci i przetwarzania informacji w ogólności.
Głównym źródłem kontrowersji jest sprawa odróżnienia STM od LTM, gdyż w zasadzie wszyscy przyjmują istnienie różnych rodzajów pamięci sensorycznej. Wymienionych w poprzednim podrozdziale różnic między STM i LTM nie uznaje się za wystarczające do -postulowania tych dwóch rodzajów pamięci. Tak np. Craik i Lockhart (1972) sądzą, że różnice te da się wyjaśnić przyjmując koncepcję poziomów przetwarzania (levels of proces
sing). Przyjrzyjmy się raz jeszcze tym różnicom. Różnica w pojemności sprowadza się do tego, że ograniczona jest pojemność tego, co jest aktualnie przetwarzane w świadomości, czyli tego, co nazywane jest STM. Nie są to jednak różnice pamięci, lecz uwagi. Pozostałe różnice między STM a LTM wydają się tym autórom jeszcze bardziej problematyczne. Różnica w kodach (akustyczny, artykulacyjny lub wzrokowy w STM, a semantyczny w LTM) okazała się pozorna, gdyż dało się wykazać zarówno, że kod semantyczny występuje w STM (Shulman, 1970, 1972), jak i że kod wzrokowy może być charakterystyczny dla LTM (Paivio, 1971 ), co zresztą uwzględniają dalsze wersje modelu blokowego, jak to zostało przedstawione na rysunku 21 i w tabeli 6. Jeśli zaś chodzi o różnice w zapominaniu, to w gruncie rzeczy oba główne mechanizmy zapominania: zacieranie się śladów i interferencja postuluje się dla obu rodzajów pamięci (jeśli chodzi o STM, czyni tak teoria Waugha i Normana, 1965). Niemniej jednak samo rozróżnienie STM i LTM
czy pamięci operacyjnej i trwałej okazuje się płodne teoretycznie i empirycz- dz nie. Kwestionuje się stawianie ostrych i nieprzekraczalnych granic między je· nimi. Stwierdza się, jak czynią to np. Lindsay i Norman (1984), że można bF ujmować STM jako aktualizację pewnego wycinka LTM. jej
Przedstawimy alternatywną do blokowego modelu pamięci koncepcję tn poziomów przetwarzania Craika i Lockharta, następnie zajmiemy się charak- kt terystyką procesów pamięci od strony seryjności versus paralelności ich z przebiegu, jak też kierunkiem ich przebiegu (od danych sensorycznych czy od N. wzorców wewnętrznych) i różnicą między przetwarzaniem autonomicznym to a świadomym. Zakończymy nasze rożwaźanie w tym podrozdziale wyodręb- c: pieniem wiedzy deklaratywnej od wiedzy proceduralnej, wprowadzając alternatywne do pojęcia STM pojęcie pamięci operacyjnej. m
pc
Poziomy przetwarzania
F. I. M. Craik i R. S. Lockhart (1972) proponują jednorodny model pamięci oparty na koncepcji poziomów przetwarzania informacji. W gruncie'rzeczy traktują oni pamięć jako produkt uboczny analizy percepcyjnej informacji rejestrowanych przez narządy zmysłowe. Analiza ta dokonuje się na trzech poziomach. Pierwszy, najniższy poziom jest poziomem analizy sensorycznej, dokonuje się automatycznie. Jest to analiza wyodrębniająca takie cechy fizyczne bodźca, jak: jasność, barwa, kształt, natężenie, wysokość dźwięku itp. i jej warunkiem wstępnym jest skierowanie uwagi na dany bodziec. Drugi pośredni poziom przetwarzania polega na identyfikacji bodźca, rozpoznawaniu obrazu (pattern recognition), tj. na porównywaniu wyodrębniońych cech bodźca z wzorcami i regułami zakodowanymi w umyśle w rezultacie uprzednich doświadczeń. Jest to właśnie poziom, który moźna utożsamiać z STM. Wyniki analiz dokonywanych na tym poziomie mog~ być utrzymywane przez pewien czas w umyśle dzięki powtarzaniu, co go wyraźnie odróżnia od pierwszego poziomu, na którym, jeśli bodziec znika, analiza percepcyjna takźe ustaje. Trzeci głęboki poziom analizy polega na semantycznej analizie bodtca, na wzbogaceniu jego interpretacji dzięki istniejącym już strukturom poznawczym (porównaniu z nimi i ewentualnie włączeniu w nie nowo napływających informacji). Ta analiza, podobnie jak analiza na poziomie pośrednim, może być powtarzana i trwać bez określonych ograniczeń czasowych. Trzeci poziom można utożsamiać z LTM. W gruncie rzeczy zdaniem autorów zapamiętywanie jest efektem czy produktem takiej semantycznej analizy, podczas gdy efekty analiz z pierwszych dwu poziomów są dalej pomijane. W pamięci przechowywane są wyniki tych najgłębszych analiz, a więc wyniki w jakiś sposób interpretowane. Jedynie znaczenie bodźca jest ważne i ono na ogół zostaje utrwalone. Wskazują na to produktywne właściwości naszej pamięci, stwierdzane w wielu różnych badaniach.
Autorzy przeprowadzili całą serię badań eksperymentalnych dla potwier
48
dzenia koncepcji poziomów przetwarzania. Przytoczymy tu tylko wynik jednego z badań (Craik i Tulving, 1975), w którym trzem grupom osób badanych prezentowano listę wyrazów do zapamiętania. Każda z grup miała jednak do wykonania na prezentowanych im wyrazach różne zadania trwające w tym samym czasie. Pierwsza grupa miała oznaczyć typ czcionki, którą wyrazy te były drukowane, druga - dobrać słowo rymujące się z podanym im wyrazem, a trzecia - ułożyć zdanie z podanym wyrazem. Następnie osoby badane otrzymały test rozpoznawania wyrazów z prezentowanej listy i okazało się (por. rys. 22), iż procent rozpoznań nie zależał od czasu przetwarzania danego wyrazu (czas ten był, jak powiedzieliśmy, jednakowy we wszystkich grupach), lecz od rodzaju zadania. Zadania te można z grubsza utożsamić z postulowanymi przez Craika i Lockharta poziomami przetwarzania.
3 .o
L
U T C O C N O d N O O U O O. O.
a
Poziomy przetwarzania
Rys. 22. Rozpoznawanie slów w zależności od rodzaju zadania. (Według: F. I. M. Craik i E. Tulving, 1975.)
Samo utrzymywanie materiału w świadomości, samo jego powtarzanie, bez głębszej analizy, strukturalizacji tego materiału i włączenia w dotychczasowy system wiedzy, nie wystarczy do trwałego przechowania materiału. Wiadomo z wielu badań, że pamiętana jest treść zdań, czyli wynik analizy z poziomu głębokiego, a nie ich forma; powtarzanie zdań i analiza ich formy należy do poziomu pośredniego.
49
Rodzaj Rym Zdanie czcionki
Porzadek przetwarzania: seryjność a paralelność
Większość współczesnych modeli przetwarzania informacji zakłada co najmniej częściową paralefność przetwarzania, chociaż w pewnych partiach danego modelu postulat seryjności niektórych operacji może być utrzymany.
Sprawa seryjności versus paralelność przetwarzania w pamięci krótkotrwałej stała się przedmiotem całej serii badań przeprowadzonych przez S. Sternberga (1966, 1969). Badał on, w jaki sposób osoba badana przeszukuje zapamiętany zbiór elementów (liter lub cyfr) w celu stwierdzenia, czy kolejny bodziec należy czy też nie do tego zbioru. Dokładniej procedura eksperymentalna wyglądała następująco: ustalano najpierw całościowy zbiór bodźców (np. litery alfabetu angielskiego), z tego zbioru wybierano tzw. podzbiór pozytywny (stanowiły go litery podane do zapamiętania) i podzbiór negatywny (pozostałe litery). Osoby badane otrzymywały do zapamiętania podzbiór pozytywny, po czym pojawiała się litera należąca albo do podzbioru pozytywnego, albo do negatywnego, a zadaniem osób badanych było naciśnięcie jednego z dwu kluczy oznaczających odpowiedzi "twierdząca" lub "przecząca". Stosowano dwie procedury: jedna stałego podzbioru pozytywnego, w której zmieniały się jedynie litery dawane w teście rozpoznawania, i druga zmiennego podzbioru pozytywnego, kiedy to za każdym razem podawano do zapamiętania nowy podzbiór pozytywny, z którym następnie należało porównać litery w teście rozpoznawania.
Ważną zmienną w tych badaniach stanowiła liczba elementów.składających się na podzbiór pozytywny. Nie przekraczała ona nigdy pojemności STM i wynosiła od 1 do 6 elementów.
Jednym z celów Sternberga było ustalenie czasu, jaki zajmują poszczególne operacje umysłowe, np. operacja porównywania. Sprawą tą bliżej nie będziemy się zajmować. Zatrzymamy się natomiast na tym aspekcie wyników Sternberga, który wiąże się bezpośrednio ze sprawą seryjności lub paralelności przetwarzania. Można przyjąć, że podany do zapamiętania podzbiór pozytywny utrzymywany jest w STM i następnie w momencie podania litery do rozpoznania jest ona z tym podzbiorem porównywana. Powstaje pytanie, czy litera ta porównywana jest paralelnie, jednocześnie z wszystkimi zapamiętanymi elementami, czy też seryjnie, tj. z każdym elementem po kolei, Jeśli paralelnie, to zdaniem Sternberga czas reakcji rozpoznania litery nie powinien zależeć od liczby elementów w podzbiorze (obrazuje to wykres A na rys. 23), jeśli natomiast przebieg jest seryjny, to czas ten powinien wzrastać wraz ze wzrostem liczby elementów do porównania (por. wykres B na rys. 23).
Ponadto przy paralelnym przeszukiwaniu czas odpowiedzi twierdzących nie powinien się różnić od czasu odpowiedzi przeczących, natomiast wyniki dla odpowiedzi twierdzących powinny różnić się od odpowiedzi przeczących
Wielkość podzbioru pozytywnego
Wielkość podzbioru pozytywnego
Rys. 23. Przewidywane i otrzymane czasy reakcji w zależności od wie/kości zbioru w badaniach S. Sternberga. Wykres A pokazuje przewidywania modelu paralelnego. Wykres B pokazuje przewidywania modelu wyczerpującego seryjnego. Wykres C pokazuje przewidywania modelu częściowego seryjnego. Wykresy D i E przedstawiają rzeczywiście uzyskane wyniki: D dla podzbioru zmiennego, a E - dla stałego. Kółka pełne oznaczają odpowiedzi "tak", a kółka
puste - odpowiedzi "nie". (Według: S. Sternberg. 1969.)
przy przeszukiwaniu seryjnym, gdyż w wypadku odpowiedzi przeczących zawsze cały zbiór jest przeszukiwany, a w wypadku twierdzących właściwa odpowiedź może się pojawić począwszy od pierwszego porównania i wtedy dalsze porównania z kolejnymi elementami są już zbędne (przewidywanie to obrazuje wykres C na rys. 23.). Wyniki, jakie faktycznie uzyskał autor, przedstawiają na rysunku 23 wykresy: D dla podzbioru. zmiennego i E dla podzbioru stałego (kółka oznaczają odpowiedzi przeczące, a kropki-twierdzące). Tak więc, jak konkluduje Sternberg, przetwarzanie typu porównywania jakiegoś elementu z zawartością STM jest zawsze seryjne i ma
51
D. Podzbiór zmienny
E. Podzbiór stoty
charakter przeszukania pełnego nawet wtedy, gdy przeszukanie częściowe y mogłoby już dać odpowiedź twierdzącą. ł
Wydaje się jednak, że fakt braku różnic między odpowiedziami przeczą- `, cynii i twierdzącymi świadczy przeciw seryjnemu przeszukiwaniu i za paralelnoścy tego procesu. Juz Rita L. Atkinson, Richard C. Atkmson i Ernest R. Hilgard (1983) zakwestionowali zasadność rozumowania Sternberga, 2' przedstawionego na wykresie A (rysa 23.). Jeśli przyjmiemy, że zdolność':: przetwarzania w STM jest ograniczona, to im więcej (oczywiście w pewnych ; granicach) elementów jest w niej przetwarzanych, tym relatywnie mniej zasobów tej zdolności może być skierowanych na każdy z nich, co powoduje wzrost czasu przetwarzania pojedynczego elementu, czyli, im zbiór większy, tym czas będzie dłuższy również i przy paralelnym przetwarzaniu. Idąc tropem j, tego rozumowania moźemy przyjąć, że właśnie przetwarzanie paralelne nie f. może ujawnić różnic międży odpowiedziami twierdzącymi i przeczącymi, j, gdyż jego czas zależy wyłącznie od liczby elementów zbioru, a nie od typu 'l odpowiedzi. Ograniczona pula zdolności przetwarzania rozkłada się jedno- f cześnie na wszystkie elementy zbioru i tylko od ich liczby zależy, ile tej zdolności przypada na każdy z nich.
Dowody przedstawione przez Sternberga nie są więc wystarczające do potwierdzenia hipotezy o seryjnym przetwarzaniu w pamięci krótkotrwałej. Co wiącej, możliwa jest ich interpretacja oparta na hipotezie paralelnego przetwarza n ia.
Problem seryjność versus parafelność przetwarzania jest szczególnie istotny przy tworzeniu modeli rozumienia języka, np. czytanego tekstu (por. Kurcz; Polkowska, 1990). Wrócimy do tego problemu przy omawianiu ogólnych teorii pamięci.
Kierunek przetwarzania
Przez kierunek przetwarzania rozumie się bądź kierunek wstępujący (z dołu do góry), bądź zstępujący (z góry na dół). Kierunek wstępujący, tj. od danych sensorycznych do ich interpretacji poprzez kolejne etapy analizy, jest najczęściej postulowanym kierunkiem w wielu różnych modelach procesów przetwarzania informacji. Przykładem takiego modelu może być omawiana dalej (s. 88) teoria Pandemonium Selfridge'a. Wydaje się on najbardziej oczywisty. Kierunek zstępujący, czyłi od oczekiwań, nastawień ezy różnych zaktywizowanych schematów interpretacyjnych do danych sensorycznych, wydaje się mniej oczywisty. Niemniej jednak jest on postulowany w wielu modelach, np. w teorii pamięci Bartletta (1932, por. jego teorię schematów omawianą w rozdziale pt. ,;Uczenie się"). W latach sześćdziesiątych szczególny akcent na percepcję i pamięć sterowane wewnętrznymi schematami, wzorcami interpretacyjnymi, oczekiwaniami położyła amerykańska psychologia Nowego Nurtu (por. Bruner, 1978).
Lindsay i Norman w II wyd. swojego podręcznika (1977 r.) posługują się
52
dla określenia kierunku procesów przetwarzania terminami data-driven i conceptually-driven, tj. wywodzące się z danych sensorycznych i wywodzące się z pojęć. Mówią oni na ten temat (1977, s. 279): "Oczekiwania to w gruncie rzeczy proste teorie lub hipotezy na temat natury antycypowanych sygnałów sensorycznych. Oczekiwania te sterują analizą na wszystkich jej poziomach, od wzbudzenia systemu językowego (jeśli oczekuje się, że sygnał będzie językowy) poprzez przygotowania detektorów cech do odbioru antycypowanych, specyficznych impulsów, do ukierunkowania uwagi na szczegóły poszczególnych zdarzeń. Procesy »wywodzące się z pojęć« są dokładną odwrotnością procesów »wywodzących się z danych sensorycznych« ...Staraliśmy się uzasadnić..:, że zarówno jedne, jak i drugie są niezbędne". Jedne i drugie muszą występować w przetwarzaniu informacji, i to jednocześnie.
W wielu badaniach psychologicznych i psycholingwistycznych wykazanowpływ kontekstu na procesy interpretacji percepcyjnej, np. na rozumienie odbieranego tekstu, czyli wpływ analizy i interpretacji zstępującej. Klasycznym przykładem jest tu zjawisko tzw. prymatu słowa, polegające na tym, że ta sama litera, np. o, jest szybciej identyfikowana w kontekście tworzącym wyraz, np. k I o c, niż w otoczeniu izolowanych liter; nie składających się na wyraz w danym języku, np. s I o c. Ten zstępujący kierunek przetwarzania można właśnie w rozważaniach nad rolą pamięci pojmować jako wpływ dotychczasowego doświadczenia czy posiadanej wiedzy na procesy odbioru informacji.
Tak więc w większości współczesnych modeli przetwarzania informacji postuluje się oba kierunki przetwarzania i takie modele określa się często terminem interakcyjne. Zakładają one interakcję między obydwoma kierunkami przetwarzania, głosząc swobodny przepływ informacji w górę i w dół. Wydaje się jednak, na podstawie różnych badań, zwłaszcza nad przetwarzaniem informacji językowych (por. Kurcz i Polkowska, 1990), że.do tego swobodnego przechodzenia informacji w obu kierunkach należy jednak wprowadzić pewne ograniczenia. Sprawą tą zajmiemy się w następnym podrozdziale tj. w kontekście rozważań nad autonomicznością procesów przetwarzania.
Procesy automatyczne i kontrolowane
Omawiając w rozdziale pt. "Uczenie się" (s. 129) przyswajanie nawyków, czyli nabywanie wprawy w wykonywaniu jakiejś czynności lub opanowaniu jakiegoś materiału, wyodrębniliśmy w tym procesie stadia: poznawcze, skojarzeniowe i autonomiczne. W stadium poznawczym następuje zapoznanie się z materiałem czy czynnością. W stadium skojarzeniowym w wyniku wielokrotnego powtarzania powstają związki między różnymi elementami wykonywanej czynności czy też między różnymi elementami przyswajanego materiału, prowadząc w efekcie do automatyzmu wykonania w stadium
53
autonomicznym.. Te zautomatyzowane umiejętności czy wiadomości prze- lokali stają poddawać się świadomej kontroli lub poddają się jej z trudem, Dla łączni określenia źródeł różnicy między czynnościami zautomatyzowanymi i czyn- proce nościami świadomymi wielu autorów posługuje się terminami: wiedza dwa
utajona i wiedza świadoma, a ściślej dająca się uświadomić. modu Za przykład niech nam tu posłuży koncepcja Krashena (1981 ) dotycząca inforr
poziomów opanowania języka, która bazuje właśnie na rozróżnieniu tych wiedz dwóch rodzajów wiedzy. W pełni kompetentny użytkownik danego języka . mody potrafi korzystać w sposób zrównoważony z obu rodzajów wiedzy. Możliwe wj, a jest jednak niezrównoważone posługiwanie się nimi. Z przewagą wiedzy modt utajonej mamy do czynienia wtedy, kiedy mówiący nie potrafi podać żadnych z moc reguł poprawności swojej wypowiedzi, którą produkuje swobodnie i bez mog< zahamowań. Przewaga wiedzy świadomej ujawnia się często przy mówieniu są ek w języku obcym, kiedy przywołujemy do pamięci (STM) reguły posługiwania peror się danym językiem (syntaktyczne, semantyczne czy fonologiczne) i zgodnie kleru z nimi staramy się swa wypowiedź konstruować. Powoduje to ogromne przec zwolnienie jej tempa, zatrzymywanie się, poprawianie się itp. Wpływa to, różni oczywiście, na zmniejszenie efektywności porozumiewania się. wej,
Rozróżnienie wiedzy utajonej i wiedzy świadomej okazuje się być moro ważne przy rozważaniach nad zjawiskami uwagi (o czym poniżej), jak też takżE przy konstruowaniu bardziej ogólnych modeli funkcjonowania umysłu. orze Przykładem tego ostatniego może być Fodora (1983) koncepcja moduło- (~, t wości umysłu. Fodor przyjmuje dwa główne poziomy funkcjonowania , kont umysłu'-poziom modułów i poziom procesów centralnych. Przetwarzanie tu p~ informacji na poziomie modułów polega właśnie na korzystaniu z wiedzy czyli utajonej, a przetwarzanie na poziomie procesów centralnych - z wiedzy, pret która ma charakter świadomy, typu przekonań, sądów itp. Moduły, zwane też itp., analizatorami, dokonują analizy danych percepcyjnych (w tym językowych),
tzn. rozpoznają, identyfikują odbierane informacje. Procesy centralne korzys- się; tają z informacji znajdującej się na wyjściu z poszczególnych modułów, tzn. dwt ze zidentyfikowanych różnego rodzaju obrazów percepcyjnych (w tym auti wypowiedzi językowych), jak też z zakodowanej wiedzy, czyli z różnych blol systemów pamięci długotrwałej. Procesy centralne to inaczej procesy 21. myślowe, decyzyjne, rozwiązywania problemów. tuje
Charakterystyki obu tych poziomów funkcjonowania umysłu są dokład
nie sobie przeciwstawne. Przetwarzanie informacji w obrębie modułów jest nat bardzo szybkie, podczas gdy na poziomie procesów centralnych może trwać stra przez czas nieokreślony, nawet bardzo długi. Procesy na poziomie modułów uw przebiegają automatycznie wedle wbudowanych w nie wrodzonych lub wy nabytych programów, są zaś kontrolowane i nie mają gotowych programów św w procesorze centralnym. Z rozrodzonymi programami wiąże się ich ścisła
Atk ' Wyróżnia on jeszcze wstępny poziom, tzw. przekaźników (transducers), na którym nie kor dokonuje się jednak proces przetwarzania informacji. ch<
54
lokalizacja mózgowa i określony przebieg patologii (różnego rodzaju agnozje łącznie z afazją), przy braku takiej lokalizacji i niejednoznacznej patologii procesów centralnych. Według Fodora podstawowa cecha odróżniająca te dwa poziomy przetwarzania polega na nieprzenikliwości informacyjnej modułów i ekwipotencjalności procesów centralnych. Nieprzenikliwość informacyjna polega na tym, że moduły nie mają możliwości posługiwania się wiedzą i programami innymi niż własne, tzn. informacje pochodzące z innych modułów, jak też z procesów centralnych, są niedostępne danemu modułowi, a także procesy centralne nie mogą wnikać w to, co się dzieje w obrębie modułu, otrzymując jedynie gotowy produkt tego przetwarzania na wyjściu z modułu. Ale te wyjściowe informacje, którymi dysponują procesy centralne, mogą już być przez nie wykorzystywane w sposób niczym nie ograniczony, są ekwipotencjalne. Teza o nieprzenikliwości informacyjnej modułów stawia pewne ograniczenia postulatowi swobodnego przepływu informacji w obu kierunkach - wstępującym i zstępującym, o których mówiliśmy w poprzednim podrozdziale. Istnieje wjele dowodów tej nieprzenikliwości, jak np. różne stałości percepcyjne, widzenie głębi i wiele zjawisk percepcji wzrokowej, analizowanych przez Marra (1982), czy słuchowej (por. teorie percepcji mowy omawiane w rozdziale pt. "Język" s. 207). Ze względu na to, że istnieją także niewątpliwe dowody wpływu procesów centralnych, takich jak: oczekiwania, nastawienia na odbiór i interpretację napływających informacji (w tym np. na szybkość ich identyfikacji), wyjaśnienie tego faktu w świetle koncepcji modułowości nasuwa pewne problemy. Głównym problemem jest tu pokazanie, gdzie przebiega granica między wyjściem z poziomu modułów, czyli poziomu nieprzenikliwej informacyjnie analizy percepcyjnej, a interpretującymi jej wynik, w zależności od wzbudzonych oczekiwań, nastawień itp., procesami centralnymi.
Przyjrzyjmy się z kolei teorii Shiffrina i Schneidera (1977), którą uważa się za teorię uwagi, ale która jest także teorią pamięci i oparta jest również na dwóch wyróżnionych typach wiedzy, a ściślej na dwóch typach procesów: automatycznej detekcji i kontrolowanego przeszukiwania. W wyniku krytyki blokowego modelu pamięci (autorstwa Shiffrina i Atkinsona, 1969, por. rys. 21.) Shiffrin° wspólnie ze Schneiderem zaproponowali nową teorię akcentującą procesualny charakter mechanizmów pamięciowych.
Procesy automatycznej detekcji to rozpoznawanie bodźców za pomocą nabytych programów (strategii) zakodowanych w LTM. Te automatyczne strategie decydują o przebiegu procesów informacyjnych i o koncentracji uwagi, jak też wywołują reakcje organizmu, które nie wymagają świadomego wysiłku, a więc nie angażują ograniczonej pojemności STM. Procesy świadomego przeszukiwania pamięci pojawiają się w nowych sytuacjach
° Z kolei Atkinson wraz z Juolą podjęli rewizję pierwotnej wersji teorii (znaną jako teoria Atkinsona i Juoli, 1974), proponując szereg jej modyfikacji, takich jak: rozbudowane procesy kontrolne, wielość kodów zarówno w STM, jak i LTM, znacznie większą ruchliwość zachodzących procesów i znacznie większą złożoność struktur LTM.
i nie opierają się na gotowych strategiach zakodowanych w pamięci, na nich właśnie koncentruje się uwaga. Są zmienne i dopasowujące sję do danej sytuacji. Ceną tej zmienności jest konieczność korzystania z ograniczonych zasobów STM. Autorów ,interesuje przebieg automatyzacji procesów kontrolnych zachodzących w STM, które w wyniku praktyki i nabycia wprawy przestają angażować świadomy wysiłek jednostki. Zilustrujemy to na przykładzie ich eksperymentów.
Osobom badanym eksponowano kolejno na monitorze 20 kart zawierających litery, a zadaniem badanych było wyszukiwanie na tych kartach podanego im uprzednio na ekranie znaku. Jeśli karta zawierała ów znak, należało odpowiedzieć "tak", jeśli nie, to "nie'.'. Dwa czynniki stanowiły zmienne niezależne. Jeden, zwany zakresem ramy, sprowadzał się do czterech warunków: karty mogły zawierać od jednej do czterech liter, z tym że na wszystkich 20 kartach danego zestawu znajdowała się jednakowa liczba liter. Drugi czynnik przyjmował dwa warianty, zwane warunkiem tej samej kategorii i warunkiem różnej kategorii. W pierwszym przypadku poszukiwany element należał do tej samej kategorii co eksponowane na ekranie znaki, tzn. jeśli była to np. litera, to wszystkie znaki eksponowane na kartach składały się także z liter. Chodziło o wskazanie tej karty, na której znajdowała się podana badanemu na ekranie litera; np. J. W warunku różnej kategorii znakiem, którego należało szukać na kartach, była cyfra, np. 8, podczas gdy znakami znajdującymi się na kartach były litery. Należało więc zidentyfikować tylko jedną kartę, na której wśród liter występowała także cyfra 8. Wszystkie te warunki egzemplifikuje rysunek 24.
Ramy
Rys. 24. Dwa przykfady kart stosowanych w eksperymentach Shiffrina i Schneidera: (a ) warunek tej samej kategorii, w którym poszukiwanym celem jest litera J, i (b) warunek różnej kategorii, w którym poszukiwanym celem jest cyfra 8. (Według: R. M. Shiffrin i M. Schneider, 1977.)
Zmienną zależną w tych eksperymentach była poprawność odpowiedzi. Okazało się, że w warunku różnej kategorii 95% poprawnych odpowiedzi osiągali badani przy czasie ekspozycji kart wynoszącym 80 milisekund, natomiast w warunku tej samej kategorii czas ten dla osiągnięcia tego samego stopnia poprawności wynosił aż 400 milisekund. Ponadto zakres
ramy nie miał żadnego wpływu przy różnej kategorii, wpływał zaś bardzo istotnie przy tej samej kategorii (tzn. rósł wraz ze wzrostem zakresu ramy).
Uzyskane wyniki Shiffrin i Schneider (1977) interpretowali w sposób następujący: osoby badane zanim przyszły na badania miały już zautomatyzowaną umiejętność odróżniania cyfr od liter (detekcji cyfry z tła liter) i nie musiały angażować w to procesów kontrolowanych. Z kolei wyodrębnienie litery spośród innych liter wymaga udziału procesów kontrolowanych, porównuje się każdą literę z karty z podanym wzorcem, dlatego też, im więcej jest liter do porównania (im większy zakres ramy), tym dłuższy czas dokonywanych operacji. W innym eksperymencie Shiffrin i Schneider (1977) spróbowali zautomatyzować zachowanie się w sytuacji tej samej kategorii, tzn. identyfikacji litery na tle innych liter. W badaniu tym litera podawana na początku w celu jej wyszukania w toku prezentacji kolejnych kart należała zawsze do jednego zbioru (B, C, D, F, G, H, J, K, L), natomiast zbiór liter, spośród których należało ją wyodrębnić, składał się z innych liter (Q, R, S, T, V, W, X, Y, Z). Okazało się, że po 2100 próbach osoby badane osiągnęły takie same wyniki, jak w sytuacji różnej kategorii, czyli proces tej identyfikacji został także zautomatyzowany.
Z tych i innych badań wynika, że automatyzacji w wyniku ćwiczenia mogą podlegać najrozmaitsze czynności. Ludzie różnią się między sobą typem i zakresem takich umiejętności. Z punktu widzenia problematyki pamięci interesuje nas sposób korzystania z pamięci trwałej w obu przypadkach, bezpośredni przy automatycznej detekcji i poprzez STM (z jej ograniczoną pojemnością) w procesach kontrolowanych. Koncepcja modułowości te pierwsze procesy wiąże z funkcjonowaniem modułów, a te drugie z procesami centralnymi.
Pamięć deklaratywna a pami~ć proceduralna
W rozdziale pt. "Uczenie się" wyodrębniliśmy takie terminy, jak wiedza deklaratywna i wiedza proceduralna (por. s.140). Ta pierwsza to wiedza typu "że", to przechowywane w pamięci różne wiadomości o faktach, zdarzeniach itp. zwykle łatwo werbalizowane, a ta druga, to wiedza typu "jak", różne nasze umiejętności, a więc zakodowane w pamięci różnego rodzaju procedury, strategie wykonywania różnych czynności ruchowych i umysłowych, zwykle trudne do zwerbalizowania. Z punktu widzenia dokonanego w poprzednim podrozdziale rozróżnienia na procesy automatyczne i kontrolowane nie ma znaczenia, czy z pamięci aktywizowane są wiadomości czy umiejętności. Aktywizacja jednych i drugich może być zarówno automatyczna, jak i kontrolowana.
Problem pojawia się w odniesieniu do blokowego modelu pamięci (rys. 21 ), któremu właśnie wielu krytyków zarzucało statyczny charakter, tzn. nieuwzględnienie w nim aktywnego, dynamicznego charakteru naszej
57
pamięci. W literaturze psychologicznej lat siedemdziesiątych pojawiła się bardzo poważna kontrowersja, zwana kontrowersją między deklaratywizmem a proceduralizmem. Chodzi w niej o sposób kodowania informacji w pamięci, czyli tworzenia reprezentacji rzeczywistości. Czy kodowane są wyłącznie fakty, tzn. istnieje w pamięci jakiś bank danych (psychologowie posługują się tu terminologią zaczerpniętą z analogii między umysiem a komputerem) i ewentualnie niezależny od niego system procedur czy też przede wszystkim kodowane są procedury i każda z nich ma własny bank danych? Kontrowersja nie jest dotąd rozstrzygnięta. W psychologii poznawczej lat siedemdziesiątych pojawiło się wiele modeli reprezentacji umysłowej świata, dających wyraz owej kontrowersji.
Poszczególne modele charakteryzowane są jako deklaratywistyczne iub proceduralistyczne, w zależności od tego, jak ujmowana jest w nich reprezentacja zakodowanej w pamięci wiedzy. Deklaratywizm cechuje modele, w których wiedza traktowana jest w sposób statyczny, choćby jak najbardziej uporządkowany i ustrukturowany, coś na ksżtałt kartoteki, archiwum czy biblioteki, z której wyjmuje się daną pozycję i wkłada z powrotem, a czynności te nie zmieniają danej pozycji. Możliwe są wprawdzie zmiany jej miejsca w całości w wyniku wprowadzania, w miarę wzbogacania się zbioru, innych zasad porządkowania. Taki deklaratywistyczny charakter miały różne teorie pamięci semantycznej, jak np. koncepcja Collinsa i Quilliana (1972), które omówimy w następnym podrozdziale.
Proceduralistyczny charakter mają takie teorie, jak teoria ram Minsky'ego (1975) czy schematów Rumelharta (1980). Wiedza jest "pakowana" w jednostki, czyli schematy; sposoby użycia, korzystania z wiedzy są włączone również w owe schematy. Schematy ujmowane są jako analogiczne do takich terminów, jak gra, skrypt, rama, hipoteza lub miniteoria. Schemat lub zbiór schematów stanowi nasz wewnętrzny model jakiejś sytuacji. Do omówienia koncepcji schematów w odniesieniu do pamięci przejdziemy w podrozdziale "Teorie pamięci".
Próbę połączenia podejścia proceduralistycznego z deklaratywistycznym podjął Anderson (1983), który wyodrębnił dwa rodzaje pamięci trwałej: deklaratywną i proceduralną. Pośredniczy między nimi pamięć operacyjna, która nie jest dokładnym odpowiednikiem STM. Omówimy pamięć operacyjną, którą postuluje wielu autorów, a następnie przejdziemy do przedstawienia koncepcji Andersona, dotyczącej pamięci deklaratywnej i proceduralnej.
Pamięć operacyjna
W literaturze psychologicznej lat siedemdziesiątych zaczął pojawiać się termin pamięć operacyjna (working memory), traktowany przez niektórych autorów jako równoznaczny z terminem STM. Można jednak wskazać na różnice w rozumieniu obu tych terminów. Pamięć operacyjna (por. Bower,
58
1975 i Baddeley, 1976) ujmowana jest jako miejsce dokonywania przez umysł wszelkich operacji. Pamięć krótkotrwała (STM) o ograniczonej pojemności i czasie przechowywania, utożsamiana często z zakresem tego, co aktualnie jest uświadamiane, stanowiłaby jakby część (subsystem) pamięci operacyjnej, której operacje nie muszą być ś w i a d o m e i której pojemność nie wydaje się tak ograniczona. Jak utrzymuje Bower (1975), jest ona pośrednikiem między STM a LTM. W pamięci operacyjnej (rozumianej też czasem jako pobudzenie, utrzymywanie w stanie gotowości różnych struktur pamięci długotrwałej) przechowywane byłyby te treści i te operacje, które mogą okazać się przydatne w aktualnej pracy umysłu. Utożsamiana też bywa z centralnym procesorem ( Baddeley,1976). Można sądzić, iż w pamięci operacyjnej są przechowywane czy utrzymywane w stanie gotowości, dostępności różne informacje i że zachodzą tam operacje na nowych informacjach. Dzieje się to niezależnie od świadomego charakteru owych operacji. Pamięć operacyjna byłaby więc miejscem zarówno świadomego (w STM), jak i nieświadomego przetwarzania informacji. W pamięci tej zachodziłyby zarówno procesy zautomatyzowane, jak i kontrolowane.
Andersena koncepcja relacji miedzy
pami~cią deklaratywną a pamięcią proceduralną
John R. Andersen jest autorem teorii zwanej ACT (po raz pierwszy zaproponowanej w pracy Language, Memory, and Thought, 1976) i rozwijanej w następnych jego pracach (1983). Celem jego było przedstawienie takiej teorii pamięci, która wyjaśniałaby także procesy myślowe, decyzyjne i językowe. Podstawowym rozróżnieniem wprowadzonym w tej teorii jest rozróżnienie pamięci deklaratywnej od pamięci proceduralnej.
Pamięć deklaratywną rozumie Andersen jako sieć węzłów reprezentujących pojęcia połączone ze sobą określonymi, ukierunkowanymi relacjami. Jak może wyglądać taka sieciowa struktura pamięci zobaczymy dalej rozważając modele pamięci semantycznej i teorie pamięci. Związki między węzłami mają różną siłę, aktywizuje je mechanizm, zwany rozprzestrzenianiem się aktywacji (spread of activation), który także opisujemy dalej (por. s. 70).
Pamięć proceduralna zaś składa się z systemów produkcji. Rozumienie tego terminu zaczerpnął Andersen z prac Newella i Simona (por. Newell i Simon, 1972). System produkcji to po prostu zbiór produkcji, a każda produkcja składa się z dwu części: 1 ) warunku, który wyznacza zbiór właściwości (np. typ układu danych), jakie muszą być spełnione, aby mogła zajść 2) czynność, czyli zbiór procedur (np. sekwencja zmian zachodzących w pamięci). Produkcja jest taką parą: warunek-czynność, czyli parą "jeżeli-to". Za przykład niech nam posłuży system produkcji przechodzenia przez ulicę przy sygnalizacji świetlnej, złożony z dwu produkcji, przedstawiony na tabeli 7. Produkcje mogą obejmować zarówno czynności
TABELA 7. SYSTEM PRODUKCJO PRZECHODZENIA PRZEZ ULICĘ
Lp. Warunek Czynność Produkcja 1 JEŻELI światło jest czerwone Czekaj
°I (STAN = chcę przejść przez ulicę)
Produkcja 2 JEŻELI światło jest zielone Przechodź
I (STAN = chcę przejść przez ulicę) I zmień STAN na (STAN = wykonane) motoryczne, jak i umysłowe. Rysunek 25 przedstawia model relacji międży pamięcią deklaratywną i proceduralną według teorii Andersona. Jak wynika z tego modelu pamięć operacyjna jest jakby łącznikiem między obydwoma rodzajami pamięci. Pamięć operacyjna jest miejscem zachodzenia różnych procesów i miejscem, gdzie spotykają się wejścia i wyjścia zarówno z obu rodzajów pamięci, jak i ze świata zewnętrznego. W niej to zachodzą procesy kodowania czy deponowania informacji o świecie zewnętrznym i tu tzw. procesy wykonawcze (performance) przekładają polecenie tej pamięci na konkretne zachowania organizmu. Procesy właściwe dla bloku pamięci deklaratywnej to procesy magazynujące, a ściślej służące przechowywaniu w pamięci lub wzmocnieniu siły już istniejącego zapisu i ich odwrotności, czyli procesy wydobywania, odzyskiwania informacji tam przechowywanych.
Procesy łączące pamięć operacyjną z pamięcią proceduralną to z jednej strony procesy dopasowywania danych istniejących w pamięci operacyjnej do procedur i reguł z pamięci proceduralnej, a z drugiej wykonywanie, działanie, czyli spełnianie tych procedur.
Świat zewnQtrzny
Rys. 25. Relacje między pamięcia deklaratywną i proceduralnd wedle J. R. Andersona (1983)
Jeżeli elementy czy treści znajdujące się w pamięci operacyjnej spełniają warunek dla danej produkcji, to jest ona stosowana. W pamięci operacyjnej mogą znajdować się np. takie informacje, że Jan jest ojcem Piotra i że Piotr jest ojcem Michała, a jedna z wielu produkcji zawartych w pamięci proceduralnej może mieć następującą postać:
Jeśli osoba A jest ojcem osoby B, a osoba B jest ojcem osoby C,
to osoba A jest dziadkiem osoby C.
a (1983)
Zastosowanie tej produkcji prowadzi do wyniku, iż Jan jest dziadkiem Michała i wynik ten może np. zostać przeniesiony do pamięci deklaratywnej. Jak widzimy, procesy wykonywania produkcji przenoszą dane czynności, operacje do pamięci operacyjnej. Nie zawsze przebiega to tak prosto, jak w powyższym przykładzie, dlatego też proces stosowania procedur może być cykliczny (co zaznaczono na schemacie strzałką samozwrotną pt. stosowanie), a procesy dopasowywania warunków i wykonywania czynności mogą zachodzić wielokrotnie w odniesieniu do tych samych danych.
Podział na wiedzę "że" i wiedzę "jak", oraz przyjęte przez Andersona rozwiązanie nasuwa pewne uwagi. Intuicyjnie odróżniamy naszą wiedzę o faktach, tzw. wiadomości, od wiedzy typu umiejętności. Tymczasem, jak wynika choćby z przykładu z Janem, dziadkiem Michała, oddzielenie tego, co jest zakodowanym faktem, a co wnioskiem z tych faktów nie zawsze musi być oczywiste, tzn. nie zawsze wiemy, czy fakt został zakodowany bezpośrednio (kiedy np. otrzymujemy bezpośrednią informację o tym, że Jan jest dziadkiem Michała) czy za pośrednictwem jakiejś procedury wnioskowania. Tak więc w rozwiązaniu, jakie proponuje Anderson, dwa typy pamięci okazują się być ze sobą powiązane. Procedury stosowane są bowiem do informacji napływających nie tylko ze świata zewnętrznego, lecz także z bloku pamięci deklaratywnej.
Ten właśnie fakt skłaniał wielu badaczy do tego, aby przyjąć tylko jeden typ wiedzy. Zwolennicy wiedzy o charakterze wyłącznie proceduralnym akcentowali dwie sprawy. Po pierwsze, jak uczynił to jeden z twórców psychologii poznawczej, Neisser (1967), akcentowano dynamiczny, zmienny charakter pamięci. Każdy fakt wydobywania jakiejś informacji z pamięci zmienia ją; kolejny akt poznawczy wykorzystuje akty wcześniejsze, ale jest od nich różny. Skoro każde przywołanie czegoś z pamięci różni się od poprzedniego, to ńie można mówić o stałej reprezentacji wiedzy, o ponownym pojawieniu się tej samej myśli.
Po drugie, ponieważ nie zawsze możemy odróżnić fakty obserwowane od inferowanych, wygodniej jest przyjąć, że pamięć nasza składa się wyłącznie z różnego typu procedur. W tym kierunku idą takie koncepcje, jak teoria schematów Rumelharta (1980), koncepcja skryptów Schanka i Abelsona (1977) czy teoria ram Minsky'ego (1975). W takim ujęciu nasze
R1
wiadomości nie tylko jakoś wiążą się z naszymi umiejętnościami, ale po prostu nie ma między nimi żadnej różnicy w strukturze reprezentacji. Wrócimy do tej problematyki w dalszych rozważaniach.
Pamięć semantyczna i pamięć epizodyczna
Ważnego podziału pamięci trwałej (LTM) na pamięć semantyczną i pamięć epizodyczną dokonał w 1972 roku Endel Tulving; podział ten zyskał ogromną popularność w literaturze psychologicznej. Najogólniej mówiąc, pamięć semantyczna to system naszej ogólnej wiedzy pojęciowej, a pamięć epizodyczna to wiedza związana ze wspomnieniami i przeżyciami osobistymi. Musimy jednak pamiętać, iż podział ten dotyczy wyłącznie pamięci deklaratywnej. Sam Tulving (1985), nie odwołując się bezpośrednio do teorii Andersena, wyróżnia trzy systemy pamięci trwałej: proceduralną, semantyczną i epizodyczną, i wiąże je z różnymi poziomami świadomości, przypisując najwyższy jej poziom (samoświadomość) systemowi epizodycznemu, co obrazuje rysunek 26. Pamięć proceduralna w ujęciu Tulvinga przejawia się jedynie w reakcjach motorycznych organizmu.
Systemy pamie~ci Świadomo5ć
EPIZODYCZNA e---T AUTONOETYCZNA
(wiem, że wiem)
SEMANTYCZNA .~--~-~. NOETYCZNA (wiem )
PROCEDURALNA E---~. ANOETYCZNA
(nie wierni
Rys, 26. Schemat relacji między poziomami świadomości a systemami pamięci. (Według E. Tulving, 1985.)
Informacje w systemach pamięci semantycznym i epizodycznym przyjmują formę sądów i charakteryzuje je znacznik prawdziwości (są prawdziwe lub fałszywe), mogą być analizowane introspekcyjnie i mogą zostać zakomunikowane werbalnie. Właściwości tych nie przejawia pamięć prpceduralna, wiedzę tego typu można zademonstrować pewnym specyficznym zachowaniem, a jej nabycie wymaga zwykle intensywnego ćwiczenia, podczas gdy wiedza epizodyczna, a czasem także semantyczna może zostać przyswojona w jednym akcie percepcji lub myśfi. Wzajemne relacje między wyróżnionymi
62
systemami pamięci przedstawia Tulving w swoim artykule How mapy memory systems are there? (1985).
Ujmuje on trzy wyróżnione przez siebie systemy hierarchicznie, traktując pamięć proceduralna jako system wyjściowy, wspólny ludziom i zwierzętom, z którego wyłania się najpierw system pamięci semantycznej, a następnie epizodycznej. Rysunek 26 przedstawia wzajemne relacje tych systemów i odpowiadający każdemu z nich stan świadomości: Stany te umieszcza Tulving na kontinuum, którego jeden kraniec stanowi nieświadoma wiedza, kolejny poziom to świadomość świata zewnętrznego i wewnętrznego towarzysząca pamięci semantycznej, a najwyższy poziom, poziom samoświadomości, poczucie własnej tożsamości i czasu subiektywnego rozciągającego się od przeszłości do przyszłości, właściwy jest pamięci epizodycznej.
W poniższym podrozdziale omówimy główne różnice między dwoma systemami pamięci, semantycznym i epizodycznym, tak jak je przedstawia Tulving w pracy Episodic memory z 1984 roku, a następnie przejdziemy do omówienia różnych modeli pamięci semantycznej, jakie pojawiły się w literaturze psychologicznej po wprowadzeniu przez Tulvinga rozróżnienia obu systemów pamięciowych w 1972 r.
Różnice między pamięcią semantyczną a pamięcią epizodyczną
Różnice w typie informacji
,E_pizod~rr ztly system pamięci rejestruję_bęzpoś_redni~ dQ~wi~.~lczęnie. System semąnty~z_ny rejestruje znaczęni~_zd~daxxzeń~i.faktów oraz znaczenie językowe. 0 organizacji pamięci semantycznej decyduje system pojęć. Jednostkom organizacji informacji w tym systemie odpowiadają terminy używane przez różnych autorów, takie jak: pojęcia, idee, fakty, sądy, reguły, skrypty itp. Jest to wiedza ludzka o świecie. Pozaczasowa i pozaosobista. W przeciwieństwie do tego organizacja systemu epizodycznego jest czasowa, jej elementy mają wyraźną charakterystykę dokonywania się w określonym czasie i miejscu, i właściwości subiektywnego przeżycia. Są to zdarzenia z przeszłości jednostki i stanowią podstawę do tworzenia się jej osobistej tożsamości. System epizodyczny nie odnosi się do świata, lecz do danej jednostki. Przekonanie o osobistym doświadczeniu danego zdarzenia jest zarazem przekonaniem o jego prawdziwości, podczas gdy przekonanie o prawdziwości sądów z systemu semantycznego zależy bardziej od społecznie uznanych świadectw. Zdarzenia są wedle Tulvinga jednostkami w systemie epizodycznym, są to, ściśle biorąc, sądy o zdarzeniach, czyli o procesach mających swą charakterystykę czasową (koniec i początek) i przestrzenną. Ciągi zdarzeń
tworzą epizody.
63
Różnice w operacjach
Samo doznanie jakiegoś przeżycia wystarczy, aby się dostać do systemu epizodycznego, zrozumienie jest potrzebne do znalezienia się w systemie semantycznym. System epizodyczny ma niezbyt rozwinięte operacje inferencyjne, wnioskowanie jest główną operacją porządkowania danych w systemie semantycznym. Afekt wpływa zapewne bardziej na informacje epizodyczne niż na semantyczne. Ehrlich (1979) podkreśla większą zależność kontekstową, sytuacyjną informacji epizodycznych w porównaniu z semantycznymi. Pytania, jakie stawiamy systemowi epizodycznemu, są typu: "Co robiłeś(aś) w czasie T i w miejscu P", a semantycznemu: "Co to jest X?", przy czym X może odnosić się do przedmiotu, do sytuacji, cechy czy właściwości itp. Wydobycie informacji z pamięci epizodycznej zmienia samą informację, pozostawia zaś ją na ogół bez zmiany w pamięci semantycznej. Informacje pochodzące z tego systemu są aktualizowane zgodnie z naturą ich pojęciowej organizacji, wydobycie z pamięci epizodycznej wymaga specjalnej rekonstrukcji zakodowanej informacji za pomocą wskazówek interpretowanych przy użyciu systemu semantycznego (decyduje o tym zasada adresowa nego kodowa n ia - encoding specifity - o czym poniżej ) . Ludzie mówią "pamiętam" o tym, co przechowują w systemie epizodycznym, i "wiem" o informacjach z pamięci semantycznej. Amnezja wsteczna obejmuje z reguły pamięć epizodyczną nie dotykając pamięci semantycznej.
Różnice w wykorzystywaniu obu rodzajów pamięci
Przekazy kulturowe, organizacja. nauczania mają na celu przekazywanie wiedzy semantycznej, podobnie różne sposoby symulacji komputerowej dotyczą także organizacji semantycznej; niemożliwa wydaje się symulacja systemu epizodycznego. Jednakże naoczne świadectwo (np. świadek w sądzie) musi opierać się na informacji epizodycznej, w przeciwieństwie do oświadczeń eksperta.
Psychologiczne badania nad zapominaniem odwołują się przede wszystkim do pamięci epizodycznej. Jedna z ważnych konstatacji Tulvinga głosiła, że przypominanie sobie list wyrazów czy par skojarzeń w eksperymentach pśychologicznych wbrew pozorom nie polega na wykorzystywaniu wiedzy semantycznej, czyli zakodowanego znaczenia stosowanych w badaniu słów, lecz pamięci epizodycznej, iż słowo x wystąpiło w takiej to a takiej liście zapamiętywanej w takim to a takim momencie. Natomiast psychologiczne badania nad tworzeniem się czy strukturą pojęć, uzupełnianiem zdań, nazywaniem egzemplarzy danej kategorii i innych decyzji leksykalnych są typowymi zadaniami dla pamięci semantycznej. Ma ona niewątpliwy związek z inteligencją, czego nie da się powiedzieć o systemie epizodycznym.
Jeszcze parę słów o zjawisku adresowanego kodowania (encoding
64
specifity) w pamięci epizodycznej jako jej cesze specyficznej. Zdaniem Tulvinga, kodowanie informacji w systemie epizodycznym zawiera zawsze informację o czasie i miejscu, nazywamy to adresem informacji, jak też o pewnych specyficznych jej właściwościach, np. że spotkana osoba miała żółty kapelusz, że jedno ze słów z zapamiętywanej listy ma podwójną laterę n. itp. Wydobycie zakodowanej informacji z systemu epizodycznego wymaga zastosowania wskazówki zgodnej z owym adresem, inaczej informacja jest nieosiągalna. Zjawisko to wyjaśnia bardzo wiele pozornie odrębnych faktów dotyczących pamięci, jak różna efektywność rozmaitych sposobów organizacji zapamiętywania, jak różnice w sile skojarzeń. Efektywność kodowania i odtwarzania zależy od stopnia zgodności wskazówek użytych do wydobycia, informacji z adresem użytym do jej zakodowania.
Filo- i ontogeneza obu systemów
Tulving wielokrotnie podkreśla współzależność obu systemów. Wydobycie informacji z systemu epizodycznego wymaga, jak powiedzieliśmy, połączenia informacji pochodzącej z przechowywanego śladu epizodycznego z informacją semantyczną, pochodzącą ze wskazówek użytych w procesie przypominania czy rozpoznawania.
Ta współzależność jest jeszcze wyraźniejsza w filo- i ontogenezie obu systemów. System epizodyczny stopniowo wyodrębnia się z semantycznego. Głównym argumentem dla Tulvinga jest niemożność umiejscowiania przez małe dziecko własnych przeżyć w czasie oraz stopniowe wyodrębnianie się poczucia własnej osoby. Z rozwojem pamięci epiżodycznej, której mają być pożbawione zwierzęta 5, wiążą niektórzy autorzy (Jaynes,1976, cyt. za Tulvingiem, 1984) rozwój świadomości u człowieka.
Inni autorzy (np. Anglin, 1977) argumentują za tezą przeciwną. Ich zdaniem pamięć epizodyczna, kolekcja kolejno napływających zdarzeń, rozwija się najpierw. Zdarzenia z jednostkowym adresem nakładają się na siebie, powodując systematyczną interferencję owych zmiennych adresów, a pozostawiając względnie niezmienną istotę zdarzenia, co stanowić będzie podstawę pojęć pozbawionych już owych naleciałości osobistych, związanych z przeżyciami jednostkowymi.
Z faktu, że jedna pamięć rozwija się z drugiej i z faktu, że stwierdzane różnice mają często charakter stopniowalny, tzn. są cechami przeciwstawnymi, a nie sprzecznymi typu albo-albo, niektórzy autorzy wyprowadzają wniosek o jednorodnej pamięci przejawiającej się na pewnym kontinuum różnych właściwości, ewentualnie przyjmują założenie o istnieniu podsystemów w obrębie jednostkowego systemu pamięci ludzkiej. Tulving (1984), broniąc swego stanowiska, akcentuje nie tylko oczywisty, heurystyczny walor poczynionego rozróżnienia, szuka też silnych dowodów neuropsycho
Olson (1984) argumentuje, że system ten występuje także u zwierząt.
3 - Psychologia ogólna 65
logicznych (różne objawy zaburzeń w obu systemach pamięci). Skłonny jest jednak do przedstawienia obu systemów nie jako bloków leżących obok siebie, lecz jako jednego systemu zanurzonego w drugim. Tym systemem zanurzonym byłby system epizodyczny, rozwijający się na bazie informacji zawartych w systemie semantycznym i korzystającym z jego zasobów.
Modele pamięci semantycznej
W latach siedemdziesiątych pojawiło się bardzo wiele modeli pamięci semantycznej przy znacznie mniejszej liczbie takich modeli dla pamięci epizodycznej. Pod koniec tego dziesięciolecia i na początku fat osiemdziesiątych pojawiaja się badania, które, choć w niewielkim stopniu uogólniane w modele czy teorie, określane są przez ich autorów jako zajmujące się pamięeia ekologiczną, czyli pamięcia miejsc i zdarzeń. Autorzy akcentują w nich konieczność wyjścia poza czysto laboratoryjny paradygmat badawczy i zajęcia się "samym życiem". Badania te traktujemy jako rozszerzanie zainteresowań badaczy właśnie pamięcią epizodyczną i omawiamy je w odrębnym podrozdziale (s. 71 ). Obecnie przedstawimy charakterystykę głównych modeli pamięci semantycznej.
W poczatkowym okresie możemy wyróżnić trzy główne grupy takich teorii: teorie sieciowe i teorie cech oraz koncepcje akcentujące rolę prototypów, schematów i skryptów w organizacji pamięci ludzkiej. Omówimy te trzy grupy teorii, z tym że ostatnią grupę teorii, tj. teorię schematów, ze względu na~ jej wagę i wpływ na myślenie psychologiczne zanalizowaliśmy bardziej szczegółowo w rozdziale pt. "Uczenie się" i wracamy jeszcze do nich w ośtatnim podrozdziale tego rozdziału, dotyczacym ogólnej charakterystyki teorii pamięci.
Teoriom sieciowym poświęcona jest dość liczna grupa prac (Ćluillian, 1968; Coilins i Quillian, 1969,1972; Anderson i Bower, 1973; Rumelhart, Lindsay i Norman,1972;s Collins i Loftus,1975). Omówimy je na przykładzie kłasycznej już dziś koncepcji Quilliana, a jej zrewidowaną przez Collinsa i Loftus wersję przedstawimy na zakończenie niniejszego podrozdziału, gdyż próbuje ona uwzględnia krytykę pierwotnej wersji teorii sieciowej w teoriach akcentujących rolę cech semantycznych i prototypów w funkcjonowaniu pamięci ludzkiej.
Główna idea leżąca u podłoża teorii sieciowych to stara idea asocjacjonizmu, z tym, że analizowane skojarzenia są ściśle ukierunkowane i są określonego rodzaju, a nie stanowią po prostu połączer~ różniących się co najwyżej siłą. Tak więc model pamięci semantycznej, czyli naszej ogólnej wiedzy, przedstawia się jako sieć węzłów połączonych różnymi relacjami. Węzfy ts s~ dwojakiego rodzaju: jedne reprezentują abstrakcyjne kategorie,
e z modelem Rumelharta, Lindsaya i Normana moźna się dokładnie zapoznać w podręczniku Lindsaya i Normana (wyd. pol, 1984).
66
czyli są to tzw. węzły-typy, i drugie reprezentującę konkretne egzemplarze tych kategorii, czyli okazy. Rysunek 27 przedstawia taką sieć z centralnym węzłem-typem odnoszącym się do ogólnej kategorii oraz z węzłami oznaczonymi numerami odnoszącymi się do konkretnych okazów. Rzeczą cł~arakterystyczną dla większości modeli pamięci semantycznej jest to, że odrębne węzły-typy odnoszą się do różnych kategorii pojęciowych, natomiast inne węzły-typy odnoszą się do nazw tych kategorii. W rozdziale pt. "Język" postulujemy słownik umysłowy jako sieć relacji międzywyrazowych, odrębną od pamięci semantycznej, stanowiącej repreżentację pojęciową naszej wiedzy o świecie.
Zwierzy ~~ Pies mo ' Nogi
.1~'~O lPSfO
(11 (21
'1ey ~~ mp
Czarny obci~ty nosówki
ogon
Rys. 27. Sieć laczaca różne węzly--typy i węzel-typ (PIES) z węzlami-okazami (1) i (2). (Według: D. V. Howard, 1983.)
Relacje łączące poszczególne węzły są, jak powiedzieliśmy, relacjami określonymi i można wydzielić dwa ich rodzaje. Pierwszy to retacje podrzędności-nadrzędności łączące ze sobą różne kategorie, jak też okazy z odpowiadającymi im typami. Oznaczane są symbolem "fiesto" lub "odwrócone fiesto". O odwróceniu decyduje kierunek strzałki, np. x'e~ y: x jest egzemplarzem kategorii y; IUb y'~ x, y jest kategorią, do której należy x. Drugi rodzaj relacji łączących poszczególne węzły to relacje przypisania danemu węzłowi cechy lub właściwości, oznacza je symbol "jest" lub "ma" (np. na rys. 27 "ma" nogi).
Często cytowanym modelem sieciowym jest model Quilliana (1968), który stanowi symulację fragmentu pamięci semantycznej, odnoszącej~się do taksonomii zoologicznej (por, rys. 28). Poszczególne węzły tej pamięci tworzą hierarchię połączer5 podrzędności-nadrzędności, przy czym założeniem tego modelu jest t0, że cechy przypisane poszczególnym węzłom nie powtarzają się już na poziomie podrzędnym, na którym zapisane są tylko cechy charakterystyczne dla tego poziomu. Tak więc cechy właściwe np. kanarkowi "śpiewa", "jest źółty" wiąźą się bezpośrednio z węzłem reprezentującym kanarka, natomiast "ma pióra" łączy się z ptakiem, "oddycha" z kręgowcem. Wynika z tego, że cecha "ma pióra" charakteryżuje kanarka pośrednio poprzez węzeł nadrzędny "ptak", a cecha "oddycha" oddalona jest oder5 o dwa węzły. Wynika z tego dalej, że czas przetwarzania infarm8cji
67
Rys. 28. Model pamięci semantycznej wedlug M. R. Quilliana (1968) związanych z taką reprezentacją, np. czas oceny prawdziwości zdań stwierdzających powyższe relacje, powinien zależeć od odległości tego typu połączeń. I rzeczywiście, w badaniach przeprowadzonych przez Collinsa i Quilliana (1969) czas oceny prawdziwości zdania "kanarek jest żółty" był krótszy od czasu oceny prawdziwości zdania "kanarek ma pióra", a ten krótszy od czasu oceny zdania "kanarek oddycha". Jednakże dalsze badania nie potwierdziły powszechności tej zasady w pamięci semantycznej, dopuszczając tym samym możliwość wielokrotnych czy redundantnych zapisów tej samej cechy na różnych poziomach hierarchii pojęciowej. Podstawową jednak sprawą, której przedstawiony na rysunku 28 model nie potrafił rozwiązać, to sprawa wagi poszczególnych cech dla charakterystyki danego węzła i wagi czy też reprezentatywności poszczególnych egzemplarzy dla danej kategorii, które to sprawy akcentowały teorie cech semantycznych i teorie prototypów.
Konkurencyjna grupa.teorii dotyczących pamięci semantycznej, tzw. teorie cech semantycznych (Bierwisch, 1969; Rips, Shoben i Smith, 1973; Smith, Shoben i Rips, 1974; Le Ny, 1979), opierały się na tradycyjnej koncepcji zbioru cech istotnych dla danego pojęcia, co się często wyrażało w przyjmowaniu wymiarów semantycznych, na których można umieszczać wszelkie pojęcia i miejsce pojęcia na wielu różnych wymiarach decyduje o jego znaczeniu. Niektórzy autorzy (np. Bierwisch, 1969; Le Ny, 1979) postulowali istnienie zbioru cech podstawowych (jak np, żywotność, policzalność itp.), za pomocą których można definiować wszelkie pojęcia.
Idea, że każde pojęcie można wyodrębnić za pomocą jego cech istotnych, czyli koniecznych i wystarczających, jest ideą bardzo starą, wywodzącą się od Arystotelesa i od jego czasów dominującą w myśleniu europejskim. W badaniach psychologicznych nad reprezentacją pojęć pojawił się jednak problem cech, które nie są cechami definicyjnymi, a jednak odgrywają ważną rolę w rozumieniu danego pojęcia. Tak np. Rips, Shoben i Smith (1973) wyodrębnili obok cech definicyjnych jakiegoś pojęcia jego cechy charakterystyczne, które, mimo ich znacznej wyrazistości, nie są cechami koniecznymi i wystarczającymi do określenia danego pojęcia. Cechą taką jest np. cecha latania dla ptaków, która pełni ważną rolę przy ich identyfikowaniu, nie jest jednak cechą definicyjną, gdyż mogą istnieć ptaki, które nie latają (np. strusie).
Ten tok rozumowania przypisującego różną wagę poszczególnym cechom składającym się na dane pojęcie, ale idący dalej, tj. akcentujący z kolei fakt, że poszczególne egzemplarze danej kategorii nie przynależą do niej w takim samym stopniu, doprowadził do pojawienia się trzeciej grupy teorii, tzw. teorii prototypów, którą najpełniej wyraża koncepcja Eleonor Rosch. Autorka ta, zajmując się kategoriami naturalnymi, stwierdziła, że w ocenach badanych ~ przez nią osób poszczególne egzemplarze danej kategorii okazały się lepszymi a inne gorszymi jej reprezentantami (np. jabłko jest lepszym przykładem owocu niż figa, gdyż więcej osób wymieniło jabłko jako przykład kategorii owoc). Wydaje się to nielogiczne, gdyż przynależność do jakiejś kategorii nie może być stopniowalna, coś albo należy do danej kategorii, albo nie, i z punktu widzenia logiki arystotelesowskiej dany przedmiot albo ma cechy istotne dla danej kategorii i do niej należy, albo nie ma i nie należy. W badaniu pojęć naturalnych okazało się, że granice między nimi są płynne i że egzemplarze danej kategorii można uporządkować od lepszych do gorszych jej reprezentantów. Rosch (a za nią i inni autorzy, por. Trzebiński, 1981 ) wyróżniła część centralną danej kategorii (rdzeń w terminologii Trzebińskiego), którą określiła terminem prototyp. Im bardziej dany egzemplarz podobny jest do prototypu danej kategorii, tym lepszym jest jej reprezentantem. Bliżej koncepcję Rosch przedstawiamy w rozdziale o języku. Teoria prototypów wiąże się też dość ściśle z teorią schematów. Ze względu na ogólniejszy charakter teorii schematów omawiamy ją w podrozdziale poświęconym rozważaniom nad teoriami pamięci.
Funkcjonowanie prototypów w naszej pamięci zostało też potwierdzone w badaniach nad tworzeniem sztucznych kategorii pojęciowych, które to badania przeprowadzili M. I. Posner i S. Keele (1968). Jako prototypy stosowali oni przypadkowe układy kropek (rys. 29A przedstawia trzy spośród stosowanych w tych badaniach prototypów). Początkowo osoby badane zapoznawały się z czterema egzemplarzami (rys. 29B) należącymi do zakresu danego prototypu, z tym że każdy ~ tych egzemplarzy stanowił pewne odchylenie w rozkładzie kropek w porównaniu z prototypem (por. rys. 29). Nie oglądały natomiast samego prototypu. Kiedy w teście na rozpoznawanie
a4
A
Rys. 29. Materia! stosowany w eksperymencie Posnera i Keeiego do badania prototypów. A} przykłady prototypów, B) zniekształcenia prototypu trzeciego. (Według: M. I. Posner
i S. W. Keele, 1968.)
wśród starych i nowych odchyleń od prototypu pokazano także sam prototyp, wywołał on najwięcej reakcji pozytywnych (fałszywych rozpoznań).
Próbę połączenia wszystkich wymienionych tu grup teorii pamięci semantycznej: teorii sieciowych, cech i prototypów stanowi teoria rózprzestrzeniania się aktywacji A. M. Collinsa i E. F. Loftus (1975). Autorzy ci zakładają istnienie sieci połączeń między węzłami, tak jak to było w modelu Quilliana, z tym że przyjmują różne odległości w sieci między poszczegplnymi węzłami. Tak więc węzły reprezentujące cechy najbardziej charakterystyczne dla danej kategorii znajdują się najbliżej węzła, który ją reprezentuje, podobnie "lepsze" egzemplarze danej kategorii znajdują się bliżej niż egzemplarze "gorsze". Przyjmują ponadto poza relacjami omówionymi na s. 67 (por. też rys. 27) relacje zaprzeczające, np. "niejesto". Relacja taka może łączyć węzeł "nietoperz" z węzłem "ptak". Istnienie takiej bezpośredniej relacji zaprzeczającej pozwala na szybsze przetwarzanie tego typu informacji, np, odpowiedź na pytanie "Czy nietoperz jest ptakiem?" iub "Czy wieloryb jest rybą?" jest znacznie szybsza, jeśli taka bezpośrednia relacja zaprzeczająca istnieje w systemie pamięci; w porównaniu z sytuacją, gdy trzeba ją inferować pośrednio z całego układu relacji pozytywnych.
Sieć taką, stanowiącą fragment pamięci semantycznej wediug modelu Collinsa i Loftus, przedstawia rysunek 30. Po przekroczeniu progu wzbudzenia (aktywacji) w jakimś punkcie sieci, aktywacja ta rozprzestrzenia się na sąsiadujące okolice obejmując w pierwszym rzędzie najbliżej leżące węzły, a słabnąc w miarę oddalania się od punktu wzbudzenia, t8k że w efekcie siła aktywacji może być zbyt słaba, aby przekroczyć próg wzbudzenia w dalej leżących węzłach. Wyjaśnia to istnienie "lepszych" cech i egzemplarzy, tj. takich, których prawdopodobieństwo aktywacji jest wyższe przy wzbudzeniu węzła danej kategorii. Odległości między węzłami przedstawione na rysunku 30 oparte są na normach skojarzeniowych Battiga Mpntague'a
Rys. 30. Sieć pamięci semantycznej wedlug modelu A. M. Collinsa i E. F. Loftus (1975) (1969). Główna trudność z weryfikacją takiej teorii polega naftym, że ustala ona odległości między węzłami na podstawie danych empirycznych (norm skojarzeniowych lub czasów reakcji) i szuka potwierdzenia w danych empirycznych tego samego rodzaju (np. w czasach reakcji w jakimś innym zadaniu), co prowadzi do błędnego koła. Znalezienie niezależnych ocen trafności tego typu teorii psychologicznych jest poważnym problemem metodologicznym.
Organfzacj.a pamięci epizodycznej: pamigG autobiograficzna
Niektarzy autorzy (Robinson; 1976; Reiser, 8lack i Abelson, 1985) dla określenia pamięci epizodycznej wprowadzają termin pamięć autobiograficzna. Przyjmuje się, że jest ona zorganizowana wokół ważniejszych wydarzeń życiowych, jak: pójście pierwszy raz do szkoły, egzamin maturalny, przenosiny do innego miasta itp. Problemem jest to, jak ustrukturowane są w pamięci te doświadczenia, które określamy jako codzienne, powtarzające się, czyli jaka jest struktura pamięci epizodycznej.
W porównaniu z wieloma przedstawionymi w literaturze psychologicznej modelami pamięci semantycznej, istnieje bez porównania mniej takich modeli dla pamięci epizodycznej. Przyjmuje się, że pamięć ta przechowuje
w formie sądów źdarzenia z przeszłości, które łączą się w większe lub mniejsze epizody. Powtarzające się doświadczenia określonego typu mogą prowadzić do schematyzacji powstającej reprezentacji umysłowej. Schank i Abelson (1977) proponują termin skrypt na określenie struktur pamięciowych (lub struktur naszej wiedzy), zawierających informacje o stereotypowych sekwencjach zdarzeń. Skrypty takie pozwalają na interpretacje nowych zdarzeń i na uzupełnianie brakujących informacji w toku interpretacji zachodzących zdarzeń.
Czy istnieją jednak jakieś analogie w organizacji pamięci epizodycznej do struktur pamięci semantycznej? Tam przyjmowało się najczęściej pojęcie jako najmniejszą jednostkę strukturalną, funkcjonującą w układzie hierarchicznym, gdzie poziom podstawowy organizacji pojęciowej, wyróżniony przez Rosch, okazuje się mieć szczególne znaczenia w onto- i filogenezie poznania i w powstawaniu nazw jednowyrazowych (por. rozważania na ten temat w rozdziale pt. "Język", s. 171 ). Poziom podstawowy charakteryzuje się tym, że pojęcia na tym poziomie mają najwięcej cech różniących jedne od drugich, a zarazem najwięcej cech charakterystycznych (w porównaniu z pojęciami z wyższych i niższych poziomów hierarchii).
Czy istnieje taki poziom podstawowy dla organizacji struktur pamięci epizodycznej? Skrypt, który pozwala na interpretację i wykonywanie złożonych sekwencji zachowań, jak np. jedzenie w restauracji, prowadzenie wykładu itp. wydaje się kategorią zbyt szeroką. B. J. Reiser, J. B. Black i R. P. Abelson (1985) rozważają pojęcie czynności jako struktury analogicznej do pojęć z poziomu podstawowego. Termin czynność jako działanie zorganizowane i ukierunkowane na cel wprowadził również T. Tomaszewski (1963), uważając ją za podstawowe pojęcie psychologiczne. Reiser i in. czynią tu jednak dodatkowe rozróżnienie, które jest ich zdaniem decydujące dla organizacji pamięci epizodycznej. Chodzi o czynności specyficzne lub sytuacyjne (activities) i czynności ogólne (general actions). W pierwszym wypadku są to sekwencje działań celowych, uwarunkowanych sytuacyjnie. W drugim - to niezależne od sytuacji działania, które mogą stać się składnikami różnych czynności specyficznych. Taką ogólną czynnością jest np, płacenie, które może wejść w skład czynności sytuacyjnej, jaką jest płacenie w restauracji czy płacenie w sklepie. Każda czynność jest celowa, ale w czynnościach specyficznych cel jest uwarunkowany konkretną sytuacją, np. celem jedzenia w restauracji może być zaspokojenie głodu lub spotkanie przyjaciół, lub jedno i drugie. Reiser i in. (1985) nie używają określenia "sytuacyjne" dla czynności specyficznych, choć mówią o niezależności sytuacyjnej działań ogólnych. Określenie to w naszym przekonaniu jest jednak bardziej odpowiednie, zwłaszcza w kontekście pojęcia sytuacji, wprowadzonego przez T. Tomaszewskiego (1975) jako drugiego, kluczowego pojęcia psychologicznego.
Reiser i in. dla udowodnienia swojej hipotezy o organizującej roli czynności specyficznych (sytuacyjnych) w odniesieniu do doświadczeń
72
epizodycznych przeprowadzili następujące badanie. Osoby badane miały przypominać sobie własne doświadczenia, które stanowiłyby przykład wskazanej czynności (przy czym doświadczenia te miały być zakończone albo sukcesem, albo porażką, co za każdym razem zaznaczano oddzielnie). Czynności te były bądź specyficzne (sytuacyjne), bądź ogólne. Przykładami czynności ogólnych są: kończenie pracy w terminie, siedzenie i czekanie, płacenie, stanie w kolejce, korzystanie z mapy itp. Czynnościami specyficznymi są np.: zdawanie egzaminu, oddawanie bielizny do pralni, pójście na koncert, pójście do restauracji, wizyta w muzeum, czesanie się u fryzjera, przejażdżka samochodem, słuchanie wykładu, jazda pociągiem itp. Jakkolwiek osoby badane lepiej (więcej) pamiętały fakty zakończone sukcesem niż niepowodzeniem, i to niezależnie od tego, czy przypominały sobie czynności ogólne czy specyficzne, to istotnie w krótszym czasie przypominały sobie więcej przykładów czynności specyficznych w porównaniu z czynnościami ogólnymi. Tak więc te pierwsze proponowane są jako główne ośrodki organizacji pamięci epizodycznej, zwanej też autobiograficzną.
Nowy paradygmat badań nad pamięcią: pami~ć ekologiczna
Stały dylemat badań psychologicznych: na ile wyniki uzyskiwane w laboratoriach mają zastosowanie w praktyce, odżywa też co pewien cżas w odniesieniu do badań nad pamięcią. Im precyzyjniejsze metody, tym bardziej osiągane wyniki wydają się odległe od tego, co dzieje się w życiu codziennym. Psychologowie praktycy od dawna narzekają na trudności, jakie mają w wykorzystywaniu badań nad pamięcią w praktyce szkolnej czy w psychoterapii. W gruncie rzećzy badaniem pamięci zdarzeń z przeszłości zajmowała się tylko psychoanaliza.
W ostatnich latach tego rodzaju uwagi krytyczne wyrażają także eksperymentalnie nastawieni psychologowie. Tak np. Neisser w książce Cognition and Reality (1976) krytykuje wieloletnią tradycję badania wyłącznie pamięci werbalnej,~nie pozwalającą na praktyczne uogólnienia, a w redagowanej przez siebie pracy Memory observed Remembering in natural context (1982) zbiera różne artykuły, które z tej tradycji się wyłamują, od Freuda i Sterna po nowsze badania Browna i Kulika nad pamięcią szczególnie doniosłych wydarzeń, nazwaną efektem lampy błyskowej (który omówimy w podrozdziale pt. "Emocje a pamięć: efekt lampy błyskowej.").
Ostatnie lata przynoszą różne opracowania metodologiczne i wyniki badań dotyczących pamięci obserwowanej w życiu codziennym (por. Puff, 1982; Harris i Morris, 1984). Różną się tu stosuje klasyfikację zadań pamięciowych (por. tabela 8). Badaczy interesują takie zjawiska, jak: dokładność pamięci miejsc sprzed lat czy twarzy dawnych znajomych (np. kolegów z ławy szkolnej), jak pamiętanie szczegółów zdarzeń, w których się uczestniczyło (wiarygodność zeznań świadków), jak zjawiska "na końcu
TABELA 8. TEMATY, KTÓRYCH DOTYCZĄ KWESTIONARIUSZE PAMIĘCI. (ADAPTOWANE Z D. J. HERRMANNA, 1984)
Kwestionariusze pamięci semantycznej Wydarzenia historyczne
Warrington i Sanders (1971 ); Warrington i Silberstin (1970); Riegel (1973); Botwinick i Storandt (1974; 1980); Johnson Klingler (1976); Perlmutter et al. (1980); Poon et al. (1979); Squire i Stater (1978); Cohen i Squire (1981 ).
Wydarzenia publiczne: Wyścigi konne
Squire i Stater (1975) Programy TV
Squire i Stater (1975); Squire et al. (1975); Harvey i Crovitz (1979); Levin et al. (1977); Squire i Cohen (1979); Squire i Fox (1980); Cohen i Squire (1981 )
Piłka nożna
Morris et al. (1981 ) Rozrywka
Storandt el al. (1978)
Proza: Sherlock Holmes
Neisser i Hupcey (1974) Literatura klasyczna
Rubin (1977)
' Reklama (m.in. w TV)
Burtt i Dobetl (1925); Blankenship i Whiteley (1941 ); Bucci (1973); Bekerian i Baddeley (1980); Hofbrook i Lehman (1980); Wagenaar (1978)
Stawne twarze
Yarmey (1973); Marslen-Wilson i Teuber (1975); Albert et al. (1979); Cohen i Squire (1981)
Twarze znajomych
Bahrick et al. (1975); Baddeley (1979 b)
Nazwiska znajomych
Williams i Hollan (1981 ); Whitter i Leonard (1981 )
Miejsca Budynki
Norman i Rumelhart (1975) Otoczenie
Kozlowski i Bryant (1977); Bahrick (1979)
Przedmioty powszechnego użytku
Nickerson i Adams (1979); Walker (1975)
Wiedza formalna
Nelson i Narens (1980); Shimamura et al. (1981 ) Egzaminy wstępne
Hunt (1978)
Rozumienie języka hiszpańskiego BahriCk i Karis (1982)
Kwestionariusze pamięci epizodycznej Niedawne ważne wydarzenia życiowe
Cąsey et al, (1'967); Jenkins et al. (1979) Dawne ważne wydarzenia życiowe
Field (1981 )
Osobiste przeżycia wydarzeń historycznych
Colegrove (1899); Brown i Kulik (1977); Yarmey i Bull (1978) Spotkania z ludźmi
Keenan et al; (1977); Kintsch i Bates (1977) t
Mecze sportowe
Baddeley i Hitch (1976)
Uczestniczenie jako osoby badane w badaniach laboratoryjnych Baddeley et al. (1978)
Zdarżeaia z przeszłości w ogólności
Miles (1893); Colegrove (1899); Henri i Henri (1897); Robinson (1976); Rubin (1982); Linton (1975, 1978, 1982)
Uprzednie działania Głosowanie Himmelweit et al. (1978)
języka.", a także zapominanie o wykonaniu zaplanowanych czynności (czyli zjawiskal "roztargnienia"). Do niektórych z wymienionych tu zjawisk wrócimy w następnych-podrozdziałach.
Powiedzieliśmy, że powstał nowy paradygmat badań nad pamięcią. Na czym polegałaby ta nowa metodologia? Sa to w większości wypadków różne metody kwestionariuszowe i wywiadu. Nowe podejście nie zastąpiio więc starego, rozwija się odeń niezależnie, a psychologowie nadal uprawiają i doskonalą różne laboratoryjne techniki badania pamięci. Kwestionariusze te
TABELA 9. ZADANIA PAMIĘCIOWE, WYMIENIANE W KWESTIONARIUSZACH METAPAMIĘCI. (ADAPTOWANE Z D. J. HERRMANNA, 1984)
Codzienne zdarzenia i zadania Rutynowe czynności Spotkania
Miejsca Kierunki w przestrzeni Rozmowy
Rozpoznawanie ludzi Znane nazwiska Polecenia
Głosy Zapachy Przedstawienia (np. telewizyjne) Muzyka
Emocje
Specyficzne epizody Wydarzenia niedawne Wydarzenia dawniejsze Dzieciństwo Czynności ostatnio wykonywane Zdarzenia traumatyczne Prżeczytane książki
Informacje semantyczne Fakty
Słownictwo Wydarzenia publiczne (np. sportowe) Dosłowne pamiętanie tekstów (np. poezji) Pamięć umiejętności
Mnemotechniczne Inne
Niedoskonałości i trudności pamięci
Skłonność do popełniania błędów percepcyjnych Wykonywanie zadań pamięciowych w stresie
stosowane w nowym nurcie badawczym są dwojakiego rodzaju: kwestionariusze pamięci i kwestionariusze metapamięci.
Te pierwsze, a jest wiele ich różnych odmian, dotyczą z jednej strony treści zawartych w pamięci semantycznej, a z drugiej - w pamięci epizodycznej. Składają się z zestawów pytań sprawdzających, ile osoba badana pamięta różnych szczegółów z określonej dziedziny. Przykłady dziedzin, których owe kwestionariusze dotyczą, zebraliśmy w tabeli 8 adaptowanej z Herrmanna (1984). Komentując tę tabelę chcielibyśmy jedynie zaznaczyć, że rozróżnienie przez autora zadań semantycznych od epizodycznych nie jest
76
oczywiste - można mieć bowiem wątpliwość, czy pamiętanie twarzy i nazwisk znajomych jest zadaniem semantycznym czy epizodycznym. Dla wyjaśnienia podajemy też, że badanie przedmiotów powszechnego użytku polegało np. w eksperymentach Nickersona i Adamsa (1979) na pytaniu badanych o szczegóły znajdujące się na monetach używanych przez nich na co dzień jako środki płatnicze (bez możliwości oglądania ich w czasie badania), o to, czyja postać jest na nich przedstawiona, w którą stronę zwrócony jest jej profil itp. Pamięć badanych w tym zakresie okazała się bardzo niedokładna.
Druga grupa kwestionariuszy, tzw. kwestionariusze metapamięci, dotyczą tego, jak badany ocenia różne aspekty własnej pamięci i w odniesieniu do różnych dziedzin. Pytania dotyczą np., jak wyraziście badany coś pamięta, jak łatwo się uczy, czy jego pamięć się zmienia, jak często coś zapomina, jakiego rodzaju strategii czy sztuczek mnemotechnicznych używa, co odczuwa i jak ocenia swoje różne możliwości i osiągnięcia w zakresie pamięci. Szczegółowe dziedziny, o które pytają kwestionariusze metapamięci, zebraliśmy w tabeli 9. Do bardziej znanych kwestionariuszy tego typu należą: Inwentarz Doświadczeń Pamięciowych (lnventory of Memory Experience, Herrmann i Neisser, 1978), Kwestionariusz Metapamięci (Metamemory Questionnaire, Zelinski i in., 1980), Kwestionariusz Roztargnienia (Cognitive Failure Questionnaire, Broadbent i in., 1982), Inwentarz Skłonności do Błędów (Error Proneness Questionnaire, Reason, 1981 ), l4westionariusz Pamięci Subiektywnej (Subjective Memory Questionnaire, Bennett-Levy i Powell, 1980) i inne.
Głównym problemem dotyczącym tych wszystkich kwestionariuszyjest, podobnie jak i innych tego typu testów, ich rzetelność i trafność. Jeśli chodzi o rzetelność, to ponowne badanie np. Inwentarzem Doświadczeń Pamięciowych dało korelację 0,8. Problem trafności pozostaje trudny do rozwiązania, zwłaszcza dla kweśtionariuszy metapamięci. Jak ustalić obiektywne pomiary tego, co ma być porównywane z subiektywną oceną badanego, np. jak często zapomina on numer telefonu? Czy nie wystąpi tu szczególny paradoks, że ci, co robią błędy, zapominają o tym, że robią błędy? Weźmy dla przykładu pytania z Kwestionariusza Roztargnienia: Czy wpadasz na ludzi? Czy pamiętasz o wyłączeniu światła? Czy przeoczasz skrzynki pocztowe?, na które badany odpowiada mając do dyspozycji pięciostopniową skalę od nigdy do bardzo często. Jakie znaleźć obiektywne sprawdziany dla tego, co mówi badany? Wiadomo jest np., że wyniki tego testu nie korelują z wynikami łnwentarza Doświadczeń Pamięciowych. Autorzy Inwentarza uważają, że oba te testy mierzą co innego: ich Inwentarz mierzy pamięć, a Kwestionariusz Roztargnienia uwagę.
Nie wnikając bliżej w problematykę metodologiczną kwestionariuszy pamięciowych, chcielibyśmy jeszcze powrócić do terminu figurującego w tytule niniejszego paragrafu: pamięć ekologiczna. Termin wprowadzony przez A. P. Bahricka i D. Karisa (1982) ma właśnie oznaczać badania
prowadzone w naturainyeh warunkach i odnoszące się do codziennych problemów ludzi, tzn. do spraw, którymi oni rzeczywiście na co dzień zaprzątają sobie głowę. Określa on więc omawiane tu podejście badawcze, które rozpatrujemy w kontekście rozważań nad pamięcią semantyczną i epizodyczną, gdyż tego rozróżnienia trzymają się też wszyscy autorzy kwestionariuszy i innych badań nad pamięcią ekologiczną.
Bahrick i Karis (1982) sądzą, że rozróżnienie pamięci semantycznej i epizodycznej należy rozpatrywać na kontinuum, a nie wedle zasady wykluczania się. Uważają oni, odwrotnie niż czyni to Tulving, że to pamięć semantyczna wyłania się z epizodycznej, stanowiąc uśrednione doświadezenie z często powtarzanych jednostkowych doświadczeń określonego rodzaju. Mogą zatem istnieć przypadki pośrednie, zatracające już cechy faktów jednostkowych, a nie będące jeszcze pełnym ich uogólnieniem. Autorzy ci wprowadzają jeszcze jeden wymiar porządkujący doświadczenia pamięciowe. Jest nim to; na ife dana treść stanowi własność indywidualną podmiotu, a na ile jest dzieloną z innymi ludźmi własnością wspólną. Traktując oba wymiary ortogonalnie uzyskuje się w efekcie cztery kategorie doświadczeń pamięciowych: epizodyczne-indywidualne, epizodyczne-wspólne, semantyczne-indywidualne i semantyczne-wspólne.
Jako przykład doświadczeń semantycznych-wspólnych autorzy podają całą wiedzę wspólną ludziom wyrosłym w określonej kulturze, łącznie z wiedzą językową, informacjami dotyczącymi środowiska naturalnego i sztucznego, stworzonego przez człowieka, jak też całe dziedziny wiedzy naleźące do systemu edukacyjnego. Doświadczenia składające się na semantyczną pamięć indywidualną stanowią ogólną wiedzę dotyczącą naszego własnego życia, włączając w to uczucia i postawy osobiste; Dobrym przykładem mają tu być badania Bahricka, Bahrick i Wittlingera (1975) dotyczące pamięci nazwisk i twarzy kolegów szkolnych, które to badania przedstawimy w następnym podrozdziale. Doświadczenia epizodyczne-wspólne mają miejsce wtedy, gdy wiele osób doświadcza naraz pewnego specyficżnęgo przeżycia, np. gdy grupa osób otrzymuje identyczny materiał do zapamiętania. Tak więc tradycyjne metody badania pamięci podpadają pod tę kategorię. I wreszcie indywidualne-epizodyczne doświadczenia obejmują wszelkie zapamiętane jednostkowe przeżycia w ciągu całego życia podmiotu. Jest to pamięć autobiograficzna, która jednakże, wedle tej klasyfikacji, zawiera także wiedzę indywidualną-semantyczną, odnoszącą się np. do uprawianych przez jednostkę zawodów, do przeżywanych uczuć czy doświadczeń nie związanych ze specyficznymi, konkretnymi wydarzeniami.
Inny podział zadań pamięciowych stosują Baddeley i Wilkins (w zbiorze pod red. Harrisa i Morrisa,1984). Posługuj~c się także rozróżnieniem pamięci semantycznej i epizodycznej, wyodrębniają oni ponadto pamięć retrospektywną i prospektywni. Retrospektywne zadania pamięciowe dla pamięci epizodycznej to przypominanie (i rozpoznawanie) zdarzeń, w tym miejsc i ludzi (zwłaszcza twarzy), a dla pamięci semantycznej to korzystanie
78
z nagromadzonych wiadomości. Prospektywne pamięciowe zadania epizodyczne to pamiętanie o tym, co należy zrobić w najbliźszym czasie (np. pamiętanie o zażyciu lekarstwa), semantyczne zaś polegają na czynieniu planów przyszłych działań.
Generalnie rzecz ujmując, nowy paradygmat badawczy odnosi się do zjawisk z codziennego życia, choć klasyfikacja stosowanych zadań pamięciowych, dokonywana z reguły przy uwzględnieniu dwóch systemów pamięci: semantycznej i epizodycznej, nie zóstała jeszcze jednoznacznie ustalona.
Rozpoznawanie i przypominanie z pami~ci epizodycznej: wiarygodność zeznań świadków
Jednym z praktycznych zastosowań wyników badań nad pamięcią powinno być ich wykorzystanie w sądzie, gdyż psychologowie mają rzeczywiście wiele do powiedzenia na temat wiarygodności zeznań świadków. Podstawowa sprawa to jednoznaczny wynik różnych badań, iż prawidłowe rozpoznanie po upływie jednego dnia twarzy ludzkiej, oglądanej przez krótki czas, nie ma więcej szans niż daje to czysty przypadek. A przecież istnieją w sądownictwie na całym świecie przykłady skazania oskarżonego, gdy jedynym dowodem jest rozpoznanie go przez świadka.
Na poparcie tezy o niewiarygodności zeznań świadków przytoczymy dwa eksperymenty naturalne, przeprowadzone w ostatnich latach w USA. W roku 1980 Robert Buckhout (cyt. wg Brown, 1968), walczący o to, aby przesłuchiwanie naocznych świadków w sądzie odbywało się pod kontrolą psychologa-eksperta, przeprowadził za pomocą nowojorskiej telewizji następujący eksperyment. W toku podawania wiadomości wyświetlono 13-sekundowy film przedstawiający w domu towarowym scenę porywania kobiecie torebki przez mężczyznę. Następnie pokazano telewidzom sześciu mężczyzn oznaczonych kolejnymi numerami (jeden z nich był porywaczem torebki), zapraszając telewidzów do zidentyfikowania przestępcy. Podano telefon studia z prośbą o przetelefonowanie numeru przestępcy. 1145 telewidzów wzięło udział w tej zabawie, ale tylko 14,1% podało właściwy numer, wynik ten sytuuje się poniżej przypadkowego zgadnięcia, które wynosi 16,7%!
Inny tego typu eksperyment przeprowadził John Brigham w 1982 roku w miejscowości Tallahassee na Florydzie (cyt. wg Brown, 1968). Tym razem eksperyment nie polegał na fingowaniu przestępstwa, lecz miał na celu zbadanie zdolności rozpoznawania twarzy klientów przez kasjerów sklepów samoobsługowych. Eksperyment przeprowadzono jednego dnia jednocześnie w 63 sklepach samoobsługowych Tallahassee i wyglądał on następująco. W każdym ze sklepów pojawiło się dwóch klientów (nie jednocześnie) jeden
biały, drugi czarny, i po włożeniu kilku towarów do koszyka starali się zwrócić na siebie uwagę kasjera/rki w dwojaki sposób: po pierwsze, płacąc drobną monetą, co wymagało dłuższego liczenia, oraz po drugie, pytając o drogę na lotnisko i starając się przy tym utrzymać z nim/nią kontakt wzrokowy. Po dwóch godzinach każdy z kasjerów otrzymał do rozpoznania serię fotografii, wśród których był ów poprzedni klient. Liczba prawidłowych rozpoznań wyniosła 34,2%, co jest powyżej przypadku wynoszącego, jak pamiętamy, 16,7%. Jednakże, gdy w podobnym badaniu czas do momentu rozpoznania rozciągnięto do 24 godzin, identyfikacja wczorajszego klienta nie przekroczyła poziomu przypadku. Jest to całkowicie niezgodne z oceną własnych możliwości w tym zakresie przez owych kasjerów, z których aż 83,7% przeceniło swoje zdolności rozpoznawania ludzi.
Taka wysoka ocena własnych możliwości prawidłowego identyfikowania ludzi maże wywodzić się stąd, że w gruncie rzeczy rzadko otrzymujemy informacje zwrotne, dotyczące błędów w identyfikacji, a więc o fałszywych alarmach i opuszczeniach. Zdarza się nam na co dzień, że w tłumie na ulicy rozpoznajemy jakąś twarz jako widzianą np. kilka dni wcześniej, ale naprawdę nie wiemy, czy nie jest to fałszywy alarm, a już zupełnie nic nie wiemy o dokonywanych opuszczeniach.
Interesującym dodatkowym wynikiem omówionych powyżej badań było to, że rasa nie decydowała o prawidłowości rozpoznań. Z badań psychologii społecznej od dawna wiadomo, że rozpoznanie osobnika własnej rasy jest lepsze niż osobnika innej rasy. Zjawisko to nie wystąpiło
V T I'
Rys. 31, Schematyczne rysunki i dwa rodzaje nazw uźytych w badaniach Carmichaela i in. l typowe błędne reprodukcje sterowane nazwa. (Wedfug: L. Carmichael, H. P. Hogan i A. A. Walter, 1932.)
w omawianym badaniu. Można by tu zapewne poszukać wyjaśnień socjologicznych, czym już się nie zajmiemy.
Elisabeth Loftus należy także do grona psychologów zwalczających niefrasobliwość sądów w dawaniu wiary zeznaniom naocznych świadków. Przytoczymy tu jej eksperyment wskazujący na możliwości manipulowania zeznaniami świadków rekonstruowanymi z ich własnej pamięci za pomocą pytań specjalnie formułowanych przez prokuratorów i sprytnych adwokatów. Jest to sprawa znana w sądownictwie odkąd ono istnieje, ale jednoznaczność uzyskanych przez Loftus (Loftus i Loftus, 1975) wyników skłania do ich przytoczenia. Osoby badane oglądały film, na którym przedstawiono wypadek samochodowy, i następnie pytano je o to, co widziały. Jedno z pytań dotyczyło szybkości, z jaką jechały oba samochody. Części badanych zadano pytanie "Jak szybko jechały samochody, kiedy doszło do ich zderzenia?" (...hit each other), drugą grupę pytano "Jak szybko jechały samochody, kiedy doszło do ich rozbicia?" (...smashed finto each other). Słowo zderzenie (hit) może oznaczać zarówno lekkie stuknięcie, jak i poważniejszą kraksę, słowo "rozbicie" (smashec~ oznacza już tylko poważny wypadek i może ukierunkowywać odpowiedź badanych na takąż rekonstrukcję z pamięci widzianej sceny. I rzeczywiście, osoby z drugiej grupy podawały wyższą szybkość jazdy samochodów niż osoby z grupy pierwszej i na pytanie, czy- widziały na filmie rozbite szkło (którego faktycznie tam nie było), odpowiadały twierdząco istotnie częściej niż grupa pierwsza.
W jaki sposób podanie nazwy schematycznego rysunku przedmiotu wpływa na jego późniejszą rekonstrukcję z pamięci badali jeszcze w roku 1932 Carmichael, Hogan i Walter. Rysunek 31 przedstawia schemat tego badania i rekonstrukcje przedmiotów z pamięci, zgodne z podaną nazwą. Każdy z rysunków eksponowano dwóm grupom osób, które różniły się ze względu na podaną im po ekspozycji nazwę przedmiotu. Póiniejsze rekonstrukcje oglądanego rysunku wykazują wyraźny wpływ usłyszanej nazwy.
Wszystkie omawiane tu badania dotyczą rozpoznawania ludzi czy przypominania sobie scen nie znanych uprzednio osobom badanym. Chodzi tu o jednorazowe doświadczenia epizodyczne. Jak wygląda to w odniesieniu do dobrze znanych twarzy czy miejsc? H. P. Bahrick, P. 0. Bahrick i R. P. Wittlinger (1975) wykonali serię badań nad pamięcią nazwisk i twarzy kolegów szkolnych'. Badania przeprowadzono w dziewięciu grupach, które różniły się pod względem czasu, jaki upłynął od ukończenia przez badanych szkoły średniej do momentu badania, a czas ten wynosił od 33 miesięcy do 47 lat i 7 miesięcy. Posługując się uzyskanymi z archiwów szkolnych fotografiami absolwentów i listami ich nazwisk przeprowadzono z każdym badanym następujące próby: rozpoznawanie nazwisk (do badania wybrano losowo 10 nazwisk i podawano je z innymi nazwiskami), rozpoznawanie
' 8ahrick i Karis (1982) traktują te eksperymenty jako badania indywidualnych doświadczeń semantycznych (por. s. 78). W naszym odczuciu chodzi tu jednak o wiedzę epizodyczną, choć nie jednorazową.
twarzy kolegów z fotografii (10 losowo wybranych fotografii na tle innych fotografii), dopasowywanie nazwiska do fotografii (pokazywano 10 fotografii i każdej z nich towarzyszyło po 5 nazwisk, z których jedno było właściwe); analogiczne badanie polegało na dopasowywaniu fotografii do podanych nazwisk (każdemu nazwisku towarzyszyło po 5 fotografii z jedną właściwą), przypominanie sobie nazwisk osób przedstawionych na fotografii (przypominanie kierowane) i swobodne przypominanie sobie nazwisk kolegów. Wszystkie te sytuacje i odpowiadające im wyniki - procent prawidłowych odpowiedzi - przedstawia dla dziewięciu badanych grup rysunek 32.
Log czosu w mies.
Rys. 32. Pamiętanie kolegów szkolnych. (Według: H. P. Bahrick, P. O. Bahrick i R. P. Wittlinger, 1975. )
H. P. Bahrick (1984) prezentuje wyniki następnego badania, w którym 22 wykładowców Uniwersytetu Ohio Wesleyan rozpoznawało i przypominało sobie w sposób omówiony powyżej twarze i nazwiska czterech grup studentów, z którymi ukończyli prowadzenie zajęć: 11 dni, 1 rok, 4 lata i 8 lat temu. Wyniki tego badania przedstawia rysunek 33.
Porównując wyniki obu tych badań możemy stwierdzić, że podczas gdy w pierwszym badaniu pamięć twarzy i nazwisk zachowała się prawie nienaruszona przez 25 do 34 lat, to w drugim już po upływie roku obserwujemy jej spadek. Zależy to od rodzaju i stopnia (ilości) kontaktów w obu sytuacjach. Bardziej wielostronne kontakty między kolegami z jednej
klasy pozwalają na trwalsze wzajemne zapamiętanie siebie. Na zależność pamięci od rodzaju aktywności związanej z danym materiałem wskazuje fakt lepszego zapamiętania nazwisk przez wykładowców w porównaniu z ich pamięcią twarzy swoich studentów (por. na rys. 33 krzywa rozpoznawania nazwisk i krzywa rozpoznawania fotografii).
H. P. Bahrick (1979) zajmował się także badaniem przechowywania w pamięci topografii miejscowości i badał tę pamięć po upływie różnego odstępu czasu (od 1 roku do 46 lat). Stwierdził ciągły spadek krzywej prawidłowych przypomnień przez pierwsze trzy lata i utrzymywanie się jej na nie zmienionym poziomie przez następne lata. Ciekawostką w tych badaniach jest przecenianie przez osoby badane różnych szczegółów dotyczących miejsc topograficznie bardziej złożonych (np. wielu różnych zakrętów na stosunkowo niewielkim obszarze) i z kolei niedocenianie długości prostych odcinków.
Qmówione powyżej badania wskazują na możliwości, jakie kryje w sobie ekologiczne podejście do badań pamięci, pod warunkiem stosowania. eksperymentów naturalnych, prowadzonych w sytuacjach, gdy możliwa jest kontrola różnych, mogących mieć wpływ czynników.
100 ~ Rozpoznawanie nazwiśk ~ Dopasowywanie nazwisk o Rozpoznawanie fotografii o Zaoszcz~dz. w ponow.ucz. + Kierowane przypominanie
fotografii 80
a v 3 0
v 60 0
r
U T C
3 0
ó 40 n
c a
U O v
a 20
OL
0
2
LOGlczos+11 w mies.
Rys. 33. Pamiętanie studentów przez wykladowców. (Według: H. P. Bahrick, 1984.)
83
Emocje a pamięć: efekt lampy błyskowej
Wpływem emocji na pamięć od wielu lat interesowali się psychologowie. Już w 1899 r. F. W. Colegrove pytał swoich badanych o to, jakie przeżycia pamiętają lepiej - przyjemne czy przykre. Analiza odpowiedzi badanych wykazała~rzewagę wspomnień przyjemn~rch. Zygmunt Freud mówił o tłumieniu, wypierańiu~ dó podświadomości przykrych przeżyć związanych z ubiegłym doświadczeniem. Wyniki Colegrove'a dotyczą opinii osób badanych na temat tego, co jest przez nich lepiej pamiętane, ale nie świadczy jeszcze o tym, co rzeczy wiście jest pamiętane lepiej. Późniejsi badacze tego zagadnienia stosowali metody bardziej kontrolowane. Proszono najpierw osoby badane, aby wypisały wydarzenia, jakie zapamiętały z ostatnich kilku dni, i następnie, aby tym wspomnieniom przypisały wartości afektywne. Z badań tych wynika, że wydarzeń ocenianych jako przyjemne pamięta się więcej niż wydarzeń przykrych, a tych ostatnich więcej niż obojętnych.
Ściśle eksperymentalne badania nad tym zagadnieniem przeprowadzono w dwu kierunkach. Po pierwsze, śledzono wpływ przyjemnego lub nieprzyjemnego zabarwienia emocjonalnego doznań sensorycznych (tlźwięków, zapachów, kolorów) na zapamiętanie tych doznań. Wyniki nie są jednoznaczne, w każdym razie nie potwierdzają hipotezy o lepszym przechowaniu doznań przyjemnych. Drugi kierunek badań dotyczył wpływu zabarwienia emocjonalnego słów. Eksperyment D. M. Barretta (1938) jest tu typowy. Osoby badane dokonywały następujących operacji na materiale słownym, złożonym z 30 słów wybranych ze słownika frekwencyjnego Thorndike'a-Lorge'a spośród słów o tej samej częstości użycia: 1 ) klasyfikacja słów według ich zabarwienia emocjonalnego na dwie kategorie: "raczej przyjemne" i "raczej przykre"; 2) podanie swobodnego skojarzenia do każdego ze słów; 3) ponowna klasyfikacja, tym razem na trzy kategorie: przyjemne, przykre i obojętne. Po upływie tygodnia od wykonania tych trzech operacji z materiałem słownym, w którym to czasie mogło nastąpić nie zamierzone uczenie się tego materiału, zbadano jego przechowanie, prosząc badanych o reprodukcję słów z pamięci. Badani pamiętali 54,9% słów ocenionych jako przyjemne i 39,2% słów ocenionych jako nieprzyjemne.
Późniejsze hipotezy dotyczące pamięci zdarzeń o zabarwieniu emocjonalnym (Rosenzweig, 1943) wyjaśniały tę obserwowaną w niektórych badaniach różnicę pamięci na korzyść zdarzeń przyjemnych tym, że w grę wchodzi tu mechanizm obrony Ego. Tłumieniu ulegają te przykre zdarzenia, które mogą stanowić zagrożenie vvłasnego Ego, czyli dobrego mniemania o sobie samym, a nie wszelkie przykre wspomnienia.
W ostatnich latach w nurcie ekologicznym rozpowszechniło się badanie zjawiska, które nazwaliśmy za Brownem i Kulikiem (1977) efektem lampy błyskowej (flashbulb memories). Polega ono na tym, że przeżywanie jakiegoś wydarzenia przy silnym wzbudzeniu emocjonalnym sprawia, że nasz układ nerwowy działa jakby pod wpływem wewnętrznego rozkazu "teraz
84
filmuj" i że wspomnienia takich przeżyć mogą się utrzymywać latami, a nawet przez całe życie. Takim przeżyciem, którego wspomnienie ludzie zachowali przez długie lata, była śmierć prezydenta J. F. Kennedy'ego 22 listopada 1963 roku. Brown przez wiele lat pytał swoich studentów z kolejnych roczników na pierwszym z nimi wykładzie o to, jak się o tym fakcie dowiedzieli, i otrzymywał odpowiedzi, w których szczegółowo opisywano miejsca i wykonywane w tym momencie czynności, jak teź przeźywane uczucia. Dalsze badania (Yarmey i Bull, 1978) wykazały, że podczas gdy wyraziste wspomnienia dotyczące zabójstwa prezydenta Kennedy'ego zachowało 99% Amerykanów, niezależnie od rasy, to już zabójstwo Martina Luthera Kinga przechowało się w formie efektu lampy błyskowej u 75% badanych Murzynów amerykańskich i tylko u 37% Białych. Z kolei efekt ten w odniesieniu do śmierci Kennedy'ego rzadko stwierdza się u osób, które w 1963 r. miały mniej niż siedem lat (Winograd i Killinger, 1983). Zainteresowanie tego typu badaniami przyczyniło się do odkrycia przez Neissera (1982) artykułu Colegrove'a opublikowanego w 1899 r. w "American Journal of Psychology" na temat tego samego rodzaju wspomnień dotyczących okoliczności, w jakich badane przez Colegrove'a osoby dowiedziały się o zabójstwie prezydenta Lincolna (co miało miejsce 33 lata wcześniej) i również uzyskał on odpowiedzi świadczące o żywości tego typu wspomnień.
Można sądzić, że przeżycia osobiste o dużym emocjonalnym natężeniu są w taki sposób zapamiętywane. Problem pojawia się w ocenie trafności takich wspomnień. Neisser (1982) wspomina, że jako młodzieniec dowiedział się o ataku na Pearl Harbor, kiedy to wiadomość ta przerwała mu słuchanie radiowego sprawozdania z meczu baseballowego, ale - jak to później sprawdził - nie było w ogóle takiej audycji sportowej w dniu 7 grudnia 1941 roku. Jeszcze inny problem podkreślany przez Loftus (1982) polega na tym, że często osoby, o których wiadomo, iż miały silne przeżycia, które powinny podlegać efektowi lampy błyskowej, nie zapamiętały ich. 25% osób, które przeżyły napad rabunkowy, nie pamięta tego faktu po latach. Loftus (1979) sądzi, że zależy to od siły emocji czy przeżywanego stresu, tzn. że występujące tu zależności opisuje stare prawo Yerkesa-Dodsona (1908), które mówi, że słabe i silne wzbudzenie nie sprzyja uczeniu się, najlepsze efekty daje wzbudzenie o średniej sile. Jednakże wyniki różnych badań cytowane przez Browna (1986) nie pozwalają na wyciągnięcie jednoznacznych wniosków co do działania tego prawa w odniesieniu do efektu lampy błyskowej.
Wpływ na zapamiętywanie emocji związanych z napięciem motywacyjnym ujawnia się teź w słynnych badaniach B. Zeigarnik (1929), których wyniki mające na celu weryfikację hipotezy K. Lewina znane są w literaturze pod nazwą efektu Zeigarnik. Hipoteza Lewina zakłada, że motywacja wzbudzona dla wykonania jakiegoś zadania tworzy system napięć, rozładowujących się w chwili, gdy zadanie zostaje wykonane.
R5
Osobom badanym w eksperymencie Zeigarnik polecono wyl~onywać jak najszybciej i jak najdokładniej całe serie (od 18 do 22) zadań różnego rodzaju: zadania matematyczne, rozwiązywanie zagadek, zadania ruchowe (lepienie figur, wykonywanie pudełek z kartonu) itp. Wykonywanie połowy tych zadań, dobranych losowo, było przerywane, zanim osoby badane mogły je zakończyć. Po skończeniu badania proszono badanych o wyliczenie wszystkich zadań, które wykonywali. Obliczono, że stosunek liczby zapamiętanych zadań przerwanych do liczby zapamiętanych zadań zakończonych wynosił od 1,9 do 2,1 dla różnych grup badanych. Zgodnie z hipotezą Lewina, napięcie utrzymujące się przy niedokończonym zadaniu i angażujące myśli danej osoby ułatwia lepsze przechowanie tego zadania w porównaniu z przechowaniem zadania już zakończonego, dla którego napięcie zostało rozfadowane. Eksperymenty Zeigarnik były wielokrotnie powtarzane na różnego rodzaju materiale i z różnymi (np. pod względem wieku) badanymi. Tak zwany efekt Zeigarnik został szeroko potwierdzony.
Rosenzweig (1943) uzyskał jednak odmienne rezultaty w sytuacji, gdy dawał badanym instrukcję angażującą w silniejszym stopniu ich mótywację osobistą. Mówif on, że stosowane zadania (te same, co w eksperymencie Zeigarnik) są próbą ich inteligencji. Tak jak Zeigarnik, pewne zadania przerywał, uzasadniając badanym, że i tak nie potrafią ich wykonać. Wtedy badani pamiętali lepiej zadania zakończone. Przerwane zadania są lepiej pamiętane, kiedy motywacja badanych jest słabsza, przy silnej motywacji włączają się, zdaniem Rosenzweiga, mechanizmy obrony Ego, wobec czego zadania przerwane, odczuwane przez badanych jako porażka, zostają tłumione na tej samej zasadzie, na jakiej tłumione są wspomnienia zagrażające dobremu mniemaniu o sobie.
Problem wpływu emocji, motywacji, a także postaw$ i przekonań na przebieg procesów pamięci jest przedmiotem zainteresowań psychologii społecznej.
Wpływ postaw i przekonań na zapamiętywanie dobrze charakteryzuje eksperyment S. Miki (1966), wywodzący się z badań Bartlettą (1932). Badani, dobrani z punktu widzenia ich stosunku do religii, tzn. wierzący i niewierzący, zapoznali się z dwoma rodzajami tekstu - proreligijnym i antyreligijnym. Kiedy następnie sprawdzono przechowanie w pamięci tych tekstów, wskaźniki przypomnień były różne dla obu grup badanych. Badani lepiej pamiętali te teksty, które odpowiadały charakteryzującej ich postawie. Przeprowadzono wiele eksperymentów dotyczących różnych postaw. Tak np. Walden (cyt. wg Flores, 1964) badał postawę jednostki wobec samej siebie. Badani otrzymali długie listy przymiotników, na których polecono im podkreślić te określenia, jakie - ich zdaniem - charakteryzują ich samych. Następnie eksperymentatorzy przygotowali dla każdego badanego nową listę, w której pozostawiono połowę zakreślonych przez niego przymiot
e Postawa z definicji zawiera komponent emocjonalny czy afektywny.
sza
ników, a drugą połowę określeń zastąpiono określeniami o znaczeniu przeciwnym. W tydzień po pierwszym spotkaniu rozdano badanym te nowe listy, prosząc o zapoznanie się z nimi jako z "ocenami przypisanymi im przez ich kolegów". Po dwóch dniach na trzecim spotkaniu proszono badanych o prżypomnienie sobie ocen otrzymanych od kolegów. Badani pamiętali znacząco więcej tych ocen, które były zgodne z ich samoocenami.
Badania tego typu interesują szczególnie psychologów społecznych zajmujących się kształtowaniem i zmianami postaw, przekonań i opinii. 1. A. Festinger (1957) w związku z opisywanymi powyżej i pokrewnymi zagadnieniami wysunął teorię dysonansu poznawczego, która mówi, że przyjęcie poglądów niezgodnych z własnymi przekonaniami wywołuje u człowieka poczucie przykrości, zagrożenia. Dlatego twierdzeń niezgodnych z wyznawanymi przekonaniami nie dopuszczamy do świadomości. Już spostrzeganie jest w tym względzie selektywne, a pamięć pełni funkcję kolejnego filtru. Zainteresowanego tym problemem czytelnika odsyłamy do podręczników psychologii społecznej.
Teorie pamięci
Wspominaliśmy już parokrotnie najstarszą teorię pamięci, tzn. koncepcję konsolidacji śladów pamięciowych Mullera i Piltzekera (1900), w której akcentuje się konieczność konsolidacji kodowanych informacji, aby zostały one przechowane na trwałe w pamięci. Na czym jednak miałaby polegać natura owego śladu nie jest jasne i do dnia dzisiejszego trwają na ten temat spory. Aby wyjaśnić proces zapominania, przyjmuje się, że ślady samoistnie zacierają się z upływem czasu bądź ulegają osłabieniu na skutek braku ich użycia, bądź też są aktywnie zacierane przez nakładające się na nie ślady nowych doświadczeń (interferencja).
Istniejące w pamięci ślady mogą być aktywizowane przez jednostkę w procesie przypominania lub przez ponowne pojawienie się bodźca w procesie rozpoznawania. Ponieważ rozpoznawanie stanowi podstawę percepcyjnej identyfikacji działających na nas bodźców, mechanizm rozpoznawania szczególnie interesował psychologów zajmujących się procesami poznawczymi. Dość powszechnie przyjmuje się, że ślady te tworzą coś w rodzaju wewnętrznych wzorców umysłowych, z którymi porównywane są napływające informacje. Wzorce takie nie mogą jednak być zbyt sztywne (nowe informacje tego samego rodzaju mogą się różnić od poprzednich, np. odmienny może być krój czcionki w różnych tekstach, co nie powinno utrudniać nam procesu czytania), a jednocześnie zbytnia tolerancyjność na różne odchylenia w nowych bodźcach moźe prowadzić do pomyłek. Wynika z tego w sposób oczywisty, że wzorce umysłowe nie mogą być bezpośrednimi kopiami bodźców i że główna trudność polega na rozwiązaniu starej kontrowersji między psychologią klasyczną a psychologią całości, tj. kon
n-~
trowersji między zdolnością naszego aparatu poznawczego do dokonywania analizy (rozkładanie bodźca na elementy, cechy) a jego zdolnościami do dokonywania syntezy (tworzenia całościowego obrazu).
Przyjrzyjmy się rozwojowi teorii pamięci w ostatnim trzydziestoleciu. Omówimy trzy grupy takich teorii: teorie wzorców, teorie schematów i teorie rozproszonego i równoległego przetwarzania. Wyodrębniliśmy je ze względu na ujmowanie przez nie wymienionej powyżej kontrowersji między analizą a syntezą, między koniecznością składania całości z elementów a prymatem całości. Teorie wzorców akcentują analityczny charakter procesów przetwarzania informacji, teorie schematów z kolei ich charakter syntetyczny, natomiast teorie rozproszonego i równoległego przetwarzania próbują łączyć oba te podejścia. Wszystkie te teorie muszą też w jakiś sposób ustosunkować się do omawianych w tym rozdziale problemów, takich jak: deklaratywność i proceduralność wiedzy, autonomiczne i świadome przetwarzanie informacji, różne rodzaje pamięci itp.
Teorie wzorców
Pierwszym modelem, za pomocą którego próbowano rozwiązać sprawę funkcjonowania wzorców umysłowych, służących do identyfikacji percypowanych bodźców, był tak zwany model "Pandemonium" Selfridge'a z 1959 r. (rys. 34). Miltonowskie Pandemonium stanowi odniesienie dla funkcjonowania tego modelu. Wzorce, jak powiedzieliśmy, nie mogą być zbyt sztywne i jednoznaczne, gdyż rzeczywistość bodźcowa jest względnie urozmaicona i bodźce tego samego rodzaju mogą się dość znacznie różnić w kolejnych wystąpieniach. Zastosowano dość proste rozwiązanie. Między bodźcem a wzorcem pośredniczy układ reagujący na poszczególne cechy czy elementy bodźca, a cechy te mają też swoje odpowiedniki we wzorcu. Dla zobrazowania całej sprawy niech nam posłuży podręcznikowy już przykład, adaptowany z pracy Selfridge'a (1959) model rozpoznawania liter alfabetu (rys. 34).
Jak to widać na rys. 34 wyróżnia się tu cztery kategorie "demonów": demon obrazów (rejestrujący bodziec na zasadzie jego kopii), demon cech (każdy z nich jest wrażliwy na określoną cechę), demony poznawcze (wewnętrzne wzorce) i demon decyzji. Cech jest nieporównanie mniej niż dających się z nich kombinować wzorców poznawczych. Model ten jest względnie elastyczny, gdyż wzorce nie muszą dokładnie odpowiadać bodźcom; różne drobne odchylenia mogą zostać pominięte, co umożliwia reakcję opisywanego systemu bez względu na odchylenia czy zniekształcenia występujące w samych bodźcach. Wszędzie tam, gdzie z pewnej liczby cech można kombinować różne całości, taki model dobrze pasuje.
Jest rzeczą oczywistą, że pod "demony" możemy podstawić układ elektroniczny dla komputerów czy układ nerwowy dla organizmów żywych i szukać analogii dla Pandemonium w pracy tych układów. Odkrycia
Y
vue
Demony
cech
Demon obrazów Bodziec
Rys. 34. Pandemonium O. G. Seifridge'a (1959)
detektorów cech fizycznych w korze mózgowej kota (typu linii w określonym położeniu czy kątów) przez Hubla i Wiesla w 1962 r. dało neurofizjologiczną podbudowę dla modelu Selfridge'a.
Odkrycie to zostało też wykorzystane w koncepcji Konorskiego, który w swojej pracy Integracyjna dzialalność mózgu (PWN, 1969; ang. wyd. w 1967 r.) przedstawił teorię jednostek gnostycznych, podobną do Pandemonium Selfridge'a. Przyjmuje on, iż w umyśle ludzkim znajduje się wiele różnych analizatorów percepcyjnych, czyli gnostycznych, różniących się kategoriami odbieranych bodźców. Analizatory te są podobne anatomicznie i funkcjonałnie. Każdy z nich składa się z kilku pięter czy poziomów i na każdym piętrze funkcjonują odpowiadające mu jednostki gnostyczne. Najniższe piętro stanowi powierzchnia recepcyjna, a na najwyższym piętrze każdego analizatora reprezentowane są jednostki gnostyczne typu percepcji jednostkowych, które są odpov~tiedzialne za "natychmiastowe rozpoznanie przedmiotu za pomocą jednego rzutu uwagi" (Konorski, 1969; s. 505). Konorski przyjmuje, że dla określonej klasy przedmiotów istnieje więcej niż jedna jednostka gnostyczna (zasada wielokrotnej reprezentacji), tym więcej, im częściej występuje w doświadczeniu i im bardziej jest zróżnicowana wewnętrznie dana klasa przedmiotów. Najwyższe piętro analizatora percepcyjnego, które koduje percepcje jednostkowe, dysponuje największą liczbą takich jednostek w porównaniu z niższymi jego piętrami. Jakkolwiek
nn
połączenia międzyneuronowe (na tym samym piętrze i między piętrami) są zarówno dywergencyjne, jak i konwargencyjne, to dwukrotna przewaga dywergencji nad konwergencją9 wyjaśnia ten stopniowy wzrost liczby jednostek gnostycznych na wyźszych piętrach.
Jednostka gnostyczna pracuje na zasadzie koniunkcji (zostaje pobudzona, gdy wszystkie konwergujące jednostki są aktywne) lub dysjunkcji (gdy jedna lub część konwergujących jednostek zostaje zaktywizowana). Połąezenia między jednostkami są pobudzeniowe w kierunku pionowym i hamujące w kierunku poziomym (tzw. hamowanie oboczrie), przy czym wpływ jednej jednostki na drugą zmniejsza się wraz z liczbą jednostek pośrednich. Połączenia pobudzeniowe (w pionie) między jednostkami gnostycznymi są dwojakiego rodzaju: wstępujące i zstępujące.
Hamowanie oboczne polegające na tym, że pobodzenie dańej jednostki oddziałuje hamująco na jednostki sąsiednie, wyśtępuje we wszystkich analizatorach i na wszystkich piętrach (choć zdańiem Konorskiego jego efekty są silniejsze na wyższych piętrach). Może być odpowiedzialne za takie zjawiska, jak: maskowanie w spostrzeganiu czy interferencja proaktywna i reaktywna w pamięci.
Konorski postuluje istnienie wielu różnych analizatorów'°. Każdemu z nich odpowiada ścisła lokalizacja mózgowa. Istnienie tych lokalizacji dla poszczególnych analizatorów wyprowadza on z faktu, iż uszkodzenia poszezególnych okolic kory prowadzą do określonych agnozji, niemożności rozpoznawania danej klasy przedmiotów (dla analizatorów wzrokowych) czy określonej klasy dźwięków (dla analizatorów słuchowych). Oddzielnie np. podlega zaburzeniu rozpoznawanie dźwięków muzyki (amuzja) i dźwięków mowy (różne typy afazji).
A jak wygląda mećhanizm pamięci, kodowanie nowych doświadczeń i tworzenie się wiedzy o świecie?
Konorski przyjmuje istnietlie dwóch typów jednostek gnostycznych: tych, które już zostały włączone i są niejako "zajęte", i tak zwanych wolnych jednostek, które stanowią potencjał dla nowych połączeń. Sądzi on, źe takie potencjalne połączenia między poszczególnymi jednostkami istnieją od urodzenia i że uczenie się i zdobywanie doświadczeń polegana kodowaniu w wolnych jednostkach cech bodźców czy percepcji jednostkowych (zależ
Konwergencja polega na zbieganiu się aksonów z kilku jednostek piętra niższego wokół jednej jednostki piętra wyższego, a dywergencja polega na tym, że dana jednostka tworzy rozgałęzienia aksonowe, biegnące do róźnych jednostek piętra wyższego.
'° Przykładowo podamy postulowane przez Konorskiego analizatory wzrokowa i słuchowe. Analizatory gnozji wzrokowej: 1 ) małych przedmiotów manipulacyjnych, 2) dużych przedmiotów niemanipulacyjnych (zwykle nieruchomych), 3) twarzy, 4) przedmiotów ożywionych (zwierząt i sylwetek ludzkich), 5) znaków graficznych, 6) położenia kończyn i ich ruchów (niezależnie od odpowiednich analizatorów kinestetycznych). Analizatory ~.nozji słuchowej: 1 ) znanych dźwięków świata zewnętrznego, 2) właściwości głosowych mowy ludzkiej, 3) słowno-słuchowy, czyli mowy, 4) melodii muzycznych.
90
nie od piętra), czyli przekształceniu jednostek potencjalnych w funkcjonalne. Istnieje teź w literaturze inna interpretacja, autorstwa Wiekelgrena (1979), akcentujaca proces konsolidacji procesów pamięciowych. Zakłada ona, że przy urodzehi~ wszystkie jednostki gnostyczne otrzymują impulsy ze spoidła wielkiego (hipokampa) i systemu aktywacji. Kiedy jednostka taka zostaje zwi~zana z jakimś bodźcem-wzorcem, wtedy przerywa się jej połączenie z hipok8mpem. Następnie tylko wolne jednostki są zasilane z hipokampa. To pobudzenie z hipoicampa czyni je bardziej wrażliwymi na powiązanie z jakimś nowym bodźcem. Od momentu takiego powiązania przerywa się połączenie z hipokampęm i zaczyna się proces konsolidacyjny. Za tą koncepcją przemawiają skutki przecięcia hipokampa. Opisani przez Milner (1966) pacjenci z przeciętym spoidłem nie potrafili nauczyć się już niczego nowego.
Obie przedstawione tu koncepcje Selfridge'a i Konorskiego zaliczyliśmy do teorii wzorców. Teorie te charakteryzują się tym, że zakładają powstawanie śladów materialnie zlokalizowanych, np. według teorii Konorskiego-w neuronah. Ponowne pobudzenie neuronu uaktywnia dany ślad. Oczywiście w grę wchodzą całe układy neuronów, a ich pobudzenie wynika ze skomplikowanej gry procesów pobudzeniowych i hamujących. Chodzi tu o główną ideę. Teorie wzorców maje jednakże poważne trudności w wyjaśnianiu takicł~ spraw, jak tolerancja na zmienność bodźców. Częściowo umożliwia to rozbicie bodźca na cechy i następnie składanie tych cech dla porównania z wzorcem wewnętrznym (jak to ma miejsce w Pandemonium). Z koncepcji wzorców wynika też, iż np. uszkodzenie jakiejś grupy neuronów powinno spowodować wypadnięcie odpowiednich śladów, nie wpływając na te ślady, których neurony nie zostały uszkodzone. Tak jednak nie jest. Zaburzenia wynikające z uszkodzeń jakichś części kory mózgowej mają charakter stopniowalny i znacznie mniej specyficzny niż wynikałoby to z teorii wzorców. Ponadto koncepcje te nie wyjaśniają dobrze takich złożonych zachowań, dla których programy niewątpliwie istnieją, ale często nie mają jednoznacznej formy. Dla wyjaśnienia takich zachowań posługiwaliśmy się dotychczas często terminem schemat.
Teorie schematów
W ostatnich kilkunastu latach termin schemat zrobił ogromną karierę w psychologii i za pomocą niego wyjaśnia się wiele różnych zjawisk. Teorie schematów zastąpiły w psychologii teorie wzorców. Trzeba jednak od razu stwierdżić, że pochodzą one z różnych poziomów ogólności. Kiedy w psychologii opisuje się jakaś funkcję, rodzaj zachowania czy inne procesy psychiczne, można to czynić na różnych poziomach abstrakcji. Tak np. David Marr (1982) wyróinia trzy takie poziomy. Na pierwszym poziomie, nazwijmy go funkcjonalnym, należy wyjaśnić funkcje, cel danego procesu i opisać jego możliwy mechanizm. Na kolejnym poziomie, który można nazwać poziomem reprezentacji, przedstawia się sposób, w jaki można by wyjaśnić ów
mechanizm przez wskazanie, jakie są wejścia i wyjścia i jakie możliwe algorytmy dokonujących się operacji. Na trzecim poziomie wskazuje się, jak owa reprezentacja i jej algorytm są realizowane fizycznie. Ten ostatni poziom należy już do kręgu zainteresowań fizjologii, i neurofizjologii. Dwa pierwsze są zaś poziomami, na których bywają zwykle przedstawiane teorie psychologiczne. Marr np. sądzi, iż Chomsky'ego teoria kompetencji językowej (por. rozdz. pt. "Język", s. 179) jest teorią z pierwszego poziomu, a psycholingwistyczne badania nad realizacją językową, tj. dotyczące tego, jak struktura gramatyczna jest przetwarzana w umyśle, z drugiego.
W takim ujęciu teorie schematów plasują się na pierwszym poziomie, a teorie wzorców na drugim (na poziomie trzecim znajduje się już opis fizjologiczny w terminach potencjałów elektrycznych itp.). Tak więc pamiętając o tym rozróżnieniu nie możemy traktować tych dwóch grup teorii równorzędnie. Wspominamy o teoriach schematów ze względu na ich dominującą rolę w wyjaśnianiu różnych zjawisk z zakresu pamięci, oczym pisaliśmy w różnych miejscach tego rozdziału. Sam termin schemat wprowadzony do psychologii przez Selza (1913), a potem stosowany przez Bartletta (1932) i Piageta (1966), omawiamy w rozdziale pt. "Uczenie się") (s. 134). W tym miejscu przypomnimy jedynie w punktach charakterystykę daną przez Rumelharta (1980). Przypominamy też, że takie terminy, jak rama (Minsky, 1975) czy skrypt (Schank i Abelson, 1977) odnoszą się do tej samej kategorii zjawisk.
Ważną właściwością schematu jest to, że w porównaniu np. z jednostką gnostyczną może on obejmować znacznie większe całości, jak np. różne układy przekonań itp. Rumelhart, omawiając tę cechę schematów stwierdził, że schematy reprezentują wiedzę z wszelkich jej poziomów, a więc od pojęć i znaczeń słów do całych ideologii. Z cechą tą wiąże się następna polegająca na tym, że schematy wbudowane są jedne w drugie. Sćhematy są "urządzeniami" służącymi do rozpoznawania bodźców, które pozwalają na ocenę odpowiedniości zastosowanej interpretacji. Z tym określeniem schematów wiąże się bardzo ważna ich cecha, którą jest to, że schematy mają zmienne. Zmienne te odpowiadają tym częściom układu, które nie są w pełni wyznaczone przez strukturę owego układu. Są to części czy elementy, które zmieniają się z sytuacji na sytuację. ( kolejna ważna cecha. W wypadku braku w napływających informacjach jakiejkolwiek wartości dla danej zmiennej schemat potrafi generować brakujące wartości. Na przykład otrzymujemy informacje o jednopokojowym mieszkaniu z łazienką i kuchnią, ale bez informacji na temat wielkości owych pomieszczeń. Z istniejącego w naszym umyśle schematu takiego mieszkania wygęnerujemy, że układ wielkości owych pomieszczeń będzie się kształtował - pokój J kuchnia J łazienka.
Jak powiedzieliśmy, teorie schematów są teoriami z innego poziomu niż teorie wzorców i te ostatnie można nawet traktować jako próby pokazania, jak i za pomocą jakich algorytmów realizowana jest reprezentacja umysłowa
schematów. Ze względu jednak na wspomniane w poprzednim podrozdziale wady teorii wzorców, przyjrzyjmy się innym próbom szukania takiej reprezentacji.
Teorie przetwarzania równoległego
rozproszonego
Podobnie jak teorie wzorców są to teorie z poziomu drugiego, czyli poziomu reprezentacji. Powstaływ latach osiemdziesiątych, ich wspólna nazwa: teorie przetwarzania równoległego i rozproszonego pochodzi od angielskiego terminu: parallel distributed processing, w skrócie PDP, i skrótem tym będziemy się dalej posługiwać. Inną używaną nazwą tych teorii jest jeszcze neokoneksjonizm. Głównymi ich przedstawicielami są: James L. McClelland i David E, Rumelhart (1986). Teorie te próbują rozwiązać cały szereg kontrowersji, jakie pojawiły się w latach siedemdziesiątych przy tworzeniu modeli przetwarzania informacji przez człowieka, takich jak: kierunek przetwarzania wstępujący lub zstępujący, jak seryjność czy paralelność dokonujących się operacji. Kontrowersje te omawiamy w rozdziale pt. "Język", zastanawiając się tam nad modelami wiedzy o świecie i wiedzy językowej (por. s. 213). Chociaż wyrosły z badań nad sztuczną inteligencją, koncepcje PDP mają być modelami funkcjonowania umysłu ludzkiego. Nawiązują one do koncepcji układów funkcjonalnych Łurii (1966).
Koncepcje te, podobnie jak koncepcje wzorców, przyjmują istnienie jednostek i różnych między nimi połączeń (pobudzeniowych i hamujących). Główna idea zawarta w nazwie teorii zakłada, iż różnica między mózgiem ludzkim a komputerem polega na tym, że umysł ludzki, w przeciwieństwie do seryjnego przetwarzania w komputerze, musi jednocześnie być aktywny w różnych swoich układach czy modułach, tzn. ta sama sytuacja bodźcowa wywołuje jednocześnie wielostronną, rozproszoną aktywność w różnych miejscach całego układu przetwarzającego, jakim jest umysł ludzki. Ta równoległość różnych układów aktywacji jest podstawowym warunkiem efektywności funkcjonowania umysłu, w którym czas dokonywanych operacji ze względu na anatomiczno-fizjologiczne ograniczenia (czas przebiegu impulsów nerwowych) jest znacznie wolniejszy (rzędu milisekund) w porównaniu z czasem przetwarzania w komputerze (rzędu nanosekund). Tak krótkie czasy dokonywania się operacji w komputerze pozwalają na stosowanie programów seryjnych, gdyż są one prostsze, a czas trwania nawet wielu kolejnych operacji i tak jest krótki. Przyjrzyjmy się głównym założeniom koncepcji PDP, tak jak je przedstawiają główni jej teoretycy (Rumelhart, Hinton i McClelland, 1986), i następnie wynikającym z tego mechanizmom funkcjonowania pamięci.
Proponowane przez teoretyków PDP modele funkcjonowania umysłu dotyczą różnych jego aspektów-od mechanizmów uczenia się i pamiętania do mechanizmów czytania i percepcji mowy, i opierają się na bardzo
wyrafinowąnym aparacie formalnym. W naszym tu przedstawieniu z konieczności pominiemy całe bogactwo i złożoność matematycznego uzasadnienia '" owych modeli.
Główne założenia teorii PbP sprowadzają się do następujących stwierdzeri: Każdy z paralelnych układów funkcjonalnych (modułów) w umyśle stanowi zbiór jednostek, które dla danego układu należy ustalić. Zwykle przyjmuje się, że tymi jednostkami są.cechy, litery, wyrazy fub pojęcia, choć w niektórych modelach PDP jednostkami takimi mogą być abstrakcyjne elementy, z których dopiero tworzą się układy mające znaczenie. W samym pojęciu rozprosżonej reprezentacji leży założenie, że chodzi tu o zbiór wzajemnie powiązanych mikrocech, które stanowią znaczący układ. W każdym razie nie zakłada się w tych modelach, że jednostki te ściśle (jeden do jednego) odpowiadają pojęciom czy innym układom mającym znaczenie, jak np. czyni się to w teorii Kqnorskiego. Jednostki te są trzech rodzajów (por. rys. 35): wejściowe, wyjściowe i ukryte (lub wewnętrzne).
Jednostki ukryte
Jednostki wejściowe
Rys. 35. Typy jednostek w modelach PDP
Jednostki wejściowe otrzymują informacje ze źródeł zewnętrznych dla danego układu. Są to informacje ze świata zewnętrznego lub z innych układów całego systemu przetwarzania informacji. Jednostki wyjściowe przesyłają informacje poza dany układ, a więc albo do systemu motorycznego, albo do innych układów. Jednostki ukryte, które funkcjonują tylko wewnątrz danego układu, pośredniczą między jednostkami wejściowymi i wyjściowymi.
94
Jednostki wyjściowe
Kolejne w koncepcji PDP jest załoźenie, że dany układ jednostek pozostaje w jakimś stanie aktywacji, który można ustalić dla danego czasu t. Taki układ aktywacji danego zbioru jednostek decyduje o reprezentacji tego układu w danym momencie. Przetwarzanie informacji polega na zmianach układów aktywacji zachodzących w czasie. Można to przedstawić jako wartości aktywacji, jakie przyjmują poszczególne jednostki. Wartości aktywacji przedstawiane są różnie w różnych modelach: mogą być one ciągłe lub dyskretne. Te ostatnie przyjmują formy zarówno binarne, jak i skończonego zbioru takich Mrartości :(np. 1,2,3,4,5,6,x,8,9). Jeśli są ciągłe, mogą przybrać jakąkolwiek liczbę.
Każda jednostka ma swój próg aktywacji, nie jest więc ona aktywna, dopóki próg ten nie zostanie przekroczony. Jednostki są, jak powiedzieliśmy, połączone ze sobą. ( ten układ połączeń o różnych wartościach aktywacji wyznacza, jaki typ wiedzy jęst w nim zakodowany. Wartości aktywacji mogą być pozytywne i negatywne, tzn. pobudzające i hamujące. Wyjście z układu jest więc wypadkową (różnie matematycznie przedstawianą): wzajemnych wpływów połączeń między jednostkami (stąd też nazwa dla omawianych modeli neokoneksjonizm). Dla 'przykładu pokażemy działanie bardzo prostego układu, który przedstawia rysunek 36 (patrz objaśnienia tamże), gdzie
Jednostka wyjściowa
Jednostki ukryte
r1 Jednostki
wejściowe
+1
Progi = .01
Wejście Wyjście 1 1
Q 0 0
1 0
0 1 1
Rys. 36. Sieć jednostek modelu PDP o usta/onych progach, Jednostki reaguja, gdy wejście jest powyźej 0. Wagi są ± 1. Cały układ reaguje odpowiedzia 1, gdy otrzymuje 0,1 lub 1,0, w innych sytuacjach nie reaguje (odpowiedź 0). (Według: D. E. Rumelhart, G. E. Hinton i J. L. McClelland,
1986. )
widać rolę progu aktywacji dla wartości pobudzających i hamujących, i zarazem rolę jednostek ukrytych. Przyjmuje się ponadto trzy reguły rządzące układami przetwarzania informacji w umyśle: regułę rozprzestrzeniania się układów aktywacji na sieć połączeń między jednostkami, regułę aktywacji, która pozwala na łączenie wartości wejść dziatających na daną jednostkę z jej aktualnym stanem, co prowadzi do nowego stanu aktywacji tej jednostki, i regułę uczenia się opisującą modyfikację systemu przez doświadczenie. Każda z tych reguł jest sformalizowana (por. McClelland i Rumelhart,1986).
Z założenia o paralelności procesów zachodzących w umyśle nie wynika, że nie mogą one zachodzić sekwencyjnie. Przyjmuje się, że procesy zachodzące w czasie krótszym niż pół sekundy przebiegają równolegle i mogą być opisywane za pomocą modeli PDP. Procesy, które trwają dłużej niż pół sekundy, mają charakter seryjny i do opisania ich inne modele, np. systemów produkcji, mogą być bardziej użyteczne.
Podejście PDP wyjaśnia powstawanie w umyśle schematów, zakładając, że każdy rodzaj wiedzy (w tym w formie schematów) moźe być reprezentowany poprzez wzajemne związki między tworzącymi dany system wiedzy jednostkami. Schematy mogą być w różnym stopniu sztywne. Sztywność ta jest wyznaczona siłą związków między jednostkami. Im słabsze związki, tym mniej sztywny schemat. Główna różnica między tradycyjnym ujęciem schematów a tym, jakie przyjmują modele PDP, polega na tym, że tradycyjne podejście zakłada, iż niektóre aspekty schematu są stałe a inne zmienne. W podejściu PDP wszystkie aspekty są zmienne, z tą różnicą, że jedne są ze sobą powiązane ściślej niż inne, Jest to jednak jedynie różnica stopnia. Jednostki słabiej powiązane są jakby w mniejszym stopniu częścią . schematu niż jednostki powiązane silniej.
Mechanizm pamięci w ujęciu modeli PDP polega na kodowaniu poszczególnych układów aktywacji danego zbioru jednostek. Te same jednostki mogą wchodzić w różne układy czy wzorce aktywacji, a więc istota pamięci tkwi nie tyle w tym, jakie jednostki wchodzą w układ, lecz w tym, jaki to jest układ związków między jednostkami, a układów tych czy wzorców może być bardzo wiele dla danego zbioru jednostek. Jak już zaznaczyliśmy, taki zbiór jednostek można traktować jako moduł i takich częściowo redundantnych modułów tworzących system naszej pamięci mogą być tysiące, każdy zawierający tysiące, a nawet miliony jednostek. Dany układ aktywacji odpowiada jakiemuś stanowi umysłu. Proces przetwarzania informacji wyraża się w zmieniających się układach aktywacji, czyli ewolucji stanów umysłowych w czasie. Owe stany aktywacji zostawiają po sobie ślady. Polegają one na zmianach w sile lub wadze związków między jednostkami. Każdy ślad pamięciowy jest rozproszony na różne połączenia między jednostkami, a każde takie połączenie uczestniczy w różnych śladach pamięciowych. Przypomnienie sobie czegoś polega na uaktywnieniu fragmentu pierwotnego stanu, który to fragment może lepiej lub gorzej (w zależności od siły związków) rekonstruować pierwotny układ aktywacji,
96
co nie oznacza, że będzie to identyczny układ. Pamięć, jak wiadomo, ma właściwości rekonstrukcyjne (często produkcyjne), a nie tylko czysto reprodukcyjne.
Ślad pamięciowy jakiegoś konkretnego wzorca aktywacji polegałby na zmianach w układzie wszystkich połączeń w obrębie modułu. Zachodzi to jednocześnie w całym module. I te wzajemne związki powodują, że aktywacja części czy fragmentu modułu wywołuje aktywację całości.
Zakłada się także samoistne zacieranie się śladu. Zacieranie jest początkowo szybkie, ale pewna porcja aktywacji pozostaje odporna na zatarcie. Tak więc jednorazowe pobudzenie układu ma silny efekt krótkotrwały, który następnie wygasa, i ostateczny efekt konsolidacji śladu jest niewielki. W wyniku kolejnych powtórzeń, z których każde podlega zacieraniu, kumulują się jednak efekty konsolidacyjne.
Modele PDP próbują też rozwiązać znany dylemat pomiędzy protypicznością pamięci a jej zdolnością do rozpoznawania konkretnych egzemplarzy. Jeśli kolejne pobudzenia wywołane są przez egzemplarze, które różnią się międży sobą, otrzymujemy w efekcie konsolidowanie się tylko tego, co wspólne lub podobne, i wyłoni się z tego prototyp kategorii; jeśli zaś mamy do czynienia z powtarzaniem się specyficznego egzemplarza, to konsolidacji ulega układ aktywacji odpowiadający temu egzemplarzowi. Kiedy różnice między egzemplarzami są niewielkie lub gdy różnic jest wiele, wtedy prototyp daje najsilniejszą reakcję. Kiedy zaś różnic jest niewiele lub gdy są one znacznie odbiegające od prototypu, wtedy najsilniejszą reakcję powodują konkretne egzemplarze.
Ogólnie można powiedzieć, że modele PDP z całym bogactwem ich aparatu formalnego stanowią nowe i obiecujące podejście w badaniach nad przetwarzaniem informacji przez umysł ludzki. W chwili obecnej.modele te są jeszcze ciągle w początkowym etapie swego rozwoju.
Lit(r)ratura zalecana
Lindsay P. H. i Norman D. A. (1984) Procesy przetwarzania informacji u czlowieka. Wprowadzenie do psychologii. Warszawa, PWN.
Włodarski Z. (1989) Psychologia uczenia się. T. I, Warszawa, PWN. Włodarski Z. (red.) (1989) Psychologia uczenia się. T. II, Warszawa, PWN.
1