ROZDZIAL 2
REPREZENTACJE UMYSŁOWE
Reprezentacja poznawcza- umysłowy odpowiednik obiektów realnych, fikcyjnych czy hipotetycznych. Obiektem może być przedmiot, osoba, kategoria, relacja. Reprezentacja poznawcza zastępuje swój obiekt w procesach przetwarzania informacji.
Funkcja - Przedstawienie w obrębie umysłu wszelkich zdarzeń bodźcowych dostępnych zmysłom
Reprezentacje są:
Trwałe - składają się na struktury wiedzy, powstają i zmieniają się w dłuższym cyklu czasowym.
Nietrwałe - powstają doraźnie, np. w celu podjęcia decyzji, później zanikają, Są to np. wyobrażenia, etykiety werbalne, sądy, modele umysłowe
reprezentacja pojęciowa matki z reguły należy do najmniej podatnych na zmiany
Proces tworzenia reprezentacji- odmienne stanowiska
Realizm- Bezpośrednie odwzorowanie bodźca w umyśle
Konstruktywizm- proces tworzenia złożonej konstrukcji umysłowej, polegający na zakodowaniu danych sensorycznych w specjalnym języku w wyniku czego dane zmysłowe zostają przetłumaczone na dane umysłowe
Rodzaje reprezentacji:
- wg A. Paivio do reprezentacji zalicza się m.in. obrazy umysłowe, ślady pamięciowe, słowa (elementy języka), sądy, pojęcia, reprezentacje pojęciowe (prototypy, listy cech) oraz schematy
- Rebena to obrazy umysłowe, słowa i idee ( abstrakcje)
- Eyesenck i Keane najbardziej restrykcyjny podział na:
reprezentacje analogowe-obrazy umysłowe, modele mentalne
reprezentacje w formie sądów/ twierdzeń
Obrazy umysłowe- są najbardziej zbliżone do rzeczywistej formy przedstawionych obiektów np. dom (są okna, drzwi,dach, dach jest na szczycie itd)
Pojęcia abstrakcyjne są natomiast bardzo oddalone od rzeczywistości
Wyobrażenia - jeden z wielu typów reprezentacji umysłowych
- nietrwała struktura poznawcza, zbliżóna do spostrzegania, występuje pod nieobecność wyobrażanego obiektu
- nie muszą przyjmować formy obrazowej
- umysłowe przedstawienie przedmiotu, który przestal dzialać na nasze zmysły (Maruszewski)
- charakteryzują się brakiem trwałości i ścisłym powiązaniem z percepcją
Wyróżniono wyobraźnie:
Twórczą- zdolność do tworzenia nowych wyobrażeń oraz pojęć i innych reprezentacji poznawczych
Odtworczą- odpowiedzialna za tworzenie się wyobrażen obiektów wczesniej spostrzeganych i dobrze znanych
Obraz umysłowy - forma reprezentacji poznawczej świata w umyśle
- ścisła odpowiedniość w stosunku do obiektu (jakby wew. fotografia)
- analogowy charakter
Twierdzenie o wewnętrznej fotografii odrzuca wielu badaczy tłumacząc istnienie wyobrażeń w inny sposób
- umysł generuje wyobrażenie z głębszych struktur wiedzy zapisanych w postaci pojec i twierdzen a nie obrazow
Teoria Kosslyna:
Wyobrażenia składają się z dwoch komponentów:
Powierzchniowego- zawiera to co jest dostępne w doświadczeniach wew.
- jego elementy powstaja w wyniku dzialania elementów głębokich
- świadome i nietrwałe doświadczenia ALE- właściwe wobrażenia
maja charakter trwały i niedostępny świadomemu doświadczaniu
obrazu
- obraz koduje inf. w sposób analogowy i przestrzenny
Głębokiego- obejmuje to co jest zapisane w LTM
Spór o naturę wyobrażeń:
Stanowisko obrazowe- wyobrażenia wzrokowe są kodowane w postaci reprezentacji posiadających zarówno własności przestrzenne jak i zmysłowe. Inf werbalne i wizualne maja różne kody
Stanowisko twierdzeniowe (propozycjonalne)- dane zmysłowe są kodowane w postaci abstrakcyjnych zbiorów twierdzeń czy sądów tak jak inf werbalne
Hipoteza funkcjonalnej ekwiwalencji percepcji i wyobrażni
- Shepard i Chapman- badanie z mapą USA
- Shepard- badanie o podobieństwie cyfr
Badania te SA silnym argumentami na rzecz tezy i funkcjonalnej ekwiwalencji spostrzegania i wyobrażania co zakładał Kosslyn
Rotacje mentalne (argument na rzecz stanowiska obrazowego)
Paradygmat rotacji mentalnej- prezentowane cyfry, litery lub figury geometryczne wzajemnie zrotowane lub jeszcze dodatkowo przekształcone (lustrzane odbicie). Badani odpowiadali na pytanie czy dwa prezentowane bodźce są identyczne
Cooper i Shepard- rotowane litery (G,J,R) lub cyfry (2,5,7) nachylone pod różnmi kątami mogły być też reprezentowane w lustrzanym odbiciu. Badani musieli swierdzić czy symbol jest prezentowany prawidłowo
Shepard i Metzler- na monitorze prezentowano dwie rotowane względem sibie figury trójwymiarowe
Stwierdzono : czas decyzji wzrasta wraz z wielkościa kąta rotacji
Niezależnie od płaszczyzny rotacji
Argumenty potwierdzające, że reprezentacje wyobrażeniowe maja charakter obrazowy:
- liniowa zależność miedzy kątem rotacji obiektu a czasem potrzebnym na podjecie decyzji (niezależnie od: typu zadania- identyfikacja, porównanie; typu rotowanego symbolu- litery, cyfry, symbole wymyślone; formy rotacji-płaszczyzna, przestrzeń
- badani pracowali w różnych warunkach- percepcji i wyobraźni a rezultaty w obu warunkach niewiele się różniły
WYJĄTKI (wyklad)
Kąt 180- nie ma czasami efektu rotacji. Czas RT bardzo krótki- Koriat, Norman, Kimchi
Skaning mentalny (argument za stanowiskiem obrazowym)
Kosslyn- Efekt wielkości obiektu- im mniejszy obiekt tym dłuższy czas RT
- Efekt złożoności- im bardziej skomplikowana struktura obiektu tym RT
dłuższe
- Efekt ziarnistości obrazu- aby podać szczegóły jakiegos obiekty, trzeba go sobie w wyobraźni „powiększyć”
Kosslyn, Ball, Reiser- Efekt odległości- badanie z mapą punktem fiksacji- im większa odległość obiektu od punktu tym RT dłuższe
Wyjątki( wyklad)
Argumenty przeciw stanowisku obrazowemu:
- tożsamość funkcjonalna nie oznacza tożsamości strukturalnej (Edelman)
- efekt rotacji- badania Kariata, Normana i Kimcha wykazuje ograniczenie powszechności tego prawa. Ludzie nie zawsze dokonują rotacji chcąc porównać obiekty
- Marmor i Zaback- badanie osób niewidomych o wykonanie zadania Coopera i Sheparda. Badani wykorzystywali dotyk. Wykazano efekt liniowy między RT a wielkościa kąta
Również badania Indos- Peterson, Raskos- Ewaldson wykazały możliwą zależność modalności zmysłowej formy wyobrażeniowej
- skaning zalezy od oczekiwań badaczy (instrukcja)
- alternatywne wyjaśnienia efektu odległości, wielkości i złożoności (sądy)
Reprezentacje werbalne
Sylogizm werbalny- zadanie wymagające wyciągania wnioskow z przeslanek
Clark- badanie z sylogizmami werbalnymi- im bardziej skomplikowana konstrukcja w stosunku do przesłanek tym czas odpowiedzi jest dłuższy
Paradygmat weryfikacji treści zdań- badanym prezentuje się obazek przedstawiający „+” i „*” w przestrzeni. Jeden symbol jest u góry a drugi na dole. Uczestnikom prezentuje się zdanie np. „plus jest nad gwiazdką” a badani musza swierdzic zgodność zdania z obrazkiem
Clark i Chale - najpierw zdanie potem obrazek
McLeeod, Hunt i Mathews- odwrotnie
Im bardziej skomplikowane logicznie i gramatycznie zdanie, tym czas weryfikacji dłuższy
Sternberg- analizował związek miedzy czasem rozwiązywania sylogizmow a zdolnościami przestrzennymi
Teoria podwójnego kodowania Paivio:
Są dwa systemy reprezentacji rzeczywistości
Niewerbalny (sensoryczny)- 5 podsystemów kodowania danych zmysłowych
- każdy podsystem ma inny język kodowania i odpowiada za inną modalność sensoryczną
- imageny- wszelkie niewerbalne reprezentacje umysłowe, są przetwarzane szybko i równolegle, ponieważ reprezentują struktury holistyczne (całe obiekty, grupy obiektów)
Czyli: imageny zachowują niektóre fizyczne właściwości obiektu np. wielkość
Badanie- kodowanie zależne od wielkości obiektu (zdjęcie)- małe obiekty zapamiętujemy gorzej niż duże
Werbalny (językowy)- trzy rodzaje podsystemów do kodowania inf. przeznaczonych
dla danych nadchodzących kanałem wizualnym, akustycznym,
dotykowym
- logogeny- wszystkie reprezentacje werbalne
- przetwarzanie wolne i szeregowe
- kodowanie niezależne od wielkości obiektu
Oba systemy są powiązane relacjami. Mają charakter referencyjny- reprezentacjom obrazowym odpowiadają werbalne i odwrotnie
Trzy rodzaje procesów
1 . Referencjalne- wzbudzanie reprezentacji werbalnej aktywizue reprezentację niewerbalną i na odwrót
2. Reprezentacyjne- przyporządkowanie poszczególnych obiektów, spostrzeganych w różnych modalnościach zmysłowych do jednego z 5 podsystemów niewerbalnych lub jednego z 3 podsystemów werbalnych
3 . Asocjacyjne- odpowiadają za łączenie się poszczególnych reprezentacji w skojarzone ze sobą grupy
Obraz może zostać zakodowany werbalnie ale to jest mniej prawdopodobne niż kodowanie obrazowe i na odwrót
Paivio, Yuille, Mandigan- wysoka korelacja pomiędzy konkretnością słowa a możliwością jego obrazowej reprezentacji w umyśle
Richardson- wyobraźnia wspomaga zapamiętywanie słów, ale tylko gdy nie są abstrakcyjne
Johnson, Paivio, Clark- definicje dla słów konkretnych są bardziej precyzyjne, dłuższe i wspomagane wyobraźnią niż słowa abstrakcyjne
Efekt przewagi obrazu nad słowem- Paivio i Csapo- kodowanie obrazowe bardziej sprzyja efektywności zapamiętania
Reprezentacje numeryczne
Efekt dystansu numerycznego- Moyer- znacznie łatwiej porównać wartości liczb zdecydowanie różniących się np. 2 i 8 a znacznie trudniej mniej różniących się np. 2 i 4
Campbell- werbalny format liczb zmniejsza efekt dystansu, np. trzy
Hipoteza trzeciego języka/języka myśli- Anderson
- umysł nie gromadzi trwałęj wiedzy ani w postaci obrazów, ani w postaci etykiet werbalnych ale w postaci zbioru sądów(twierdzeń)
- kod twierdzeniowy ma postać abstrakcyjnych, amodalnych twierdzeń opisowych
- sąd- forma reprezentacji umysłowej, wyrażająca relacje pomiędzy obiektami
- rachunek predykatów- logiczny system przetwarzania zdań abstrakcyjnych. Dzięki niemu można przekształcać sądy
Oprócz obrazów, słów i sądów umysł generuje tzw. Modele mentalne- Philips Johson-Laird- są to nietrwałe reprezentacje słowno-obrazowe o dość dużym poziomie odpowiedniości. Powstają na bazie reprezentacji nietrwałych (spostrzeżeń, wyobrażeń) i trwałych (wiedzy)
Stanowisko eklektyczne- dopuszcza możliwość istnienia wielu różnych form kodowania
ROZDZIAL 4
Wiedza - forma trwałej reprezentacji rzeczywistości, mająca postać uporządkowanej i wzajemnie powiązanej struktury informacji, kodowanej w pamięci długotrwałej.
Podział wiedzy (Gilbert Ryle):
- deklaratywna (że) - odnosi się do danych (faktów), kodowanych w pamięci trwałej. Danymi może być wiedza ogólna, epizodyczna, czy autobiograficzna. Jest łatwa do werbalizacji, ponieważ ma wyraźny komponent semantyczny. Nabywana jest dyskretnie poprzez włączenie jakiejś informacji w istniejące struktury wiedzy. Wydobywanie ma charakter wolicjonalny i polega na jej werbalizacji.
- proceduralna (jak) - odnosi się do kodowanych w pamięci trwałej procedur realizacji czynności o charakterze umysłowym i ruchowym. Jest to specyficzna wiedza, potocznie zwana umiejętnościami (zarówno wykonawczymi jak i poznawczymi). Nabywana jest w toku treningu, polegającego na wielokrotnym powtarzaniu czynności. Uruchamiana jest automatycznie w przypadku zainicjowania dobrze nam znanej czynności.
Burnett i Ceci - Wiedza może być wykreowana przez jednostkę dzięki wnioskowaniu, powiązaniu posiadanych wcześniej informacji i myśleniu o tych informacjach w nowy sposób.
Metawiedza - wiedza typu „wiem, że wiem”. Dotyczy ona wiedzy o wiedzy posiadanej przez jednostkę.
Michael Polanyi: Wiedza ukryta („milcząca”) - nie wiemy, że ją posiadamy.
Grafi Schacter - wyróżnienie pamięci jawnej i niejawnej.
Wiedza ukryta - wiedza nabywana długotrwale na drodze praktyki i doświadczenia
Wiedza niejawna - efekt mimowolnego uczeni się. Ujawnia się pomiarze pośrednim.
Kryteria, jakie powinny spełniać wyniki testów na potwierdzenie obecności wiedzy niejawnej:
- kryterium wyłączności - dana metoda ma umożliwiać dotarcie tylko do tej wiedz, która jest wykorzystywana w wykonaniu danego zadania. Odporność na inną, niezwiązaną z zadaniem wiedzą.
- kryterium czujności - test mierzący zakres wiedzy jawnej ma być na tyle wyczerpujący, aby ujawnić pełną informację, której badani są świadomi.
Cleeremans - wiedza jest niejawna, kiedy wpływa na przetwarzani informacji bez uświadomienia jej właściwości. Wiedza ta ma swoją reprezentację w pamięci trwałej, przez co może być z niej wydobywana i wykorzystywana.
Wagner i Sternber - wiedza ukryta - „milcząca”; składnik inteligencji praktycznej. Wiedza ta nie jest bezpośrednio wyrażana, a jej nabywanie odbywa się dzięki indywidualnemu doświadczeniu jednostki. Jest nabywana samodzielnie, ma charakter proceduralny i jest stosowana w praktyce. Jest konkretna i specyficzna dla kontekstu (sic!).
Podstawa rozróżnienia: niepełne uświadomienie zawartości wiedzy niejawnej - wiedza jawna jest dostępna i świadoma.
Reber - podstawowym sposobem nabywania wiedzy niejawnej jest mimowolne uczenie się (proces bez udziału świadomych strategii uczenia się i bez zamiaru nabycia wiedzy, bezwysiłkowy).
Paradygmaty badań nad mimowolnym uczeniem się i nabywaniem wiedzy niejawnej:
- uczenie się sztucznej gramatyki
- wyuczenie się sekwencji zdarzeń
- kontrola systemów dynamicznych
Możliwość jawnego wydobycia wiedzy niejawnej występuje tylko wtedy, gdy poziom tej wiedzy jest dość wysoki.
Organizacja wiedzy
Reprezentacja wiedzy za pomocą cech
Cecha - symboliczny i dyskretny (tj. nieciągły i nieanalogowy) element umysłowej reprezentacji wiedzy o wyraźnie określonych granicach.
Zarówno cechy, jak i relacje muszą działać jednocześnie, aby powstało znaczenie.
Definiowanie znaczenia słów:
Clark - definiowanie wymaga zbioru cech unikalnych dla konkretnego pojęcia, stworzonego za pomocą mechanizmu nawarstwiania się cech. Hipoteza cechu semantycznej wyjaśnia ten mechanizm: cechy pochodzą zestawu cech pierwotnych i są łączone w znaczenia w taki sposób, aby było ono zgodne z przyjętym użyciem słowa oraz aby dwa różne słowa nie miały identycznego znaczenia.
Porównywanie znaczeń słów:
Smith - dwa rodzaje cech w reprezentacji znaczenia:
- rdzenne - składają się na rożsamosć obiektu; cechy definicyjne
- charakterystyczne - typowe dla obiektu.
Model dwufazowego porównywania cech:
I faza - porównywanie zarówno cech rdzennych, jak i charakterystycznych
II faza - porównywania wyłącznie cech rdzennych
Tversky - podobieństwo znaczeń jest tym większe, im więcej para znaczeń posiada cech wspólnych i im mniej dystynktywnych.
Organizacja wiedzy semantycznej
Endel Tulving - pamięć semantyczna - „umysłowy słownika”, zorganizowana wiedza o symbolach werbalnych, ich znaczeniu i odniesieniach oraz relacjach między nimi. Zapis wiedzy ogólnej.
Teoria wiedzy semantycznej - kodowaniu podlega treść pojęć języka, czyli ich struktura głęboka, a nie powierzchowna (forma informacji werbalnej).
Collins i Quillian - Wiedza zawarta w pamięci semantycznej ma postać sieci, w której węzłom odpowiadają pojęcia, a połączeniom między nimi - ich wzajemne relacje. Sieć jest zorganizowana hierarchicznie - pojęci bardziej ogólne znajdują się wyżej w hierarchii. Odległość pojęć w sieci jest w ściśle związana z podobieństwem ich znaczenia. Pojęci o wyższym stopniu podobieństwa są reprezentowane przez węzły znajdują się blisko w sieci.
Model zakłada dwa rodzaje relacji między pojęciami:
- relacja przynależności do klasy - relacje obejmują pojęcia z dwóch różnych poziomów hierarchii sieci.
- relacja predykatywna - pełni funkcję orzeczenia, zawiera wiedzę o właściwościach obiektu. Jest kodowana na możliwie najwyższym poziomie ogólności.
Collins i Loftus - podstawowy czynnik decydujący o połączeniach między elementami wiedzy uznali związek skojarzeniowy - bardziej typowe obiekty są szybciej identyfikowane. Struktura wiedzy ma postać sieci, w której węzłom odpowiadają pojęcia, podczas gdy ich etykiety werbalne są reprezentowane w postaci wewnętrznego leksykonu. Im pojęcie jest bogatsze semantycznie, tym więcej połączeń między węzłami, a co za tym idzie tym większa siła skojarzeniowa danego związku.
Proces przywoływania wiedzy odbywa się dzięki rozprzestrzeniającej się aktywacji.
Organizacja wiedzy proceduralnej
Systemy reguł - wiedza jest poznawczo reprezentowana za pomocą zestawu reguł. Reprezentacja tego typu pozwala na tworzenia procedur działania.
Reguła - składa się z warunku wyznaczającego zbiór właściwości, które muszą być spełnione, aby uruchomić daną czynność i samej czynności, czyli zbioru produkcji.
Zasada specyficzności reguł - prymat ma reguła bardziej wyspecjalizowana.
Zasada niepowtarzalności reguł - w procesie korzystania z wiedzy proceduralnej może mieć udział specyficzny bufor pamięci, który zawiera pewien zbiór reguł, które zostały użyte w trakcie bieżącego zadania.
Organizacja wiedzy modelach ACT, ACT* i ACT-R
John Anderson
Wiedza może mieć postać sądów, ale również obrazów, a nawet następstwa czasowego.
Wiedza deklaratywna - reprezentowana jest w postaci węzłów (jednostek informacji) i relacji między nimi (powiązania miedzy jednostkami). Połączenia między węzłami charakteryzują się określoną silą związku skojarzeniowego. Aktywacja może być wywołana albo dzięki zewnętrznym bodźcom, albo dzięki przywołaniu informacji z pamięci. Elementy często przywoływane są bardziej aktywne. Aktywacja jest limitowana pojemność pamięci roboczej i czasem. Zatem o charakterze przetwarzania decyduje struktura oraz sprawność mechanizmu aktywacji.
Wiedza proceduralna - reprezentowana w postaci reguł aplikowanych w celu przetwarzania wiedzy deklaratywnej, oraz w postaci informacji zawartych w buforach wyspecjalizowanych modułów (wzrokowego, słuchowego i motorycznego)
Efekt wachlarza - połączenia odchodzące od każdego z węzłów sieci przypominają wachlarz. Na tym efekcie oparto wyjaśnienie interferencji, kiedy to jedna z konkurencyjnych informacji pozostaje niedostępna.
Nabywanie wiedzy
Kodowanie informacji - odbywa się w każdym magazynie pamięciowym.
Zapamiętywanie - dotyczy pamięci krótkotrwałej i długotrwałej.
Nabywanie wiedzy - pamięć długotrwała.
Nabywanie wiedzy semantycznej
Collins, Loftus - nabywanie wiedzy polega na tworzeniu nowych węzłów oraz łączeni zarówno nowych, jak i istniejących za pomocą nowych połączeń. Nowy węzeł zostaje wbudowany w strukturę sieci poprzez powiązanie go z innymi węzłami.
Anderson - jednostki wiedzy są tworzone dzięki regułom produkcji, aplikowanym do informacji pochodzącej ze środowiska. Wiedza proceduralna służy do budowania trwałych reprezentacji wiedzy deklaratywnej.
Nabywanie wiedzy proceduralnej
Anderson - proceduralizacja - przekształcanie jawnej wiedzy deklaratywnej w niejawne procedury działania. Zachodzi w trzech etapach:
Etap deklaratywny - jednostka otrzymuje zestaw instrukcji o określonej umiejętności i sposobie jej nabywania. Tworzone są procedury działania.
Etap kompilacyjny - polega na ćwiczeniu reguł dostarczonych i wygenerowanych dzięki procedurom interpretacji. Jest wysiłkowy i podlega świadomej kontroli. Prowadzi do zwiększenia tempa wykonywanie czynności, wyeliminowania pośrednictwa wiedzy deklaratywnej, a co za tym idzie konieczności werbalizacji oraz połączenia wielu kroków w jedną, autonomiczną procedurę.
Kompozycja - łączenie dwóch lub więcej procedur w jedną.
Automatyzacja - skomponowane w większe całości procedury w coraz mniejszym stopniu obciążają pamięć roboczą. Wyeliminowanie udziału wiedzy deklaratywnej.
Etap proceduralny - automatyczny i niemal bezwysiłkowy.
Proceduralizacji wiedzy towarzyszy:
- generalizacja - uogólnianie nabywanej wiedzy proceduralnej na szerszą klasę sytuacji.
- różnicowanie - odróżnianie warunków uruchomienia różnych procedur.
Nabywanie wiedzy niejawnej
Reber - wiedza niejawna nabywana jest na drodze uczenia się mimowolnego, rozumianego jako proces poznawczy, w wyniku którego jednostka nabywa wiedzę nie jawną niezależnie od świadomych intencji.
Nabywanie wiedze odbywa się niezależnie od świadomej kontroli albo bez udziału wiedzy werbalnej o wszystkich nabywanych regułach.
Sternberg
- transformacja jawnej wiedzy o procedurach w „milczącą” wiedzę proceduralną; wiąże się z pamięcią semantyczną
- niejawne uczenie się reguł proceduralnych na podstawie osobistych doświadczeń; wiąże się z pamięcią epizodyczną
Wiedza ekspercka
- ekspert posiada bardzo obszerną wiedzę, ale jest ona ograniczona do pewnej dziedziny.
Właściwości wiedzy eksperckiej:
- organizacja - wiedza jest uporządkowana na wielu poziomach: od poziomu elementarnych składników po wyabstrahowane struktury wyższego rzędu.
/struktura wydobycia - powiązanie napływającej informacji z zestawem wskazówek/
- proceduralizacja - wysoka sprawność wykonywania procedur przy utrzymaniu zdolności ich werbalizacji
- schematy rozwiązywania problemów - zawierają abstrakcyjną wiedze pozbawioną kontekstu, w którym została ona pozyskana. Łatwo podlegają transferowi pomiędzy różnymi kontekstami.
/efekt eksperta - polega na większej sztywności ekspertów w rozwiązywaniu nierutynowych problemów/
Nabywanie wiedzy eksperckiej
Glaser:
- etap wsparcia zewnętrznego - nowicjusz otrzymuje wsparcie od osób posiadających wiedzę
- etap przejściowy - rozwijanie umiejętności monitorowania i regulacji własnych czynności oraz identyfikowanie kryteriów coraz wyższego poziomy wykonywania zadania.
- etap samoregulacji - pełna kontrola nad nabywaniem wiedzy i wykonywaniem zadań.
Schaumacher i Czerwiński:
- faza przedteoretyczna - wydobywanie przykładów z pamięci opartych na powierzchownym podobieństwie cech danej sytuacji
- faza doświadczeniowa - odkrywanie związków przyczynowych obowiązujących w systemie. Nabywanie wiedzy eksperckiej.
- faza ekspercka - dokonywanie abstrakcji na najwyższym poziomie, możliwość transferu wiedzy.
ROZDZIAL 5
UWAGA
-powiązana ze świadomością
-selektywna( selekcja dotyczy spostrzegania i wyższych procesów poznawczych, myślenia)
-pozwala na koncentracje na ważnych sygnałach
-konieczna do przystosowania się organizmu do środowiska.
Funkcje uwagi:
Selekcja źródła informacji
Wybór sygnału spośród szumów, ignorowanie dystraktorów.
przeszukiwanie pola percepcyjnego ( przez kodowanie cech i selektywna integracja właściwości poszukiwanego obiektu w postać.
Przeszukiwanie:
-proste( 1 cecha), równoległe
-koniungcyjne( np. ruch i kolor), dłuższe i szeregowe(Treisman, Gelade)
>cechy priorytetowe( przetwarzane jako pierwsze )np. ruch, kolor, głębia
ale!!cecha niepriorytetowa może przyciągać takim samym stopniu jak priorytetowa!
przedłużona koncentracja- dłuższe monitorowanie otoczenia(czujność)
paradygmat zegara gdzie notuje się nieuchronny spadek koncentracji-energii
( Mackworth)
Podzielność uwagi
Przerzutność -przełączenie się między obsługiwanymi niezależnie procesami przetwarzania info.
*paradygmat słuchania dychotycznego( cocktail party problem, Cherry)
*technika podążania(shadoving) wykorzystywana w badaniach Broadbenta Treisman i Moray'a
>koszty poznawcze w postaci dłuższego czasu wykonania, przy zahamowywaniu jednego procesu a uruchamianiu alternatywnego.
*paradygmat przełączania( task switching)-efekt podłogowy????do sprawdzenia
Teorie
Filtr uwagi
Redukcja informacji docierających do systemu odbywa się na wejściu sensorycznym, poprzez zablokowanie wszystkich źródeł info-prócz jednego
!to czego filtr nie zaakceptuje ulega degradacji zależy od modalności zmysłowej(wzrok, słuch itp.)
-->przejście przez filtr oznacza dalsze przetwarzanie info na głębszym poziomie-semantycznym a w rezultacie daje świadome doznanie
Koncepcja ta doczekała się różnych odmian:
~Broadbent Y
Wyróżnił dwa kanały doprowadzające info( sensoryczne) i jeden dalszy kanał semantyczny. Uwaga przełącza się pomiędzy dwoma kanałami na wejściu selekcjonując info pod względem właściwości fizycznych: intensywność, kolejność sekwencji bodźców)
*zasada ,,wszystko albo nic” komunikat nieprzetwarzalny ulega zapomnieniu(pozostaje po nim jedynie ślad fizyczny np. rozpoznanie płci spikera w kanale ignorowanym(słuchanie dychotyczne) ale nierozpoznanie treści.
Krytyka: wiele wskazuje na to, że decyzje o zaakceptowaniu info przez filtr podejmowane są na podstawie znaczenia sygnału
=>wybór filtra sensoryczny/semantyczny zależy od dostępności czasu( Gray, Wadderburn, prezentowanie ciągów cyfr i sylab naprzemiennie. Odpamiętywane są osobno: litery,liczby)
~ Treisman
uwaga przełączana jest z jednego kanału sensorycznego na drugi aby śledzić treść komunikatu. Filtr skleja info z kanału ważnego i ignorowanego, gdy taki zlep ma sens.
>związki iluzoryczne: połączenie wbrew instrukcji 2 odrębnych elementów sensorycznych różnych źródeł sensorycznych (zbitek dwóch słów)
=>filtr uwagi otwierany jest od środka przez informacje, które przedostały się przez filtr, są przetwarzane semantycznie wzmacniają dane próbujące się tam przedostać
propozycja Treisman została nazwana modelem ,,osłabiacza” gdyż info niepowiązane z wcześniej przetworzonymi są słabiej obrabiane.
~ Broadbent & Gregory
proponują koncepcje dwóch filtrów( model poprawiony): sensorycznego sensorycznego semantycznego
~ Deutsch & Deutsch
według ich koncepcji decyzja o wzmocnieniu/osłabieniu sygnału jest podejmowana dopiero po przekroczeniu prze info progu świadomości- do tego momentu bodźce przetwarzane są jednakowo głęboko. Zasada koniecznej świadomości została jednak szybko odrzucona
!!spory pomiędzy modelami wczesnej i później selekcji.
~ Johnson
zaproponował istnienie jednego filtra, ale zmieniającego charakter w zależności od poziomu przetwarzania-elastyczność
=>im wyższy poziom przetwarzania tym większa pojemność filtra
=>możliwość działania zasady przetargu między szybkością a poprawnością
Filtr na poziomie sensorycznym działa wraz z zasadą wszystko albo nic. Na poziomie semantycznym wraz z zasadą osłabiacza a na najgłębszym poziomie (odniesienie do ,,ja”)z zasadą koniecznej świadomości i zasady przetargu.
Ograniczenia: analiza i selekcja dalej odbywa się tylko w jednym kanale przetwarzania.
Teorie przeszukiwania pola percepcyjnego:
~ Treisman i teoria ,,integracji cech” sygnały docierają do ,,map lokacyjnych”(kodują sygnał w mapach cech: kolor, kształt itp.) wykrywają one własności bodźców wykrywają czy atrybut jest obecny w obiekcie w polu wzrokowym
według koncepcji zadaniem uwagi jest:
-wybór właściwych map lokacyjnych co prowadzi do selekcji właściwych map cech następuje integracja zakodowanych wcześniej cech rozpoznanie obiektu
selekcja= aktywacja poszczególnych cech i ich integracja w obiekt
>proces przeszukiwania pola percepcyjnego ma charakter szeregowy( gdy mamy do czynienia z koniunkcjami cech
>ma charakter równoległy, gdy występują cechy proste
krytyka teori Triesman
=>im trudniejsze odróżnienie sygnału spośród szumów/dystraktorów tym większe prawdopodobieństwo wystąpienia procesu szeregowego!!
=> to czy proces będzie szeregowy/równoległy zależy od podobieństwa sygnału do dystraktora, a nie liczby integrowanych cech. ( Bergen, Juliusz)( Duncan), potwierdzone w badaniach Słabosz i Szymury.
=>bodźce poruszające się wraz z sygnałem wywołują większą interferencję niż dystraktory statyczne
=> w przypadku cech priorytetowych możliwe jest szybkie przetwarzanie bodźcazachodzi we wczesnej fazie selekcji(przeduwagowej)tylko wtedy, gdy cecha rzeczywiście wyróżnia obiekt w polu wzrokowym( przyjmuje wartości dystynktywne).
~Treisman (zmodyfikowana wersja)
właściwości priorytetowe są kodowane szybciej w odpowiednich mapach cech.
Model,, dwufazowy” równoległej i szeregowej integracji cech:
-proces odgórny, aktywizacja właściwych map cech,
-oddolny, automatyczna dezaktywacja pozostałych cech
!!model akceptowany do dziś!!
~Theeuwes
model uwagi podążającej za najbardziej znaczącą( dystynktywną) prezentacją stymulacji
Najpierw polu uwagi wyodrębniamy element o najwyrazistrzych cechach
Teorie przedłużonej koncentracji
Skupianie uwagi przez dłuższy czas powoduje spadek czujności( obniżenie poprawności, rejestruje się dłuższy czas wykonania zadania)
~ teoria detekcji sygnałów( Green, Swets)
model odróżniania sygnału od szumu. Idealny obserwator zauważy każdy sygnał( reakcja -trafienie) i zawsze zignoruje szum/dystraktory( prawidłowe odrzucenie. Możliwe jest jednak popełnienie błędów:
- FA zareagowanie na szum/dystraktory
-OM zignorowanie sygnału
Obserwator przy rozwiązywaniu może podejmować różne strategie to znaczy skłaniać się ku FA lub OM np. wtedy gdy konsekwencje popełnienia błędów FA są mniejsze niż OM.
Każdy ustala sobie kryterium decyzyjne= próg reaktywności
Im wyższy próg tym maleje prawdopodobieństwo FA ale rośnie OM
=>z upływem czasu obserwuje się jednak po prostu generalny wzrost liczby błędów.
Idealny obserwator ma niższe kryterium decyzyjne dla bodźców prawdopodobnych niż dal tych mniej prawdopodobnych!!!
*eksp Baddeley'a -nieadekwatne oczekiwania co do prawdopodobieństwa wystąpienia sygnału są przyczyną spadku czujności.
=>Baker , zależność między subiektywnym prawdopodobieństwem pojawienia się sygnału a wielkością przedziału czasowego jest krzywoliniowa -odwrócone,,U”
trening przedłuża koncentrację
spadek czujności występuje w wyniku zmniejszenia się wrażliwości na bodziec przy dłuższej jego ekspozycji w czasie
*Poziom wykonania zadania zależy od aktualnego stanu energetycznego organizmu( prawo Jerkesa-Dodsona , odwrócone,, U”
>introwertycy łatwiej radzą sobie monotonnych i łatwych zadaniach na czujność uwagi
>ekstrawertycy łatwiej natomiast w zadaniach złożonych i stymulujących.
=>hipoteza zmieniającej się aktywacji Daviesa i Parasuramana
Teorie podzielności
Badania prowadzone w paradygmacie słuchania dychotycznego
>Bernstein i badania nad dwiema czynnościami wykonywanymi niezależnie, przy braku ponoszenia kosztów poznawczych( widzenie i słuchanie)potwierdziły jej założenia. Okazało się ponadto, że gdy obie modalności dotyczą tego samego zadania info słuchowe skraca czas reakcji na jednocześnie prezentowany bodziec wzrokowy.
=> Duncan- koncepcja uwagi ,,ukierunkowanej na obiekt”. Oznacza to iż podzielność uwagi w zakresie jednego zadania lub obiektu jest możliwa bez ponoszenia dodatkowych kosztó( błędów, wydłużonego czasu reakcji)
=>Allport i współpracownicy ,,multikanałowa koncepcja selektywnej uwagi”
według nich uwaga funkcjonuje jako zestaw niezależnych kanałów zawierających własne filtry( są to mechanizmy zdolne do niezależnej selekcji)
-wersja poprawiona:
niezależność kanałów selekcyjnych zależy od tego czy dwa konkurencyjne zadania wymagają różnych receptorów, reprezentacji umysłowych i efektorów.
*uwaga może działać jak zbiór niezależnych modułów to, który z nich zostaje użyty jest zdefiniowane na wejściu
moduł- każdy ma wyspecjalizowany podsystem własnymi zasobami, dlatego możliwe jest przetwarzanie równoległe. Są one jednak ograniczone to znaczy, że tylko jeden może przetwarzać info słuchową, tylko jeden info wzrokową itp.
ograniczenia zatem wynikają nie z istnienia jednego filtra lecz z limitowanej dostępnośći modułów.
~Kahneman teoria zasobów
uwagamoże działać tylko przy szeregowym jednokanałowym przetwarzaniu. Jeśli dochodzi do przetwarzania wielokanałowego to muszą pojawić się koszty jednoczesności(zakłócenia przebiegu jednoczesnych procesów selekcji, analizy info) ( str 213, graficzny model-warto zerknąć).
=>każdy system poznawczy ma ograniczoną pulę zasobów- energię mentalną. Są one przydzielane różnym procesom( alokacja zasobów). Zajmuje się tym ,,nadrzędny mechanizm selekcjonujący” jest on centralnym dyspozytorem energii( Nęcka, Szymura)!!
Dlaczego powstają koszty??:
Interferencja strukturalna( Allport) czy interferencja zasobowa( Kahneman) trudne do rozstrzygnięcia!!
Uwaga jest konsruktem jednorodnym!
Stanowisko pośrednie między koncepcjami parcjalistycznymi a holistycznymi prezentują m.in. Hirst Hist. Kalmaruwaga może funkcjonować jako zestaw do pewnego stopnia niezależnych zasobów specyficznych. Jeśli wymagania ze strony jednocześnie realizowanych różnych procesów nie przekraczają możliwości systemu do przydzielenia tych zasobów to uwaga funkcjonuje jako system niezależnych podsystemów zasobowych.
=>Nęcka i Szymura,( DIVA) ich badania wskazują na to, że uwaga jest mechanizmem jednorodnym. W zadaniach trudnych system zaostrza politykę przydzielania zasobów, przy zadaniach łatwych poszczególne składniki systemu uzyskują częściową autonomię!
Teorie przerzutności
*hipoteza przełącznika( Nęcka) przy zadaniach wykonywanych jednocześnie filtr przełącza się między dwoma zadaniami( naprzemiennie jedno jest analizowane a drugie ignorowane). Jeśli dokonuje się to dostatecznie szybko, koszty ograniczają się jedynie do czasu. Jeśli przełączanie się jest zbyt wolne lub rzadkie, pojawiają się koszty poprawności( FA, OM)
~ Rogers & Monsell w przełączaniu biorą udział dwa procesy:
-odgórne: wzbudzane wewnętrznie, przygotowują odpowiednie operacje umysłowe, przygotowawcze, działają proakywnie- uruchamiane jeszcze przed bodźcem, mają charakter kontrolny
- oddolne: wzbudzane zewnętrznie, działają reaktywnie jako odpowiedź systemu na zaistniałą sytuację, dokańczają rozpoczęty proces, charakter automatyczny.
*zestaw zadaniowy- kieruje procesem od skupiania uwagi do odpowiedzi motorycznej. Jest to rodzaj modułu funkcjonalnego przechowywanego w pamięci.
* RSI( response-stimulus interval)- przerwa między zadaniami konieczna do zredukowania kosztów przerzutności.
jeśli za powstawanie kosztów miałyby odpowiadać jedynie procesy kontrolne to powinny one ulec całkowitej redukcji na skutek podania wskazówki wyprzedzającej lub wystarczająco długiej( RSI) w rzeczywistości redukcja kosztów nigdy nie jest zupełna, może być jedynie minimalizowana.--> oznacza to że w generowaniu kosztów przełączania się biorą udział również procesy automatyczne( wzbudzane oddolnie przez stymulację zewnętrzną).
>takim przykładem działania procesów automatycznych jest efekt ,,poprzedzania pozytywnego”szybsze przetwarzanie w kolejnym zadaniu z serii tej samej stymulacji co w poprzednim zadaniu lub podobnej.
> za powstawanie kosztów odpowiedzialna jest interferencja proaktywna: przy nowym zadaniu utrzymująca się aktywacja z poprzedniego zadania utrudnia wzbudzenie nowej. Aby ją zredukować potrzebna jest odpowiednio długa przerwa między zadaniami
> badania Allporta:
koszty przerzutności wiążą się z wykonywaniem wcześniejszego zadania nie zadania nadchodzącego
badanie Śmigasiewicz, Szymury i Słabosz nie potwierdziły tej tezy(str 220).wielkość kosztów przerzutności zależy od poziomu trudności zadania.
*koszty rezydualne -koszty ujawniające się mimo wszystko, ale nie podlegające redukcji. Źródłem takich kosztów mogą być:
>źródłem kosztów rezydualnych może być mechanizm inhibicji(odrzucenie) gdyżprzejście do kolejnego zdania z serii wymaga uruchomienia dwóch procesów:
-wzbudzeniu aktywacji nowego zestawu zadaniowego
-zahamowaniu aktywacji zestawu już nieprzydatnego.
Mayr i Keele wykazali, aktywacja modułu potrzebnego do realizacji zadani wcześniej odłączonego trwa dłużej (ABA) niż aktywacja nowego modułu(ABC) - analogia do zjawiska poprzedzania negatywnego.
UWAGA, PERCEPCJA, NIEŚWIADOMOŚĆ
* procesy przeduwagowe dotyczą obróbki info na wczesnych etapach( uwaga jest tu obecna)
!!obecnie uważa się że uwaga selekcjonuje info nawet gdy jej treść nie przedostaje się do świadomości
> kryterium świadomego przetwarzania(Velmans) :
zdawanie sobie sprawy przebiegu procesu poznawczego i dysponowanie wiedzą o rezultatach tego procesu. Świadomość procesu ma ponadto wpływ na jego przebieg
> Baar jest zdania że proces nieświadomy to taki gdzie nie wyzwala się subiektywne doświadczenie, nie jest możliwe jego zrelacjonowanie ale ujawniają się skutki jego działania.
* bodziec podprogowy: jest na tyle silny, iż pobudza org sensorycznie, ale zbyt słaby by go świadomie zauważyć. Działa powyżej absolutnego progu percepcji, ale poniżej progu świadomości.
>Mendelson i anagramy:
efekt nieuświadomionej podpowiedzi np. słowo zapamiętane w uprzednim zadaniu eksperymentu pomaga rozwiązać zadanie z anagramami. Wielkość efektu zalezy od modalności zmysłowej( większy przy modalności wizualnej)
* bodźce peryferyczne: bodźce znajdujące się na peryferiach uwagi, przetwarzane są słabo, na płytkim poziomie, mało analizowane semantycznie.
W zauważeniu bodźca peryferycznego pomagają cechy priorytetowe( kolor ruch)jeśli są dystynktywne(str 223)
>Dallas i Merikle
reakcja na słowo kanale ważnym( samochód) może być przyspieszona gdy w kanale ignorowanym pojawi się słowo semantycznie związane( kierowca). Czas reakcji wydłuża się natomiast gdy w kanale ignorowanym pojawi się synonim słowa( auto).
Poprzedzanie:
Bodziec wcześniejszy( pryma)wpływa na przetwarzanie bodźca docelowego!
Paradygmat*
>poprzedzanie repetytywne: krótka prezentacja tego samego bodźca przed tym jak ma on być za chwilę rozpoznany
> poprzedzanie semantyczne: pryma nie jest identyczna z bodźcem docelowym, ale jest z nim semantycznie związana( np., bibliotekaksięgozbiór)
>*gdy bodziec prymujący ułatwia przetworzenie b.docelowegopoprzedzanie pozytywne
>poprzedzanie podprogowe(sublimalne):pryma działa w bardzo krótkim czasie-badany jej nie zauważa, ale obserwujemy zmianę w przetwarzaniu bodźca docelowego(!efekt ten można uzyskać również przez prezentacje bodźca o bardzo małej intensywności)
>poprzedzanie peryferyczne: bodziec poprzedzający jest wystarczająco intensywny, trwa długo ale osoba jest nieświadoma jego oddziaływania.
>poprzedzanie afektywne: przed bodźcem właściwym prezentowany jest bodziec o zabarwieniu emocjonalnym-bodziec docelowy jest przez to inaczej interpretowany
>poprzedzanie sekwencyjne:
pryma maskabodziec docelowyreakcja
*paradygmat prymowania niesekwencyjnego( str. 226)
ROZDZIAL 6
KONTROLA POZNAWCZA (ROZDZIAŁ 6)
Kontrola poznawcza- zdolność systemu poznawczego do nadzorowania i regulowania własnych procesów poznawczych, poznawczych także do planowanego sterowania ich przebiegiem.
Trzy postaci kontroli poznawczej (Chuderski):
- monitorowanie
- regulacja
- sterowanie
Automatyzacja- nabywanie wprawy na skutek treningu
→ trening jednorodny- ta sama reakcja jest odpowiedzią na ten sam układ bodźców
→ trening niejednorodny- ten sam typ reakcji przy częstej zmianie bodźców
czynności automatyczne są szybkie, bezwysiłkowe, pozbawione kosztów poznawczych; realizowane bez namysłu i poza kontrolą świadomości; balistyczne (rozpoczęta czynność musi zostać ukończona)
Procesy nieautomatyczne dzięki nabywaniu wprawy mogą stać się procesami zautomatyzowanymi (wtórnie automatyczne)- takie procesy są poza kontrolą świadomości, zmniejszają wysiłek umysłowy, są intencjonalne oraz celowe
• przeciwieństwem są procesy pierwotnie automatyczne, które są bezwysiłkowe, poza kontrolą świadomości, nieintencjonalne
↑ procesy słabo i silnie automatyczne
Schneider i Shriffin teoria kontinuum (efekt nabywania wprawy przesuwa się od bieguna kontroli w stronę automatyzmu)
- model procesów automatycznych i kontrolowanych
→ system poznawczy podzielony na dwie ścieżki
• pierwsza wymaga kontroli ze strony uwagi, pojawia się w przypadku pojawienie się
nowych bodźców i braku strategii postępowania
• druga jest związana z automatyczną detekcją układu bodźców, jest poza kontrolą, czynności zapisane są w pamięci długotrwałej, są niemodyfikowalne
Schneider i Shriffin podzieli procesy kontrolowane na dwa rodzaje
- procesy jawne (dostępne świadomości)
intencjonalne przeszukiwanie świadomości
• niewydajne, wolne
- procesy zawoalowane (niedostępne świadomości)
porównywanie elementów w pamięci świeżej
• szybkie, możliwe zmiany na skutek instrukcji werbalnych lub nabywania wprawy
Procesy automatyczne są nieświadome i jednorodne, wymagają jedynie minimalnej ilości zasobów (wysiłku mentalnego)
Różnica w zakresie stopnia automatyzacji
- warunek spójny
- warunek niespójny (szybka identyfikacja)
Proces automatyzacji wymaga długiego treningu, procesy kontrolowane mogą stać się automatycznymi
Interakcje procesów automatycznych i kontrolowanych nie musi wyzwalać efektów interferencji
Możliwy jest transfer wprawy w zakresie zautomatyzowania czynności z jednego zestawu bodźców na drugi
Możliwość kontroli procesów automatycznych- modyfikacja w takcie ich przebiegu (Logan, Tzelgov) np. przerwanie pisania na maszynie, kiedy się popełni bład
Paradygmat SYGNAŁU STOP
Pisanie na maszynie z presją czasową, w nieprzewidzianym momencie zaprzestanie czynności
- zgodnie z teorią egzemplarzy badani tym szybciej zahamują czynność im krótszy będzie interwał czasowy pomiędzy bodźcem wzbudzającym a bodźcem stop. Możliwe jest także powstrzymanie czynności przy dużych interwałach czasowych.
Paradygmat EFEKTU STROOPA
Istotą efektu jest utrudnienie w przetwarzaniu bodźców niespójnych w porównaniu z bodźcami spójnymi
- zahamowanie dobrze wyuczonej czynności i zastąpienie jej inną niewyuczoną
- efekt interferencji
Osoby badane czytają słowa spójne lub niespójne albo nazywają kolor atramentu użyty do napisania słów spójnych lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie kolorów, ponieważ jest czynnością silnie zautomatyzowaną. Jeśli chodzi o nazywanie kolorów czynność ta jest zwykle znacznie dłuższa w przypadku słów niespójnych w porównaniu ze spójnymi.
Procesy automatyczne nie są całkowicie balistyczne
siła automatyzmu zależy od proporcji bodźców
np. można zredukować efekt Stroopa zmniejszając liczbę kolorów
Modyfikacje zadania Stroopa:
Stroop emocjonalny - nazywanie koloru jakim napisano słowo kojarzące się z lękiem albo rzeczami lub sytuacjami o negatywnym zabarwieniu emocjonalnym
Stroop rozproszony - nazywanie koloru obiektu występującego w towarzystwie wyrazu oznaczającego zupełnie inny kolor
Stroop figuralny - nazywanie figury stanowiącej tworzywo, a ignorowanie figury głównej, osoby badane widzą figurę zbudowaną z innych figur
Stroop kierunkowy - badani mają za zadanie reagować za pomocą odpowiedniego klawisza kursora klawiatury na strzałkę pokazującą kierunek przeciwny niż klawisz
Teoria rywalizacji egzemplarzy (Logan) <teoria przypadków>
uwzględnia możliwość kontroli procesów automatycznych, które mają właściwości:
- są autonomiczne (uruchamiane i wykonywane nieintencjonalnie)
• detekcja bodźca powoduje przywołanie informacji deklaratywnych i proceduralnych
- można je wykorzystywać intencjonalnie (kontrola do momentu uruchomienia reakcji
motorycznych)
- dostępność do pamięci długotrwałej
- brak introspekcyjnej świadomości przebiegu
- bezwysiłkowość
Najważniejszym konstruktem tej teorii jest pojęcie egzemplarza- reprezentacja bodźca (S) i sposobu reakcji (R).
Egzemplarz przechowywany jest w postaci wiedzy trwałej
Pojawienie się bodźca może spowodować jeden z dwóch sposobów przetwarzania informacji
- zastosowanie ogólnego algorytmu (automatyczna procedura)
- znanego z przeszłości sposobu poradzenia sobie z bodźcem (kontrolowane przetwarzanie)
Egzemplarze podlegają procesowi nabywania
→ pojawienie się bodźca powoduje zapis w pamięci
→ odmienne pojawienie się tego samego bodźca powoduje ukształtowanie się odrębnej
reprezentacji egzemplarzowej
→ gromadzenie egzemplarzy jest tożsame z nabywaniem wprawy
→ początkowe efekty gromadzenia egzemplarzy gwałtownie skraca czas reagowania, dalsze
ćwiczenia skracają go w coraz mniejszym stopniu
Nabywanie wprawy jest związane z wtórna automatyzacją
Automatyzmy związane są z dostępnością egzemplarzy
Dzięki automatyzacji uwalniane są zasoby systemu, które można przeznaczyć na wykonywanie innych zadań, co przyspiesza i większa poprawność reagowania, redukuje efekt przetargu między poprawnością a szybkością
Efekt przetargu między szybkością a poprawnością
z presją czasową
im płytszy poziom analizy bodźców tym szybszy i mniej poprawny proces selekcji informacji, na głębokich poziomach przetwarzania informacji analizy selekcyjne są znacznie bardziej złożone, wymagają więcej czasu, ale w konsekwencji są bardziej poprawne
zwiększona szybkość powoduje wzrost błędów, jednakże efekt ten ulega sukcesywnemu zmniejszaniu w każdej kolejnej próbie tego samego testu, najbardziej istotne różnice na początku (Szymura, Słabosz)
Negatywne konsekwencje automatyzacji- deproceduralizacja
Trzy stadia nabywania automatyzacji
- poznawcze (zrozumienie i przyswojenie instrukcji)
- asocjacyjne (proceduralizacja sposobu wykonania czynności)
- autonomiczne (uzyskanie statusu autonomicznego, przebieg bezwysiłkowy)
Innym negatywnym zjawiskiem jest transfer negatywny - dobrze wyuczona czynność utrudnia wykonanie czynności podobnej, ale nie tożsamej z poprzednio wyuczoną
• Hamowanie
Hamowanie jest mechanizmem kontrolnym polegającym na, z jednej strony, utrudnieniu dostępu do informacji nieistotnych, a z drugiej, na powstrzymaniu niepożądanej w danym momencie aktywności neuronalnej, mentalnej lub behawioralnej.
Podstawowym zadaniem hamowanie jest blokowanie pobudek zarówno zewnętrznych, jak i wewnętrznych.
Hamowanie jest konstruktem niejednorodnym.
Hamowanie ze wzbudzeniem alternatywnej reakcji motorycznej jest trudniejsze niż proste powstrzymanie dominującej reakcji (warunek stop- zmiany, warunek stop- ogólny)
Najtrudniejsze jest hamowanie selektywne- powstrzymanie tylko jeleniej z dwóch możliwych do wzbudzenia reakcji motorycznych (stop- selektywny) należy, bowiem zablokować energię potrzebną do wykonania ruchu, ale nie każdego ruchu, a jedynie takiego, który zostanie centralnie wskazany do zablokowania.
Odporność na dystrakcję
Francolini i Egeth (1980) twierdzą, że w pewnych warunkach proces odrzucania dystrakcji może być całkowicie skuteczny dzięki przestrzennej separacji konfliktowych aspektów bodźca:
- udane próby redukcji efektu Stroopa
- udane próby redukcji efektu flankerów
Bodźce zakłócające przetwarzanie poza ogniskiem uwagi są w stanie wzbudzić reakcję konkurencyjną względem wykonywanej czynności.
W Teście flankerów badani reagują na literę pojawiającą się w centrum ekranu. Litera ta jest otoczona przez dwa bodźce zakłócające (flankery), którymi są inne litery pojawiające się po obu stronach sygnału w jednym rzędzie. Flankery mogą być tożsame z sygnałem lub też mogą być zupełnie innymi literami. Zadania testowe różnią się w zakresie przestrzennej lokalizacji bodźców zakłócających (bliżej lub dalej od sygnału).
- Czas reakcji na sygnał znacznie się wydłuża, gdy pojawiają się flankery, w porównaniu do sytuacji, gdy ich nie ma lub są tożsame z sygnałem. Wydłuża się tym bardziej, im bardziej podobne do siebie są sygnały i dystraktory oraz im mniejsza jest ich wzajemna odległość (Eriksen i Eriksen)
[np. C A C / CCC/CAC/C C C]
Efekt flankerów wynika z konieczności zahamowania potencjalnej reakcji na bodziec zakłócający. Wykonanie tego testu jest bardziej związane z hamowaniem reakcji konkurencyjnej (na dystraktor) niż z odpornością na dystrakcję rozumianą jako powstrzymywanie się od przetwarzania bodźców zakłócających (przetwarzanie tak, dopiero na poziomie reakcji jest STOP).
Karen, O'Hara i Skelton wykorzystali w swoim badaniu zadanie Posnera i Mitchella (1967). Badani mieli podjąć decyzję, czy para prezentowanych liter spełnia narzucone przez instrukcję kryterium selekcyjne:
identyczności fizycznej (AA)
identyczności nominalnej (Aa)
identyczności opartej o regułę (np. Ae)
Wg nich przetwarzanie bodźców może być powstrzymywane bardzo wcześnie, na poziomie ich rozpoznania (1), lub też bardzo późno, na poziomie przetwarzania ich znaczenia (2)
dystraktory powodowały interferencję tylko w zadaniach, w których zastosowano kryterium fizycznej identyczności (skutecznie odrzucane w warunkach wymagających uwzględnienia znaczenia bodźców)
interferencja stwierdzona w zakresie wszystkich zadań, niezależnie od kryterium selekcji
Dynamiczna wersja zadania Posnera i Mitchella- DIVA- pokazał, że sposób przeszukiwania pola percepcyjnego jest zależny od odporności na dystrakcje.
Efekt tłumienia dystrakcji (Neill) - zastosowano zadanie Stroopa układając w specyficzny sposób porządek bodźców na liście niespójnej. N+1 bodziec tej listy był napisany kolorem atramentu, który był tożsamy ze znaczeniem bodźca N-tego
Reakcja na tłumiony wcześniej aspekt bodźca konfliktowego jest wolniejsza niż wówczas, gdy aspekt ten nie był uprzednio odrzucany.
Efekt ten jest zależny od strategii rozwiązania przetargu między poprawnością a szybkością (Neill, Westberry). Gdy badani, wykonujący zadanie Stroopa, poświęcali poprawność na rzecz szybkości, nie stwierdzono efektu tłumienia dystrakcji, gdy zaś poświęcali szybkość na rzecz poprawności, efekt ten wystąpił z jeszcze większą siłą.
Tłumienie dystrakcji jest krótkotrwałe- proces ten jest aktywny przez najwyżej 1000ms.
Paradygmat POPRZEDZANIA NEGATYWNEGO (Neill)
Własną wersję zadania w tym paradygmacie stworzył także Tipper
- N-ty bodziec- pryma, N+1- próba testowa
- prezentowanie prymy utrudnia przetwarzanie bodźca właściwego
- wydłużenie czasu potrzebnego na przetworzenie bodźca właściwego
- efekt występuje tylko w kontekście konieczności dokonywania procesu selekcji w obrębie pary bodźców
Zagadnieniem odporności na interferencję pamięciową zajęli się Andersen, Bjork i Bjork- określili oni zjawisko zapominania z powodu przywoływania- odpamiętanie informacji z konkretnej kategorii może spowodować brak możliwości przypomnienia innej informacji z tej samej kategorii.
Hamowanie pamięciowe (Pefrect, Mulin, Conway, Perry)- redukcja w zakresie poziomu aktywacji reprezentacji pamięciowej.
- odpamiętywane są przede wszystkim egzemplarze ćwiczone
Klasyfikacja rodzajów hamowania (Nigg, 2000):
kontrola interferencji
hamowanie percepcyjne (tłumienie odruchu kaskadowego)
hamowanie poznawcze (tłumienie irrelewantnych reprezentacji umysłowych)
hamowanie behawioralne
hamowanie powrotu
hamowanie uwagowe odruchu orientacyjnego
Odmienna taksonomia rodzajów hamowania (Friedman i Miyake, 2004)
hamowanie dominującej reakcji [zadanie Stroopa]
odporność na dystrakcję (możliwe jest odrzucenie informacji niepotrzebnych, z punktu widzenia aktualnie przetwarzanych danych) [Test flankerów]
odporność na interferencję proaktywną (proces aktywny i wysiłkowy, prowadzonym przy wykorzystaniu głębokich, trwałych reprezentacji umysłowych) [zadanie Petersonów- opamiętywanie egzemplarzy pojedynczej kategorii, które wcześniej są sukcesywnie prezentowane]
Funkcje zarządcze
Problem homunculusa (Nęcka, 2004)- odnalezienia, opisania i wyjaśnienia mechanizmów działania Tego, który buduje reprezentacje, steruje myśleniem i podejmuje ważne dla całości systemu poznawczego decyzje, a więc Tego, który kontroluje działanie systemu poznawczego.
Homunculus odnaleziony przez psychologów poznawczych został określony mianem funkcji zarządczych
- zlokalizowanych w przednich płatach czołowych mózgu
- ich upośledzenie - syndrom czołowy- dezorganizacja wszystkich form zachowania
Funkcje zarządcze:
przerzutność (pomiędzy zadaniami, procesami, czynnościami) [Wisconsin Card Sorting Test]
hamowanie (niepożądanej reakcji, bodźców zakłócających) [Wieża z Hanoi]
odświeżanie informacji w zakresie pamięci roboczej [Test Sternberga]
Collete i Van der Linden (2002) wykazali, że wykonywanie zadań wymaga aktywizacji zarówno przednich płatów czołowych, jak i płatów tylnych, a w szczególności ciemieniowych obszarów kory mózgowej.
Owen (2000) stwierdził, że mechanizm hamowania dominującej reakcji należy lokalizować tylko w części przednich płatów czołowych, zawierających obszary:
- środkową część grzbietowo-boczną
- środkową część brzuszno-boczną
- grzbietową część przedniej części zakrętu obręczy
Modele kontroli poznawczej:
- markery somatyczne
- mechanizmy uwagowe
- mechanizmy pamięciowe
Koncepcja uwagi Posnera- podstawowe mechanizmy uwagowe:
- mechanizm aktywacyjny- podtrzymanie umysłu w sta nie pobudzenia niezbędnego do wykonania danej czynności poznawczej
- mechanizm orientacyjny- odpowiada za przenoszenie uwagi w polu percepcyjnym z obiektu na obiekt
- mechanizm zarządczy- kontrola wykonania czynności celowych; mechanizm zarządczy bierze górę nad mechanizmem orientacyjnym.
Mechanizm zarządczy może skutecznie ograniczyć interferencję płynącą z bodźców zakłócających, jeśli system poznawczy z wyprzedzeniem zna np. kolor, odróżniający oba rodzaje bodźców: sygnał i dystraktor (Theeuwes, Burger, 1998).
Zarządczy mechanizm uwagi odpowiada za hamowanie wagowego odruchu orientacyjnego oraz kontrolę interferencji pochodzenia zewnętrznego; niepowodzenia w funkcjonowaniu tego odpowiada hamowanie powrotu- niedopuszczanie do powrotu uwagi do wskazanego miejsca pojawienia się sygnału (Posner, Cohen, 1984).
Kontrola uwagowa jest sprawowana odgórnie i ma charakter wewnętrzny. Mechanizm zarządczy determinuje, co i w jaki sposób będzie dalej przekazywane. Percepcja podąża wiec za uwagą.
Jeśli mechanizm zarządczy nie jest dostatecznie ukształtowany- przetwarzanie informacji sterowane jest oddolnie i ma charakter zewnętrzny, przez co uwaga podąża za percepcją, będąc automatycznie nakierowaną na spostrzegany obiekt.
Dwustopniowy system kontroli zachowania (Shallice)
Zachowanie jest kierowane w większości przez automatyzmy (rutyny), zarówno pierwotne (odruchy), jak i wtórne (nawyki)
System kontroli czynności automatycznych decyduje, w przypadku konfliktu czynności automatycznych, automatycznych kolejności realizowania czynności; jego zadaniem jest hamowanie wszystkich rutyn, które są w mniejszym stopniu dostosowane do sytuacji bodźcowej.
Ogólnym zadaniem mechanizmu automatycznego, selektywnego hamowania działań rutynowych jest ustalenie rozkładu jazdy czynności automatycznych.
System kontroli czynności automatycznych jest nieskuteczny w sytuacjach nowych.
W takich sytuacjach trzeba zahamować dominującą reakcję, monitorować i korygować błędy wynikające z prób dostosowania posiadanych schematów do nowych układów bodźców je wyzwalających, a także podejmować złożone decyzje i tworzyć nowe plany działań.
Kontrolą przetwarzania informacji w sytuacjach nowych zajmuje się nadzorczy system uwagi SAS (polska nazwa tego sytemu: dominujący system zadaniowy).
Zadaniem SAS jest układanie „rozkładu jazdy” czynności kontrolowanych oraz ich bieżący monitoring:
- tworzenie nietrwałej reprezentacji umysłowej dla sytuacji problemowej
Konsekwencje wynikające z założeń modelu kontroli zachowania (Shallice):
- działanie systemu kontroli czynności nieautomatycznych może zostać upośledzone w sytuacji wykonywania zadań jednoczesnych o porównywalnym priorytecie
- system kontroli nieautomatycznych może funkcjonować skutecznie jedynie przy efektywnym hamowaniu interferencji ze strony danych zawartych w pamięci
- jednym z najważniejszych mechanizmów kontrolnych SAS powinien być mechanizm przerzutności pomiędzy elementami aktualnie przetwarzanych schematów działań
Centralny system wykonawczy pamięci roboczej (Baddeley)
Do tego modelu Baddeley zapożyczył model SAS. System ten jest jednym z elementów pamięci roboczej.
Centralny system wykonawczy jest odpowiedzialny za kontrolę zadań jednoczesnych. Jego głównym zadaniem jest zarządzanie zasobami uwagowymi systemu poznawczego i przeznaczenie ich do wykonywania czynności jednoczesnych. Kontrola czynności jednoczesnych jest możliwa, a redukcja kosztów poznawczych w wyniku efektywnej kontroli wydajna.
ALE: Istnieją takie zadania, które wydają się pobierać całą dostępną moc centralnego systemu wykonawczego, a ich kontrolowanie jednocześnie z innymi zadaniami okazuje się niemożliwe.
Np. test generowania liczb losowych
Centralny system wykonawczy zlokalizowany jest w przednich płatach czołowych mózgu.
System ten jest kandydatem na poszukiwanego przez psychologię poznawczą homunculusa kierującego zachowaniem.
RODZIAŁ 1
Język i mowa
Język- system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli (dźwięków mowy lub znaków pisma). Operowanie na symbolach podlega regułom gramatycznym, swoistym dla każdego języka naturalnego lub sztucznego.
Mowa- używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze lub własne. W innym ujęciu mowa to zdolność gatunku ludzkiego do przekazywania i odbierania komunikatów językowych za pomocą wyrażeń wokalnych lub znaków pisma.
Procesy przetwarzania języka- procesy przetwarzania informacji biorące udział w tworzeniu wyrażeń językowych i ich analizie.
Język pełni dwie podstawowe funkcje psychiczne:
komunikacyjna- język to medium porozumiewania się, czyli wzajemnego przekazywania sobie informacji; porozumiewanie się ma postać:
- niewerbalną (mimika, pantomimika, postawa ciała itp.)
- parawerbalną (ton głosu, pauzy, intonacja)
- komunikatów stricte językowych
zasada prymatu komunikacji niewerbalnej nad werbalną- niekiedy sens komunikatu niewerbalnego jest sprzeczny z treścią przekazywaną za pośrednictwem języka, np. mówimy do dziecka „chodź tu mały brzydalu”- komunikat negatywny jednak dzięki pieszczotliwej artykulacji dziecko przybiega; komunikaty niewerbalne nie muszą być sprzeczne z werbalnymi- zwykle wzajemnie się uzupełniają i wzmacniają.
poznawcza- polega na wspomaganiu procesów przetwarzania informacji (głównie myślenia i rozumowania); dzięki językowi możliwe jest myślenie pojęciowe, którego składnikami są pojęcia, sądy i schematy; myślenie abstrakcyjne nie jest tożsame z używaniem języka, ale nie byłoby bez niego możliwe; język pełni ważną rolę w procesach kontroli poznawczej i samokontroli emocjonalnej (panowanie nad sobą w postaci nakazów i zakazów); kategoryzacja
Inny podział funkcji języka:
ekspresyjna- wyrażanie stanów podmiotu mówiącego (emocjonalnych-czuję; motywacyjnych-chcę); nakazy, zakazy, polecenia, groźby i inne wyrażenia mające na celu wpływanie na działanie innych ludzi lub zwierząt to przejawy ekspresyjnej funkcji języka.
referencjalna- język może służyć do opisu rzeczywistości pozajęzykowej, też do opisu samego siebie; referencjalnośc- odnoszenie się symbolu oznaczającego (słowa) do przedmiotu oznaczanego (desygnat); relacje słowo-przedmiot tworzą znaczenie; słowo, desygnat i znaczenie składają się na trójkąt semantyczny.
Cechy języka: system złożony, dynamiczny (ciągle ewoluujący), produktywny (korzystając z ograniczonego zasobu słów jesteśmy w stanie stworzyć nieskończoną liczbę zdań (komunikatów)-> niekiedy produktywność prowadzi do twórczości językowej (np. dziecko „Co foczki ją?”).
Przyczyny dynamicznej zmiany języka:
Zmiany polityczne, kulturowe i obyczajowe
Eufemizacja i poprawność polityczna, np. sprzątaczka-> osoba sprzątająca
Bariera oni-my, gwary środowiskowe działające jako przeszkoda dla niewtajemniczonych.
Poziomy języka:
fonologiczny- obejmuje podstawowe jednostki budulcowe komunikatu werbalnego (głoski, fonemy); każdy język buduje swoje przekazy korzystając z około 30-40 głosek
semantyczny- obejmuje ulepione z głosek lub znaków pisma elementarne składniki znaczenia (morfemy (rdzeń)- składniki słów, niosące pewną treść); na tym poziomie analizy języka istotne staje się znaczenie, definiowane jako fragment wiedzy o świecie, wyrażonej pojęciami i sądami:
- znaczenie denotacyjne- kiedy wiedza dotyczy faktów
- znaczenie konotacyjne- kiedy wiedza dotyczy emocji i skojarzeń
np. denotacja słowa dom to budynek, a konotacja to bogata siec skojarzeń (ciepły, rodzinny)
syntaktyczny- składa się z fraz i zdań, połączonych według reguł gramatyki; zdanie składa się z:
- frazy nominalnej- określającej sprawcę i jego atrybuty
- frazy czasownikowej- określającej czynność i jej okoliczności
Strukturę zdania możemy zapisać w postaci drzewka derywacyjnego.
pragmatyczny- dotyczy społecznych aspektów języka, a właściwie jego użycia w funkcji komunikacyjnej- czyli co komu i w jakim celu chcemy powiedzieć. Jest on szczególnie istotny w przypadku wyrażeń ironicznych czy sarkastycznych, np. „no to pieknie!”.
Niektórzy wyróżniają 2 warstwy funkcjonowania języka (Noam Chomsky-teoria gramatyki generatywnej)
struktura powierzchniowa- to rzeczywiste zdanie utworzone według obowiązujących reguł gramat.
struktura głęboka- to abstrakcyjna postać tego zdania, wyrażona w postaci drzewka derywacyjnego
Przekształcenie struktury głębokiej w powierzchniową jest możliwe dzięki regułom transformacji); umysł przechowuje sens zdarzenia na poziomie głębokim, co wystarczy, aby w razie potrzeby wygenerować odpowiadające temu sensowi struktury powierzchniowe; perspektywa mówcy: transformacja z głębokiego znaczenia na powierzchniową strukturę syntaktyczną zdania<- z perspektywy słuchacza odwrotnie; opowiadając jakąś historię, za każdym razem generujemy nowy zestaw struktur powierzchniowych.
Hipoteza determinizmu językowego (hipoteza Sapira- Whorfa)- język zasadniczo wpływa na to, jak spostrzegamy rzeczywistość, przetwarzamy informacje, formułujemy sądy lub korzystamy z zasobów pamięci; wielu pojęć nie da się przełożyć z jednego języka na inny; sposób w jaki mówimy determinuje to, jak widzimy świat i myślimy o nim; relatywizm językowy- nie ma dwóch identycznych języków, więc nie ma dwóch jednakowych sposobów poznawczego reprezentowania rzeczywistości, przede wszystkim społecznej.
Koncepcje przyswajania języka:
behawioryzm (teoria uczeniowa):
- warunkowanie klasyczne
*Iwan Pawłow- język jako drugi system sygnałowy- w wyniku warunkowania wyższego rzędu możemy
reagować strachem już nie tylko na sygnał zagrożenia, ale również na sygnał zapowiadający ten sygnał
(słowa jak „uważaj”, „groźne”)
*Hobart Mowrer- wyróżnił 4 grupy sytuacji odpowiadających znaczeniom językowym: groźba,
obietnica, ulga, rozczarowanie-tymi terminami opisał przypadki, gdy słowo sygnalizuje
niebezpieczeństwo, nagrodę, minięcie zagrożenia lub brak zapowiadanej nagrody.
- warunkowanie sprawcze- człowiek spontanicznie używa pewnych dźwięków- najpierw pojedynczych głosek i sylab, potem słów i pełnych zdań- otrzymując w zamian wzmocnienie pozytywne lub negatywne; dzięki stosowaniu reguł kształtowania złożonych reakcji, dorośli są w stanie wykształcić u dzieci umiejętność posługiwania się długimi, skomplikowanymi strukturami językowymi. Czynnikiem wzmacniającym może być tutaj sam fakt naśladowania innego osobnika, w szczególności kogoś ważnego.
poglądy natywistyczne:
- zdaniem Norma Chomsky'ego proces nabywania języka jest zdeterminowany wrodzonymi strukturami mózgowymi (urządzenie do przyswajania języka- LAD); dziecko posiada wrodzoną, ukrytą kompetencję językową, AGRUMENTY:
* istoty języka nie tworzą słowa, lecz struktury syntaktyczne, które są ukryte a przez to trudne do bezpośredniego utrwalania poprzez wzmocnienia pozytywne
* struktur gramatycznych raczej nie uczymy się wprost w sposób jawny (dziecko posługuje się już w pełni gramatycznym językiem, zanim pójdzie do szkoły)
* ludzie-zwłaszcza dzieci- używają zdań, których nie mieli okazji wcześniej usłyszeć
- Steven Linker- człowiek ma instynktowną zdolność do mówienia (instynkt językowy), czyli wrodzoną gotowość do wykształcenia określonych struktur; dzięki ekspozycji na komunikaty językowe, która musi nastąpić w okresie sensytywnym, uruchamiają się odpowiednie struktury mózgowe, w wyniku czego proces przyswajania języka uzyskuje nadzwyczajne przyspieszenie i wydajność.
- mowa ukierunkowana na dziecko- polega na modelowaniu (a nie karaniu) zachowań werbalnych dziecka w następstwie wielokrotnego powtarzania krótkich, ale syntaktycznie poprawnych zdań, np. „Kot mleko”- „Tak, kot pije mleko”.
Stadia przyswajania języka:
- proces przyswajania pierwszego języka jest w zasadzie ukończony u progu 4 roku życia dziecka (chodzi tu o kompetencję językową- kompetencja komunikacyjna rozwija się niekiedy do okresu adolescencji)
pierwszy rok życia dziecka to ćwiczenia w zakresie fonologii, prozodii (charakterystyczny dla każdego języka typ „zaśpiewu”- składa się na nią intonacja, a także akcent i rytm), intonacji
* głużenie- wypowiadanie pojedynczych fonemów
* gaworzenie- wypowiadanie pojedynczych sylab
drugi rok życia to próby konstruowania niegramatycznych zdań z ukrytą syntaksą
- pierwsze słowa pojawiają się zwykle między 12-14 miesiącem życia, choć przejawy ich rozumienia już po 9 miesiącach od urodzenia
- mowa telegraficzna-mówienie pojedynczymi wyrazami lub łączenie ich w krótkie zestawy bez poprawnego odmieniania przez osoby, czasy, przypadki, np. „mama bawić”.
trzeci rok życia to ćwiczenia w pełni gramatycznych wypowiedzi i dopasowywanie ich do potrzeb komunikacyjnych dziecka; dwa rodzaje błędów występujące w tym okresie dotyczą kategoryzowania i tworzenia struktur gramatycznych:
* błąd nadrozciągłości znaczeń- włącznie w obręb kategorii obiektów, które do niej nie należą (np. nazywanie każdej istoty czworonożnej psem)
* błąd hiperregularyzacji- dziecko ignoruje wyjątki i przypadki szczególne, stosując wszędzie regularne struktury gramatyczne (np. „on ma dwa braty”= dwóch braci).
Dwujęzyczność i wielojęzyczność:
- we współczesnym ujęciu dwujęzyczność i wielojęzyczność to zdolność do posługiwania się więcej niż jednym językiem
- do pewnego momentu w rozwoju poznawczym drugi język przyswajamy tak jak pierwszy, to znaczy szybko i bezwysiłkowo, korzystając z „instynktu językowego”
- kiedy minie okres sensytywny, przyswajanie drugiego języka staje się procesem powolnym i wymagającym wysiłku, a jego efekty nigdy nie będą idealne
- do kosztów dwujęzyczności zalicza się interferencję między językami- znajomość więcej niż jednego języka zwiększa ryzyko pomyłki w doborze słów i wyrażeń, spowalnia procesy wydobywania słów z leksykonu mentalnego i wymaga zwiększenia kontroli na etapie artykulacji, aby słowo z jednego języka nie „wcisnęło się” w komunikat sformułowany w innym języku
- osoby wielojęzyczne funkcjonują na wyższym poziomie świadomości metajęzykowej- osoby te wyrażają się bardziej precyzyjnie, ponieważ staranniej dobierają słowa i struktury składniowe
Mówienie:
planowanie mowy: polega na podjęciu decyzji co do sensu przekazu i intencji jego przekazania; wymaga uwzględnienia pragmatycznego aspektu języka;
- zasada kooperacji- mówca i słuchacz muszą ze sobą współdziałać (Paul Grice); 4 maksymy językowe mające ułatwić kooperację:
1) maksyma ilości- komunikat powinien zawierać tyle danych, ile to konieczne- nie więcej i nie mniej
2) maksyma jakości- mówca powinien mówić prawdę, ponieważ takie będzie prawdopodobne oczekiwanie słuchacza (chyba, że słuchacz zdaje sobie sprawę, że komunikat jest fałszywy to OK.)
3) maksyma relacji- mówca powinien mówić na temat, bez dygresji i odbiegania od głównego wątku- jeśli jednak dygresja czemuś służy, maksyma relacji nie zostaje złamana
4) maksyma sposobu- mówca powinien używać środków wyrazu dostępnych odbiorcy (głośna i wyraźna artykulacja, nieużywanie słów i wyrażeń, których słuchacz nie rozumie ze względu na brak wiedzy itp.)
- planowanie mowy dokonuje się z uwzględnieniem wspólnej płaszczyzny czyli podzielanych przez obie strony konwersacji elementów wiedzy, często niejawnej- jeśli porozumiewają się osoby obce, ustalenie wspólnej płaszczyzny może być bardzo trudne
- planowanie mowy jest minimalnie przesunięte w czasie w stosunku do realizacji planu= wypowiadając zaplanowane wcześniej słowa, jesteśmy już mentalnie przy następnym fragmencie wypowiedzi, świadczą o tym przejęzyczenia, w szczególności błędy antycypacji („Piciu, co ci zrobić do misia?”)
- jednostką planowania mowy jest FRAZA
- przetwarzając frazę, mamy do czynienia ze szczególnym przypadkiem interferencji, wynikającej z wykonywania dwóch czynności jednocześnie (planowanie wypowiedzi- realizacja planu)
kodowanie semantyczno- syntaktyczne:
- leksykalizacja- przekształcanie myśli w słowa; wymaga zaangażowania trzech poziomów języka: semantycznego, syntaktycznego, fonologicznego
- według Levelta pierwszy etap leksykalizacji polega na wyborze lemm (abstrakcyjna postać słowa obejmująca 3 elementy: jego znaczenie, funkcję syntaktyczną przewidzianą dla niego w przyszłym zdaniu oraz wskaźniki fonologiczne, czyli wstępne dane dotyczące sposobu jego wymawiania)
- dowód na obecność tego etapu- efekt końca języka- np. pytamy kogoś jak nazywa się rezygnacja osoby panującej z praw do tronu-> osoba nie udzieli odpowiedzi choć jest przekonana, że zna to słowo (abdykcja), co więcej niektórzy badani będą w stanie poprawnie określić na jaką literę zaczyna się to słowo, czyn z ilu składa się sylab- świadczy to o tym, że lemma zawiera nie tylko znaczenie i funkcję przyszłego słowa, ale też wskaźniki fonologiczne (jedynie szczątkowe wskazówki)
kodowanie fonologiczne:
- następuje drugi etap leksykalizacji= wybór leksemów; leksem- jednostka umysłowego słownika, na który składają się konkretne słowa odpowiadające określonym znaczeniom (np. leksemy słowa koń to koń, konie, koniom itp.); leksykon mentalny- zbiór wszystkich leksemów, którymi dysponuje konkretny użytkownik języka (jeśli jest wielojęzyczny może dysponować więcej niż jednym leksykonem)
- teoria Levelta- etap fonologiczny obejmuje trzy podetapy:
* przywoływanie z pamięci głosek i układanie ich we właściwej kolejności
* sylabizacja i prozodyzacja wypowiedzi
* kodowanie fonetyczne czyli wybór odpowiednich wzorców artykulacyjnych dla każdej sylaby (w pamięci
mamy „sylabiarz” składający się z ok. 500 sylab)
- interakcyjny model mówienia- Dell twierdzi, że istnieje samoorganizująca się sieć tworzą ją znaczenia i brzmienie wszystkich słów, jest podobna do sieci semantycznych), zdolna do wytwarzania mowy
Rozumienie przekazów językowych:
złamanie kodu:
- pierwszym zadaniem słuchacza jest dokonanie podziału nieprzerwanego potoku głosek na jednostki (segmenty), odpowiadające poszczególnym słowom ->segmentacja; dokonując segmentacji słuchacz musi kierować się innymi wskazówkami, takimi jak prozodia (intonacja, akcent, rytm), kontekst ogólny, a przede wszystkim kontekst wewnątrzjęzykowy
- proces identyfikacji poszczególnych słów w potoku żywej mowy dobrze opisuje model kohorty- słuchacz rozpoznaje słowa, systematycznie zwężając listę potencjalnych „kandydatów”, czyli zmniejszając kohortę możliwych jednostek leksykalnych aż do momentu, gdy nie będzie innego wyboru (np. słowo wczoraj jest rozpoznawalne już po pierwszych czterech głoskach `wczo…')
- w procesie deszyfracji mowy współwystępują dwie czynności: segmentacja i odczyt znaczeń zapisanych w pamięci semantycznej; segmentacja byłaby niemożliwa bez wstępnej hipotezy na temat znaczenia słowa: tylko znaczenie eliminuje kolejne elementy z kohorty, aż do momentu wyeliminowania wszystkich z wyjątkiem jednego
- łamanie kodu akustycznego u dorosłych posługujących się językiem ojczystym dokonuje się automatycznie i bezwysiłkowo, stanowi jednak poważne wyzwanie dla kogoś, kto posługuje się słabo opanowanym językiem obcym
rozbiór zdania:
- rozbiór zdania polega na utworzeniu umysłowej reprezentacji jego treści, czyli zbudowania `w wyobraźni' czegoś na kształt drzewna derywacyjnego
- zdania „ślepej uliczki” to szczególny rodzaj zdań dwuznacznych (np. Chłopiec odbił piłkę ręką podtrzymując kolegę)-> zdania te tracą dwuznaczności po dodaniu przecinka
- zasada późnego domknięcia- odbiorca stara się domknąć frazę najpóźniej, jak się da; domykanie frazy polega na ustaleniu granicy, poza którą zaczyna się nowa fraza zdaniowa
- w momencie, gdy dokona się rozbiór zdania, użytkownik języka przechodzi na poziom, który Chomsky nazwałby strukturą głęboką; powierzchniowa forma wypowiedzi jest zapominana tak szybko, jak tylko zbudowana zostanie reprezentacja głęboka
- parser- struktura odpowiedzialna za rozbiór zdania; jego głowne zadanie polega na przypisaniu poszczególnym słowom odpowiednich funkcji, np. podmiotu, orzeczenia, dopełnienia; w przypadku języka polskiego parser odpowiada przede wszystkim za prawidłową interpretację wskazówek fleksyjnych (końcówki definiujące rodzaj, czas i tryb gramatyczny)
budowa modelu sytuacyjnego i wnioskowanie:
- model sytuacyjny jest niezbędnym warunkiem zrozumienia, jeśli przekaz zawiera wiele luk wymagających wypełnienia przez wnioskowanie
- budowę modelu sytuacyjnego kształtuje wiele czynników, przede wszystkim znajomość tematu: wystarczy krótki fragment prozy opatrzyć tytułem aby poprawić jego zrozumienie i przechowanie treści w pamięci; dzięki tytułowi możliwe jest zbudowanie modelu sytuacyjnego
- szczególną rolę w rozumieniu przekazów językowych odgrywają schematy narracyjne, czyli elementy wiedzy zorganizowane ze względu na epizody; schemat narracyjny wpływa na rozumienie przekazu, jeśli określone porcje wiedzy nabierają sensu dopiero w kontekście całej historii
- procesy zaangażowane w budowanie modelu sytuacyjnego to przede wszystkim rozumowanie nieformalne, czyli wnioskowanie na podstawie swobodnie wybranych przesłanek, nie zawsze zwerbalizowane; mówca konstruując wypowiedź, przekazuje pewne treści jawnie, a inne domyślnie- odbiorca musi więc odróżnić to, co mówca chciał przekazać, od tego, co rzeczywiście przekazał
- reguły rządzące wnioskowaniem podczas rozmowy nazwano implikaturą; Grice wyróżnił dwa jej rodzaje:
* implikatura konwencjonalna- treść wypowiedzi (np. mówiąc koń mamy na myśli zwierze z kopytami, a
nie konika morskiego)
* implikatura konwersacyjna- polega na domyślnym, wzajemnym szanowaniem reguł dobrej komunikacji
(zasady kooperacji i czterech maksym konwersacyjnych)
- wnioskowanie w procesie rozumienia mowy pełni dwie funkcje:
* uzupełnianie luk w strukturze przekazu
* budowanie połączeń między nową wiedzą zawartą w komunikacie, a wiedzą nabytą już wcześniej
- komunikaty nie wprost- polecenia sformułowane w postaci pytań lub delikatnych sugestii (np. Czy mógłbyś zgasić światło?)-> wymagają odkrycia prawdziwych intencji nadawcy, co zwykle nie jest trudne
RODZIAL 10
MYŚLENIE I ROZUMOWANIE (rozdz. 10)
Myślenie to proces łączenia elementów poznawczej reprezentacji świata (obrazów, pojęć lub sądów) w dłuższe ciągi. Tak utworzony ciąg zastępy realne, obserwowalne zachowanie w rzeczywistym świecie fizycznym lub społecznym, uwalniając nas od konieczności ponoszenia natychmiastowych skutków własnych działań.
Rozumowanie jest procesem formułowania wniosku na podstawie przesłanek, czyli z wykorzystaniem uprzednio nabytej lub powszechnie dostępnej wiedzy
Istota myślenia
Nęcka - myślenie jest jednym z narzędzi budowania modeli mentalnych - zawiera alternatywne wersje wydarzeń, które mogłyby być skutkiem konkretnych działań. Jest taż narzędziem wirtualnego testowania tych modeli
Pinker - nie ma dużej różnicy pomiędzy problemami, z jakimi borykali się nasi przodkowie w długim procesie antropogenezy a rozwiązywaniem abstrakcyjnych problemów, z jakim borykamy się dziś
- egzaptacja - proces adaptacji struktur mózgowych do zadań, które pierwotnie nie były im stawiane
Cole - badanie na przedstawicielach plemienia Kpelle - różnice w myśleniu w sytuacjach naturalnych i abstrakcyjnych
- utajona „definicja” inteligencji w danej kulturze wpływa na to, jakie zachowania będą w niej cenione i wzmacniane; definicja ta jest ściśle związana z potrzebami i celami danej kultury
Carraher, Scheliman - powiązanie treści problemu z dotychczasowymi doświadczeniami badanego wpływa pozytywnie na poprawność rozwiązania problemu
Ceci i Ruiz - eksperci w jednej dziedzinie nie potrafili dokonać transferu swojej wiedzy na inną dziedzinę, mimo że stawiane przed nimi problemy były izomorficzne, tj. identyczne w swojej strukturze głębokiej
Ceci - istotny wpływ na efektywność myślenia ma motywacja
Tobby i Cosmides - racjonalnośc ekologiczna - niepełne dostosowanie ludzkiego umysłu do myślenia abstrakcyjnego, w przeciwieństwie do znakomitego dostosowania do myślenia praktycznego
Trzy rodzaje modeli myślenia:
- modele deskryptywne - ich celem jest opis procesu myślenia w jego rzeczywistej postaci ze wszystkimi systematycznymi błędami i uproszczeniami; podstawowa forma ekspresji - heurystyki, czyli uproszczone reguły postępowania, stosowane w konkretnych sytuacjach
- modele preskryptywne - dotyczą poprawności z punktu widzenia stosowanych heurystyk (zastosowanie heurystyki dostosowanej do charakteru zadania)
- modele normatywne - dotyczą poprawności myślenia z punktu widzenia pewnego systemu norm, którym może być np. rachunek prawdopodobieństwa; czasochłonne i bardziej wysiłkowe niż zastosowanie prostszych heurystyk
Maruszewski - krytykuje dwie podstawowe właściwości myślenia w rozumowaniu potocznym: to, że myślenie jest procesem świadomym oraz kontrolowany charakter procesu myślenia (intruzje w myśleniu)
Rodzaje myślenia
David Berlyne - dwa rodzaje myślenia: autystyczne i realistyczne
- myślenie autystyczne - nie jest nastawione na osiągniecie konkretnego efektu; charakterystyczne dla stanu relaksacji, kiedy myślimy o przysłowiowych niebieskich migdałach; pozwala fantazjować i zastępczo zaspokajać potrzeby, które chwilowo nie są możliwe do zaspokojenia
- myślenie realistyczne - uwzględnia ograniczenia nakładane przez rzeczywistość, jest ukierunkowanie na osiągnięcie jakiegoś celu (np. rozwiązanie problemów)
Otto Sezl - podział myślenia na produktywne i reproduktywne
- myślenie produktywne - efektem jest wytworzenie nowych treści intelektualnych; nowość może dotyczyć albo wytworu będącego efektem myślenia albo procesu poznawczego, który do tego wytworu doprowadził; treść i wynik m.p. są nowe z punktu widzenia dotychczasowej wiedzy podmiotu myślącego, ale nie koniecznie z punktu widzenia innych ludzi
- myślenie reproduktywne - sprowadza się do różnych form odtwarzania przeszłego doświadczenia (np. wyciągnięcie pierwiastka kwadratowego z liczby 256, sporządzenie rutynowego raportu)
podział myślenia na twórcze i odtwórcze
- myślenie twórcze - rodzaj myślenia, którego wynik jest oceniany jako nowy i wartościowy w sensie poznawczym, estetycznym, etycznym albo użytkowy (Nęcka)
- myślenie odtwórcze - aktywność umysłowa, której wynik nie zyskał uznania jako nowy i wartościowy dla społeczności
myślenie krytyczne - jest rodzajem myślenia realistycznego ukierunkowanego na specyficzny cel, jakim jest ewaluacja; jego celem jest rzetelna i realistyczna ocena istotnych aspektów aktywności intelektualnej człowieka;
- Sternberg - w przypadku, gdy myślenie krytyczne dotyczy samego siebie uważane jest wtedy za proces metapoznawczy
- myślenie krytyczne ≠ krytyczna refleksja - ocena relacji między tym, jak działamy, a tym, co jest w danej kulturze cenione jako spełniające kryteria etyczne
Podział oparty na kryterium rozwojowym
dwa rodzaje myślenia
- sensoryczno-motoryczne - przetwarzanie informacji ograniczone do bodźców rejestrowanych sensorycznie w danym momencie, a operacje na nich dokonywane mają postać czynności eksploracyjnych
- wyobrażeniowo-pojęciowe - dojrzała forma myślenia, charakterystyczną wyłącznie dla człowieka od pewnego stadium rozwoju, gdzie wyobraźnia i pojęcia zajmują miejsce spostrzeżeń, a abstrakcyjne operacje przejmują rolę czynności motorycznych
klasyfikacje myślenia według Piageta
- stadium myślenia sensoryczno-motorycznego
- stadium przedoperacyjne - rozwój myślenia pojęciowego
- stadium operacji konkretnych - umiejętność myślenia logicznego, odwracalność operacji myślenia (dokonanie w umyśle odwróconego działania i wyprowadzenia logicznego wniosku) oraz decentracja (uwzględnienie wmyśleniu więcej niż jednej cechy obiektów, a nawet gradacji ich ważności
- stadium operacji formalnych - przeniesienie zdolności wykształconych w poprzednim stadium na obiekty abstrakcyjne
myślenie postformalne (dialektyczne) - formułowanie w myśleniu tez i antytez oraz ich późniejszego syntetyzowania, które może być podstawą sformułowania kolejnej tezy, a dla niej stosownej antytezy itd.
Teorie myślenia
teoria Berlyne'a - myślenie jest ciągiem symbolicznych bodźców i reakcji; symboliczny bodziec to taki, który posiada znaczenie i wywołuje reakcję, kiedy fizycznie bodziec nie jest obecny; reakcja symboliczna - r. wywołana bodźcem symbolicznym (np. mowa, gesty, czynności obrzędowe)
- myślenie typu S - jeżeli reakcje nawykowe rutynowo uruchamiane w danej kategorii sytuacji, w wyniku procesu myślenia przenoszone są na inna kategorię sytuacji (zbliżone do m. reproduktywnego)
- myślenie typu R - podmiot wykonuje reakcję lub sekwencję reakcji, której nigdy wcześniej nie wykonywał (zbliżone do m. produktywnego)
dwie grupy procesów poznawczych wzbogacające myślenie:
- zbieranie informacji - wypełnianie luk informacyjnych w aktualnej sytuacji bodźcowej (zachowania eksploracyjne i zachowania poznawcze)
- odrzucanie informacji - selekcja uwagowa i abstrakcja (mechanizm redukcji różnorodności przez ignorowanie różnic)
teoria Barona - myślenie składa się z dwóch grup operacji:
1) poszukiwania
możliwości - potencjalne możliwości odpowiedzi na zadane pytania, dopuszczalne sposoby rozwiązywania początkowego stanu wątpliwości czy niepewności
dowodów - wszelkie informacje pomocne w ustaleniu zakresu, w którym określona możliwość spełnia założone cele
celów - stanowią kryteria czy standardy oceny możliwości
2) wnioskowania
Dowody wpływają na „moc” możliwości , ale z uwzględnieniem ich wag, które wynikają z realizowanych celów.
Elementy struktury myślenia
Badanie struktury myślenia polega na wyróżnianiu składników budulcowych tego procesu oraz sposobu (reguł)ich łączenia
Właściwości analizy struktury myślenia:
- materiał - rodzaj informacji przetwarzanych w procesie myślenia, który charakteryzuje się określoną formą reprezentacji (konkretno-obrazowa vs. abstrakcyjna) i treścią (drzewo vs. prawda)
- operacje umysłowe - przekształcenia dokonywane na reprezentacjach umysłowych
- reguły - sposoby uporządkowania łańcucha operacji umysłowych, składających się na proces myślenia
Operacje i strategie
Do lat 60. XX w. uważano, że myślenie można sprowadzić do dwóch grup operacji: analizy (proces dekompozycji złożonej całości na jej elementarne części) i syntezy.
Ponadto wyróżniono 3 operacje pochodne względem analizy i syntezy: porównywanie, abstrahowanie i uogólnianie
Berlyne - w przebiegu procesu myślenia wyróżnić można:
- ogniwa - poszczególne stany wiedzy składające się na cały proces umysłowy
- operacje - przekształcenie jednego stanu ogniwa w drugi
- operacje kluczowe - są koniecznym warunkiem osiągnięcia celu
Łańcuch operacji symbolicznych posiada dwie charakterystyczne właściwości:
- pętle - operacje nie powodujące zmiany w jego ogniwach
- I rodzaju - polega na cofnięciu się do poprzedniego stanu
- II rodzaju - polega na wykonaniu operacji tożsamościowej (nie powoduje żadnej zmiany)
- rozgałęzienia - powstają, gdy w wyniku jakiejś operacji mogą zostać wypracowane różne stany wiedzy; decydują o alternatywnym charakterze myślenia
Reguły, algorytmy i heurystyki
Reguły to sposoby uporządkowania łańcucha operacji umysłowych, składających się na proces myślenia
Algorytm jest jednoznacznym i niezawodnym przepisem działania, zawierającym skończona sekwencję operacji, jaką należy wykonać, aby osiągnąć określony cel; właściwości:
- niezawodny - prowadzi do uzyskanie jednoznacznego rezultatu w danej klasie zadań
- dobrze określony - jednoznaczna procedura postępowania
- masowy - można go stosować do każdego problemu z danej klasy
- jest zestawem sztywnych reguł - brak choćby niewielkiej części danych powoduje, że uzyskany wynik jest błędny albo w ogóle niemożliwy do uzyskania
Heurystyka jest nieformalną, spekulatywną, uproszczoną albo skrótową metodą rozwiązywania problemów lub podejmowania decyzji; jest zawodna i bardziej ryzykowna od algorytmu oraz słabo określona, ma zastosowanie w przypadku problemów, których nie da się jednoznacznie i kompleksowo określić; dwa powody stosowania heurystyk:
- złożoność sytuacji nie pozwala na wykonanie algorytmu
- oszczędność czasu i wysiłku poznawczego
Berlyne - wyróżnił 4 podstawowe reguły myślenia, tworzące grupę transformacji:
- składanie transformacji - zakłada istnienie takiej transformacji, która prowadzi do identycznego wyniku, jak dwie jej składowe φ3= (φ2 φ1)
- transformacja tożsamościowa φ0 - złożona z dowolną inną transformacją φi, daje taki rezultat, jak zastosowanie wyłącznie φi; zatem (φi φ0) = (φ0 φi) = φi
- odwracalność transformacji - zakłada istnienie przekształcenia φp odwrotnego w stosunku do φi, a ich łączne zastosowanie daje wynik transformacji tożsamościowej φ0, znaczenie odgrywa kolejność zastosowanych transformacji φp i φi
- łączenie transformacji - dowolne trzy transformacje, połączone dowolnie parami na zasadzie składania transformacji, dają ten sam rezultat
Rozumowanie dedukcyjne
Tu doczytac z książki
Rozumowanie warunkowe- jest częścią logiki zajmującą tzw. rachunkiem zdań.
Implikacja- funktor używany w rachunku zdań; składa się z dwóch zdań:
- poprzednik
- następnik
połączonych spójnikiem „ jeżeli… to…”
Aby implikacja była prawdziwa, zajście poprzednika jest warunkiem wystarczającym (ale niekoniecznym) dla zajścia następnika, ale zajście następnika jest koniecznym skutkiem uprzedniego zajścia poprzednika.
Implikacje można w sposób formalny wyrazić następująco:
„jeżeli p, to q”, a każdy z jej argumentów może przyjąć dwie wartości- prawda albo fałsz.
Schematy wnioskowania:
Modus Ponens:
Jeżeli p, to q
p
więc: q
Potwierdzenie Następnika:
Jeżeli p, to q
q
więc: p
Potwierdzenie Poprzednika:
Jeżeli p, to q
nie p
więc: nie q
Modus Tollens:
Jeżeli p, to q
nie q
więc: nie p
schematy 1 i 4 są niezawodne, ich użycie jest uprawnione i konkluzywne z logicznego punktu widzenia, wnioskowanie z ich użyciem jest poprawne, co nie oznacza, że implikacja jako całość jest prawdziwa bądź fałszywa
Zadanie selekcyjne (Wason) wymaga weryfikacji prawdziwości prostej hipotezy, że jeśli na kartce z jednej strony napisano konkretną literę (np. A), to na drugiej stronie musi być napisana liczba parzysta. Osoba badana widzi cztery kartki, dwie odkryte po stronie liczby, z dwie po stronie litery. Musi wskazać te kartki, które koniecznie trzeba odkryć, aby sprawdzić, czy hipoteza jest prawdziwa.
Większość ludzi przy wykonywaniu zadania odwołuje się do konfirmacyjnej strategii testowania hipotez ( poszukiwanie przypadków potwierdzających regułę, przy niedostatecznym uwrażliwieniu na przypadki, które jej przeczą). Tymczasem mnożenie przypadków potwierdzających nie daje gwarancji prawdziwości hipotezy, bo wystarczy jeden przypadek przeczący hipotezie, aby ją obalić.
Zmiana treści implikacji z „abstrakcyjnej” na „życiową” znacznie zwiększa poprawność rozumowania (Griggs, Cox).
W życiowej wersji więcej osób badanych wykonało zadanie poprawnie (efekt materiału tematycznego).
Jednak, jeśli implikacja wymaga specyficznej wiedzy, efekt materiału tematycznego jest słabszy, a nawet zupełnie zanika.
Implikacja jest poprawnie używana w specyficznych sytuacjach społecznych (Cosmides).
Czynnikiem wpływającym na poprawność rozumowania jest również jego kontekst (Braine)
Specyficzna postać zadań dedukcyjnych może stanowić dla osób badanych ukrytą wskazówkę, aby we wnioskowaniu wykorzystać jedynie te informacje, które są wyrażone wprost w przesłankach i wniosku.
Ale kontekst może też się przyczynić do zmniejszenia poprawności rozumowania (Byrne), jeśli będą podane informacje nieistotne.
Rozumowanie dedukcyjne
Człowiek jest z natury istotą racjonalną, co przekłada się na zdolność efektywnego używania reguł logiki (logika mentalna).
Jeśli zdanie zostanie rozpoznane jako wymagające zastosowania reguł logicznych, uruchamia się program rozumowania:
identyfikacja logiczna struktury przesłanek, ich treść jest przekładana na abstrakcyjną formę sądów, operujących abstrakcyjnymi symbolami
jeżeli struktura konkretnego zdania zostanie uznana za dopasowaną do jakiejś reguły umysłowej, zostaje uruchamiany odpowiedni program rozumowania; efektem jest wygenerowanie konkluzji, sformułowanej w języku abstrakcyjnych symboli
przełożenie wniosku z formy abstrakcyjnej na język przesłanek.
Ludzie w sposób naturalny myślą logicznie, błędy popełniają raczej sporadycznie (Braine).
Rozumowanie bezpośrednie- zastosowanie w konkretnej sytuacji ogólnych schematów opartych na abstrakcyjnych regułach.
Schematy biorące udział w rozumowaniu bezpośrednim dzielą się na
- rdzenne (takie jak modus ponens, korzystają z fundamentalnych reguł logicznych)
- posiłkowe (pełnią funkcje pomocnicze i są stosowane do generowania wniosków wspomagających działanie schematów podstawowych)
- inną kategorią są schematy niezgodności( stosowane do testowania zawartości pamięci roboczej pod kątem detekcji wniosków nieuprawnionych)
Rozumowanie pośrednie- schematy wnioskowania wykraczają poza reguły logiki umysłowej
Rodzaje i źródła powstawania błędów w rozumowaniu
błędy rozumienia- wynika z niepoprawnej interpretacji związków między informacjami zawartymi w przesłankach i ewentualnie we wniosku
błędy przetwarzania- powstają w wyniku dekoncentracji uwagi albo niskiej wydolności procesu przechowywania i obróbki informacji w pamięci roboczej
błędy nieadekwatności heurystyki- wynikają z niewłaściwego doboru strategii, które odpowiadają za koordynację schematów rozumowania w konkretnej sytuacji
Teoria modeli mentalnych (Johnson- Laird)
Ludzie często wyobrażają sobie konkretne przykłady pojęć użytych w sylogizmach wraz z zachodzącymi między nimi relacjami, te wyobrażenia są umysłowymi modelami sytuacji opisanej w zadaniu, bądź zaistniałej w rzeczywistości.
Wg tej koncepcji rozumowanie polega na konstruowaniu i manipulacji tzw. modelami mentalnymi- quasi-analogowa reprezentacja sytuacja problemowa, opisana w zadaniu logicznym albo dostrzeżona w sytuacji życia codziennego, która zawiera minimalną ilość informacji potrzebnej do rozumienia tej sytuacji.
Model umysłowy:
- elementy sytuacji problemowej mają swoje odpowiedniki w modelu umysłowym
- model umysłowy odzwierciedla strukturę sytuacji problemowej
- możliwe jest zbudowanie większej liczby modeli umysłowych, dla jednego problemu
- możliwe jest włączenie niektórych elementów reprezentacji obiektów, o których mowa w przesłankach
Etapy rozumowania:
skonstruowanie modelu stanu rzeczy opisanego w przesłankach
sprawdzenie czy domniemany wniosek jest zgodny z tym modelem
próba falsyfikacji konkluzji, poprzez skonstruowanie alternatywnych modleli wynikających z przesłanek
Racjonalność nie polega na stosowaniu abstrakcyjnych reguł logicznych, lecz poszukiwaniu większej liczby modeli, prawidłowo ujmujących informacje zawarte w przesłankach. Chodzi w szczególności o uwolnienie się od modelu początkowego, czemu służy poszukiwanie kontrprzykładów- mechanizm do falsyfikacji hipotez.
Zalety teorii:
- nie wymaga przyjmowania założeń wątpliwych lub niefalsyfikowalnych
- dobrze radzi sobie z wyjaśnieniem błędów negacji poprzednika i potwierdzenia następnika, nie potrzebując w tym celu właściwie żadnych dodatkowych założeń
- świetnie radzi sobie z wyjaśnianiem wpływu treści o kontekstu na wynik rozumowania
- jest stosowana do wyjaśniania złożonych procesów poznawczych
Krytyka:
- niedopracowana
- nie opisuje mechanizmu poprawnego rozumowania, lecz koncentruje się na wyjaśnieniu błędów
- niejasny mechanizm poszukiwania kontrprzykładów, kontrprzykładów nawet samych modeli mentalnych
Rozumowanie indukcyjne
Istotą jest dokonywanie nieuprawnionych (wyprowadzonych na podstawie skończonej liczby obserwacji) uogólnień.
Reguła relacyjna- osobom badanym prezentowany był ciąg liczb, zestawionych wg prostej reguły, np. 2 4 6 - zadaniem było podanie innego ciągu wg reguły ciągu wzorcowego oraz próba werbalizacji reguły.
Tendencja konfirmacyjna- pomimo prostoty reguły ciągu wzorcowego, poziom poprawności wykonania okazał się niski; osoby badane szybko stawiały hipotezę, a następnie generowały ciąg zgodny z jej treścią, tworzyły, więc ciągi, które mogły potwierdzić wstępną hipotezę.
Rozumowanie przez analogię
Analogia- związek między dwoma obiektami, oparty na podobieństwie ich wewnętrznej struktury lub podobieństwie relacji zachodzących w obrębie porównywanych członów.
podobieństwo celu, okoliczności, skutków
A jest analogiczne względem B, jeśli A i B są zbiorami i jeśli relacja Ri porządkująca elementy zbioru A jest podobna do relacji Ri' porządkującej elementy zbioru B
wymaga głównie podobieństwa wewnętrznych struktur porównywanych członów, a nie związku między obiektami opartego na podobieństwie zewnętrznym ; nie zachodzi ze względu na pojedynczą cechę
dzięki niej nabywamy nową wiedzę
jeden z centralnych mechanizmów regulacji psychicznej
szczególny rodzaj indukcji: najpierw od szczegółu do ogółu (abstrahowanie relacji między członami relacji w dziedzinie analogii Y) a następnie od ogółu do szczegółu (przeniesienie wyabstrahowanej relacji na przestrzeń semantyczną dziedziny Y)
zjawisko transferu wiedzy, czyli przeniesienia jej na zupełnie nową dziedzinę- charakter pozytywny lub negatywny
D. Gentner- teoria odwzorowania struktury; najważniejsze jest dostrzeżenie podobieństwa relacji zachodzących między elementami w obrębie dwóch różnych dziedzin (relacja ich wewnętrznej struktury)
inne stanowisko- uchwycenie odpowiedniości między strukturami dwóch dziedzin nie wystarczy-potrzeba analizy podobieństw niższego rzędu, w tym cech powierzchownych obu dziedzin
obecnie- w przypadku dziedzin słabo znanych dostrzegane podobieństwo zewnętrzne i dopiero wraz z nabywaniem doświadczeń w obrębie funkcji czy mechanizmów
pomyśle przeniesienie wiedzy zależy od abstrakcyjnych schematów rozumowania, które są ogólnym reprezentacjami rozwiązań możliwych do zastosowania w różnych sytuacjach- im bogatsze schematy tym łatwiej dostrzegać analogię
Rumelhart i Abrahamson testowali hipotezę, w myśl, której rozumowanie przez analogię wymaga wydawania sądów na temat podobieństwa pomiędzy pojęciami ( konc. semantyczna- stopień podobieństwa zależy od odległości pojęć w niej zawartych)
-autorzy uznali, że w wypadku wnioskowania przez analogię zadanie polega na znalezieniu takiego wektora w wielowymiarowej przestrzeni pamięci, który miałby taką samą długość dla relacji A:B jak i do relacji C:x, szukamy x; manipulowano eksperymentalnie odległością alternatywnych członów x1- x4, wyprowadzoną z wielowymiarowym modelu Henley; (czyli nie tylko odległość pomiędzy pkt w przestrzeni decyduje, ale i pomiędzy alternatywami)
wyniki potwierdziły model, tolerancja pomiędzy C a x-ami wynosi ok., 0,12 jedn.
Sternberg, użył analizy komponentowej i wielu zadań wymagających rozumowania przez analogię, uzyskał najlepsze dopasowanie danych-80% wyj waniancji
Rekonstrukcja procesu rozumowania przez analogię:
osoba badana koduje człony A i B analogii i następuje przywołanie z LTM do WM niektórych atrybutów tych pojęć
w procesie wnioskowania człony A i B podlegają kompletnemu porównaniu ze względu na atrybuty wydobyte z WM
odwzorowanie polega na znalezieniu relacji pomiędzy członem A i C analogii, co wymaga wcześniejszego kodowania członu C i przywołania jego atrybutów porównanie atrybutów w ramach odwzorowania przebiega z uwzględnieniem relacji A: B i dokonuje się dla jednej wyróżnionej wcześniej relacji
jeśli relacja okaże się istotna z uwzględnieniem C, następuje przejście do dekodowania członu D i zastosowania wykrytej relacji w stosunku do tego elementu
proces kończy się emisją reakcji
jeśli relacja C:D nie spełnia wymagań podobieństwa A:B to następuje powtórzenie cyklu w pętli rozpoczynającej się odwzorowaniem, z uwzględnieniem innej relacji A:B, aż do znalezienia poprawnego rozwiązania
najistotniejsza rola składnika odwzorowania
CO ŁĄCZY RÓŻNE FORMY ROZUMOWANIA???
Integracja relacyjna- zestawienie relacji między obiektami albo zdarzeniami i manipulowanie nimi
Wlatz i współpracownicy
zadanie dedukcyjne- wnioskowanie przechodnie
zadanie indukcyjne- matrix problem
3 grupy pacjentów:
uszkodzenie kory przedczołowej
uszkodzenie przyśrodkowej części płata skroniowego
normalni
zwiększenie trudności zadań powodowało znaczne obniżenie poprawności u 1, odwołanie do WM
ROZUMOWANIE PROBABILISTYCZNE
efekt siły przekonań- treść logicznego wniosku pozostaje w związku z wiedzą czy przekonaniami osób bzdanych
ROZUMOWANIE NIEFORMALNE
zdecydowanie odbiega od tego, które przyjmują logicy; włączanie nowych wiadomości do przesłanek
ROZDZIAL 12
WYDAWANIE SĄDÓW I PODEJMOWANIE DECYZJI
Sąd - wyrażone wprost twierdzenie na temat pewnego stanu rzeczy, np.: przynależności obiektu do określonej kategorii, posiadania przez obiekt jakiejś cechy, wartości danego obiektu z punktu widzenia pewnego kryterium, a także prawdopodobieństwa wystąpienia danego zdarzenia.
Decyzja - to wybór jednej możliwości decyzji spośród dwóch co najmniej dwóch opcji. Samo dokonanie wyboru nie oznacza jeszcze podjęcia działania, ponieważ do tego potrzebna jest skuteczna motywacja oraz obiektywne możliwości realizacji decyzji.
Sądy dzielimy w zależności od tego, czego dotyczą i czemu służą:
Sądy atrybucyjne - odnoszą się do cech, które - według nas - charakteryzują ludzi (włącznie z nami samymi) lub inne obiekty.
Sądy probabilistyczne - polegają na ocenie szans lub zagrożeń, lub prawdopodobieństwa wystąpienia wydarzeń całkowicie nam obojętnych.
Sądy wartościujące - to te, w których obiektowi jest przypisana jedna wartość np.: estetyczna lub etyczna.
TENDENCYJNOŚĆ W WYDAWANIU SĄDÓW
Tendencyjność- przypadłość umysłu ludzkiego polegającą na systematycznym odstępowaniu od idealnego wzorca rozumowania, co skutkuje regularnym popełnianiem błędu określonego rodzaju. Tendencyjność nie jest więc równoznaczna z podatnością na błędy wszelkiego rodzaju, lecz ze skłonnością do popełniania błędów uniwersalnych i bardzo charakterystycznych
Amos Tversky i Daniel Kahnemam - o tendencyjności sądów
ich zdaniem ludzie wydając sądy nie kierują się racjonalnymi przesłankami i ścisłymi regułami rozumowania ale tzw heurystykami
Uproszczone zasady wnioskowania, umożliwiające szybkie sformułowanie sądu, któremu bardzo często towarzyszy subiektywne przekonanie o słuszności.
Najcześciej badano dwie heurystyki decydujące i tendencyjności w wydawaniu sądów:
Heurystyka reprezentatywności- polega na kierowaniu się tym, czy dany obiekt lub zdarzenie jest według nas charakterystycznym egzemplarzem szerszej klasy obiektów lub zdarzeń, np. wybierając 6 liczb w totolotku i mając dwa ciągi liczb:
1 2 3 4 5 6
i
3 8 17 26 35 47
Bardziej prawdopodobny w wydaje się nam drugi ciąg liczb. Tymczasem oba przykłady SA jednakowo mało prawdopodobne, ponieważ wylosowani dowolnej liczby nie zmienia prawdopodobieństwa wylosowania dowolnej, innej liczby
Ciąg liczb 1 2 3 4 5 6 wydaje nam się mniej reprezentatywny
Reprezentatywnośc danego obiektu oceniamy na podstawie dwóch przesłąnek:
- podobieństwo tego obiektu do innych egzemplarzy tej samej klasy. Obiekt reprezentatywny to taki, który charakteryzuje się dużą liczbą cech wspólnych dla wszystkich egzemplarzy kategorii
- sposób, w jaki dany obiekt został pobrany ze zbioru lub populacji obiektów. Wylosowany ciąg liczb musi wyglądać jak wylosowany inaczej nie będzie uważany za cos typowego w swojej klasie.
Złudzenia poznawcze/ tendencyjność sądów, do których prowadzi nas heurystyka reprezentatywności:
Złudzenie hazardzisty (efekt Monte Carlo)- ludzie przeceniają prawdopodobieństwo wyniku losowania, który od dawna nie wystąpił, przykład z rzucaniem monetą (str 551)
Złudzenie koniunkcji- zawyżanie prawdopodobieństwa posiadania przez obiekt pewnej cechy, jeśli występuje ona z inną cechą (Tversky i Kahneman- problem Lindy- badani wskazywali na większe prawdopodobieństwo posiadania dwóch cech niż posiadanie jednej z nich) - złudzenie może wynikać z tego, że poszczególne elementy koniunkcji postrzegane są jako logiczny ciąg zdarzeń powiązanych relacjami przyczynowo- skutkowymi. Zdarzenia tworzą wtedy tzw. wiarygodny scenariusz, charakterystyczny dla szerszej klasy scenariuszy tego samego typu.
Heurystyka dostępności- polega ona na kierowaniu się tymi przesłankami lub elementami wiedzy, które są dostępne i łatwe do wydobycia z pamięci trwałej, a ignorowaniu tych, które są trudno dostępne (przykład z szacowaniem częstości występowania w polskich nazwiskach litery K jako przedostatniej- str 555).
Błędy i tendencyjne sądy do których prowadzi heurystyka dostępności:
Efekt świeżości- przykład z dużą liczbą informacji w mediach o atakach terrorystycznych i katastrofach- ludzie przeceniają prawdopodobieństwo śmierci w wyniku ataku terrorystycznego)
Złudzenie osobistego doświadczenia- osobiste doświadczenia, zapisane w pamięci autobiograficznej, wspomagane emocjami i licznymi, dobrze pamiętanymi szczegółami, jest łatwo dostępne, w przeciwieństwie do suchych statystyk, które nawet gdyby były nam znane, nie mogą konkurować z osobiście zapamiętanymi epizodami.
Prawo małych liczb- ludzie chętniej wnioskują na podstawie skąpej liczby przypadków, pod warunkiem ze sa to przypadki przez nich osobiście doświadczone. W szczególności mamy tendencję do ferowania sądów o ludziach na podstawie nielicznej próbki badanych pod nazwą „moi znajomi”
Heurystyka dostępności (dysponujemy klasą ogólną, np. końcówki SKI- przykład powyżej- po czym szukamy w pamięci konkretnych przykładów kategorii, jeśli znajdujemy je szybko i bez wysiłku to przeceniamy częstość występowania elementów tej kategorii, a jeśli idzie nam wolno to mamy tendencje do niedoszacowania częstości ich występowania) jest w pewien sposób odrotnością heurystyki reprezentatywności (dysponując konkretnym przypadkiem- osoba o imieniu Linda- odwołujemy się o szerszej klasy zjawisk lub obiektów, po czym przeceniamy prawdopodobieństwo wystąpienia tego, co uważamy za charakterystyczne dla całej tej kategorii)
Heurystyka zakotwiczenia i dopasowania- prowadzi do błednej oceny wielkości liczbowych. Odpowiada za niedoszacowanie bądź przeszacowanie głównie wartości statystycznych
IGNOROWANIE PROPORCJI PODSTAWOWEJ
Wiele błedów w ocenie prawdopodobieństwa wynik z ignorowanie proporcji podstawowej- określa ona ogólną częstość występowania zdarzenia lub cechy w populacji
- reguła Bayesa
WADY I ZALETY PROSTYCH HEURYSTYK
(badania Tversky'ego i Kahnemana) krytykowano sposób zadawania pytań i formułowania zadań
Np. (problem Lindy- str 553) sztuczne przyklejenie cechy „feministka” do „pracuje w banku”. Należało porównać częstość zaznaczania pozycji „feministka” z „feministka pracująca w banku”
w realnych sytuacjach życiowych tendencyjność w wydawaniu sądów jest znaczne mniejsza niż w badanich laboratoryjnych
Zaleta: umożliwiają sformułowanie poprawnego sądu osobom, które bez nich byłyby skazane na porażkę ze względu na brak wymaganych zdolności intelektualnych.
SĄDY INTUICYJNE:
- poznanie intuicyjne- szeroka kategoria zjawisk dotyczących uczenia się, nabywania wiedzy, języka oraz myślenia i rozwiązywania problemów. Wspólną cechą tych zjawisk jest to, że człowiek wykonuje złożone czynności poznawcze, np. rozwiązywanie problemów, nie zdają sobie sprawy z istotnych elementów tego procesu lub z jego przesłanek, a często nawet z tego, że w ogóle dysponuje jakąś sprawnością poznawczą lub wiedzą
- sąd intuicyjny- nagły, bo w doświadczeniu wewnętrznym nie stanowi końcowego ogniwa dłuższego ciągu rozumowania. Nagłość sądu apriorycznego jest cechą charakterystyczną ale nie konieczną.
-oczywisty bo nie domaga się uzasadnień, jego prawdziwość nie budzi wątpliwości. oczywistość sądu intuicyjnego nie występuje w każdym przypadku. Czasami doświadczamy tzw poczucia wiedzy(FOK)-ale nie jest ono zawsze mocne i niezachwiane.
-aprioryczny, bo wydaje się nam, że powstał nie na podstawie doświadczenia i wiedzy ale w wyniku tajemniczego olśnienia. Aprioryczność jest cechą nieodzowną
- sąd intuicyjny odnosi się do trzech kategorii zjawisk:
Sądy, których nie potrafimy uzasadnić
Westcott- przeskoki intuicyjne- zgadywanie kolejnych wartości ciągu jeszcze przed sformułowaniem ogólnej zasady
Bowers- twierdzi, że sądy intuicyjne powstają w dwóch etapach:
- stadium naprowadzenia- uaktywniają się struktury wiedzy
Odpowiadające poszczególnym składnikom koherentnej struktury.
Stopniowo aktywizują się odpowiednie węzły sieci semantycznej,
Reprezentujące trzy oderwane pojęcia np. grzywa, król, pustynia
- Faza integracji- pobudzenie czwartego węzła może przekroczyć
wartość graniczną, umożliwiającą uświadomienie sobie i zwerbalizowanie rozwiązania
Sąd naiwny oparty na doświadczeniu potocznym- często przybierają postać przysłów i są elementami wiedzy przednaukowej
Modele umysłowe- dotyczą określonego obszaru rzeczywistości fizycznej lub społecznej, na ich analizie polega badanie poznania potocznego
Sąd alogiczny- są to sądy oparte na heurystyce dostępności czy reprezentatywności.
Przykładem są też sądy dzieci w wieku przedoperacyjnym dotyczące stałości masy lub objętości (przykład z przelewaniem wody ze szklanki do innego naczynia str 571)
Piaget uważa, że myślenie alogiczne trwa dotąd aż dziecko jest w stanie poprawnie uzasadnić swój sąd
Istotą myślenia operacyjnego (logicznego) jest wg Piageta odwracalność operacji umysłowych. Operacje są odwracalne ⇒ ich negacja znosi skutek ich własnego działania np. 7+5- 5=7
PODEJMOWANIE DECZJI
Klasyczna teoria decyzji (KTD)- opisuje zachowanie idealnego, doskonale racjonalnego sprawcy (decydenta) w warunkach wymagających wyboru jednej spośród pewnej liczby dobrze znanych opcji. Doskonale racjonalny decydent kieruje się zasadą użyteczności, biorąc pod uwagę przede wszystkim te opcje, które niosą mu jakąś korzyść. Kieruje się także zasadą prawdopodobieństwa, odrzucając opcje mało realne.
Teoria ta jest modelem preskryptywnym- podaje przepis na racjonalną decyzję ale nie opisuje rzeczywistych zachowań ludzi w sytuacjach wymagających podjęcia decyzji.
Chcąc zmodyfikować KTD w taki sposób, aby opisywała rzeczywiste, a nie idealne zachowania ludzi, wprowadzono pojęcie
- oczekiwanej subiektywnej użyteczności wyniku - SEU - oznacza ono wartość konkretnej opcji jako funkcję subiektywnego prawdopodobieństwa jej wystąpienia i subiektywnej użyteczności jej skutków.
- Pewna odmiana KTD, nazywana jest modelem kompensacyjnym. Zgodnie z tym modelem, dostępne nam opcje oceniamy według szeregu kryteriów, a następnie wybieramy to, co uzyskuje wyższą globalną sumę ocen. Zakładamy przy tym, że przyjęte kryteria równoważą się, czyli możliwa jest kompensacja braków w jednej dziedzinie zaletami w innych. Model kompensacyjny może też opisywać przypadki znacznie bardziej skomplikowane, gdzie poszczególnym opcjom towarzyszą szacowane prawdopodobieństwa. Na przykład lekarz może rozważać zastosowanie jednej z dwóch możliwych terapii, z których każda - oprócz zalet - ma negatywne skutki uboczne, a ponadto każda cechuję się określonym prawdopodobieństwem wyzdrowienia pacjenta. Prawdopodobieństwo to może być oceniane obiektywnie, np. na podstawie ogólnej wiedzy medycznej i raportów z poprzednich przypadków stosowania danej terapii, lub subiektywnie, na podstawie intuicji lekarza i jego osobistego doświadczenia klinicznego.
Mimo, że koncepcja oczekiwanej subiektywnej użyteczności oraz model kompensacyjny wprowadzają istotne modyfikacje do klasycznej teorii decyzji, są to dalszym ciągu mało trafne przybliżenia w stosunku do tego, jak ludzie naprawdę podejmują decyzje.
STRATEGIE W PODEJMOWANIU DECYZJI:
Strategia zadowolenia- (Herbert Simon) polega na przeglądaniu dostępnych opcji w przypadkowych porządku i wyborze pierwszej, która nas wystarczająco satysfakcjonuje. Zdaniem Simona ludzie nie porównują wszystkich opcji pod każdym względem w celu wybrania najlepszej, ponieważ zabrakłoby na to czasu, wiedzy lub wolnych zasobów poznawczych. Autor odwołuje się tu do koncepcji ograniczonej racjonalności umysłu ludzkiego- wybieramy kryterium, niekiedy bardzo skromne, i na tej podstawie wybieramy. W tej sytuacji jest mało prawdopodobne odnalezienie idealnego rozwiązania ale z pewnością przyniesie nam zadowolnie
Eliminacja według aspektów- (Amos Tversky)- model ten może być użyty jako przygotowanie do bardziej dogłębnych procesów decyzyjnych. Raz odrzucona opcja nie jest już brana pod uwagę w dalszych rozważaniach, nawet gdyby niektóre jej aspekty były atrakcyjne
„Kieruj się tym co najważniejsze” -( grupa ABC)- tworzymy liste najważniejszych kryteriów odrzucając po kolei te opcje, które ich nie spełniają
„Kieruj się tym co się ostatnio sprawdziło”- (grupa ABC)- nie mając Widzy która wskazówka jest najważniejsza lub nie mogąc się zdecydować, bierzemy pod uwagę kryterium sprawdzone w ostatniej próbie tego samego rodzaju.
Grupa ABC- porównuje umysł ludzki do przydatnej skrzynki narzędziowej- zestawu modułów służących rozwiązywaniu konkretnych problemów. Szybkie i oszczędne heurystyki to narzędzia dzieki którym umysł przystosowuje się do stawianych mu wymagań.
TEORIA PERSPEKTYWY
- Daniel Kahneman
- wiąże się ona ściśle z teorią obramowania- Kahnemana i Tversky'ego dotycząca wpływu mentalnej reprezentacji problemu decyzyjnego na treść podejmowanych decyzji (eksperyment ze studentami i wyborem programu ratowania ludzi przed epidemią- str 581)- poznawcza reprezentacja problemu może ulec zmianie pod wpływem rodzaju użytych słów
- efekt obramowania jest przykładem asymetrii pozytywno- negatywnej-(Kahneman, Tversky)- ludzie inaczej wartościują zyski a inaczej straty nawet jeśli sa one wyrazone w porównywalnych jednostkach np. pieniężnych. Subiektywne poczucie straty rośnie znacznie szybciej niż subiektywne poczucie zysku
PROCES PODEJMOWANIA DECYZJI:
Podejmowanie decyzji to złożony proces poznawczy, na który wpływa mają elementy poznawcze, emocjonalne i motywacyjne a także wiedza i doświadczenie decydenta jak i czynniki kontekstualne
Faza przeddecyzyjna- zdefiniowanie problemu (określenie rozbieżności miedzy stanem obecnym a stanem docelowym) i zbieranie informacji na temat dostępnych opcji
Proces decyzyjny- wg Oli Svenson jest to stopniowe wyróżnienie jednej opcji spośród pozostałych. Jest to długi proces polegający na gromadzeniu wiedzy na temat wyróżnionej opcji. Rohrbaugh i Shanteau uważają ze zasadniczym elementem procesu decyzyjnego jest ocena ważności zebranyc wcześniej inf na temat dostępnych możliwości wyboru. Co uznamy za informacje ważną zależy od trzech czynników(wykres na str 585- warto zerknąć):
> procesów poznawczych- przywołanie wiedzy z pamięci trwałej a ponadto operacje
myślenia i rozumowania. W ich wyniku dochodzi do uaktywnienia heurystyk lub
strategii decyzyjnych. Na przebieg tych procesów mają wpływ takie czynniki:
- poziom ryzyka
- pozytywne lub negatywne emocje
- polityka podejmowania decyzji(zachowania automatyczne- decydent szybko i automatycznie uruchamia pewien system działania, jeśli bieżąca sytuacja jest szczególnym przypadkiem szerszej klasy problemów, które skutecznie rozwiązywał już wczesniej, intuicyjne- uwzględnienie najbardziej oczywistych przesłanek z pominięciem tych ukrytych choc może ważniejszych, decydent wspomaga się wyobrażeniem tego co się stanie, deliberatywne- decydent dokładnie rozważawszelkie opcje i przesłanki wyboru)
- korzystanie z inf zwrotnych
- zasobność systemu poznawczego
> doświadczenia-
> kontekstu
Szczególną role odgrywają również takie zmienne indywidualne jak: temperament, osobowość, ekspertywność (eksperci stosują bardziej wydajne strategie a także szybciej i trafniej rozpoznają)
Model Rohrbaugh i Shanteau pokazuje również z czego wynikają błędy decyzyjne:
- Niewłaściwy przebieg procesów poznawczych lub działanie czynników zakłócających
- działanie czynnikow indywidualnych np. brak doświadczenia
- ignorowanie kontekstu lub nadmierne przejmowanie się nim
Faza postdecyzyjna- często rodzą się wątpliwości co do słuszności wyboru. Decydent wtedy:
- utwierdza się w przekonaniu ze dobrze zrobil (jeden z trzech przejawów dysonansu poznawczego Festingera)
- wybiórczy stosunek do inf napływającej z otoczenia (odrzuca się inf niezgodne z przekonaniem)
- poszukiwanie uzasadnienia dla własnych działań (dorabia się wewnętrzne motywy, wczesnej nieobecne)
Żal postdecyzyjny jest tym wiekszy im wazniejsza była decyzja i im trudniej było ja podjąć, im dłużej nad nia pracowaliśmy i im trudniej teraz przeciwdziałać jej negatywnym skutkom. Według Svenson można uniknąć zalu pod warunkiem ze wybrana wczesniej opcja ulegnie konsolidacji (podnszenie wartości wybranej opcji a obniżeniu wartości odrzuconych)
Faza postdecyzyjna zawiera także takie elementy jak: trafność decyzji, uwzględnionych kryteriów wyboru, wagi tych kryteriów itp
Rozdział 13
Język i mowa
Język- system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli (dźwięków mowy lub znaków pisma). Operowanie na symbolach podlega regułom gramatycznym, swoistym dla każdego języka naturalnego lub sztucznego.
Mowa- używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze lub własne. W innym ujęciu mowa to zdolność gatunku ludzkiego do przekazywania i odbierania komunikatów językowych za pomocą wyrażeń wokalnych lub znaków pisma.
Procesy przetwarzania języka- procesy przetwarzania informacji biorące udział w tworzeniu wyrażeń językowych i ich analizie.
Język pełni dwie podstawowe funkcje psychiczne:
komunikacyjna- język to medium porozumiewania się, czyli wzajemnego przekazywania sobie informacji; porozumiewanie się ma postać:
- niewerbalną (mimika, pantomimika, postawa ciała itp.)
- parawerbalną (ton głosu, pauzy, intonacja)
- komunikatów stricte językowych
zasada prymatu komunikacji niewerbalnej nad werbalną- niekiedy sens komunikatu niewerbalnego jest sprzeczny z treścią przekazywaną za pośrednictwem języka, np. mówimy do dziecka „chodź tu mały brzydalu”- komunikat negatywny jednak dzięki pieszczotliwej artykulacji dziecko przybiega; komunikaty niewerbalne nie muszą być sprzeczne z werbalnymi- zwykle wzajemnie się uzupełniają i wzmacniają.
poznawcza- polega na wspomaganiu procesów przetwarzania informacji (głównie myślenia i rozumowania); dzięki językowi możliwe jest myślenie pojęciowe, którego składnikami są pojęcia, sądy i schematy; myślenie abstrakcyjne nie jest tożsame z używaniem języka, ale nie byłoby bez niego możliwe; język pełni ważną rolę w procesach kontroli poznawczej i samokontroli emocjonalnej (panowanie nad sobą w postaci nakazów i zakazów); kategoryzacja
Inny podział funkcji języka:
ekspresyjna- wyrażanie stanów podmiotu mówiącego (emocjonalnych-czuję; motywacyjnych-chcę); nakazy, zakazy, polecenia, groźby i inne wyrażenia mające na celu wpływanie na działanie innych ludzi lub zwierząt to przejawy ekspresyjnej funkcji języka.
referencjalna- język może służyć do opisu rzeczywistości pozajęzykowej, też do opisu samego siebie; referencjalnośc- odnoszenie się symbolu oznaczającego (słowa) do przedmiotu oznaczanego (desygnat); relacje słowo-przedmiot tworzą znaczenie; słowo, desygnat i znaczenie składają się na trójkąt semantyczny.
Cechy języka: system złożony, dynamiczny (ciągle ewoluujący), produktywny (korzystając z ograniczonego zasobu słów jesteśmy w stanie stworzyć nieskończoną liczbę zdań (komunikatów)-> niekiedy produktywność prowadzi do twórczości językowej (np. dziecko „Co foczki ją?”).
Przyczyny dynamicznej zmiany języka:
Zmiany polityczne, kulturowe i obyczajowe
Eufemizacja i poprawność polityczna, np. sprzątaczka-> osoba sprzątająca
Bariera oni-my, gwary środowiskowe działające jako przeszkoda dla niewtajemniczonych.
Poziomy języka:
fonologiczny- obejmuje podstawowe jednostki budulcowe komunikatu werbalnego (głoski, fonemy); każdy język buduje swoje przekazy korzystając z około 30-40 głosek
semantyczny- obejmuje ulepione z głosek lub znaków pisma elementarne składniki znaczenia (morfemy (rdzeń)- składniki słów, niosące pewną treść); na tym poziomie analizy języka istotne staje się znaczenie, definiowane jako fragment wiedzy o świecie, wyrażonej pojęciami i sądami:
- znaczenie denotacyjne- kiedy wiedza dotyczy faktów
- znaczenie konotacyjne- kiedy wiedza dotyczy emocji i skojarzeń
np. denotacja słowa dom to budynek, a konotacja to bogata siec skojarzeń (ciepły, rodzinny)
syntaktyczny- składa się z fraz i zdań, połączonych według reguł gramatyki; zdanie składa się z:
- frazy nominalnej- określającej sprawcę i jego atrybuty
- frazy czasownikowej- określającej czynność i jej okoliczności
Strukturę zdania możemy zapisać w postaci drzewka derywacyjnego.
pragmatyczny- dotyczy społecznych aspektów języka, a właściwie jego użycia w funkcji komunikacyjnej- czyli co komu i w jakim celu chcemy powiedzieć. Jest on szczególnie istotny w przypadku wyrażeń ironicznych czy sarkastycznych, np. „no to pieknie!”.
Niektórzy wyróżniają 2 warstwy funkcjonowania języka (Noam Chomsky-teoria gramatyki generatywnej)
struktura powierzchniowa- to rzeczywiste zdanie utworzone według obowiązujących reguł gramat.
struktura głęboka- to abstrakcyjna postać tego zdania, wyrażona w postaci drzewka derywacyjnego
Przekształcenie struktury głębokiej w powierzchniową jest możliwe dzięki regułom transformacji); umysł przechowuje sens zdarzenia na poziomie głębokim, co wystarczy, aby w razie potrzeby wygenerować odpowiadające temu sensowi struktury powierzchniowe; perspektywa mówcy: transformacja z głębokiego znaczenia na powierzchniową strukturę syntaktyczną zdania<- z perspektywy słuchacza odwrotnie; opowiadając jakąś historię, za każdym razem generujemy nowy zestaw struktur powierzchniowych.
Hipoteza determinizmu językowego (hipoteza Sapira- Whorfa)- język zasadniczo wpływa na to, jak spostrzegamy rzeczywistość, przetwarzamy informacje, formułujemy sądy lub korzystamy z zasobów pamięci; wielu pojęć nie da się przełożyć z jednego języka na inny; sposób w jaki mówimy determinuje to, jak widzimy świat i myślimy o nim; relatywizm językowy- nie ma dwóch identycznych języków, więc nie ma dwóch jednakowych sposobów poznawczego reprezentowania rzeczywistości, przede wszystkim społecznej.
Koncepcje przyswajania języka:
behawioryzm (teoria uczeniowa):
- warunkowanie klasyczne
*Iwan Pawłow- język jako drugi system sygnałowy- w wyniku warunkowania wyższego rzędu możemy
reagować strachem już nie tylko na sygnał zagrożenia, ale również na sygnał zapowiadający ten sygnał
(słowa jak „uważaj”, „groźne”)
*Hobart Mowrer- wyróżnił 4 grupy sytuacji odpowiadających znaczeniom językowym: groźba,
obietnica, ulga, rozczarowanie-tymi terminami opisał przypadki, gdy słowo sygnalizuje
niebezpieczeństwo, nagrodę, minięcie zagrożenia lub brak zapowiadanej nagrody.
- warunkowanie sprawcze- człowiek spontanicznie używa pewnych dźwięków- najpierw pojedynczych głosek i sylab, potem słów i pełnych zdań- otrzymując w zamian wzmocnienie pozytywne lub negatywne; dzięki stosowaniu reguł kształtowania złożonych reakcji, dorośli są w stanie wykształcić u dzieci umiejętność posługiwania się długimi, skomplikowanymi strukturami językowymi. Czynnikiem wzmacniającym może być tutaj sam fakt naśladowania innego osobnika, w szczególności kogoś ważnego.
poglądy natywistyczne:
- zdaniem Norma Chomsky'ego proces nabywania języka jest zdeterminowany wrodzonymi strukturami mózgowymi (urządzenie do przyswajania języka- LAD); dziecko posiada wrodzoną, ukrytą kompetencję językową, AGRUMENTY:
* istoty języka nie tworzą słowa, lecz struktury syntaktyczne, które są ukryte a przez to trudne do bezpośredniego utrwalania poprzez wzmocnienia pozytywne
* struktur gramatycznych raczej nie uczymy się wprost w sposób jawny (dziecko posługuje się już w pełni gramatycznym językiem, zanim pójdzie do szkoły)
* ludzie-zwłaszcza dzieci- używają zdań, których nie mieli okazji wcześniej usłyszeć
- Steven Linker- człowiek ma instynktowną zdolność do mówienia (instynkt językowy), czyli wrodzoną gotowość do wykształcenia określonych struktur; dzięki ekspozycji na komunikaty językowe, która musi nastąpić w okresie sensytywnym, uruchamiają się odpowiednie struktury mózgowe, w wyniku czego proces przyswajania języka uzyskuje nadzwyczajne przyspieszenie i wydajność.
- mowa ukierunkowana na dziecko- polega na modelowaniu (a nie karaniu) zachowań werbalnych dziecka w następstwie wielokrotnego powtarzania krótkich, ale syntaktycznie poprawnych zdań, np. „Kot mleko”- „Tak, kot pije mleko”.
Stadia przyswajania języka:
- proces przyswajania pierwszego języka jest w zasadzie ukończony u progu 4 roku życia dziecka (chodzi tu o kompetencję językową- kompetencja komunikacyjna rozwija się niekiedy do okresu adolescencji)
pierwszy rok życia dziecka to ćwiczenia w zakresie fonologii, prozodii (charakterystyczny dla każdego języka typ „zaśpiewu”- składa się na nią intonacja, a także akcent i rytm), intonacji
* głużenie- wypowiadanie pojedynczych fonemów
* gaworzenie- wypowiadanie pojedynczych sylab
drugi rok życia to próby konstruowania niegramatycznych zdań z ukrytą syntaksą
- pierwsze słowa pojawiają się zwykle między 12-14 miesiącem życia, choć przejawy ich rozumienia już po 9 miesiącach od urodzenia
- mowa telegraficzna-mówienie pojedynczymi wyrazami lub łączenie ich w krótkie zestawy bez poprawnego odmieniania przez osoby, czasy, przypadki, np. „mama bawić”.
trzeci rok życia to ćwiczenia w pełni gramatycznych wypowiedzi i dopasowywanie ich do potrzeb komunikacyjnych dziecka; dwa rodzaje błędów występujące w tym okresie dotyczą kategoryzowania i tworzenia struktur gramatycznych:
* błąd nadrozciągłości znaczeń- włącznie w obręb kategorii obiektów, które do niej nie należą (np. nazywanie każdej istoty czworonożnej psem)
* błąd hiperregularyzacji- dziecko ignoruje wyjątki i przypadki szczególne, stosując wszędzie regularne struktury gramatyczne (np. „on ma dwa braty”= dwóch braci).
Dwujęzyczność i wielojęzyczność:
- we współczesnym ujęciu dwujęzyczność i wielojęzyczność to zdolność do posługiwania się więcej niż jednym językiem
- do pewnego momentu w rozwoju poznawczym drugi język przyswajamy tak jak pierwszy, to znaczy szybko i bezwysiłkowo, korzystając z „instynktu językowego”
- kiedy minie okres sensytywny, przyswajanie drugiego języka staje się procesem powolnym i wymagającym wysiłku, a jego efekty nigdy nie będą idealne
- do kosztów dwujęzyczności zalicza się interferencję między językami- znajomość więcej niż jednego języka zwiększa ryzyko pomyłki w doborze słów i wyrażeń, spowalnia procesy wydobywania słów z leksykonu mentalnego i wymaga zwiększenia kontroli na etapie artykulacji, aby słowo z jednego języka nie „wcisnęło się” w komunikat sformułowany w innym języku
- osoby wielojęzyczne funkcjonują na wyższym poziomie świadomości metajęzykowej- osoby te wyrażają się bardziej precyzyjnie, ponieważ staranniej dobierają słowa i struktury składniowe
Mówienie:
planowanie mowy: polega na podjęciu decyzji co do sensu przekazu i intencji jego przekazania; wymaga uwzględnienia pragmatycznego aspektu języka;
- zasada kooperacji- mówca i słuchacz muszą ze sobą współdziałać (Paul Grice); 4 maksymy językowe mające ułatwić kooperację:
1) maksyma ilości- komunikat powinien zawierać tyle danych, ile to konieczne- nie więcej i nie mniej
2) maksyma jakości- mówca powinien mówić prawdę, ponieważ takie będzie prawdopodobne oczekiwanie słuchacza (chyba, że słuchacz zdaje sobie sprawę, że komunikat jest fałszywy to OK.)
3) maksyma relacji- mówca powinien mówić na temat, bez dygresji i odbiegania od głównego wątku- jeśli jednak dygresja czemuś służy, maksyma relacji nie zostaje złamana
4) maksyma sposobu- mówca powinien używać środków wyrazu dostępnych odbiorcy (głośna i wyraźna artykulacja, nieużywanie słów i wyrażeń, których słuchacz nie rozumie ze względu na brak wiedzy itp.)
- planowanie mowy dokonuje się z uwzględnieniem wspólnej płaszczyzny czyli podzielanych przez obie strony konwersacji elementów wiedzy, często niejawnej- jeśli porozumiewają się osoby obce, ustalenie wspólnej płaszczyzny może być bardzo trudne
- planowanie mowy jest minimalnie przesunięte w czasie w stosunku do realizacji planu= wypowiadając zaplanowane wcześniej słowa, jesteśmy już mentalnie przy następnym fragmencie wypowiedzi, świadczą o tym przejęzyczenia, w szczególności błędy antycypacji („Piciu, co ci zrobić do misia?”)
- jednostką planowania mowy jest FRAZA
- przetwarzając frazę, mamy do czynienia ze szczególnym przypadkiem interferencji, wynikającej z wykonywania dwóch czynności jednocześnie (planowanie wypowiedzi- realizacja planu)
kodowanie semantyczno- syntaktyczne:
- leksykalizacja- przekształcanie myśli w słowa; wymaga zaangażowania trzech poziomów języka: semantycznego, syntaktycznego, fonologicznego
- według Levelta pierwszy etap leksykalizacji polega na wyborze lemm (abstrakcyjna postać słowa obejmująca 3 elementy: jego znaczenie, funkcję syntaktyczną przewidzianą dla niego w przyszłym zdaniu oraz wskaźniki fonologiczne, czyli wstępne dane dotyczące sposobu jego wymawiania)
- dowód na obecność tego etapu- efekt końca języka- np. pytamy kogoś jak nazywa się rezygnacja osoby panującej z praw do tronu-> osoba nie udzieli odpowiedzi choć jest przekonana, że zna to słowo (abdykcja), co więcej niektórzy badani będą w stanie poprawnie określić na jaką literę zaczyna się to słowo, czyn z ilu składa się sylab- świadczy to o tym, że lemma zawiera nie tylko znaczenie i funkcję przyszłego słowa, ale też wskaźniki fonologiczne (jedynie szczątkowe wskazówki)
kodowanie fonologiczne:
- następuje drugi etap leksykalizacji= wybór leksemów; leksem- jednostka umysłowego słownika, na który składają się konkretne słowa odpowiadające określonym znaczeniom (np. leksemy słowa koń to koń, konie, koniom itp.); leksykon mentalny- zbiór wszystkich leksemów, którymi dysponuje konkretny użytkownik języka (jeśli jest wielojęzyczny może dysponować więcej niż jednym leksykonem)
- teoria Levelta- etap fonologiczny obejmuje trzy podetapy:
* przywoływanie z pamięci głosek i układanie ich we właściwej kolejności
* sylabizacja i prozodyzacja wypowiedzi
* kodowanie fonetyczne czyli wybór odpowiednich wzorców artykulacyjnych dla każdej sylaby (w pamięci
mamy „sylabiarz” składający się z ok. 500 sylab)
- interakcyjny model mówienia- Dell twierdzi, że istnieje samoorganizująca się sieć tworzą ją znaczenia i brzmienie wszystkich słów, jest podobna do sieci semantycznych), zdolna do wytwarzania mowy
Rozumienie przekazów językowych:
złamanie kodu:
- pierwszym zadaniem słuchacza jest dokonanie podziału nieprzerwanego potoku głosek na jednostki (segmenty), odpowiadające poszczególnym słowom ->segmentacja; dokonując segmentacji słuchacz musi kierować się innymi wskazówkami, takimi jak prozodia (intonacja, akcent, rytm), kontekst ogólny, a przede wszystkim kontekst wewnątrzjęzykowy
- proces identyfikacji poszczególnych słów w potoku żywej mowy dobrze opisuje model kohorty- słuchacz rozpoznaje słowa, systematycznie zwężając listę potencjalnych „kandydatów”, czyli zmniejszając kohortę możliwych jednostek leksykalnych aż do momentu, gdy nie będzie innego wyboru (np. słowo wczoraj jest rozpoznawalne już po pierwszych czterech głoskach `wczo…')
- w procesie deszyfracji mowy współwystępują dwie czynności: segmentacja i odczyt znaczeń zapisanych w pamięci semantycznej; segmentacja byłaby niemożliwa bez wstępnej hipotezy na temat znaczenia słowa: tylko znaczenie eliminuje kolejne elementy z kohorty, aż do momentu wyeliminowania wszystkich z wyjątkiem jednego
- łamanie kodu akustycznego u dorosłych posługujących się językiem ojczystym dokonuje się automatycznie i bezwysiłkowo, stanowi jednak poważne wyzwanie dla kogoś, kto posługuje się słabo opanowanym językiem obcym
rozbiór zdania:
- rozbiór zdania polega na utworzeniu umysłowej reprezentacji jego treści, czyli zbudowania `w wyobraźni' czegoś na kształt drzewna derywacyjnego
- zdania „ślepej uliczki” to szczególny rodzaj zdań dwuznacznych (np. Chłopiec odbił piłkę ręką podtrzymując kolegę)-> zdania te tracą dwuznaczności po dodaniu przecinka
- zasada późnego domknięcia- odbiorca stara się domknąć frazę najpóźniej, jak się da; domykanie frazy polega na ustaleniu granicy, poza którą zaczyna się nowa fraza zdaniowa
- w momencie, gdy dokona się rozbiór zdania, użytkownik języka przechodzi na poziom, który Chomsky nazwałby strukturą głęboką; powierzchniowa forma wypowiedzi jest zapominana tak szybko, jak tylko zbudowana zostanie reprezentacja głęboka
- parser- struktura odpowiedzialna za rozbiór zdania; jego głowne zadanie polega na przypisaniu poszczególnym słowom odpowiednich funkcji, np. podmiotu, orzeczenia, dopełnienia; w przypadku języka polskiego parser odpowiada przede wszystkim za prawidłową interpretację wskazówek fleksyjnych (końcówki definiujące rodzaj, czas i tryb gramatyczny)
budowa modelu sytuacyjnego i wnioskowanie:
- model sytuacyjny jest niezbędnym warunkiem zrozumienia, jeśli przekaz zawiera wiele luk wymagających wypełnienia przez wnioskowanie
- budowę modelu sytuacyjnego kształtuje wiele czynników, przede wszystkim znajomość tematu: wystarczy krótki fragment prozy opatrzyć tytułem aby poprawić jego zrozumienie i przechowanie treści w pamięci; dzięki tytułowi możliwe jest zbudowanie modelu sytuacyjnego
- szczególną rolę w rozumieniu przekazów językowych odgrywają schematy narracyjne, czyli elementy wiedzy zorganizowane ze względu na epizody; schemat narracyjny wpływa na rozumienie przekazu, jeśli określone porcje wiedzy nabierają sensu dopiero w kontekście całej historii
- procesy zaangażowane w budowanie modelu sytuacyjnego to przede wszystkim rozumowanie nieformalne, czyli wnioskowanie na podstawie swobodnie wybranych przesłanek, nie zawsze zwerbalizowane; mówca konstruując wypowiedź, przekazuje pewne treści jawnie, a inne domyślnie- odbiorca musi więc odróżnić to, co mówca chciał przekazać, od tego, co rzeczywiście przekazał
- reguły rządzące wnioskowaniem podczas rozmowy nazwano implikaturą; Grice wyróżnił dwa jej rodzaje:
* implikatura konwencjonalna- treść wypowiedzi (np. mówiąc koń mamy na myśli zwierze z kopytami, a
nie konika morskiego)
* implikatura konwersacyjna- polega na domyślnym, wzajemnym szanowaniem reguł dobrej komunikacji
(zasady kooperacji i czterech maksym konwersacyjnych)
- wnioskowanie w procesie rozumienia mowy pełni dwie funkcje:
* uzupełnianie luk w strukturze przekazu
* budowanie połączeń między nową wiedzą zawartą w komunikacie, a wiedzą nabytą już wcześniej
- komunikaty nie wprost- polecenia sformułowane w postaci pytań lub delikatnych sugestii (np. Czy mógłbyś zgasić światło?)-> wymagają odkrycia prawdziwych intencji nadawcy, co zwykle nie jest trudne
PARADYGMATY POPRZEDZANIA (S.225; S.259)
PARADYGMAT 5.6 poprzedzanie (prymowanie, priming)
Poprzedzanie ma miejsce wtedy, gdy jeden bodziec, zwany prymą (prime), wpływa na przetwarzanie następującego po nim bodźca docelowego (target). W starszych pracach psychologicznych podobne efekty nazywano nastawieniem. Pryma i bodziec docelowy muszą być powiązane sensorycznie (np. identyczny lub podobny wygląd; Evett, Humphreys, 1981) lub semantycznie (np. identyczne lub bliskie znaczenie; Posner, Snyder, 1975). Nie jest więc przykładem prymowania jakiekolwiek oddziaływanie - rzeczywiste lub potencjalne - tego, co było wcześniej, na to, co pojawia się później. Gdyby definicję prymowania aż tak rozszerzyć, podpadałoby pod nią w zasadzie całe życie psychiczne człowieka. Chcąc uniknąć kłopotów związanych z przyjęciem zbyt szerokiej definicji zjawiska, terminem „prymowanie” oznaczamy technikę badań eksperymentalnych, czyli paradygmat, polegający na poprzedzaniu bodźca docelowego bodźcem w jakiś sposób z nim powiązanym.
W zależności od rodzaju powiązania rozróżniamy wiele typów poprzedzania, poprzedzanie repetytywne polega na krótkiej ekspozycji tego samego bodźca, który za chwilę ma być przez osobę badaną rozpoznany, przeczytany, zaliczony do jakiejś kategorii lub w inny sposób przetworzony. Poprzedzanie semantyczne polega na tym, że pryma nie jest identyczna z bodźcem docelowym, ale jest z nim znaczeniowo powiązana. Pryma może być np. synonimem bodźca docelowego V (biblioteka księgozbiór) lub słowem należącym do tej samej kategorii (długopis } -» ołówek). W badaniach tego typu stwierdza się zazwyczaj, że bodziec prymujący ułatwia przetwarzanie bodźca docelowego, np. skraca czas potrzebny na jego rozpoznanie, przeczytanie, nazwanie itp. Mamy wtedy do czynienia z poprzedzaniem pozytywnym, zwanym też niekiedy torowaniem, ponieważ pryma jak gdyby toruje drogę bodźcowi docelowemu. Może się jednak zdarzyć, że bodziec poprzedzający wydłuża czas reakcji albo w inny sposób utrudnia przetwarzanie bodźca docelowego. Nazywamy to efektem poprzedzania negatywnego, który zwykle ujawnia się tylko w specyficznym układzie bodźców (zob. rozdz. 6).
Jeśli bodziec poprzedzający działa w bardzo krótkim czasie, od kilku do kilkudziesięciu ms, osoba badana nie jest w stanie go zauważyć. Jeśli mimo to obserwujemy zmiany w przetwarzaniu bodźca docelowego, mamy do czynienia z poprzedzaniem podprogowym, inaczej subliminalnym. Trzeba jednak pamiętać, że poprzedzanie podprogowe niekoniecznie wymaga bardzo krótkiej ekspozycji prymy. Niekiedy efekt podprogowości można uzyskać inaczej, np. prezentując bodziec o bardzo małej intensywności. Możemy w tym celu manipulować poziomem jasności bodźca wzrokowego lub poziomem głośności bodźca słuchowego. Jeśli bodziec poprzedzający jest wystarczająco intensywny i trwa wystarczająco długo a mimo to osoba badana nie zdaje sobie sprawy z jego oddziaływania, mamy cl czynienia z poprzedzaniem peryferycznym. Bodziec wzrokowy może np. zr dować się na peryferiach pola widzenia albo w centrum pola widzenia, ale doskonale zamaskowany innymi bodźcami, przez co osoba badana nie jest w stanie zauważyć. Jeśli mimo to obserwujemy obiektywny wpływ takiej prymy na przetwarzanie bodźca docelowego, możemy mówić o efekcie poprzedzania peryferyjnego. Peryferyczna może być też pryma słuchowa, występująca tuż przed bodźcem docelowym i obiektywnie wystarczająco głośna, ale pojawiająca się w t2 kanale ignorowanym (paradygmat 5.1).
Szczególnym przypadkiem jest poprzedzanie afektywne, które polega aplikowaniu przed bodźcem docelowym bodźców emocjonalnie nieobojętnych, wizerunków uśmiechniętych lub zasmuconych twarzy, fotografii przyjemnych albo nieprzyjemnych obiektów lub scen, czy też słów oznaczających uczucia lub jarzących się z emocjami. W takim przypadku obserwuje się zwykle, że bodziec docelowy jest inaczej oceniany pod wpływem działania prymy. Na przykład bod2 pierwotnie neutralny może nam się wydawać sympatyczny lub niesympatyczny w zależności od emocjonalnego znaku zastosowanej prymy.
W większości badań nad poprzedzaniem zachowuje się ścisłe powiązane czasowe między prymą a bodźcem docelowym. Typowy eksperyment polega zaaranżowaniu szeregu prób, z których każda składa się z określonej sekwencji zdarzeń, np.:
reakcja
Pryma trwa zwykle bardzo krótko, chyba że celowo rezygnujemy z możliwości efektów subliminalnych. Po niej następuje maska, czyli np. rząd gwiazdek **** liter XXXX, które zapobiegają utrzymywaniu się śladu bodźca - już po js zniknięciu - na siatkówce oka. Po masce pojawia się bodziec docelowy, na klon należy zareagować zgodnie z instrukcją. Po krótkiej przerwie następuje kolejna próba, skonstruowana według tego samego schematu. Taki schemat bada nazywamy poprzedzaniem sekwencyjnym.
W niektórych badaniach nad pamięcią stosuje się inny, niesekwencyjny paradygmat prymowania. Osoba badana czyta np. krótki fragment prozy, zawierającej pewną liczbę semantycznie powiązanych słów. Mogą to być słowa należące do,; samej kategorii lub kojarzące się z czymś wspólnym. Po pewnym czasie, który mol trwać ok. tygodnia, osobie badanej prezentuje się inny fragment prozy, sprawdzaj? czy wcześniej prezentowane bodźce w jakiś sposób wpłynęły na ocenę drugie fragmentu, albo na to, w jaki sposób będzie on zapamiętany lub zinterpretowany. W badaniach tego typu udało się wykazać, że bodźce prymujące, prezentowanej długo przed właściwym tekstem, są w stanie wpłynąć na sposób przetwarzaj bodźców docelowych, choć osoba badana nie zdaje sobie z tego sprawy.
Obfitość i różnorodność badań z użyciem paradygmatu poprzedzania sprawia, że jest to obecnie jedna z bardziej popularnych technik eksperymentował w psychologii poznawczej.
PARADYGMAT ZADANIA STROOPA (S.241)
Paradygmat 6.2 Stroopa
Efekt interferencji Stroopa (1935) jest jednym z najsłynniejszych zjawisk w psychologii eksperymentalnej. Na przełomie lat 1980/1990 przywoływano go w blisko 80 pracach rocznie. Tendencja ta ma ciągle charakter wzrostowy. Dla porównania - równie słynny efekt świeżości, odkryty przez Petersona i Peterson (1959), przywoływano tylko w 30 publikacjach rocznie i liczba ta była dość stała (MacLeod, 1992). Zadanie Stroopa wykorzystywano jako metodę badawczą w przypadku ponad 20 prac rocznie. Popularność tego efektu wynika z dwóch przyczyn. Po pierwsze, jest on zawsze istotny statystycznie, silny i powtarzalny. Po drugie, pomimo 70 lat badań nad tym zjawiskiem, nadal pozostaje on fenomenem nie do końca wyjaśnionym co do swego podłoża i mechanizmu (MacLeod, 1991).
Istotą efektu Stroopa jest utrudnienie w przetwarzaniu bodźców niespójnych (np. słowo „czerwony” napisane zielonym atramentem) w porównaniu z bodźcami spójnymi (np, słowo „czerwony” napisane czerwonym atramentem; zob. ryc. 6.3) Osoby badane czytają słowa spójne lub niespójne, albo nazywają kolor atrament użyty do napisania słów spójnych lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie kolorów, ponieważ jest czynnością silnie zautomatyzowaną. Jeśli chodzi o nazywanie kolorów, czynność ta jest zwykle znacznie dłużsi w przypadku słów niespójnych, w porównaniu ze spójnymi. Nazwano to efektem interferencji, a jego miarą jest różnica między średnim czasem, potrzebnym do nazwanie koloru słowa niespójnego, a średnim czasem potrzebnym na nazwanie koloru słowa spójnego. Jeśli w badaniu bierze udział bardzo heterogeniczna próba w której skład wchodzą osoby o różnym podstawowym tempie reagowania, lepszą miarą efektu interferencji jest proporcja średnich czasów reakcji, a nie ich różnic
Ryc. 6.3. Bodźce używane w badaniach nad efektem interferencji Stroopa (1935) oraz rozkłady czasów reakcji w warunkach neutralnym i konfliktowym. Drugi z bodźców każdej pary bodźcem konfliktowym, podczas gdy pierwszy jest bodźcem spójnym. Interferencja może dotyczyć kierunku, znaczenia, aspektu emocjonalnego lub układu przestrzennego bodźców.
Interpretacja efektu interferencji Stroopa wymaga starannej analizy procesów biorących udział w jego powstawaniu. Osoba badana musi zahamować nawykową dobrze wyuczoną czynność (przeczytanie słowa), aby zamiast niej wykonać inną czynność, w ogóle nie wyuczoną i dość „egzotyczną” (nazwanie koloru atramentu jakim napisane jest to słowo). Długotrwały proces nabywania wprawy w czytaniu polega m.in. na tym, aby nauczyć się ignorować to, w jaki sposób dane słowo jest napisane (np. literami dużymi czy małymi, pisanymi czy drukowanymi, czcionką Courier czy Times Roman), a skupić się na jego znaczeniu. W eksperymencie I psychologicznym nagle trzeba zachować się zupełnie inaczej, co dla wielu osób stanowi nie lada problem, a dla wszystkich jest źródłem efektu interferencji. Dlatego im słabszy ów efekt, tym silniejsza i skuteczniejsza kontrola poznawcza. Osoba zdolna do uruchomienia silnych, wydajnych procesów kontrolnych szybciej f zahamuje niepotrzebną reakcję, dając wolną drogę reakcji wymaganej instrukcją eksperymentu. W rezultacie czas potrzebny na zareagowanie w warunku niespójnym będzie u takiej osoby relatywnie krótki, choć oczywiście znacząco dłuższy f- niż w warunku spójnym. Jednak relatywne skrócenie czasu reakcji w warunku f niespójnym przełoży się na obniżenie wartości wskaźnika interferencji. Natomiast osoba nie dysponująca silnymi, wydajnymi procesami kontroli, będzie miała duże trudności z zahamowaniem niepotrzebnej reakcji. Nawet jeśli w końcu to uczyni, będzie potrzebowała więcej czasu, co przełoży się na relatywnie długi czas reakcji w warunku niespójnym i w konsekwencji - na podwyższenie wskaźnika interferencji. Badania nad różnicami indywidualnymi zwykle pokazują, że w warunku spójnym wszyscy reagują mniej więcej z taką samą szybkością, choć oczywiście i tu ujawniają się cechy indywidualne. Jednak dopiero w warunku niespójnym występuje prawdziwe wielkie zróżnicowanie. Dlatego relatywne wydłużenie lub skrócenie czasu reakcji w warunku niespójnym decyduje o wielkości efektu interferencji, a wielkość ta świadczy o silnej (mała wartość efektu) lub słabej (duża wartość efektu) kontroli poznawczej. Taką samą logikę interpretacji stosujemy wobec wszystkich zadań, zawierających aspekt interferencji. Natomiast w przypadku poprzedzania negatywnego interpretacja jest odmienna (zob. paradygmat 6.3).
Współczesne wersje zadania Stroopa nieco się różnią od oryginału. W pierwszym badaniu John Ridley Stroop (1935) porównywał szybkość czytania słów oznaczających kolory, napisanych czarnym atramentem (warunek kontrolny) albo atramentem niezgodnym z ich znaczeniem (bodziec niespójny). Badani potrzebowali średnio 23 ms więcej na przeczytanie wyrazu niespójnego niż wyrazu kontrolnego. Efekt interferencji, wynikający z niespójnych aspektów bodźca, okazał się . nieistotny statystycznie. W badaniu drugim Stroop polecił badanym nazywać kolor atramentu, jakim napisany był wyraz oznaczający kolor, zamiast czytać słowo. Oprócz tego uczestnicy eksperymentu nazywali kolory prostokątów, w tej samej ? liczbie i układzie kolorów, jaki został utworzony na liście bodźców niespójnych, f Badani potrzebowali średnio 470 ms więcej na nazywanie koloru atramentu bodźca |niespójnego w porównaniu do kolorowego paska (efekt Stroopa). W badaniu trze- f cim Stroop poddał osoby badane procesowi automatyzacji czynności nazywania kolorów. Udało mu się zaobserwować, że osiem dni praktyki zmniejsza efekt interferencji średnio o 336 ms, co jednak nie zredukowało statystycznej istotności tego epktu. Co więcej, badani, którzy nabyli wprawę w nazywaniu kolorów, wykazali również istotny efekt interferencji w przypadku czynności czytania bodźców | niespójnych - wyrazy te czytali średnio 308 ms na bodziec dłużej niż w warunku, f-ttpctórym były one napisane czarnym, zwykłym atramentem (tzw. odwrócony efekt Stroopa). Ten ostatni efekt zanikał jednak już w drugim postteście (wielkość efektu ? interferencji średnio 52 ms na bodziec, różnica nieistotna statystycznie). Dokładnej replikacji badań Stroopa (1935) dokonał MacLeod (1986), Uzyskał on analogiczne efekty, a różnice w zakresie wielkości efektu interferencji w porównaniu do eksperymentów Stroopa nie przekraczały 80 ms na pojedynczy bodziec niespójny.
Zadanie Stroopa poddawano licznym modyfikacjom (przegląd w: MacL 1991). Najbardziej znane z nich to:
Stroop emocjonalny (zob. np. Williams, Mathews, MacLeod, 199 zadaniem osób badanych jest nazwanie koloru, jakim napisano słowa kojarzący z lękiem (np. pająk, wąż), albo rzeczami lub sytuacjami o negatywnym zabarwi emocjonalnym (np. gwałt, choroba).
Stroop rozproszony (zob. np. Kahneman, Chajczyk, 1983) - zadani osób badanych jest nazwanie koloru obiektu (np. plamy, ramka) występują w towarzystwie wyrazu oznaczającego zupełnie inny kolor.
Stroop figuralny (zob. np. Navon, 1977) - osoby badane widzą fig zbudowaną z innych figur (np. dużą literę H zbudowaną z liter K o mniejsz rozmiarze; zob. ryc. 6.4). Zadanie polega na nazwaniu figury stanowiącej two a zignorowaniu figury głównej.
Stroop kierunkowy (zob. np. Shiliing, Chetwynd, Rabbitt, 2002) - z' niem osób badanych jest reakcja za pomocą odpowiedniego klawisza kurs klawiatury na strzałkę pokazującą kierunek przeciwny niż klawisz. Osoba bad widzi np. strzałkę skierowaną ku górze, a ma zareagować klawiszem repreze jącym ruch kursora w dół.
We wszystkich badaniach z wykorzystaniem zadania Stroopa, niezależnie modyfikacji, uzyskuje się efekt interferencji. Jednak efekty te wykazują z reg swoją specyficzność, ponieważ nie udało się stwierdzić występującej między, korelacji (Shiliing, Chetwynd, Rabbitt, 2002).
6.PARADYGMAT SYGNAŁ STOP (S.240)
Paradygmat 6.1 Sygnał stopu
Paradygmat sygnał stopu (stop-signal; Logan, 1982) wykorzystuje się w badaniach nad hamowaniem dobrze wyuczonych, silnie zautomatyzowanych czynności, głównie motorycznych. Osoby badane wykonują taką czynność w warunkach presji czasu. W różnych, nieprzewidywalnych momentach uczestnikom eksperymentu podaje się umówiony sygnał, który nakazuje im przerwać wykonywaną do tej pory czynność. Początkowe badania dotyczyły pisania na maszynie (Logan, f 1982) i mówienia (Levelt, 1983). Zachowanie osób badanych można w tych warunkach interpretować jako efekt „wyścigu” (teoria rywalizacji egzemplarzy Logan, 1988, 2002) między dwoma procesami. Pierwszy jest wzbudzany przez instrukcję i bodźce określające rodzaj zadania, a jego efekt to aktywacja odpowiednich struktur poznawczych i wykonanie oczekiwanej czynności poznawczej. Drugi proces jest wzbudzany przez sygnał zatrzymania (stop), powodując powstrzymanie się od dalszego wykonywania czynności, czyli zahamowanie dominującej reakcji (Logan, Cowan, 1984). W zgodzie z teorią rywalizacji egzemplarzy, badani są w stanie tym szybciej zahamować wykonywaną czynność, im krótszy jest interwał pomiędzy pojawieniem się bodźca wzbudzającego wykonywaną czynność a pojawieniem się sygnału stopu. Powstrzymanie wykonywanej czynności jest jednak możliwe nawet przy relatywnie długich interwałach (De Jong i in., 1990).
Interesujące modyfikacje w zakresie omawianego paradygmatu przedstawił De Jong (De Jong, Coles, Logan, 1995). Zamiast mówienia czy pisania na maszynie, badani wykonywali prostą czynność motoryczną, polegającą na ściskaniu umieszczonego w ich dłoni dynamometru. Sygnałem do zatrzymania był specjalnie dobrany dźwięk. De Jong porównał trzy rodzaje hamowania dominującej reakcji przez zwykłe powstrzymanie się od jej wykonywania (stop ogólny; stop-all), przez powstrzymanie się od jej wykonania i wzbudzenie w jej zastępstwie reakcji alternatywnej (stop-zmiana; stop-change; zamiast ściskania dynamometru badani musieli nacisnąć nogą specjalny pedał) oraz przez powstrzymanie się od jej konania, ale tylko w zakresie jednego z dwóch efektorów (stop selektywni selective-stop; badani musieli powstrzymać się od reagowania jedną z rąk zazwyczaj dominującą). Badania Logana (1985) wykazały, że hamowanie dominującej reakcji jest znacznie trudniejsze w warunku drugim (stop-zmiana) niż pieszym (stop ogólny), natomiast w eksperymencie De Jonga, Colesa i Logana (199: stwierdzono, że najtrudniejsze jest hamowanie reakcji w zakresie tylko jednej z dwóch możliwych efektorów (stop selektywny). Paradygmat sygnał stopu może być używany w badaniach nad różnicami indywidualnymi w zakresie skuteczności procesów kontroli i hamowania. Im skuteczniejsi jesteśmy w kontrolowaniu własnych procesów poznawczych, oczywiście : tylko w aspekcie hamowania, tym krócej kontynuujemy dobrze wyuczoną czynność, mimo odebrania sygnału stopu. Tak zdefiniowany wskaźnik skuteczności kontroli pogarsza się wraz ze starzeniem się, a także w niektórych stanach chorobowych. Obserwujemy wówczas wydłużenie czasu, w którym czynność jest nadal wykonywana, mimo sygnału stopu. W skrajnych przypadkach obserwuje się nawet ignorowanie sygnałów stopu. Realistycznym odpowiednikiem takiego zachowania jest niemożność przerwania raz uruchomionej wypowiedzi, mimo odbieranych z otoczenia sygnałów, że mówimy niepotrzebnie lub nie na temat.
PARADYGMAT PODEJMOWANIA DECYZJI SEMANTYCZNYCH (S.109)
Paradygmat 3.2 Podejmowanie decyzji semantycznych
W badaniach nad podejmowaniem decyzji semantycznych respondenci proszeni są o jak najszybsze rozstrzygnięcie kwestii przynależności kategorialnej danego obiektu. Z reguły badania te prowadzi się w formule „od reprezentacji pojęciowej do egzemplarzy” (Trzebiński, 1986). Najpierw uczestnikowi eksperymentu na ekranie monitora prezentuje się etykietę werbalną, będącą nazwą reprezentacji pojęciowej (np. „ptaki”), a następnie wyświetla się etykiety odpowiadające różnym obiektom: ptakom („kanarek”, „wróbel” itd.) i nie-ptakom („pszczoła”, „wieloryb” itd.). Zadaniem osoby badanej jest jak najszybciej nacisnąć przycisk korespondujący z wybraną przez niego odpowiedzią: pozytywną, gdy egzemplarz jest przedstawicielem pojęcia, lub negatywną, gdy nim nie jest.
Początkowo paradygmat podejmowania decyzji semantycznych służył do falsyfikowania hipotez w ramach koncepcji struktury i funkcjonowania reprezentacji pojęciowych (wszystkie teorie z wyjątkiem koncepcji klasycznych). Później wykorzystywano go do sprawdzania wzajemnych relacji pomiędzy pojęciami w ramach struktury sieci semantycznej. Pytano więc o cechy poszczególnych pojęć (np. „Czy i kanarek lata?”), próbując ustalić, na jakim poziomie ogólności są przechowywane informacje o poszczególnych właściwościach. Sprawdzano także rodzaj relacji (pozytywne/negatywne) łączących poszczególne reprezentacje, zestawiając w zdaniu do weryfikowania obiekty ze sobą niepowiązane (np. „Czy budynek to | ! koń?”).
Badaczy interesował zarówno czas podejmowania decyzji, jak i poprawność klasyfikowania. Okazało się, że w przypadku nietypowych przedstawicieli danej v kategorii czas podjęcia decyzji rośnie o ok. 60 ms, a liczba błędów zwiększa się
przeciętnie dwukrotnie (Trzebiński, 1986). Wyniki badań w paradygmacie decyzji semantycznych świadczą na niekorzyść koncepcji klasycznych, ale nie są rozstrzygające w odniesieniu do pozostałych teorii reprezentacji pojęciowych.
Tymczasem ich zwolennicy wyraźnie interpretują te dane jako potwierdzenie swoich poglądów.
PARADYGMAT PRZESZUKIWANIA POLA PERCEPCYJNEGO (S.181)
PARADYGMAT 5.2 Badanie przeszukiwania pola wzrokowego
Dlaczego mimo bałaganu na stole pewne obiekty odnajdujemy łatwo (wręcz narzucają się nam swoim wyglądem), a innych nie potrafimy zauważyć nawet w wyniku długich poszukiwań (jesteśmy na nie „ślepi uwagowo”)? Treisman i Gelade (1980) postanowiły zbadać proces przeszukiwania pola wzrokowego. W ich eksperymencie badani poszukiwali obiektów zdefiniowanych przez pojedynczą cechę (np. kolor: „znajdź zieloną figurę”) lub przez koniunkcję cech (np. kolor i położenie: „znajdź zieloną figurę zorientowaną poziomo”). Pierwszy typ przeszukiwania pola percepcyjnego nazwano prostym, zaś drugi - koniunkcyjnym.
Treisman i Gelade wykazały, że przeszukiwanie koniunkcyjne trwa dłużej niż przeszukiwanie proste, a ponadto jest zależne od liczby elementów przeszukiwanego zestawu. Przeszukiwanie koniunkcyjne ma więc charakter procesu szeregowego, podczas gdy przeszukiwanie proste dokonuje się raczej równolegle, ponieważ czas reakcji w przeszukiwaniu prostym nie zależy od liczby elementów } w polu percepcyjnym. W paradygmacie przeszukiwania pola wzrokowego cechy definiujące poszukiwane obiekty mają postać właściwości sensorycznych. Próbując ustalić, które z właściwości obiektów mają charakter cech priorytetowych, przetwarzanych jako pierwsze w kolejności, badano poszukiwanie koniunkcyjne z udziałem m.in. takich cech, jak: ruch (McLeod, Driver, 1993), kolor (D'Zamura, 1991), głębia (Julesz, Bergen, 1983), czy położenie przestrzenne (Treisman, 1988). Stwierdzono, że podczas gdy ruch jest właściwością priorytetową niezależnie od . jego fizycznej charakterystyki (szybkość, kierunek), to statyczne położenie przestrzenne (np. horyzontalne, wertykalne) taką właściwością nie jest. Ustalono również, że kolor i głębia mogą być warunkowo cechami priorytetowymi, jeśli są wystarczająco wyraziste percepcyjnie (visual salience, inaczej: dystynktywne, np. rudy kolor włosów).
Manipulowano także liczbą cech w poszukiwanej koniunkcji (Cave, Wolfe) ich wyrazistością (Yantis, Hilistrom, 1994), a także liczbą cech wspólnych dla sygnałów i dystraktorów (Duncan, Humphreys, 1989). Okazało się, że poszukiwanie obiektu stanowiącego koniunkcję licznych właściwości niepriorytetowych może również być równoległe i szybkie, a bardzo wyrazista cecha niepriorytetowa może ;w większym stopniu przyciągać uwagę niż cecha priorytetowa (np. dystraktor o dystynktywnym kolorze powoduje spowolnienie procesu detekcji ruchomego sygnału). Stwierdzono też, że im bardziej podobne do siebie są bodźce zakłócające i celowe, tym dłużej trwa proces detekcji poszukiwanego sygnału i tym większe jest w takim przypadku prawdopodobieństwo szeregowości mechanizmów selekcji informacji.
Początkowo w badaniach prowadzonych w tym paradygmacie osobom badanym prezentowano jednocześnie cały dostępny zbiór obiektów do selekcji. Obecnie prowadzi się badania, w których sygnał lub dystraktor pojawia się w polu percepcyjnym nagle, podczas gdy pozostałe bodźce (tło) są już wcześniej całkowicie dostępne (Yantis, Jonides, 1988). Tło może być jednak prezentowane na peryferiach uwagi selektywnej, co oznacza, że mimo obiektywnej dostępności bodźce te są trudno zauważalne (Theeuwes, Kramer, Atchiey, 1999).
PARADYGMAT DYCHOTYCZNEJ PREZENTACJI BODŹCÓW I METODA PODĄŻANIA (S.179)
Paradygmat 5.1 Dychotyczna prezentacja bodźców i metoda podążania
Czy uczestnicząc w gwarnym przyjęciu możemy skoncentrować się na rozmowie z jednym z naszych przyjaciół? Jeśli możemy, to czy odbywa się to kosztem całkowitego „wyłączenia” słów, wypowiadanych przez innych uczestników przyjęcia, nawet jeśli mówią wystarczająco głośno i nie są od nas bardzo oddaleni? Dlaczego, gdy ktoś w innej niż prowadzona przez nas rozmowie wymieni nasze imię, natychmiast tracimy wątek konwersacji i automatycznie „przełączamy się” na to, co się dzieje w rozmowie dotąd ignorowanej? Cherry (1953) przeniósł sytuację komunikacyjną z gwarnego przyjęcia wprost do laboratorium w stopniu, w jakim było to technicznie wykonalne. Interesujący go problem ograniczeń w selektywności in- ; formacji nazwał, zgodnie z inspirującymi go obserwacjami, problemem przyjęcia towarzyskiego (cocktail party problem). Osoba badana w zaprojektowanych przez niego eksperymentach odbierała dwa różne przekazy jednocześnie - po jednym do każdego ucha - z zadaniem skupienia się na jednym z nich, przy jednoczesnym i całkowitym ignorowaniu drugiego komunikatu. Następnie proszono uczestnika eksperymentu o zanotowanie treści przekazu, na którym miał się skupić. Pytano także o treści, które pojawiły się w komunikacie ignorowanym. Cherry wykazał, iż badani nie mieli większych problemów z wiernym odtworzeniem ważnego I komunikatu, ale nie mogli odpowiedzieć na jakiekolwiek pytania o treść drugiego przekazu. Nie byli też w stanie zidentyfikować języka (angielski bądź francuski) w którym przekaz ignorowany był formułowany. Zgodnie z przyjętą konwencją językową, zjawisko to nazwano efektem przyjęcia towarzyskiego (cocktail party phenomenon). W przeciwieństwie do semantycznych, treściowych aspektów fl| komunikatu ignorowanego, które nie były w ogóle dopuszczane do dalszego przetwarzania, pewne fizyczne parametry tego przekazu, jak np. zmiana brzmienia (tonu) wymowy, czy też zmiana płci spikera, były przez osoby badane rejestrowane.
Cherry'ego uważa się za twórcę paradygmatu dychotycznej prezentacji bodźców - techniki eksperymentalnej polegającej na jednoczesnym prezentowaniu dwóch różnych komunikatów akustycznych osobno do każdego ucha. Broadbent (1954), a później Moray (1959) i Treisman (1960) rozwinęli i zmodyfikowali tę technikę, prosząc badanych nie o zapamiętywanie „oficjalnego” przekazu, ale o jego wierne powtarzanie. Osoba badana miała podążać za jednym z komunikatów jak cień, stąd nazwa tej techniki - podążanie (shadowing). Ta zmiana w procedurze zapewnia lepszą kontrolę zachowania uczestników badania. Można dzięki niej jednoznacznie stwierdzić, czy badany rzeczywiście podąża „jak cień” za wskazanym przekazem, czy też próbuje dzielić swoją uwagę między dwa jednoczesne komunikaty. Każde odstępstwo od reguły dosłownego powtarzania (np. chwilowe zamilknięcie, zająknięcie, wtręty ze strony komunikatu ignorowanego) świadczy o próbie dzielenia uwagi na dwa wykluczające się przekazy. Paradygmat podążania stosowano także w badaniach uwagi podzielnej (Allport, Antonis, Reynolds, 1972; Ninjo, Kahneman,. 1974) z instrukcją jednoczesnego śledzenia dwóch jednakowo ważnych komunikatów.
PARADYGMAT ZADAŃ JEDNOCZESNYCH (S.215, 351)
Paradygmat 8.5 Paradygmat zadań jednoczesnych w badaniach nad pamięcią roboczą
Paradygmat zadań jednoczesnych, stosowany również w badaniach nad uwagą : podzielną, wymaga kontroli dwóch zadań (A i B), wykonywanych w tym samym czasie. W wersji zastosowanej przez Baddeleya i Hitcha (1974) zadanie A polegało na wykonywaniu złożonego zadania poznawczego, np. przeprowadzaniu wnioskowania logicznego, czytaniu tekstu ze zrozumieniem albo uczeniu się. Z kolei zadanie B polegało na zapamiętywaniu zestawu elementów (liczb) o zmiennej długości.
W analizie wyników porównuje się poziom wykonania zadania A w warunkach,
gdy towarzyszy mu zadanie B z warunkiem kontrolnym. W najprostszej wersji paradygmatu zadań jednoczesnych warunkiem kontrolnym jest test wykonania zadania A, kiedy nie towarzyszy mu żadne inne zadanie. Niekiedy manipulacji eksperymentalnej podlega waga zadań jednoczesnych. Najczęściej jedno z nich należy traktować priorytetowo, a drugie jako dystraktor.
Baddeley i Hitch (1974) założyli, że rosnące obciążenie pamięci roboczej przechowywaniem większych zbiorów liczb prowadzić będzie do spadku wykonania złożonego zadania poznawczego. Badania potwierdziły te przypuszczenia. Wyjaśniono je, podobnie jak w badaniach nad uwagą podzielną, spadkiem ilości wolnych zasobów, w tym wypadku zasobów WM, które mogą zostać przydzielone wykonaniu zadania A. Spadek ten jest proporcjonalny do wymagań, jakie stawia zadanie pamięciowe B. Co ciekawe, nawet przy bardzo dużym obciążeniu pamięci (zbliżającym się do wartości „magicznej liczby” Millera), poziom wykonania obu zadań był wyższy od poziomu przypadku.
Zadanie pamięciowe może przyjmować różnie formy, w zależności od tego, jaki mechanizm WM ma zostać zaangażowany (Baddeley, 1986). Zadanie parnię- i ciowe wykonywane na materiale werbalnym (np, odliczanie trójkami wstecz) wiąże się z udziałem pętli fonologicznej. Zadanie niewerbalne (np. śledzenie poruszającego się obiektu), angażować będzie raczej szkicownik wzrokowo-przestrzeny.
Specyficznym zadaniem, które powoduje obciążenie centralnego systemu wykonawczego, bez udziału podsystemów pamięciowych, jest tzw. generowanie wałów losowych (Vandierendonck, De Vooght, Van der Goten, 1998). Wymaga od osoby badanej nierytmicznego stukania, np. w klawisz komputera. Trudność tego zadania polega na konieczności przełamania automatycznej tendencji wystukiwania regularnego rytmu. Generowanie losowości wymaga więc stałej kontroli ze strony centralnego systemu wykonawczego.
10. PARADYGMAT RECEPCJI (S. 104)
Paradygmat 3.1 Nabywanie pojęć metodą recepcji
Badania prowadzone w paradygmacie recepcji mają na celu poznanie sposobu nabywania przez człowieka wiedzy o otaczającej go rzeczywistości. Uczestnikowi eksperymentu pokazuje się sukcesywnie pewną liczbę obiektów, informując go o tym, czy są one, czy też nie, przedstawicielami sztucznie wymyślonej na potrzeby badania reprezentacji pojęciowej. Istnieją dwie podstawowe odmiany tego paradygmatu, które dokładniej opisują Maruszewski (1983) i Kozielecki (1997), a badania z ich wykorzystaniem prowadził Lewicki (1960, 1968).
W pierwszej odmianie paradygmatu recepcji - po prezentacji każdego z obiektów - badany podejmuje decyzje co do jego przynależności kategorialnej, a eksperymentator udziela mu każdorazowo informacji zwrotnej o trafności jego przewidywań. Po przyswojeniu reprezentacji pojęciowej przez badanego następuje seria testowa, w której kategoryzuje on nowe obiekty zgodnie z kryteriami przynależności kategorialnej, nabytymi w fazie uczenia się. W serii testowej nie przewiduje się udzielenia badanemu informacji zwrotnej.
W drugiej odmianie paradygmatu recepcji uczestnikowi eksperymentu prezentuje się sukcesywnie serię obiektów. Podczas pierwszej ich prezentacji udziela się mu informacji o przynależności bądź braku przynależności kategorialnej jednego z obiektów, po czym przystępuje on do kategoryzowania pozostałych obiektów, a po zakończeniu całej serii uzyskuje informację zwrotną - czy udało się mu zaklasyfikować poprawnie wszystkie obiekty. W kolejnej serii dysponuje on już informacją o przynależności kategorialnej dwóch obiektów (w następnej serii trzech, w kolejnej - czterech itd.). Ponownie dokonuje klasyfikacji pozostałych bodźców. Powtarza czynność aż do momentu właściwego podziału obiektów na reprezentantów sztucznie stworzonej kategorii i pozostałe bodźce bądź też do wyczerpania się obiektów, o których przynależności nic jeszcze nie wiadomo.
W obu odmianach paradygmatu recepcji uczestnik eksperymentu w pierwszej kolejności nabywa procedur identyfikacyjnych umożliwiających mu poprawną klasyfikację. W dalszej kolejności przedmiotem uczenia staje się istota pojęcia (zestaw cech je Określających), a prośba eksperymentatora dotyczy sformułowania definicji reprezentacji pojęciowej, na podstawie której odbywa się dotychczasowa klasyfikacja. Jednak ten drugi, wyższy poziom osiąga już relatywnie niewielki odsetek badanych. Okazuje się, że łatwiej posługiwać się pojęciem dokonując poprawnej klasyfikacji, niż sformułować jasną definicję pojęcia.
Paradygmat recepcji należy wyraźnie odróżnić od paradygmatu selekcji (Maruszewski, 1983). W tym ostatnim badany jest aktorem dokonującym wyboru w zakresie bodźca, na który reaguje, i sposobu reakcji na niego (np. w zadaniu polegającym na sortowaniu kart do pudełek; Thompson, 1986). Natomiast w paradygmacie recepcji uczestnik badania jest biernym obserwatorem, któremu pozwala się jedynie na formułowanie hipotez dotyczących wspólności w zakresie spostrzeganych obiektów czy zjawisk.
11.PARADYGMAT PRZESZUKIWANIA PAMIĘCI STM (S.346)
Paradygmat 8.4 Przeszukiwanie pamięci krótkotrwałej
Zadanie wymagające przeszukiwania (search task) stosowane jest zarówno w ba- : daniach nad uwagą, jak i nad pamięcią. Polega ono na prezentacji zbioru bodźców {search set), w którym poszukiwany jest bodziec docelowy (target, pro be). Materiałem bodźcowym najczęściej stosowanym w tego typu zadaniach są litery i cyfry, ale również obrazy, słowa, czy dźwięki. Zadaniem osoby badanej jest udzielenie odpowiedzi twierdzącej, jeśli sygnał (zgodny z bodźcem docelowym) byt obecny w zaprezentowanym zestawie (próby pozytywne), albo przeczącej, kiedy był w nim nieobecny (próby negatywne). Podstawową zmienną podlegającą manipulacji ; w tego rodzaju zadaniach jest rozmiar przeszukiwanego zbioru (set size).
W zadaniach polegających na przeszukiwaniu pamięci (memory search iask) zadaniem osób badanych jest zapamiętanie prezentowanego zestawu bodźców. Prezentacja najczęściej odbywa się sekwencyjne, ale niekiedy również symultanicznie. W warunku prezentacji sekwencyjnej zestaw bodźców prezentowany jest ] element po elemencie. Prezentacja symultaniczna polega na jednoczesnym zaprezentowaniu całego zestawu, np. w postaci matrycy. Bodziec docelowy eksponowany jest po zaprezentowaniu całego zbioru elementów. Manipulacji eksperymentalnej podlega w tym przypadku - poza rozmiarem zbioru elementów - również szereg innych czynników. Najważniejsze z nich to: czas ekspozycji przypadający na pojedynczy element, proporcja reakcji pozytywnych do negatywnych oraz rodzaj prezentowanego materiału. Przykładowo, manipulacja czasem ekspozycji wpływa sposób kodowania bodźców: im jest on dłuższy, tym więcej właściwości można zakodować. Jeśli czas jest zbyt krótki, kodowanie materiału będzie nieefektywne, podobnie jak późniejsze rozpoznanie, czy bodziec docelowy jest zgodny z którymś elementów zapamiętanego zestawu. Jeśli czas ten jest zbyt długi, możliwe staje się zastosowanie mnemotechnik, np. grupowania. W obu przypadkach na poziom wykonania zadania wpływać będą niekontrolowane czynniki uboczne.
W zadaniu polegającym na przeszukiwaniu analizie podlegają głównie wskaźniki związane z czasem reakcji, tj. miary tendencji centralnej, czyli średnia i mediana RT M (Zandt, Townsend, 1993), a także miary rozrzutu - odchylenie standardowe RT (Townsend, 2001). Zdecydowanie rzadziej analizuje się poprawność reakcji, gdyż w klasycznych badaniach liczba błędów była niska, a ich rozkład - wyraźnie skośny.
12.PARADYGMAT BADANIA PAMIĘCI KRÓTKOTRWAŁEJ BROWNA-PETERSONÓW (S.343)
Paradygmat 8.3
Procedura badania pamięci krótkotrwałej Browna-Petersonów
W procedurze eksperymentalnej Browna (1958) i Petersonów (Peterson, Peterson) eksponowano zestawy trzech bezsensownych spółgłosek, np. XLR, oraz trzycyfrową liczbę, np. 123. Zadanie osoby badanej polegało na zapamiętaniu zestawu liter, a następnie głośnym odliczaniu trójkami wstecz, poczynając od zaprezentowanej liczby (120, 117, 114 itd.). Po upływie pewnego czasu należało przerwać odliczanie i odpamiętać zestaw spółgłosek. Manipulacji eksperymentalnej podlegał interwał czasu pomiędzy ekspozycją zestawu spółgłosek (i liczby), a poleceniem jego odtworzenia. Wynosił on 3, 6, 9, 12, 15 albo 18 s. Celowo zastosowano bezsensowne zestawy spółgłosek, nie mające swojego odpowiednika w języku, aby wyłączyć tzw. strategię grupowania (chunking strategy), polegającą na łączeniu materiału w większe całości (zob. opis w tekście). Dlatego wyeliminowano zestawienia w rodzaju MSW albo CCC, które łatwo poddają się grupowaniu. Z kolei odliczanie trójkami wstecz miało na celu zminimalizowanie udziału mechanizmu bezgłośnego powtarzania.
Uzyskane rezultaty dotyczące poprawności odtworzenia zestawów spółgłosek zilustrowano na ryc. 8.5. Okazało się, że poziom odpamiętania sylab bardzo szybko spada w funkcji czasu, i nawet w wypadku najkrótszego interwału nie osiągnął 100%.
13.PARADYGMAT ODTWARZANIA CZĘŚCIOWEGO SPERLINGA (S.341)
paradygmat 8.2 procedura odtwarzania częściowego według Sperlinga
Sperling (1960) eksponował osobom badanym matrycę złożoną z liter, których liczba przekraczała pojemność pamięci krótkotrwałej. W warunkach standardowej prezentacji tachistoskopowej osoby badane były w stanie odtworzyć poprawnie 4-5 liter, niezależnie od wielkości owej matrycy. Ponieważ odtwarzanie w takim zadaniu angażuje pamięć krótkotrwałą, był to kolejny dowód na jej znaczne ograniczenie, przy czym mogło ono dotyczyć albo pojemności STM, albo czasu zanikania zawartej w niej informacji. Sperlinga nie interesowała jednak pojemność STM, lecz pamięci ikonicznej. Zaproponował więc modyfikację opisanego zadania, w której osoba nie odtwarzała całości zaprezentowanego materiału, lecz losowo wskazaną jego część. W krótkim interwale czasu prezentowano jej matrycę liter, która - podobnie jak w oryginalnym zadaniu - ze względu na swoją wielkość przekraczała pojemność STM (zob. ryc. 8.4). Prezentacja standardowo trwała 50 ms, po czym następowała przerwa, w której wyświetlano pustą planszę (białą albo czarną). Długość tej przerwy podlegała manipulacji eksperymentalnej. Następnie pojawiała się wskazówka akustyczna (ton o określonej, łatwej do różnicowania wysokości), albo wizualna (strzałka), która informowała osobę badaną o tym, który z rzędów niewidocznej już matrycy należy odtworzyć. Ponieważ wskazówki pojawiały się w porządku losowym, osoba badana nigdy nie wiedziała, który z rzędów będzie musiała odtworzyć. Zakładano, że jeśli istnieje magazyn pamięci ikonicznej, osoba badana powinna mieć ultrakrótkotrwały dostęp do całej informacji zawartej w matrycy, również po jej zniknięciu z ekranu tachistoskopu. Jeśli więc w tym czasie wskazana zostanie pewna niewielka część materiału (nie przekraczająca pojemności STM) będzie możliwe jej odtworzenie, bez względu na to, gdzie będzie umiejscowiona,
Badania Sperlinga wykazały, że jeśli przerwa pomiędzy ekspozycją matrycy liter a wskazówką była dłuższa niż 500 ms, poprawność odtwarzania była podobna jak w oryginalnym zadaniu. Jeśli jednak czas tej przerwy mieścił się w przedziale 100-500 ms, badani byli w stanie odtworzyć dowolny ze wskazanych im rzędów z niemal stuprocentową poprawnością. Oznacza to, że do momentu uzyskania wskazówki przechowywali obraz całej matrycy, ale tylko jeśli przerwa była bardzo krótka. Nie było istotnych różnic w uzyskanych wynikach, gdy zwiększono wielkość matrycy do 12 liter (3 rzędy po 4 bodźce).
14.METODA PROTOKOŁÓW WERBALNYCH (S.500)
Paradygmat 11.1 Metoda protokołów werbalnych
Metoda protokołów werbalnych: polega na rejestrowaniu i interpretowaniu wypowiedzi, generowanych przez osobę badaną podczas rozwiązywania problemu. Badanego prosi się, aby „głośno myślał”, relacjonując wszystko, co przychodzi mu do głowy. Badacza interesuje to, w jaki sposób uczestnik eksperymentu werbalizuje treść problemu, jakie stawia sobie pytania, jak komentuje uzyskane rezultaty, w jaki sposób reaguje na trudności itd. Wielu psychologów uważa, że jest to metoda odwołująca się do introspekcji, z wszelkimi znanymi jej wadami. Jednak właściwie zastosowana, metoda protokołów werbalnych nie musi oznaczać powrotu do introspekcjonizmu. Wypowiedzi osoby badanej poddaje się bowiem starannej interpretacji, traktując je jak zewnętrzne przejawy nieobserwowalnych procesów umysłowych, a nie jak rzetelne sprawozdanie z „naocznej” obserwacji tych procesów. Żaden z badaczy posługujących się tą metodą, nie łudzi się, że człowiek jest w stanie na bieżąco obserwować działanie swojego umysłu, a ponadto formułować ścisłe sprawozdania z tejże obserwacji. Wypowiedzi werbalne to raczej rodzaj zachowania, które może być jedną ze wskazówek dotyczących przebiegu procesu poznawczego. Mimo niedoskonałości i wyrywkowego charakteru takich wskazówek, badacz może na ich podstawie domyślać się wielu interesujących | spraw, np. jak osoba badana przedstawia sobie istotę problemu, gdzie upatruje | źródeł trudności, w jakim kierunku zmierza, kiedy i pod wpływem jakich okoliczności zmienia strategię rozwiązywania problemu, czy i kiedy doznaje wglądu.
Ponieważ człowiek ma bardzo słaby dostęp do swoich procesów umysłowych,
wyniki takiego postępowania badawczego często przynoszą rozczarowanie. Newell i Simon (1972) korzystali w swoich badaniach z metody protokołów werbalnych,
przyznając, że ich analiza jest kłopotliwa. Badacze ci często mieli problem z uogólnieniem uzyskanych w ten sposób rezultatów. Jednak z braku lepszych sposobów „podglądania” funkcjonowania umysłu osoby rozwiązującej problem, metoda protokołów werbalnych stosowana jest również obecnie.
Ericsson i Simon (1993) wyróżnili trzy rodzaje interesujących badacza wypowiedzi.
Typ I to werbalizacja bezpośrednia, polegająca na relacjonowaniu tego, co ; „mówi” głos wewnętrzny. Można ją więc zastosować do problemów, które mają naturę werbalną, na przykład do śledzenia wykonywania w pamięci złożonych operacji arytmetycznych. Zdaniem autorów, nie dochodzi wówczas do zakłócania ; werbalizacji z „normalnym” przebiegiem rozwiązywania problemu. Werbalizacja nie powinna ani spowolniać wykonywania zadania, ani nie wymaga wprowadzenia do procesu rozwiązywania problemu żadnej dodatkowej operacji poznawczej, związanej z głośnym myśleniem.
Typ II to werbalizacja zawartości STM, polegająca na opisaniu jakiegoś aspektu aktualnego stanu procesu rozwiązywania problemu, np. przywołanego w danym momencie wyobrażenia. Werbalizacja wymaga w tym przypadku przełożenia kodu obrazowego na werbalny. Jeśli problem jest złożony, werbalizacja nie tylko wpływa na czas jego wykonania, ale - jako, że jest procesem wysiłkowym (Kapłan, Simon, 1990) - pochłania również zasoby mentalne, odbierając je wykonywanemu ; zadaniu. Zdaniem Ericssona i Simona, nie wpływa to jednak na układ sekwencji stanów w przestrzeni problemu.
Typ III to werbalizacja, polegająca na chwilowym przerwaniu procesu rozwiązywania problemu i wyjaśnieniu, dlaczego podjęto określone działanie (zastopowano określony operator), czemu to miało służyć (jaki podcel ono realizuje) itd. Autorzy podkreślają, że niekiedy tego typu werbalizacja może mieć korzystny wpływ na proces rozwiązywania problemu (Berry, 1983; Ballstaedt, Mandie, 1984), jednak zwykle zaburza jego przebieg.
Na przykład werbalizacja może ułatwiać proces rozwiązywania problemów, zwiększając objętość przypominanego tekstu, po jego wcześniejszym przeczytaniu na głos (Ballstaedt, Mandie, 1984). Uważa się jednak, że jest to efekt zapośredniczony. Dzięki werbalizacji aktywowana jest pamięć słuchowa, w konsekwencji uwalniając część pamięci roboczej. Ponieważ ta ostatnia zwykle jest przeciążona w trakcie rozwiązywania złożonych problemów, jej odciążenie w widoczny sposób poprawia wykonanie zadania (Robertson, 2001).