poznawcza skrypt do podrecznika id 380479

background image

Rozdział 1. Umysł i poznanie

1. PPP bada w większej mierze procesy nieświadome. Bada złożony system wyspecjalizowany w

odbiorze i przetwarzaniu informacji zwany umysłem.

2. P O J Ę C I A

procesy przetwarzania informacji – składają się na nie wszystkie operacje, dzięki którym
odbierane przez jednostkę informacje są transformowane, przekształcane, redukowane,

wzmacniane, zachowywane, przywoływane lub wykorzystywane w inny sposób.

ekonomia systemu poznawczego – przetwarzanie wszystkich informacji nie miałoby żadnego
sensu – większość z nich jest i tak bezużyteczna, z punktu widzenia w jakim znajduje się organizm.

Ekonomia działania poznawczego przejawia się też w tym, że człowiek wielokrotnie wykonujący te
same działania tworzy coraz bardziej stabilne i elastyczniejsze struktury poznawcze.

struktury poznawcze – względnie trwałe elementy umysłu możliwe do wielokrotnego

wykorzystania w różnych warunkach i sytuacjach. Struktury poznawcze: wiedza, sądy,
przekonania, schematy.

skąpiec poznawczy - to człowiek, czyli angażuje on tylko cześć dostępnych mu zasobów

poznawczych, jak gdyby zachowując resztę na wszelki wypadek i chroniąc się prze przeciążeniem
systemu. Skutkiem skąpienia jest skłonność do stosowania heurystyk, schematów stereotypów.

pamięć – tu przechowywane są struktury poznawcze, stąd łatwo je wydobyć i tu nie ulegają

degradacji,

uwaga – uniknięcie przeciążenia informacyjnego, selekcja danych.

kontrola poznawcza – zdolność systemu do samoregulacji i samoorganizacji. Możliwość
powstrzymania się od reakcji i wyzwolenia jej we właściwym momencie.

poziomy przetwarzania – ta sama informacja może być poddawana obróbce z różną

intensywnością i starannością.

kontekst – przetwarzanie na każdym poziomie uzależnione jest od kontekstu. Jest kontekst
zewnętrzny (otoczenie/ widzimy zdjęcie niebezpiecznego zwierzęcia, wiemy ze to tylko zdjęcie

więc nie uciekamy) i wewnętrzny (wzbudzone struktury poznawcze/ hodowca jadowitych węży
widok zwierzęcia nie jest bodźcem do ucieczki, bo ma wiedze o sposobach unikania

niebezpieczeństwa).

reprezentacja poznawcza – budowana przez indywidualne doświadczenie, jest wynikiem
aktywnego konstruowania obrazu świata przez podmiot – taki pogląd na naturę umysłu nazywa się

konstruktywizmem.

reprezentacjonizm – poznawcza reprezentacja krzesła jest uproszczonym, zastępczym modelem
prawdziwego krzesła jako pewnej kategorii obiektów lub konkretnego egzemplarza tej kategorii.

Dzięki reprezentacjom umysł może sobie radzić sobie w warunkach, które przez swoją złożoność
lub nowość przekraczałyby jego możliwości.

solipsyzm – pogląd o istnieniu wyłącznie podmiotu, który poznaje już nie świat, lecz wyłącznie

własne miazmaty.

odruch orientalny – reakcja na wydarzenia nagłe i nieoczekiwane (głośny dźwięk, nowa
sytuacja). Obserwuje się znieruchomienie i ukierunkowanie receptorów na odbiór bodźców.

zachowanie eksploracyjne – aktywne poszukiwanie informacji w otoczeniu.

1

background image

interioryzacja – rozwój poznawczy dokonuje się w ten sposób, że najpierw przejawia się w
zachowaniu a potem się uwewnętrznia. Można powiedzie, że umysł ewoluuje, przekształcając się z

postaci jawnej w postać ukrytą.

3. M O D E L E U M Y S Ł U

1. B L O K O W Y

Informacja przetwarzana przez system sekwencyjnie i oddolnie (bottom-up), czyli od wejścia
sensorycznego aż po wyjście behawioralne. Sekwencja przetwarzania składa się z etapów,

następujących po sobie kolejno i realizowanych w kolejnych blokach procesów przetwarzania
informacji. Blok – zespół procesów przetwarzania informacji o podobnym charakterze i zadaniach,

obsługujący wyróżnioną czynność poznawczą (np. spostrzeganie, pamięć, kontrolę motoryki). W
modelu blokowym wyróżniono następujące bloki: wejście sensoryczne, uwagę, spostrzeganie,

pamięć, procesy myślowe, decyzyjne, wyjście behawioralne).

M O D E L A T K I N S O N A I S H I F F R I N A - magazyny pamięci: rejestr sensoryczny,
pamięć krótkotrwała, pamięć długotrwała.

M O D E L H Y D R A U L I C Z N Y U W A G I S E L E K T Y W N E J B R O A D B E N T

A - 3 bloki: kanały sensoryczne, filtr uwagi, kanał przetwarzania semantycznego.

Komputerowa metafora umysłu – porównanie elementów ludzkiego systemu poznawczego do
analogicznych elementów systemu komputerowego. Komputer tez działa według reguły

przetwarzania oddolnego: odbiera dane na wejściu  przetwarza je zgodnie z algorytmami 
informacja na wyjściu.

McClelland i Rumelhart - krytyka modelów blokowych, bo człowiek nie analizuje pojedynczych cech

a całość wzorca jakim jest litera. Analiza sensoryczna dokonuje się równolegle z analizą
semantyczną, zmierzającą do stwierdzenia, co znaczy widziana przez nas litera. Ponadto litery

nabierają sensu dopiero w szerszym kontekście słowa, które tworzą. Informacje o znaczeniu liter i
słów przechowywane są w pamięci trwałej, dlatego analiza sensoryczna musi się dokonywać

równolegle.

2. K O N C E P C J A P O Z I O M Ó W P R Z E T W A R Z A N I A

Każda informacja jest przetwarzana przez te same struktury (w modelu blokowym były struktury),

ale na różnym poziomie głębokości. Nie ma tu wydębionych etapów przetwarzania i
odpowiadających im struktur.

Wraz z pogłębianiem przetwarzania wzrasta zarówno liczba, jak i złożoność operacji, jakim w toku

procesu przetwarzania poddawane sądocierające do systemu informacje.

3 poziomy przetwarzania:

P Ł Y T K I – analiza sensoryczna. Nietrwałość informacji, podatność na zakłócenia. Cel: np.
detekcja 2 identycznych znaków (liter, cyfr…)

G Ł Ę B S Z Y – analiza semantyczna (rozumienie znaczenia słów), bardziej trwały ślad pamięciowy

i odporny na zakłócenia i zapominanie. Cel: stwierdzenie identyczności 2 lub więcej elementów
należących do 1 kategorii (np. owoców, pojazdów…)

N A J G Ł E B S Z Y – aktywacja skojarzeń z wcześniej odebranym i przeanalizowanym

sensorycznie lub semantycznie sygnałem.

Informacja podlegająca przetwarzaniu może pochodzić z 2 źródeł:

O B I E G P I E R W O T N Y – informacja polega na przejściu danych odbieranych na poziomie

płytkim przez poziom głęboki aż do poziomu najgłębszego.

2

background image

O B I E G W T Ó R N Y – Zjawiska pamięciowe.

C R A I K I L O C K G H A R T – umysł – system jednolity, przekazujący sobie informacje w

określonym porządku, o jednolitej strukturze, bez kolejnych etapów przetwarzania, za to z
wydzielonymi poziomami obróbki danych – od płytkiego do najgłębszego. Wejście do systemu

może być zlokalizowane na którymkolwiek z poziomów, zakłada też oddolny kierunek
przetwarzania – tylko w stronę poziomu najgłębszego.

3. S Y S T E M M O D U Ł O W Y

Metaforą umysłu modularnego jest skrzynka z narzędziami, w której znajdziemy mnóstwo różnych

specjalistycznych przyrządów, ale nie znajdziemy narzędzia uniwersalnego.

F O D O R – umysł składa się z 3 rodzajów budulca:

Przetworników – pozyskiwanie energii dopływającej do organizmu i przekształcanie jej w postać
dostępną dla pozostałych mechanizmów psychologicznych.

Systemów centralnych – wnioskowanie i tworzenie przekonań, myślenie, poznanie.

Modułów – pośredniczy między przetwornikami a systemami centralnymi.

Cechy modułów:

1. Zależność od dziedziny – każdy moduł może działać tylko na określonej klasie bodźców (twarz

ludzka, dźwięki…), każdy moduł jest wyspecjalizowany w 1 funkcji i nie może pełnić żadnej innej,

2. Automatyczność działania – raz uruchomiony moduł nie może wyhamować, dopóki nie wykona
swego zadania. Działa szybko i nie angażuje uwagi, pamięci roboczej.

Moduły działają niezależnie od siebie. Domeną modułów jest przede wszystkim percepcja i

sterowanie motoryką, moduły obsługują wejście i wyjście systemu poznawczego, a centralne
funkcje tego systemu obsługuje uniwersalny „procesor” wszechstronnego zastosowania (jego

funkcja jest np. myślenie)

4. M O D E L S I E C I O W Y ( k o n e k s j o n i z m ) (sieci neuropodobne)

Założenia modelu: przetwarzanie informacji - dzięki aktywności bardzo licznych i prostych

jednostek (które aktywują się w tym samym czasie) – tworzą one sieć. Poznanie jest równoległym i
rozproszonym przetwarzaniem informacji.

ROZDZIAL 2

REPREZENTACJE UMYSŁOWE

Reprezentacja poznawcza- umysłowy odpowiednik obiektów realnych, fikcyjnych czy

hipotetycznych. Obiektem może być przedmiot, osoba, kategoria, relacja. Reprezentacja
poznawcza zastępuje swój obiekt w procesach przetwarzania informacji.

Funkcja – Przedstawienie w obrębie umysłu wszelkich zdarzeń bodźcowych dostępnych zmysłom

Reprezentacje są:

Trwałe – składają się na struktury wiedzy, powstają i zmieniają się w dłuższym cyklu
czasowym.

Nietrwałe – powstają doraźnie, np. w celu podjęcia decyzji, później zanikają, Są to np.
wyobrażenia, etykiety werbalne, sądy, modele umysłowe

3

background image

reprezentacja pojęciowa matki z reguły należy do najmniej podatnych na zmiany

Proces tworzenia reprezentacji- odmienne stanowiska

Realizm- Bezpośrednie odwzorowanie bodźca w umyśle

Konstruktywizm- proces tworzenia złożonej konstrukcji umysłowej, polegający na
zakodowaniu danych sensorycznych w specjalnym języku w wyniku czego dane zmysłowe

zostają przetłumaczone na dane umysłowe

Rodzaje reprezentacji:
-
wg A. Paivio do reprezentacji zalicza się m.in. obrazy umysłowe, ślady pamięciowe, słowa

(elementy języka), sądy, pojęcia, reprezentacje pojęciowe (prototypy, listy cech) oraz schematy

- Rebena to obrazy umysłowe, słowa i idee ( abstrakcje)

- Eyesenck i Keane najbardziej restrykcyjny podział na:

reprezentacje analogowe-obrazy umysłowe, modele mentalne

reprezentacje w formie sądów/ twierdzeń

Obrazy umysłowe- są najbardziej zbliżone do rzeczywistej formy przedstawionych obiektów np.

dom (są okna, drzwi,dach, dach jest na szczycie itd)

Pojęcia abstrakcyjne są natomiast bardzo oddalone od rzeczywistości

Wyobrażenia - jeden z wielu typów reprezentacji umysłowych

- nietrwała struktura poznawcza, zbliżóna do spostrzegania, występuje pod
nieobecność wyobrażanego obiektu

- nie muszą przyjmować formy obrazowej
- umysłowe przedstawienie przedmiotu, który przestal dzialać na nasze zmysły

(Maruszewski)
- charakteryzują się brakiem trwałości i ścisłym powiązaniem z percepcją

Wyróżniono wyobraźnie:

Twórczą- zdolność do tworzenia nowych wyobrażeń oraz pojęć i innych reprezentacji

poznawczych

Odtworczą- odpowiedzialna za tworzenie się wyobrażen obiektów wczesniej

spostrzeganych i dobrze znanych

Obraz umysłowy – forma reprezentacji poznawczej świata w umyśle

- ścisła odpowiedniość w stosunku do obiektu (jakby wew. fotografia)

- analogowy charakter

Twierdzenie o wewnętrznej fotografii odrzuca wielu badaczy tłumacząc istnienie wyobrażeń w inny

sposób

- umysł generuje wyobrażenie z głębszych struktur wiedzy zapisanych w

postaci pojec i twierdzen a nie obrazow

Teoria Kosslyna:

Wyobrażenia składają się z dwoch komponentów:

1.

Powierzchniowego- zawiera to co jest dostępne w doświadczeniach wew.

- jego elementy powstaja w wyniku dzialania elementów głębokich
- świadome i nietrwałe doświadczenia ALE- właściwe wobrażenia

maja charakter trwały i niedostępny świadomemu doświadczaniu
obrazu

- obraz koduje inf. w sposób analogowy i przestrzenny

2.

Głębokiego- obejmuje to co jest zapisane w LTM

Spór o naturę wyobrażeń:

Stanowisko obrazowe- wyobrażenia wzrokowe są kodowane w postaci reprezentacji
posiadających zarówno własności przestrzenne jak i zmysłowe. Inf werbalne i wizualne

maja różne kody

4

background image

Stanowisko twierdzeniowe (propozycjonalne)- dane zmysłowe są kodowane w postaci
abstrakcyjnych zbiorów twierdzeń czy sądów tak jak inf werbalne

Hipoteza funkcjonalnej ekwiwalencji percepcji i wyobrażni
- Shepard i Chapman- badanie z mapą USA

- Shepard- badanie o podobieństwie cyfr
Badania te SA silnym argumentami na rzecz tezy i funkcjonalnej ekwiwalencji spostrzegania i

wyobrażania co zakładał Kosslyn

Rotacje mentalne (argument na rzecz stanowiska obrazowego)

 Paradygmat rotacji mentalnej- prezentowane cyfry, litery lub figury geometryczne wzajemnie
zrotowane lub jeszcze dodatkowo przekształcone (lustrzane odbicie). Badani odpowiadali na

pytanie czy dwa prezentowane bodźce są identyczne

Cooper i Shepard- rotowane litery (G,J,R) lub cyfry (2,5,7) nachylone pod różnmi kątami
mogły być też reprezentowane w lustrzanym odbiciu. Badani musieli swierdzić czy symbol

jest prezentowany prawidłowo

Shepard i Metzler- na monitorze prezentowano dwie rotowane względem sibie figury

trójwymiarowe

Stwierdzono : czas decyzji wzrasta wraz z wielkościa kąta rotacji

Niezależnie od płaszczyzny rotacji

Argumenty potwierdzające, że reprezentacje wyobrażeniowe maja charakter obrazowy:

- liniowa zależność miedzy kątem rotacji obiektu a czasem potrzebnym na podjecie decyzji

(niezależnie od: typu zadania- identyfikacja, porównanie; typu rotowanego symbolu- litery, cyfry,
symbole wymyślone; formy rotacji-płaszczyzna, przestrzeń

- badani pracowali w różnych warunkach- percepcji i wyobraźni a rezultaty w obu warunkach
niewiele się różniły

WYJĄTKI (wyklad)

Kąt 180- nie ma czasami efektu rotacji. Czas RT bardzo krótki- Koriat, Norman, Kimchi

Skaning mentalny (argument za stanowiskiem obrazowym)

Kosslyn- Efekt wielkości obiektu- im mniejszy obiekt tym dłuższy czas RT

- Efekt złożoności- im bardziej skomplikowana struktura obiektu tym RT

dłuższe

- Efekt ziarnistości obrazu- aby podać szczegóły jakiegos obiekty, trzeba go sobie

w wyobraźni „powiększyć”

Kosslyn, Ball, Reiser- Efekt odległości- badanie z mapą punktem fiksacji- im większa

odległość obiektu od punktu tym RT dłuższe

Wyjątki( wyklad)

Argumenty przeciw stanowisku obrazowemu:

- tożsamość funkcjonalna nie oznacza tożsamości strukturalnej (Edelman)
- efekt rotacji- badania Kariata, Normana i Kimcha wykazuje ograniczenie powszechności tego

prawa. Ludzie nie zawsze dokonują rotacji chcąc porównać obiekty
- Marmor i Zaback- badanie osób niewidomych o wykonanie zadania Coopera i Sheparda. Badani

wykorzystywali dotyk. Wykazano efekt liniowy między RT a wielkościa kąta

Również badania Indos- Peterson, Raskos- Ewaldson wykazały możliwą zależność modalności
zmysłowej formy wyobrażeniowej

- skaning zalezy od oczekiwań badaczy (instrukcja)

- alternatywne wyjaśnienia efektu odległości, wielkości i złożoności (sądy)

Reprezentacje werbalne

Sylogizm werbalny- zadanie wymagające wyciągania wnioskow z przeslanek
Clark- badanie z sylogizmami werbalnymi- im bardziej skomplikowana konstrukcja w stosunku do

przesłanek tym czas odpowiedzi jest dłuższy

5

background image

 Paradygmat weryfikacji treści zdań- badanym prezentuje się obazek przedstawiający „+” i „*” w
przestrzeni. Jeden symbol jest u góry a drugi na dole. Uczestnikom prezentuje się zdanie np. „plus

jest nad gwiazdką” a badani musza swierdzic zgodność zdania z obrazkiem
Clark i Chale – najpierw zdanie potem obrazek

McLeeod, Hunt i Mathews- odwrotnie
Im bardziej skomplikowane logicznie i gramatycznie zdanie, tym czas weryfikacji dłuższy

Sternberg- analizował związek miedzy czasem rozwiązywania sylogizmow a zdolnościami

przestrzennymi

Teoria podwójnego kodowania Paivio:

Są dwa systemy reprezentacji rzeczywistości

Niewerbalny (sensoryczny)- 5 podsystemów kodowania danych zmysłowych

- każdy podsystem ma inny język kodowania i odpowiada za
inną modalność sensoryczną

- imageny- wszelkie niewerbalne reprezentacje umysłowe, są
przetwarzane szybko i równolegle, ponieważ reprezentują

struktury holistyczne (całe obiekty, grupy obiektów)
Czyli: imageny zachowują niektóre fizyczne właściwości

obiektu np. wielkość
Badanie- kodowanie zależne od wielkości obiektu (zdjęcie)-

małe obiekty zapamiętujemy gorzej niż duże

 Werbalny (językowy)- trzy rodzaje podsystemów do kodowania inf. przeznaczonych

dla danych nadchodzących kanałem wizualnym, akustycznym,
dotykowym

- logogeny- wszystkie reprezentacje werbalne
- przetwarzanie wolne i szeregowe

- kodowanie niezależne od wielkości obiektu

Oba systemy są powiązane relacjami. Mają charakter referencyjny- reprezentacjom obrazowym

odpowiadają werbalne i odwrotnie

Trzy rodzaje procesów

1 . Referencjalne- wzbudzanie reprezentacji werbalnej aktywizue reprezentację niewerbalną i
na odwrót

2. Reprezentacyjne- przyporządkowanie poszczególnych obiektów, spostrzeganych w różnych
modalnościach zmysłowych do jednego z 5 podsystemów niewerbalnych lub jednego z 3

podsystemów werbalnych
3 . Asocjacyjne- odpowiadają za łączenie się poszczególnych reprezentacji w skojarzone ze

sobą grupy

Obraz może zostać zakodowany werbalnie ale to jest mniej prawdopodobne niż kodowanie
obrazowe i na odwrót

Paivio, Yuille, Mandigan- wysoka korelacja pomiędzy konkretnością słowa a możliwością
jego obrazowej reprezentacji w umyśle

Richardson- wyobraźnia wspomaga zapamiętywanie słów, ale tylko gdy nie są abstrakcyjne

Johnson, Paivio, Clark- definicje dla słów konkretnych są bardziej precyzyjne, dłuższe i
wspomagane wyobraźnią niż słowa abstrakcyjne

Efekt przewagi obrazu nad słowem- Paivio i Csapo- kodowanie obrazowe bardziej sprzyja
efektywności zapamiętania

Reprezentacje numeryczne

Efekt dystansu numerycznego- Moyer- znacznie łatwiej porównać wartości liczb
zdecydowanie różniących się np. 2 i 8 a znacznie trudniej mniej różniących się np. 2 i 4

Campbell- werbalny format liczb zmniejsza efekt dystansu, np. trzy

Hipoteza trzeciego języka/języka myśli- Anderson

- umysł nie gromadzi trwałęj wiedzy ani w

postaci obrazów, ani w postaci etykiet

6

background image

werbalnych ale w postaci zbioru
sądów(twierdzeń)

- kod twierdzeniowy ma postać
abstrakcyjnych, amodalnych twierdzeń

opisowych
- sąd- forma reprezentacji umysłowej,

wyrażająca relacje pomiędzy obiektami
- rachunek predykatów- logiczny system

przetwarzania zdań abstrakcyjnych. Dzięki
niemu można przekształcać sądy

Oprócz obrazów, słów i sądów umysł generuje tzw. Modele mentalne- Philips Johson-Laird- są to

nietrwałe reprezentacje słowno-obrazowe o dość dużym poziomie odpowiedniości. Powstają na
bazie reprezentacji nietrwałych (spostrzeżeń, wyobrażeń) i trwałych (wiedzy)

Stanowisko eklektyczne- dopuszcza możliwość istnienia wielu różnych form kodowania

ROZDZIAL 3

POJĘCIA I SCHEMATY (ROZDZ 3)

Pojęcie – poznawcza reprezentacja zbioru obiektów, np. kategorii naturalnych (owoce),

sztucznych (liczby rzeczywiste) lub hipotetycznych (UFO).
Schemat poznawczy – złożona forma reprezentacji umysłowej, obejmująca zarówno sens

typowej sytuacji (obiad w restauracji), jak i znaczenie typowych form zachowania (płacenie
rachunku), jakie powinny być wygenerowane w reakcji na tę typową sytuację.

POJĘCIA

Są schematycznymi reprezentacjami zbiorów rzeczywistych obiektów, stanowią dla nich

nadrzędną kategorię umysłową. Pozwalają identyfikować i rozróżniać obiekty w ramach
konkretnych kategorii. Są zbiorami cech połączonych znaczeniowo lub funkcjonalnie.

- DESYGNAT – egzemplarz – przedstawiciel danej kategorii pojęciowej. Poszczególne desygnaty

mogą się znacznie różnić w ramach jednej kategorii.

Struktura pojęciowa istotnych właściwości:
Koniunkcyjna (A i B)

Dysjunkcyjna (A albo B)

Pojęcia są niezależne od formy zmysłowej i właściwości zmysłu, którym postrzegane są obiekty.
Mają charakter amodalnych sądów o relacjach między właściwościami obiektów.

Zapewniają systemowi poznawczemu ekonomiczne funkcjonowanie (skąpiec poznawczy) –

ograniczają różnorodność danych docierających do umysłu.

Mają różne stopnie ogólności – im bardziej ogólne pojęcie, tym bardziej jest zbiorem właściwości
typowych.

Proces kategoryzacji – łączenie obiektów o wspólnych właściwościach w grupy.

Pojęcia nabywane są w toku doświadczenia – są zależne od kontekstu ich nabywania i stosowania.

Pojęcia matrycowe a pojęcia naturalne

- Pojęcia matrycowe – inaczej sztuczne, naukowe - reprezentacje skończonej liczby cech

wspólnych wszystkim desygnatom. Cechy te przysługują wszystkim desygnatom w jednakowym
stopniu.

7

background image

- Pojęcia naturalne – dominują w tworzeniu potocznej reprezentacji świata, są mniej precyzyjne,
posiadają bardziej i mniej typowe egzemplarze.

Struktura i funkcjonowanie reprezentacji pojęciowych

a) Teorie klasyczne (Bruner, Goodnow, Austin/ Lewicki/ Loftus, Loftus)

Pojęcie jako syntetyczny opis pewnej klasy desygnatów, zbiór cech istotnych, koniecznych i

wyczerpujących. Cechy te inaczej nazywa się cechami definicyjnymi.

Nabywanie w procesie abstrahowania – wyróżniania pewnych cech przy pominięciu pozostałych.
Abstrakcja pozytywna – wyróżnianie cech istotnych (błąd I rodzaju)

Abstrakcja negatywna – pomijanie cech nieistotnych (błąd II rodzaju) (Lewicki, 1968)

Lewicki 1968 r. – badanie w drugiej odmianie paradygmatu recepcji – nabywanie sztucznego

pojęcia „klipiec”. Wnioski: testowanie hipotez jako kolejny sposób nabywania pojęć. Szybkość
nabywania zależna od sumarycznej liczby cech istotnych i różnicujących.

Pojęcia jawne/niejawne (Howard) – nabywane przez testowanie hipotez/abstrakcję

percepcyjną.

Procedura identyfikacyjna a istota pojęcia

Krytyka dotycząca istnienia pojęć dysjunktywnych

Być może teorie klasyczne mają zastosowanie jedynie wobec pojęć matrycowych, typowo
naukowych.

Elastyczność procesu kategoryzacji – możliwość redefiniowania pojęć na skutek nowych
doświadczeń.

b) Teorie probabilistyczne

Pojęcie jako sumaryczny opis wszystkich egzemplarzy będących desygnatami pojęcia.Cechy te

różnią się w zakresie powszechności występowania u poszczególnych egzemplarzy, dlatego każdy
egzemplarz posiada je jedynie z pewnym prawdopodobieństwem.

Zawiera mniej i bardziej typowe właściwości obiektów, a co za tym idzie, mniej lub bardziej typowe

egzemplarze (wróbel vs kura).

Smith, Shoben, Rips (1973, 1974) po badaniu w paradygmacie podejmowania decyzji
semantycznych, wykazali, że podjęcie decyzji co do przynależności obiektu do danej

kategorii zależy od jego typowości.

Cechy definicyjne – tworzą rdzeń pojęcia, posiadają je wszystkie desygnaty pojęcia
Cechy charakterystyczne – reprezentatywne cechy egzemplarzy pojęcia, wskazują na typowość

obiektu, im jest ich więcej, tym bardziej typowy egzemplarz

Porównanie całościowe – I etap kategoryzacji – obejmuje wszystkie cechy kategoryzowanego
obiektu oraz pojęcia, jeśli egzemplarz jest typowy – zostaje zaliczony do kategorii.

Porównanie szczegółowe – II etap kategoryzacji – dotyczy cech definicyjnych nadrzędnej
kategorii, polega na ustaleniu proporcji posiadanych przez obiekt cech definicyjnych do cech mu

brakujących. Wymaga czasu, ale pozwala na zaliczenie do danej kategorii nawet bardzo
nietypowych egzemplarzy.

Przestrzeń semantyczna reprezentacji pojęciowej – pojedyncze desygnaty pojęcia można

wpisać w układ dwóch podstawowych wymiarów.

Krytyka:

Zestaw cech prawdopodobnych niekoniecznie tworzy spójną kategorię pojęciową. Dwie
bliskie kategorie mogą mieć ten sam zestaw cech definicyjnych, a różnić się cechami
charakterystycznymi.

Nie można zdefiniować przez zestaw cech o dużym stopniu typowości – brak symetrii w
zakresie cech kategorii i cech egzemplarzy. (egz – poj/ poj-egz)

c) Teorie prototypów (Rosch, 1973)

Pionowy i poziomy wymiar reprezentacji pojęciowej

Wymiar pionowy (dot. Stopnia ogólności pojęcia) ma wg Rosch trzy poziomy:

8

background image

a) poziom nadrzędny – pojęcia odzwierciedlane przez niewielką liczbę cech. Kategorie ogólne

charakteryzują się dużą inkluzywnością.

b) Poziom podstawowy – najpowszechniej używany, pojęcia z tego poziomu są wymieniane

przez nas spontanicznie. Zawiera większą liczbę cech charakteryzujących pojęcie.

Egzemplarze tego poziomu są najszybciej identyfikowane.

c) Poziom podrzędny – pojęcia specyficzne, szczegółowe, o dużej liczbie charakteryzujących je

cech. Trudniej je zidentyfikować, ale łatwiejsze w opamiętywaniu metodą rozpoznawania.

Wymiar poziomy dotyczy desygnatów pojęcia znajdującego się na poziomie wyższym. Desygnaty
te różnią się typowością. Najbardziej typowy, reprezentatywny egzemplarzy to prototyp.

Koncepcja prototypów zakłada, że pojęcia nabywane są w procesie doświadczania egzemplarzy.

Najefektywniej nabywa się pojęcie, jeśli zaczyna się od prototypu (wymiar poziomy) kategorii
pojęciowej z poziomu podstawowego (wymiar pionowy).

- Prototyp jako „czysty” lub „najlepszy” desygnat.

Problemy z klasyfikacją na skali typowości. Prototypy wspólne dla badanych z tej samej populacji,
ale mogą się różnić kulturowo (wróbel vs drozd), jak również płciowo (spódnica vs spodnie).

Prototyp może być:

Najbardziej typowym egzemplarzem, najbardziej podobnym do pozostałych desygnatów
kategorii i najmniej podobnym do desygnatów innych kategorii - podobieństwo
rodzinne
(Rosch)

Egzemplarzem o średniej arytmetycznej właściwości wszystkich desygnatów kategorii
(Posner i Keele). Percepcyjne doświadczenie prototypu nie byłoby konieczne do

uformowania się pojęcia. (Co z pojęciami naturalnymi? Taki prototyp może być obiektem
nieistniejącym w rzeczywistości)

Modalną spotykanych egzemplarzy (Neumann) lub modalną właściwości wszystkich
spotkanych desygnatów. [Poglądy Neumanna, ale i Posnera i Keele nie dają się pogodzić

z przekonaniem o względnej trwałości prototypu].

Hampton – pojęcie polimorficzne – pojęcia definiowane przez pewną liczbę cech
charakterystycznych, nieprzysługujących żadnemu z desygnatów w stopniu koniecznym i
wystarczającym. Protopyme pojęcia polimorficznego ma być desygnat o największej

liczbie cech charakterystycznych.

Teorie prototypów znajdują zastosowanie w badaniu pojęć konkretnych. Bardziej abstrakcyjne
kategorie pojęciowe wydają się nie mieć prototypów. (Ale: badania Hamptona na temat pojęć

abstrakcyjnych – emocje mogą być reprezentowane w formie prototypów przy niższym poziomie
reprezentacji).

Podsumowując:

- prototyp jest konkretnym egzemplarzem (niekoniecznie rzeczywistym)
- proces kategoryzacji polega na określaniu stopnia podobieństwa (dystansu semantycznego)

między kategoryzowanym obiektem a prototypem (ma to odzwierciedlenie w różnicach w
rankingach typowości)

- pojęcia nabywane są na podstawowym poziomie hierarchii poprzez doświadczanie egzemplarzy
typowych

d) Teorie egzemplarzy ( Medin i Schaffer 1978)

Reprezentacja pojęciowa składa się z odrębnych opisów egzemplarzy danego pojęcia.

Mogą nimi być odzwierciedlenia pojedynczych przedstawicieli kategorii (wśród nich egzemplarz
prototypowy) jak i podzbiory wchodzące w zakres danego pojęcia.

Przykład: reprezentacja pojęciowa psa: a) mój pies (prototyp), b) wilczur sąsiada i jamniczka

sąsiadki (egzemplarze ważne ze względów indywidualnych), c) pozostałe napotkane psy.

- Jeśli napotkany obiekt jest podobny do opisu któregoś ważnego egzemplarza, wówczas zostaje
zakwalifikowany do danej kategorii i sam staje się punktem odniesienia dla następnych

porównywanych obiektów.
Reed (1971) twierdzi, że taki proces jest zbyt czasochłonny, w związku z czym kategoryzacja ma

się odbywać poprzez ocenę podobieństwa obiektu z pierwszym napotkanym desygnatem pojęcia.

9

background image

Stąd niezwykle ważne mają być pierwsze doświadczenia z egzemplarzami danego pojęcia
(chihuahua).

Krytyka:

Nie wiadomo, do jakiego stopnia brak podobieństwa pośród kategoryzowanych
egzemplarzy jest tolerowany przez kategorię nadrzędną. Konsekwencją mogą być
problemy z kategoryzacją.

Taki proces kategoryzacji nie sprawdziłby się w naukach ścisłych, teoria egzemplarzy
odnosi się raczej do pojęć konkretnych i naturalnych.

W jaki sposób umysł przechowuje wiedzę o podzbiorze (np. psów myśliwskich) w postaci
jednego egzemplarza?

Po co przechowywać wszystkie opisy doświadczanych desygnatów, skoro punktem
odniesienia miałby być jedynie pierwszy napotkany egzemplarz?

Podsumowując:

Teoria egzemplarzy przedstawia najmniej ekonomiczną formę trwałego reprezentowania obiektów
rzeczywistych w umyśle.

W podejściu eklektycznym przyjmuje się, że teorie klasyczne odnoszą się do pojęć matrycowych i

abstrakcyjnych, natomiast teorie wzorców, szczególnie prototypów raczej do pojęć naturalnych i
konkretnych.

WSKAZANE :) – Tabela 3.3 na stronie 126 w podręczniku

O RELACJACH MIĘDZY POJĘCIAMI

Reprezentacje pojęciowe wiążą relacje opisane w modelu sieci semantycznej (Collins, Quillan,

1969). Przechowywane są na trwałe w pamięci w postaci zhierarchizowanej sieci, składającej się z
punktów węzłowych i łączących te punkty relacji. W poszczególnych węzłach znajdują się

reprezentacje pojęciowe.
Właściwości charakteryzujące pojęcia przypisane są reprezentacjom pojęciowym na możliwie

najwyższym poziomie hierarchii ogólności.

Relacja semantyczna dwóch reprezentacji pojęciowych wyraża się sumą wszystkich
połączeń między ich desygnatami desygnatami właściwościami. Im więcej połączeń, tym
bliżej związane ze sobą pojęcia.

Połączenia te, to ścieżki sieci, zróżnicowane pod względem wagi. Im silniejszy związek
między pojęciami, tym łatwiej aktywują się one nawzajem.

Typowi przedstawiciele pojęć oraz ich typowe właściwości związane są silniejszymi
relacjami semantycznymi – sieć pojęciowa nie jest symetryczna.

Relacje semantyczne mogą być dwojakiego rodzaju:

- połączenia pozytywne (kura jest to ptak)

- ścieżki zaprzeczające (kot nie jest to pies)

a) Teoria schematów (Rumelhart, 1980).

Schematy są dobrze zintegrowanymi fragmentami sieci semantycznej. Jest w nich
zakodowany sens typowej sytuacji, do której schemat się odnosi, jak i znaczenie

typowej formy zachowania, która powinna zostać wygenerowana w reakcji na
typową sytuację.

Schematy różnią się pod względem poziomów ogólności, od pojedynczych
reprezentacji pojęciowych do rozbudowanych ideologii.

Hierarchiczna struktura schematów: schematy o szerokim zakresie zastosowania
zawierają mniej ogólne struktury. Zawierają także część rdzenną (reprezentacje

wspólne wszystkim sytuacjom z tego zakresu) oraz część elastyczną

10

background image

(pozwalającą na zastosowanie schematu w konkretnej sytuacji bodźcowej, różnej
od typowej.

Generowanie brakujących elementów systemu reprezentacji pojęciowych jest
również możliwe w ramach schematów.

Podobieństwo do gry (scenariusz-aktorzy), teorii (naiwne przekonania), programów
komputerowych
.

Mogą ulegać modyfikacji na drodze uczenia się.

Nabywanie i modyfikacja schematów (transformacja, abstrahowanie, indukcja)

- nabywanie wiedzy przez przyrost informacji (istniejące schematy rozwijane na skutek nowych

sytuacji)
- dostrajanie schematu do nowej sytuacji poprzez stopniową modyfikację subprocedur

- całkowita restrukturalizacja (relacje rozbite i utworzone nowe na drodze abstrahowania i indukcji)

Wg tej teorii, zadaniem sieci semantycznych jest umożliwienie człowiekowi szybkiej i adekwatnej
reakcji na zmienne warunki bodźcowe na podstawie ukształtowanej wcześniej wiedzy o świecie.

b) Teoria ram (Minsky, 1975)

Dwa poziomy ram:

- wyższy – stałe elementy struktury sieciowej, niezależne od możliwego zakresu stosowalności

ramy
- niższy – zawiera „okienka”, które są zapełniane przez elastyczne zmienne w zakresie różnych

wymiarów

Możliwości nietypowej transformacji w zakresie ramy wykorzystują niektóre techniki twórczego
myślenia.

Istotne informacje w obrębie każdej ramy:

W jaki sposób ramę stosować?

Jaka jest sekwencja zdarzeń?

Co zrobić, kiedy oczekiwania odnośnie sekwencji nie potwierdzają się?

Informacje te powinny być punktem wyjścia dla modyfikacji ramy.

Rama jako struktura bardziej zależna od kontekstu sytuacji, a przez to znacznie bardziej

zróżnicowana – istotny aspekt społeczny

c) Teoria planów, scen i tematów (Schank, 1982)

Jak to się dzieje, że nawet będąc po raz pierwszy w jakiejś sytuacji (np. napadu na bank),
potrafimy jakoś zinterpretować dane i zrozumieć cele i czynności innych ludzi uczestniczących w

zdarzeniu? Czy rzeczywiście musimy nabywać taką wiedzę na drodze doświadczenia?

Plany – schematy zawierające wiedzę na temat abstrakcyjnych lub potencjalnych celów
działania człowieka

MOP-y (Memory Organization Packets) – zbiory podobnych fragmentów różnych
schematów (np. możliwych form powitania) rozpoczynających reguły interakcje społeczne

Odnoszą się do pojedynczych rodzajów podobnych do siebie scen, które mogą wystąpić
w ramach wielu różnych schematów, iż których poszczególne scenariusze tych struktur

poznawczych mogą być budowane.

TOP-y (Thematic Organisation Points) – zbiory ogólnych tematów czy też motywów,
których złożone scenariusze mogą dotyczyć.

PODSUMOWUJĄĆ:

- W koncepcji schematów wiedza deklaratywna staje się podstawą dla wiedzy proceduralnej.

11

background image

- W pozostałych koncepcjach bardziej znacząca wydaje się być wiedza proceduralna, a
różnorodnośc bądź stereotypowość generowanych zachowań staje się podstawą do do

formułowania wniosków odnośnie do możliwych struktur reprezentacji świata

ROZDZIAL 4

Wiedza – forma trwałej reprezentacji rzeczywistości, mająca postać uporządkowanej i wzajemnie
powiązanej struktury informacji, kodowanej w pamięci długotrwałej.

Podział wiedzy (Gilbert Ryle):

- deklaratywna (że) – odnosi się do danych (faktów), kodowanych w pamięci trwałej. Danymi może
być wiedza ogólna, epizodyczna, czy autobiograficzna. Jest łatwa do werbalizacji, ponieważ ma

wyraźny komponent semantyczny. Nabywana jest dyskretnie poprzez włączenie jakiejś informacji
w istniejące struktury wiedzy. Wydobywanie ma charakter wolicjonalny i polega na jej werbalizacji.

- proceduralna (jak) – odnosi się do kodowanych w pamięci trwałej procedur realizacji czynności o
charakterze umysłowym i ruchowym. Jest to specyficzna wiedza, potocznie zwana umiejętnościami

(zarówno wykonawczymi jak i poznawczymi). Nabywana jest w toku treningu, polegającego na
wielokrotnym powtarzaniu czynności. Uruchamiana jest automatycznie w przypadku zainicjowania

dobrze nam znanej czynności.

Burnett i Ceci – Wiedza może być wykreowana przez jednostkę dzięki wnioskowaniu, powiązaniu
posiadanych wcześniej informacji i myśleniu o tych informacjach w nowy sposób.

Metawiedza – wiedza typu „wiem, że wiem”. Dotyczy ona wiedzy o wiedzy posiadanej przez

jednostkę.

Michael Polanyi: Wiedza ukryta („milcząca”) – nie wiemy, że ją posiadamy.
Grafi Schacter – wyróżnienie pamięci jawnej i niejawnej.

Wiedza ukryta – wiedza nabywana długotrwale na drodze praktyki i doświadczenia
Wiedza niejawna – efekt mimowolnego uczeni się. Ujawnia się pomiarze pośrednim.

Kryteria, jakie powinny spełniać wyniki testów na potwierdzenie obecności wiedzy niejawnej:

- kryterium wyłączności – dana metoda ma umożliwiać dotarcie tylko do tej wiedz, która jest
wykorzystywana w wykonaniu danego zadania. Odporność na inną, niezwiązaną z zadaniem

wiedzą.
- kryterium czujności – test mierzący zakres wiedzy jawnej ma być na tyle wyczerpujący, aby

ujawnić pełną informację, której badani są świadomi.

Cleeremans – wiedza jest niejawna, kiedy wpływa na przetwarzani informacji bez uświadomienia
jej właściwości. Wiedza ta ma swoją reprezentację w pamięci trwałej, przez co może być z niej

wydobywana i wykorzystywana.

Wagner i Sternber – wiedza ukryta – „milcząca”; składnik inteligencji praktycznej. Wiedza ta nie
jest bezpośrednio wyrażana, a jej nabywanie odbywa się dzięki indywidualnemu doświadczeniu

jednostki. Jest nabywana samodzielnie, ma charakter proceduralny i jest stosowana w praktyce.
Jest konkretna i specyficzna dla kontekstu (sic!).

Podstawa rozróżnienia: niepełne uświadomienie zawartości wiedzy niejawnej – wiedza jawna jest

dostępna i świadoma.

Reber – podstawowym sposobem nabywania wiedzy niejawnej jest mimowolne uczenie się (proces
bez udziału świadomych strategii uczenia się i bez zamiaru nabycia wiedzy, bezwysiłkowy).

Paradygmaty badań nad mimowolnym uczeniem się i nabywaniem wiedzy niejawnej:

12

background image

- uczenie się sztucznej gramatyki
- wyuczenie się sekwencji zdarzeń

- kontrola systemów dynamicznych

Możliwość jawnego wydobycia wiedzy niejawnej występuje tylko wtedy, gdy poziom tej wiedzy jest
dość wysoki.

Organizacja wiedzy

Reprezentacja wiedzy za pomocą cech

Cecha – symboliczny i dyskretny (tj. nieciągły i nieanalogowy) element umysłowej reprezentacji
wiedzy o wyraźnie określonych granicach.

Zarówno cechy, jak i relacje muszą działać jednocześnie, aby powstało znaczenie.

Definiowanie znaczenia słów:
Clark – definiowanie wymaga zbioru cech unikalnych dla konkretnego pojęcia, stworzonego za

pomocą mechanizmu nawarstwiania się cech. Hipoteza cechu semantycznej wyjaśnia ten
mechanizm: cechy pochodzą zestawu cech pierwotnych i są łączone w znaczenia w taki sposób,

aby było ono zgodne z przyjętym użyciem słowa oraz aby dwa różne słowa nie miały identycznego
znaczenia.

Porównywanie znaczeń słów:

Smith – dwa rodzaje cech w reprezentacji znaczenia:
- rdzenne – składają się na rożsamosć obiektu; cechy definicyjne

- charakterystyczne – typowe dla obiektu.
Model dwufazowego porównywania cech:

I faza – porównywanie zarówno cech rdzennych, jak i charakterystycznych
II faza – porównywania wyłącznie cech rdzennych

Tversky – podobieństwo znaczeń jest tym większe, im więcej para znaczeń posiada cech wspólnych

i im mniej dystynktywnych.

Organizacja wiedzy semantycznej
Endel Tulving - pamięć semantyczna – „umysłowy słownika”, zorganizowana wiedza o symbolach

werbalnych, ich znaczeniu i odniesieniach oraz relacjach między nimi. Zapis wiedzy ogólnej.

Teoria wiedzy semantycznej – kodowaniu podlega treść pojęć języka, czyli ich struktura głęboka, a
nie powierzchowna (forma informacji werbalnej).

Collins i Quillian – Wiedza zawarta w pamięci semantycznej ma postać sieci, w której węzłom

odpowiadają pojęcia, a połączeniom między nimi – ich wzajemne relacje. Sieć jest zorganizowana
hierarchicznie – pojęci bardziej ogólne znajdują się wyżej w hierarchii. Odległość pojęć w sieci jest

w ściśle związana z podobieństwem ich znaczenia. Pojęci o wyższym stopniu podobieństwa są
reprezentowane przez węzły znajdują się blisko w sieci.

Model zakłada dwa rodzaje relacji między pojęciami:
- relacja przynależności do klasy – relacje obejmują pojęcia z dwóch różnych poziomów hierarchii

sieci.
- relacja predykatywna – pełni funkcję orzeczenia, zawiera wiedzę o właściwościach obiektu. Jest

kodowana na możliwie najwyższym poziomie ogólności.

Collins i Loftus - podstawowy czynnik decydujący o połączeniach między elementami wiedzy uznali
związek skojarzeniowy – bardziej typowe obiekty są szybciej identyfikowane. Struktura wiedzy ma

postać sieci, w której węzłom odpowiadają pojęcia, podczas gdy ich etykiety werbalne są
reprezentowane w postaci wewnętrznego leksykonu. Im pojęcie jest bogatsze semantycznie, tym

więcej połączeń między węzłami, a co za tym idzie tym większa siła skojarzeniowa danego związku.
Proces przywoływania wiedzy odbywa się dzięki rozprzestrzeniającej się aktywacji.

Organizacja wiedzy proceduralnej

Systemy reguł – wiedza jest poznawczo reprezentowana za pomocą zestawu reguł. Reprezentacja
tego typu pozwala na tworzenia procedur działania.

Reguła – składa się z warunku wyznaczającego zbiór właściwości, które muszą być spełnione, aby
uruchomić daną czynność i samej czynności, czyli zbioru produkcji.

Zasada specyficzności reguł – prymat ma reguła bardziej wyspecjalizowana.

13

background image

Zasada niepowtarzalności reguł – w procesie korzystania z wiedzy proceduralnej może mieć udział
specyficzny bufor pamięci, który zawiera pewien zbiór reguł, które zostały użyte w trakcie

bieżącego zadania.

Organizacja wiedzy modelach ACT, ACT* i ACT-R
John Anderson

Wiedza może mieć postać sądów, ale również obrazów, a nawet następstwa czasowego.
Wiedza deklaratywna – reprezentowana jest w postaci węzłów (jednostek informacji) i relacji

między nimi (powiązania miedzy jednostkami). Połączenia między węzłami charakteryzują się
określoną silą związku skojarzeniowego. Aktywacja może być wywołana albo dzięki zewnętrznym

bodźcom, albo dzięki przywołaniu informacji z pamięci. Elementy często przywoływane są bardziej
aktywne. Aktywacja jest limitowana pojemność pamięci roboczej i czasem. Zatem o charakterze

przetwarzania decyduje struktura oraz sprawność mechanizmu aktywacji.
Wiedza proceduralna – reprezentowana w postaci reguł aplikowanych w celu przetwarzania wiedzy

deklaratywnej, oraz w postaci informacji zawartych w buforach wyspecjalizowanych modułów
(wzrokowego, słuchowego i motorycznego)

Efekt wachlarza – połączenia odchodzące od każdego z węzłów sieci przypominają wachlarz. Na

tym efekcie oparto wyjaśnienie interferencji, kiedy to jedna z konkurencyjnych informacji pozostaje
niedostępna.

Nabywanie wiedzy


Kodowanie informacji – odbywa się w każdym magazynie pamięciowym.

Zapamiętywanie – dotyczy pamięci krótkotrwałej i długotrwałej.
Nabywanie wiedzy – pamięć długotrwała.

Nabywanie wiedzy semantycznej

Collins, Loftus – nabywanie wiedzy polega na tworzeniu nowych węzłów oraz łączeni zarówno
nowych, jak i istniejących za pomocą nowych połączeń. Nowy węzeł zostaje wbudowany w

strukturę sieci poprzez powiązanie go z innymi węzłami.

Anderson – jednostki wiedzy są tworzone dzięki regułom produkcji, aplikowanym do informacji
pochodzącej ze środowiska. Wiedza proceduralna służy do budowania trwałych reprezentacji

wiedzy deklaratywnej.

Nabywanie wiedzy proceduralnej
Anderson – proceduralizacja – przekształcanie jawnej wiedzy deklaratywnej w niejawne procedury

działania. Zachodzi w trzech etapach:

1. Etap deklaratywny – jednostka otrzymuje zestaw instrukcji o określonej umiejętności i

sposobie jej nabywania. Tworzone są procedury działania.

2. Etap kompilacyjny – polega na ćwiczeniu reguł dostarczonych i wygenerowanych dzięki

procedurom interpretacji. Jest wysiłkowy i podlega świadomej kontroli. Prowadzi do
zwiększenia tempa wykonywanie czynności, wyeliminowania pośrednictwa wiedzy

deklaratywnej, a co za tym idzie konieczności werbalizacji oraz połączenia wielu kroków w
jedną, autonomiczną procedurę.

Kompozycja – łączenie dwóch lub więcej procedur w jedną.
Automatyzacja – skomponowane w większe całości procedury w coraz mniejszym stopniu

obciążają pamięć roboczą. Wyeliminowanie udziału wiedzy deklaratywnej.

3. Etap proceduralny – automatyczny i niemal bezwysiłkowy.

Proceduralizacji wiedzy towarzyszy:
- generalizacja – uogólnianie nabywanej wiedzy proceduralnej na szerszą klasę sytuacji.

- różnicowanie – odróżnianie warunków uruchomienia różnych procedur.

Nabywanie wiedzy niejawnej
Reber – wiedza niejawna nabywana jest na drodze uczenia się mimowolnego, rozumianego jako

proces poznawczy, w wyniku którego jednostka nabywa wiedzę nie jawną niezależnie od
świadomych intencji.

Nabywanie wiedze odbywa się niezależnie od świadomej kontroli albo bez udziału wiedzy werbalnej

o wszystkich nabywanych regułach.

Sternberg

14

background image

- transformacja jawnej wiedzy o procedurach w „milczącą” wiedzę proceduralną; wiąże się z
pamięcią semantyczną

- niejawne uczenie się reguł proceduralnych na podstawie osobistych doświadczeń; wiąże się z
pamięcią epizodyczną

Wiedza ekspercka

- ekspert posiada bardzo obszerną wiedzę, ale jest ona ograniczona do pewnej dziedziny.

Właściwości wiedzy eksperckiej:
- organizacja – wiedza jest uporządkowana na wielu poziomach: od poziomu elementarnych

składników po wyabstrahowane struktury wyższego rzędu.
/struktura wydobycia – powiązanie napływającej informacji z zestawem wskazówek/

- proceduralizacja – wysoka sprawność wykonywania procedur przy utrzymaniu zdolności ich
werbalizacji

- schematy rozwiązywania problemów – zawierają abstrakcyjną wiedze pozbawioną kontekstu, w
którym została ona pozyskana. Łatwo podlegają transferowi pomiędzy różnymi kontekstami.

/efekt eksperta – polega na większej sztywności ekspertów w rozwiązywaniu nierutynowych
problemów/

Nabywanie wiedzy eksperckiej
Glaser:

- etap wsparcia zewnętrznego – nowicjusz otrzymuje wsparcie od osób posiadających wiedzę
- etap przejściowy – rozwijanie umiejętności monitorowania i regulacji własnych czynności oraz

identyfikowanie kryteriów coraz wyższego poziomy wykonywania zadania.
- etap samoregulacji – pełna kontrola nad nabywaniem wiedzy i wykonywaniem zadań.

Schaumacher i Czerwiński:

- faza przedteoretyczna – wydobywanie przykładów z pamięci opartych na powierzchownym
podobieństwie cech danej sytuacji

- faza doświadczeniowa – odkrywanie związków przyczynowych obowiązujących w systemie.
Nabywanie wiedzy eksperckiej.

- faza ekspercka – dokonywanie abstrakcji na najwyższym poziomie, możliwość transferu wiedzy.

ROZDZIAL 5

UWAGA

-powiązana ze świadomością
-selektywna( selekcja dotyczy spostrzegania i wyższych procesów poznawczych, myślenia)

-pozwala na koncentracje na ważnych sygnałach
-konieczna do przystosowania się organizmu do środowiska.


Funkcje uwagi:

1.

Selekcja źródła informacji

Wybór sygnału spośród szumów, ignorowanie dystraktorów.

2.

przeszukiwanie pola percepcyjnego ( przez kodowanie cech i selektywna integracja
właściwości poszukiwanego obiektu w postać.

Przeszukiwanie:
-proste( 1 cecha), równoległe

-koniungcyjne( np. ruch i kolor), dłuższe i szeregowe(Treisman, Gelade)

>cechy priorytetowe( przetwarzane jako pierwsze )np. ruch, kolor, głębia
ale!!cecha niepriorytetowa może przyciągać takim samym stopniu jak priorytetowa!

3.

przedłużona koncentracja- dłuższe monitorowanie otoczenia(czujność)

paradygmat zegara gdzie notuje się nieuchronny spadek koncentracji-energii
( Mackworth)

4.

Podzielność uwagi

15

background image

5.

Przerzutność –przełączenie się między obsługiwanymi niezależnie procesami
przetwarzania info.

*paradygmat słuchania dychotycznego( cocktail party problem, Cherry)
*technika podążania(shadoving) wykorzystywana w badaniach Broadbenta Treisman i Moray’a

>koszty poznawcze w postaci dłuższego czasu wykonania, przy zahamowywaniu jednego procesu a

uruchamianiu alternatywnego.
*paradygmat przełączania( task switching)-efekt podłogowy????do sprawdzenia

Teorie

Filtr uwagi

Redukcja informacji docierających do systemu odbywa się na wejściu sensorycznym, poprzez

zablokowanie wszystkich źródeł info-prócz jednego
!to czego filtr nie zaakceptuje ulega degradacji zależy od modalności zmysłowej(wzrok, słuch itp.)

-->przejście przez filtr oznacza dalsze przetwarzanie info na głębszym poziomie-semantycznym a w
rezultacie daje świadome doznanie

Koncepcja ta doczekała się różnych odmian:

~Broadbent Y
Wyróżnił dwa kanały doprowadzające info( sensoryczne) i jeden dalszy kanał semantyczny. Uwaga

przełącza się pomiędzy dwoma kanałami na wejściu selekcjonując info pod względem właściwości
fizycznych: intensywność, kolejność sekwencji bodźców)

*zasada ,,wszystko albo nic” komunikat nieprzetwarzalny ulega zapomnieniu(pozostaje po nim
jedynie ślad fizyczny np. rozpoznanie płci spikera w kanale ignorowanym(słuchanie dychotyczne)

ale nierozpoznanie treści.
Krytyka: wiele wskazuje na to, że decyzje o zaakceptowaniu info przez filtr podejmowane są na

podstawie znaczenia sygnału
=>wybór filtra sensoryczny/semantyczny zależy od dostępności czasu( Gray, Wadderburn,

prezentowanie ciągów cyfr i sylab naprzemiennie. Odpamiętywane są osobno: litery,liczby)

~ Treisman
uwaga przełączana jest z jednego kanału sensorycznego na drugi aby śledzić treść komunikatu.

Filtr skleja info z kanału ważnego i ignorowanego, gdy taki zlep ma sens.
>związki iluzoryczne: połączenie wbrew instrukcji 2 odrębnych elementów sensorycznych różnych

źródeł sensorycznych (zbitek dwóch słów)

=>filtr uwagi otwierany jest od środka przez informacje, które przedostały się przez filtr, są
przetwarzane semantycznie wzmacniają dane próbujące się tam przedostać

propozycja Treisman została nazwana modelem ,,osłabiacza” gdyż info niepowiązane z wcześniej
przetworzonymi są słabiej obrabiane.

~ Broadbent & Gregory

proponują koncepcje dwóch filtrów( model poprawiony): sensorycznego sensorycznego
semantycznego

~ Deutsch & Deutsch

według ich koncepcji decyzja o wzmocnieniu/osłabieniu sygnału jest podejmowana dopiero po
przekroczeniu prze info progu świadomości- do tego momentu bodźce przetwarzane są jednakowo

głęboko. Zasada koniecznej świadomości została jednak szybko odrzucona

!!spory pomiędzy modelami wczesnej i później selekcji.

~ Johnson
zaproponował istnienie jednego filtra, ale zmieniającego charakter w zależności od poziomu

przetwarzania-elastyczność
=>im wyższy poziom przetwarzania tym większa pojemność filtra

=>możliwość działania zasady przetargu między szybkością a poprawnością

Filtr na poziomie sensorycznym działa wraz z zasadą wszystko albo nic. Na poziomie
semantycznym wraz z zasadą osłabiacza a na najgłębszym poziomie (odniesienie do ,,ja”)z zasadą

koniecznej świadomości i zasady przetargu.

Ograniczenia: analiza i selekcja dalej odbywa się tylko w jednym kanale przetwarzania.

16

background image

Teorie przeszukiwania pola percepcyjnego:

~ Treisman i teoria ,,integracji cech” sygnały docierają do ,,map lokacyjnych”(kodują sygnał w

mapach cech: kolor, kształt itp.) wykrywają one własności bodźców wykrywają czy atrybut jest
obecny w obiekcie w polu wzrokowym

według koncepcji zadaniem uwagi jest:

-wybór właściwych map lokacyjnych co prowadzi do selekcji właściwych map cech następuje
integracja zakodowanych wcześniej cech rozpoznanie obiektu

selekcja= aktywacja poszczególnych cech i ich integracja w obiekt

>proces przeszukiwania pola percepcyjnego ma charakter szeregowy( gdy mamy do czynienia z
koniunkcjami cech

>ma charakter równoległy, gdy występują cechy proste
krytyka teori Triesman

=>im trudniejsze odróżnienie sygnału spośród szumów/dystraktorów tym większe
prawdopodobieństwo wystąpienia procesu szeregowego!!

=> to czy proces będzie szeregowy/równoległy zależy od podobieństwa sygnału do dystraktora, a
nie liczby integrowanych cech. ( Bergen, Juliusz)( Duncan), potwierdzone w badaniach Słabosz i

Szymury.
=>bodźce poruszające się wraz z sygnałem wywołują większą interferencję niż dystraktory

statyczne
=> w przypadku cech priorytetowych możliwe jest szybkie przetwarzanie bodźcazachodzi we

wczesnej fazie selekcji(przeduwagowej)tylko wtedy, gdy cecha rzeczywiście wyróżnia obiekt w
polu wzrokowym( przyjmuje wartości dystynktywne).

~Treisman (zmodyfikowana wersja)

właściwości priorytetowe są kodowane szybciej w odpowiednich mapach cech.

Model,, dwufazowy” równoległej i szeregowej integracji cech:
-proces odgórny, aktywizacja właściwych map cech,

-oddolny, automatyczna dezaktywacja pozostałych cech
!!model akceptowany do dziś!!

~Theeuwes

model uwagi podążającej za najbardziej znaczącą( dystynktywną) prezentacją stymulacji
Najpierw polu uwagi wyodrębniamy element o najwyrazistrzych cechach

Teorie przedłużonej koncentracji

Skupianie uwagi przez dłuższy czas powoduje spadek czujności( obniżenie poprawności, rejestruje

się dłuższy czas wykonania zadania)

~ teoria detekcji sygnałów( Green, Swets)
model odróżniania sygnału od szumu. Idealny obserwator zauważy każdy sygnał( reakcja –

trafienie) i zawsze zignoruje szum/dystraktory( prawidłowe odrzucenie. Możliwe jest jednak
popełnienie błędów:

- FA zareagowanie na szum/dystraktory
-OM zignorowanie sygnału

Obserwator przy rozwiązywaniu może podejmować różne strategie to znaczy skłaniać się ku FA lub
OM np. wtedy gdy konsekwencje popełnienia błędów FA są mniejsze niż OM.

Każdy ustala sobie kryterium decyzyjne= próg reaktywności

Im wyższy próg tym maleje prawdopodobieństwo FA ale rośnie OM
=>z upływem czasu obserwuje się jednak po prostu generalny wzrost liczby błędów.

Idealny obserwator ma niższe kryterium decyzyjne dla bodźców prawdopodobnych niż dal tych
mniej prawdopodobnych!!!

*eksp Baddeley’a -nieadekwatne oczekiwania co do prawdopodobieństwa wystąpienia sygnału są
przyczyną spadku czujności.

17

background image

=>Baker , zależność między subiektywnym prawdopodobieństwem pojawienia się sygnału a
wielkością przedziału czasowego jest krzywoliniowa -odwrócone,,U”
 trening przedłuża koncentrację
spadek czujności występuje w wyniku zmniejszenia się wrażliwości na bodziec przy dłuższej jego

ekspozycji w czasie
*Poziom wykonania zadania zależy od aktualnego stanu energetycznego organizmu( prawo

Jerkesa-Dodsona , odwrócone,, U”

>introwertycy łatwiej radzą sobie monotonnych i łatwych zadaniach na czujność uwagi
>ekstrawertycy łatwiej natomiast w zadaniach złożonych i stymulujących.

=>hipoteza zmieniającej się aktywacji Daviesa i Parasuramana

Teorie podzielności

Badania prowadzone w paradygmacie słuchania dychotycznego

>Bernstein i badania nad dwiema czynnościami wykonywanymi niezależnie, przy braku ponoszenia
kosztów poznawczych( widzenie i słuchanie)potwierdziły jej założenia. Okazało się ponadto, że gdy

obie modalności dotyczą tego samego zadania info słuchowe skraca czas reakcji na jednocześnie
prezentowany bodziec wzrokowy.

=> Duncan- koncepcja uwagi ,,ukierunkowanej na obiekt”. Oznacza to iż podzielność uwagi w
zakresie jednego zadania lub obiektu jest możliwa bez ponoszenia dodatkowych kosztó( błędów,

wydłużonego czasu reakcji)

=>Allport i współpracownicy ,,multikanałowa koncepcja selektywnej uwagi
według nich uwaga funkcjonuje jako zestaw niezależnych kanałów zawierających własne filtry( są

to mechanizmy zdolne do niezależnej selekcji)
-wersja poprawiona:

niezależność kanałów selekcyjnych zależy od tego czy dwa konkurencyjne zadania wymagają
różnych receptorów, reprezentacji umysłowych i efektorów.

*uwaga może działać jak zbiór niezależnych modułów to, który z nich zostaje użyty jest
zdefiniowane na wejściu
moduł- każdy ma wyspecjalizowany podsystem własnymi zasobami, dlatego możliwe jest
przetwarzanie równoległe. Są one jednak ograniczone to znaczy, że tylko jeden może przetwarzać

info słuchową, tylko jeden info wzrokową itp.
ograniczenia zatem wynikają nie z istnienia jednego filtra lecz z limitowanej dostępnośći

modułów.

~Kahneman teoria zasobów
uwagamoże działać tylko przy szeregowym jednokanałowym przetwarzaniu. Jeśli dochodzi do

przetwarzania wielokanałowego to muszą pojawić się koszty jednoczesności(zakłócenia przebiegu
jednoczesnych procesów selekcji, analizy info) ( str 213, graficzny model-warto zerknąć).

=>każdy system poznawczy ma ograniczoną pulę zasobów- energię mentalną. Są one przydzielane
różnym procesom( alokacja zasobów). Zajmuje się tym ,,nadrzędny mechanizm selekcjonujący”

jest on centralnym dyspozytorem energii( Nęcka, Szymura)!!

Dlaczego powstają koszty??:
Interferencja strukturalna( Allport) czy interferencja zasobowa( Kahneman) trudne do

rozstrzygnięcia!!
Uwaga jest konsruktem jednorodnym!

Stanowisko pośrednie między koncepcjami parcjalistycznymi a holistycznymi prezentują m.in. Hirst
Hist. Kalmaruwaga może funkcjonować jako zestaw do pewnego stopnia niezależnych zasobów

specyficznych. Jeśli wymagania ze strony jednocześnie realizowanych różnych procesów nie
przekraczają możliwości systemu do przydzielenia tych zasobów to uwaga funkcjonuje jako system

niezależnych podsystemów zasobowych.

=>Nęcka i Szymura,( DIVA) ich badania wskazują na to, że uwaga jest mechanizmem
jednorodnym. W zadaniach trudnych system zaostrza politykę przydzielania zasobów, przy

zadaniach łatwych poszczególne składniki systemu uzyskują częściową autonomię!

Teorie przerzutności

*hipoteza przełącznika( Nęcka) przy zadaniach wykonywanych jednocześnie filtr przełącza się

między dwoma zadaniami( naprzemiennie jedno jest analizowane a drugie ignorowane). Jeśli

18

background image

dokonuje się to dostatecznie szybko, koszty ograniczają się jedynie do czasu. Jeśli przełączanie się
jest zbyt wolne lub rzadkie, pojawiają się koszty poprawności( FA, OM)

~ Rogers & Monsell w przełączaniu biorą udział dwa procesy:

-odgórne: wzbudzane wewnętrznie, przygotowują odpowiednie operacje umysłowe,
przygotowawcze, działają proakywnie- uruchamiane jeszcze przed bodźcem, mają charakter

kontrolny
- oddolne: wzbudzane zewnętrznie, działają reaktywnie jako odpowiedź systemu na zaistniałą

sytuację, dokańczają rozpoczęty proces, charakter automatyczny.

*zestaw zadaniowy- kieruje procesem od skupiania uwagi do odpowiedzi motorycznej. Jest to
rodzaj modułu funkcjonalnego przechowywanego w pamięci.

* RSI( response-stimulus interval)- przerwa między zadaniami konieczna do zredukowania

kosztów przerzutności.
 jeśli za powstawanie kosztów miałyby odpowiadać jedynie procesy kontrolne to powinny one

ulec całkowitej redukcji na skutek podania wskazówki wyprzedzającej lub wystarczająco
długiej( RSI) w rzeczywistości redukcja kosztów nigdy nie jest zupełna, może być jedynie

minimalizowana.--> oznacza to że w generowaniu kosztów przełączania się biorą udział również
procesy automatyczne( wzbudzane oddolnie przez stymulację zewnętrzną).

>takim przykładem działania procesów automatycznych jest efekt ,,poprzedzania

pozytywnego”szybsze przetwarzanie w kolejnym zadaniu z serii tej samej stymulacji co w
poprzednim zadaniu lub podobnej.

> za powstawanie kosztów odpowiedzialna jest interferencja proaktywna: przy nowym zadaniu

utrzymująca się aktywacja z poprzedniego zadania utrudnia wzbudzenie nowej. Aby ją zredukować
potrzebna jest odpowiednio długa przerwa między zadaniami

> badania Allporta:

koszty przerzutności wiążą się z wykonywaniem wcześniejszego zadania nie zadania
nadchodzącego
 badanie Śmigasiewicz, Szymury i Słabosz nie potwierdziły tej tezy(str 220).wielkość kosztów
przerzutności zależy od poziomu trudności zadania.

*koszty rezydualne –koszty ujawniające się mimo wszystko, ale nie podlegające redukcji.
Źródłem takich kosztów mogą być:

>źródłem kosztów rezydualnych może być mechanizm inhibicji(odrzucenie) gdyżprzejście do
kolejnego zdania z serii wymaga uruchomienia dwóch procesów:

-wzbudzeniu aktywacji nowego zestawu zadaniowego
-zahamowaniu aktywacji zestawu już nieprzydatnego.
 Mayr i Keele wykazali, aktywacja modułu potrzebnego do realizacji zadani wcześniej odłączonego
trwa dłużej (ABA) niż aktywacja nowego modułu(ABC) – analogia do zjawiska poprzedzania

negatywnego.

UWAGA, PERCEPCJA, NIEŚWIADOMOŚĆ

* procesy przeduwagowe dotyczą obróbki info na wczesnych etapach( uwaga jest tu obecna)
!!obecnie uważa się że uwaga selekcjonuje info nawet gdy jej treść nie przedostaje się do

świadomości
> kryterium świadomego przetwarzania(Velmans) :

zdawanie sobie sprawy przebiegu procesu poznawczego i dysponowanie wiedzą o rezultatach tego
procesu. Świadomość procesu ma ponadto wpływ na jego przebieg

> Baar jest zdania że proces nieświadomy to taki gdzie nie wyzwala się subiektywne

doświadczenie, nie jest możliwe jego zrelacjonowanie ale ujawniają się skutki jego działania.

* bodziec podprogowy: jest na tyle silny, iż pobudza org sensorycznie, ale zbyt słaby by go
świadomie zauważyć. Działa powyżej absolutnego progu percepcji, ale poniżej progu świadomości.

>Mendelson i anagramy:

efekt nieuświadomionej podpowiedzi np. słowo zapamiętane w uprzednim zadaniu
eksperymentu pomaga rozwiązać zadanie z anagramami. Wielkość efektu zalezy od modalności

zmysłowej( większy przy modalności wizualnej)

19

background image

* bodźce peryferyczne: bodźce znajdujące się na peryferiach uwagi, przetwarzane są słabo, na

płytkim poziomie, mało analizowane semantycznie.
W zauważeniu bodźca peryferycznego pomagają cechy priorytetowe( kolor ruch)jeśli są

dystynktywne(str 223)

>Dallas i Merikle
reakcja na słowo kanale ważnym( samochód) może być przyspieszona gdy w kanale ignorowanym

pojawi się słowo semantycznie związane( kierowca). Czas reakcji wydłuża się natomiast gdy w
kanale ignorowanym pojawi się synonim słowa( auto).

Poprzedzanie:

Bodziec wcześniejszy( pryma)wpływa na przetwarzanie bodźca docelowego!
Paradygmat*

>poprzedzanie repetytywne: krótka prezentacja tego samego bodźca przed tym jak ma on być

za chwilę rozpoznany
> poprzedzanie semantyczne: pryma nie jest identyczna z bodźcem docelowym, ale jest z nim

semantycznie związana( np., bibliotekaksięgozbiór)
>*gdy bodziec prymujący ułatwia przetworzenie b.docelowegopoprzedzanie pozytywne

>poprzedzanie podprogowe(sublimalne):pryma działa w bardzo krótkim czasie-badany jej nie
zauważa, ale obserwujemy zmianę w przetwarzaniu bodźca docelowego(!efekt ten można uzyskać

również przez prezentacje bodźca o bardzo małej intensywności)
>poprzedzanie peryferyczne: bodziec poprzedzający jest wystarczająco intensywny, trwa długo

ale osoba jest nieświadoma jego oddziaływania.
>poprzedzanie afektywne: przed bodźcem właściwym prezentowany jest bodziec o zabarwieniu

emocjonalnym-bodziec docelowy jest przez to inaczej interpretowany
>poprzedzanie sekwencyjne:

pryma maskabodziec docelowyreakcja
*paradygmat prymowania niesekwencyjnego( str. 226)

ROZDZIAL 6

KONTROLA POZNAWCZA (ROZDZIAŁ 6)

Kontrola poznawcza- zdolność systemu poznawczego do nadzorowania i regulowania własnych

procesów poznawczych, poznawczych także do planowanego sterowania ich przebiegiem.

Trzy postaci kontroli poznawczej (Chuderski):
- monitorowanie

- regulacja
- sterowanie

Automatyzacja- nabywanie wprawy na skutek treningu

→ trening jednorodny- ta sama reakcja jest odpowiedzią na ten sam układ bodźców

→ trening niejednorodny- ten sam typ reakcji przy częstej zmianie bodźców

czynności automatyczne są szybkie, bezwysiłkowe, pozbawione kosztów poznawczych; realizowane
bez namysłu i poza kontrolą świadomości; balistyczne (rozpoczęta czynność musi zostać

ukończona)

Procesy nieautomatyczne dzięki nabywaniu wprawy mogą stać się procesami zautomatyzowanymi
(wtórnie automatyczne)- takie procesy są poza kontrolą świadomości, zmniejszają wysiłek

umysłowy, są intencjonalne oraz celowe
przeciwieństwem są procesy pierwotnie automatyczne, które są bezwysiłkowe, poza kontrolą

świadomości, nieintencjonalne

↑ procesy słabo i silnie automatyczne

Schneider i Shriffin teoria kontinuum (efekt nabywania wprawy przesuwa się od bieguna kontroli

w stronę automatyzmu)
- model procesów automatycznych i kontrolowanych

→ system poznawczy podzielony na dwie ścieżki

20

background image

pierwsza wymaga kontroli ze strony uwagi, pojawia się w przypadku pojawienie się
nowych bodźców i braku strategii postępowania

druga jest związana z automatyczną detekcją układu bodźców, jest poza kontrolą, czynności
zapisane są w pamięci długotrwałej, są niemodyfikowalne

Schneider i Shriffin podzieli procesy kontrolowane na dwa rodzaje

- procesy jawne (dostępne świadomości)
intencjonalne przeszukiwanie świadomości

niewydajne, wolne
- procesy zawoalowane (niedostępne świadomości)

porównywanie elementów w pamięci świeżej
szybkie, możliwe zmiany na skutek instrukcji werbalnych lub nabywania wprawy

Procesy automatyczne są nieświadome i jednorodne, wymagają jedynie minimalnej ilości zasobów

(wysiłku mentalnego)

Różnica w zakresie stopnia automatyzacji
- warunek spójny

- warunek niespójny (szybka identyfikacja)

Proces automatyzacji wymaga długiego treningu, procesy kontrolowane mogą stać się
automatycznymi

Interakcje procesów automatycznych i kontrolowanych nie musi wyzwalać efektów interferencji

Możliwy jest transfer wprawy w zakresie zautomatyzowania czynności z jednego zestawu bodźców

na drugi

Możliwość kontroli procesów automatycznych- modyfikacja w takcie ich przebiegu (Logan, Tzelgov)
np. przerwanie pisania na maszynie, kiedy się popełni bład

Paradygmat SYGNAŁU STOP
Pisanie na maszynie z presją czasową, w nieprzewidzianym momencie zaprzestanie czynności

- zgodnie z teorią egzemplarzy badani tym szybciej zahamują czynność im krótszy będzie interwał
czasowy pomiędzy bodźcem wzbudzającym a bodźcem stop. Możliwe jest także powstrzymanie

czynności przy dużych interwałach czasowych.

Paradygmat EFEKTU STROOPA
Istotą efektu jest utrudnienie w przetwarzaniu bodźców niespójnych w porównaniu z bodźcami

spójnymi
- zahamowanie dobrze wyuczonej czynności i zastąpienie jej inną niewyuczoną

- efekt interferencji

Osoby badane czytają słowa spójne lub niespójne albo nazywają kolor atramentu użyty do napisania
słów spójnych lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie kolorów,

ponieważ jest czynnością silnie zautomatyzowaną. Jeśli chodzi o nazywanie kolorów czynność ta jest
zwykle znacznie dłuższa w przypadku słów niespójnych w porównaniu ze spójnymi.

Procesy automatyczne nie są całkowicie balistyczne

siła automatyzmu zależy od proporcji bodźców
np. można zredukować efekt Stroopa zmniejszając liczbę kolorów

Modyfikacje zadania Stroopa:

a) Stroop emocjonalny – nazywanie koloru jakim napisano słowo kojarzące się z lękiem albo

rzeczami lub sytuacjami o negatywnym zabarwieniu emocjonalnym

b) Stroop rozproszony – nazywanie koloru obiektu występującego w towarzystwie wyrazu

oznaczającego zupełnie inny kolor

c) Stroop figuralny – nazywanie figury stanowiącej tworzywo, a ignorowanie figury głównej,

osoby badane widzą figurę zbudowaną z innych figur

d) Stroop kierunkowy – badani mają za zadanie reagować za pomocą odpowiedniego

klawisza kursora klawiatury na strzałkę pokazującą kierunek przeciwny niż klawisz

21

background image

Teoria rywalizacji egzemplarzy (Logan) <teoria przypadków>
uwzględnia możliwość kontroli procesów automatycznych, które mają właściwości:

- są autonomiczne (uruchamiane i wykonywane nieintencjonalnie)
detekcja bodźca powoduje przywołanie informacji deklaratywnych i proceduralnych

- można je wykorzystywać intencjonalnie (kontrola do momentu uruchomienia reakcji
motorycznych)

- dostępność do pamięci długotrwałej
- brak introspekcyjnej świadomości przebiegu

- bezwysiłkowość

Najważniejszym konstruktem tej teorii jest pojęcie egzemplarza- reprezentacja bodźca (S) i
sposobu reakcji (R).

Egzemplarz przechowywany jest w postaci wiedzy trwałej
Pojawienie się bodźca może spowodować jeden z dwóch sposobów przetwarzania informacji

- zastosowanie ogólnego algorytmu (automatyczna procedura)
- znanego z przeszłości sposobu poradzenia sobie z bodźcem (kontrolowane przetwarzanie)

Egzemplarze podlegają procesowi nabywania

→ pojawienie się bodźca powoduje zapis w pamięci

→ odmienne pojawienie się tego samego bodźca powoduje ukształtowanie się odrębnej

reprezentacji egzemplarzowej

→ gromadzenie egzemplarzy jest tożsame z nabywaniem wprawy

→ początkowe efekty gromadzenia egzemplarzy gwałtownie skraca czas reagowania, dalsze

ćwiczenia skracają go w coraz mniejszym stopniu

Nabywanie wprawy jest związane z wtórna automatyzacją

Automatyzmy związane są z dostępnością egzemplarzy

Dzięki automatyzacji uwalniane są zasoby systemu, które można przeznaczyć na wykonywanie
innych zadań, co przyspiesza i większa poprawność reagowania, redukuje efekt przetargu między

poprawnością a szybkością

Efekt przetargu między szybkością a poprawnością
z presją czasową

im płytszy poziom analizy bodźców tym szybszy i mniej poprawny proces selekcji informacji, na
głębokich poziomach przetwarzania informacji analizy selekcyjne są znacznie bardziej złożone,

wymagają więcej czasu, ale w konsekwencji są bardziej poprawne

zwiększona szybkość powoduje wzrost błędów, jednakże efekt ten ulega sukcesywnemu
zmniejszaniu w każdej kolejnej próbie tego samego testu, najbardziej istotne różnice na początku

(Szymura, Słabosz)

Negatywne konsekwencje automatyzacji- deproceduralizacja

Trzy stadia nabywania automatyzacji
- poznawcze (zrozumienie i przyswojenie instrukcji)

- asocjacyjne (proceduralizacja sposobu wykonania czynności)
- autonomiczne (uzyskanie statusu autonomicznego, przebieg bezwysiłkowy)

Innym negatywnym zjawiskiem jest transfer negatywny – dobrze wyuczona czynność utrudnia

wykonanie czynności podobnej, ale nie tożsamej z poprzednio wyuczoną

• Hamowanie

Hamowanie jest mechanizmem kontrolnym polegającym na, z jednej strony, utrudnieniu dostępu

do informacji nieistotnych, a z drugiej, na powstrzymaniu niepożądanej w danym momencie
aktywności neuronalnej, mentalnej lub behawioralnej.

Podstawowym zadaniem hamowanie jest blokowanie pobudek zarówno zewnętrznych, jak i
wewnętrznych.

Hamowanie jest konstruktem niejednorodnym.

22

background image

Hamowanie ze wzbudzeniem alternatywnej reakcji motorycznej jest trudniejsze niż proste
powstrzymanie dominującej reakcji (warunek stop- zmiany, warunek stop- ogólny)

Najtrudniejsze jest hamowanie selektywne- powstrzymanie tylko jeleniej z dwóch możliwych do
wzbudzenia reakcji motorycznych (stop- selektywny) należy, bowiem zablokować energię potrzebną

do wykonania ruchu, ale nie każdego ruchu, a jedynie takiego, który zostanie centralnie wskazany
do zablokowania.

Odporność na dystrakcję

Francolini i Egeth (1980) twierdzą, że w pewnych warunkach proces odrzucania dystrakcji może być

całkowicie skuteczny dzięki przestrzennej separacji konfliktowych aspektów bodźca:
- udane próby redukcji efektu Stroopa

- udane próby redukcji efektu flankerów

Bodźce zakłócające przetwarzanie poza ogniskiem uwagi są w stanie wzbudzić reakcję
konkurencyjną względem wykonywanej czynności.

W Teście flankerów badani reagują na literę pojawiającą się w centrum ekranu. Litera ta jest

otoczona przez dwa bodźce zakłócające (flankery), którymi są inne litery pojawiające się po obu
stronach sygnału w jednym rzędzie. Flankery mogą być tożsame z sygnałem lub też mogą być

zupełnie innymi literami. Zadania testowe różnią się w zakresie przestrzennej lokalizacji bodźców
zakłócających (bliżej lub dalej od sygnału).

- Czas reakcji na sygnał znacznie się wydłuża, gdy pojawiają się flankery, w porównaniu do sytuacji,
gdy ich nie ma lub są tożsame z sygnałem. Wydłuża się tym bardziej, im bardziej podobne do siebie

są sygnały i dystraktory oraz im mniejsza jest ich wzajemna odległość (Eriksen i Eriksen)
[np. C A C / CCC/CAC/C C C]

Efekt flankerów wynika z konieczności zahamowania potencjalnej reakcji na bodziec zakłócający.

Wykonanie tego testu jest bardziej związane z hamowaniem reakcji konkurencyjnej (na dystraktor)
niż z odpornością na dystrakcję rozumianą jako powstrzymywanie się od przetwarzania bodźców

zakłócających (przetwarzanie tak, dopiero na poziomie reakcji jest STOP).

Karen, O’Hara i Skelton wykorzystali w swoim badaniu zadanie Posnera i Mitchella (1967). Badani
mieli podjąć decyzję, czy para prezentowanych liter spełnia narzucone przez instrukcję kryterium

selekcyjne:

a)identyczności fizycznej (AA)
b) identyczności nominalnej (Aa)
c) identyczności opartej o regułę (np. Ae)

Wg nich przetwarzanie bodźców może być powstrzymywane bardzo wcześnie, na poziomie ich

rozpoznania (1), lub też bardzo późno, na poziomie przetwarzania ich znaczenia (2)

(1)

dystraktory powodowały interferencję tylko w zadaniach, w których zastosowano kryterium
fizycznej identyczności (skutecznie odrzucane w warunkach wymagających uwzględnienia
znaczenia bodźców)

(2)

interferencja stwierdzona w zakresie wszystkich zadań, niezależnie od kryterium selekcji

Dynamiczna wersja zadania Posnera i Mitchella- DIVA- pokazał, że sposób przeszukiwania pola
percepcyjnego jest zależny od odporności na dystrakcje.

Efekt tłumienia dystrakcji (Neill) – zastosowano zadanie Stroopa układając w specyficzny sposób
porządek bodźców na liście niespójnej. N+1 bodziec tej listy był napisany kolorem atramentu, który

był tożsamy ze znaczeniem bodźca N-tego
Reakcja na tłumiony wcześniej aspekt bodźca konfliktowego jest wolniejsza niż wówczas, gdy aspekt

ten nie był uprzednio odrzucany.

Efekt ten jest zależny od strategii rozwiązania przetargu między poprawnością a szybkością (Neill,
Westberry). Gdy badani, wykonujący zadanie Stroopa, poświęcali poprawność na rzecz szybkości,

nie stwierdzono efektu tłumienia dystrakcji, gdy zaś poświęcali szybkość na rzecz poprawności, efekt
ten wystąpił z jeszcze większą siłą.

23

background image

Tłumienie dystrakcji jest krótkotrwałe- proces ten jest aktywny przez najwyżej 1000ms.

Paradygmat POPRZEDZANIA NEGATYWNEGO (Neill)

Własną wersję zadania w tym paradygmacie stworzył także Tipper
- N-ty bodziec- pryma, N+1- próba testowa

- prezentowanie prymy utrudnia przetwarzanie bodźca właściwego
- wydłużenie czasu potrzebnego na przetworzenie bodźca właściwego

- efekt występuje tylko w kontekście konieczności dokonywania procesu selekcji w obrębie pary
bodźców

Zagadnieniem odporności na interferencję pamięciową zajęli się Andersen, Bjork i Bjork- określili oni

zjawisko zapominania z powodu przywoływania- odpamiętanie informacji z konkretnej kategorii
może spowodować brak możliwości przypomnienia innej informacji z tej samej kategorii.

Hamowanie pamięciowe (Pefrect, Mulin, Conway, Perry)- redukcja w zakresie poziomu aktywacji

reprezentacji pamięciowej.
- odpamiętywane są przede wszystkim egzemplarze ćwiczone

Klasyfikacja rodzajów hamowania (Nigg, 2000):

1) kontrola interferencji
2) hamowanie percepcyjne (tłumienie odruchu kaskadowego)
3) hamowanie poznawcze (tłumienie irrelewantnych reprezentacji umysłowych)
4) hamowanie behawioralne
5) hamowanie powrotu
6) hamowanie uwagowe odruchu orientacyjnego

Odmienna taksonomia rodzajów hamowania (Friedman i Miyake, 2004)

1) hamowanie dominującej reakcji [zadanie Stroopa]
2) odporność na dystrakcję (możliwe jest odrzucenie informacji niepotrzebnych, z punktu

widzenia aktualnie przetwarzanych danych) [Test flankerów]

3) odporność na interferencję proaktywną (proces aktywny i wysiłkowy, prowadzonym przy

wykorzystaniu głębokich, trwałych reprezentacji umysłowych) [zadanie Petersonów-
opamiętywanie egzemplarzy pojedynczej kategorii, które wcześniej są sukcesywnie

prezentowane]

Funkcje zarządcze

Problem homunculusa (Nęcka, 2004)- odnalezienia, opisania i wyjaśnienia mechanizmów
działania Tego, który buduje reprezentacje, steruje myśleniem i podejmuje ważne dla całości

systemu poznawczego decyzje, a więc Tego, który kontroluje działanie systemu poznawczego.

Homunculus odnaleziony przez psychologów poznawczych został określony mianem funkcji
zarządczych

- zlokalizowanych w przednich płatach czołowych mózgu
- ich upośledzenie – syndrom czołowy- dezorganizacja wszystkich form zachowania

Funkcje zarządcze:

1) przerzutność (pomiędzy zadaniami, procesami, czynnościami) [Wisconsin Card Sorting Test]
2) hamowanie (niepożądanej reakcji, bodźców zakłócających) [Wieża z Hanoi]

3) odświeżanie informacji w zakresie pamięci roboczej [Test Sternberga]

Collete i Van der Linden (2002) wykazali, że wykonywanie zadań wymaga aktywizacji zarówno
przednich płatów czołowych, jak i płatów tylnych, a w szczególności ciemieniowych obszarów kory

mózgowej.

24

background image

Owen (2000) stwierdził, że mechanizm hamowania dominującej reakcji należy lokalizować tylko w

części przednich płatów czołowych, zawierających obszary:
- środkową część grzbietowo-boczną

- środkową część brzuszno-boczną
- grzbietową część przedniej części zakrętu obręczy

Modele kontroli poznawczej:

- markery somatyczne
- mechanizmy uwagowe

- mechanizmy pamięciowe

Koncepcja uwagi Posnera- podstawowe mechanizmy uwagowe:
- mechanizm aktywacyjny- podtrzymanie umysłu w sta nie pobudzenia niezbędnego do

wykonania danej czynności poznawczej
- mechanizm orientacyjny- odpowiada za przenoszenie uwagi w polu percepcyjnym z obiektu na

obiekt
- mechanizm zarządczy- kontrola wykonania czynności celowych; mechanizm zarządczy bierze

górę nad mechanizmem orientacyjnym.

Mechanizm zarządczy może skutecznie ograniczyć interferencję płynącą z bodźców zakłócających,
jeśli system poznawczy z wyprzedzeniem zna np. kolor, odróżniający oba rodzaje bodźców: sygnał i

dystraktor (Theeuwes, Burger, 1998).

Zarządczy mechanizm uwagi odpowiada za hamowanie wagowego odruchu orientacyjnego oraz
kontrolę interferencji pochodzenia zewnętrznego; niepowodzenia w funkcjonowaniu tego odpowiada

hamowanie powrotu- niedopuszczanie do powrotu uwagi do wskazanego miejsca pojawienia się
sygnału (Posner, Cohen, 1984).

Kontrola uwagowa jest sprawowana odgórnie i ma charakter wewnętrzny. Mechanizm zarządczy
determinuje, co i w jaki sposób będzie dalej przekazywane. Percepcja podąża wiec za uwagą.

Jeśli mechanizm zarządczy nie jest dostatecznie ukształtowany- przetwarzanie informacji sterowane
jest oddolnie i ma charakter zewnętrzny, przez co uwaga podąża za percepcją, będąc

automatycznie nakierowaną na spostrzegany obiekt.

Dwustopniowy system kontroli zachowania (Shallice)

Zachowanie jest kierowane w większości przez automatyzmy (rutyny), zarówno pierwotne
(odruchy), jak i wtórne (nawyki)

System kontroli czynności automatycznych decyduje, w przypadku konfliktu czynności

automatycznych, automatycznych kolejności realizowania czynności; jego zadaniem jest hamowanie
wszystkich rutyn, które są w mniejszym stopniu dostosowane do sytuacji bodźcowej.

Ogólnym zadaniem mechanizmu automatycznego, selektywnego hamowania działań rutynowych jest
ustalenie rozkładu jazdy czynności automatycznych.

System kontroli czynności automatycznych jest nieskuteczny w sytuacjach nowych.
W takich sytuacjach trzeba zahamować dominującą reakcję, monitorować i korygować błędy

wynikające z prób dostosowania posiadanych schematów do nowych układów bodźców je
wyzwalających, a także podejmować złożone decyzje i tworzyć nowe plany działań.

Kontrolą przetwarzania informacji w sytuacjach nowych zajmuje się nadzorczy system uwagi SAS

(polska nazwa tego sytemu: dominujący system zadaniowy).
Zadaniem SAS jest układanie „rozkładu jazdy” czynności kontrolowanych oraz ich bieżący

monitoring:
- tworzenie nietrwałej reprezentacji umysłowej dla sytuacji problemowej

Konsekwencje wynikające z założeń modelu kontroli zachowania (Shallice):

- działanie systemu kontroli czynności nieautomatycznych może zostać upośledzone w sytuacji
wykonywania zadań jednoczesnych o porównywalnym priorytecie

25

background image

- system kontroli nieautomatycznych może funkcjonować skutecznie jedynie przy efektywnym
hamowaniu interferencji ze strony danych zawartych w pamięci

- jednym z najważniejszych mechanizmów kontrolnych SAS powinien być mechanizm przerzutności
pomiędzy elementami aktualnie przetwarzanych schematów działań

Centralny system wykonawczy pamięci roboczej (Baddeley)

Do tego modelu Baddeley zapożyczył model SAS. System ten jest jednym z elementów pamięci
roboczej.

Centralny system wykonawczy jest odpowiedzialny za kontrolę zadań jednoczesnych. Jego głównym

zadaniem jest zarządzanie zasobami uwagowymi systemu poznawczego i przeznaczenie ich do
wykonywania czynności jednoczesnych. Kontrola czynności jednoczesnych jest możliwa, a redukcja

kosztów poznawczych w wyniku efektywnej kontroli wydajna.

ALE: Istnieją takie zadania, które wydają się pobierać całą dostępną moc
centralnego systemu wykonawczego, a ich kontrolowanie jednocześnie z innymi
zadaniami okazuje się niemożliwe.

Np. test generowania liczb losowych

Centralny system wykonawczy zlokalizowany jest w przednich płatach czołowych mózgu.

System ten jest kandydatem na poszukiwanego przez psychologię poznawczą homunculusa
kierującego zachowaniem.

RODZIAL 7

Percepcja (spostrzeganie) – proces aktywnej interpretacji (odzwierciedlenia w systemie
poznawczym) danych zmysłowych z wykorzystaniem wskazówek kontekstualnych, nastawienia i

wcześniej zdobytej wiedzy. W wyniku percepcji dochodzi do rozpoznania obiektu. Wymaga
aktywności podmiotu.

Recepcja sensoryczna – polega na odzwierciedleniu bodźców w receptorach, czyli narządach

zmysłów. Stanowi konieczny warunek i pierwszy etap procesu spostrzegania. Jest pasywny i
odpowiada za gromadzenie informacji przez zmysły.

Bodziec dystalny – zewnętrzny, znajdujący się poza systemem poznawczym.

Wskutek bezpośredniego kontaktu z narządem zmysłu powstaje:
Bodziec proksymalny – wewnętrzny i bliski.

Zmysły bliskie (receptory kontaktowe) – zmysł smaku, dotyku i węchu

Zmysły dalekie (telereceptory) – wzrok i słuch

Odebranie bodźca proksymalnego prowadzi do powstania wrażeń. Są to najprostsze procesy
psychiczne, w wyniku których dochodzi do odzwierciedlenia w spostrzegającym umyśle

pojedynczych właściwości rejestrowanych obiektów.
Spostrzeżenie jest całościowym odzwierciedleniem obiektów, składający się z bodźców dystalnych i

wywołanych przez nie wrażeń.

Deprywacja sensoryczna – znaczne obniżenie poziomu stymulacji, prowadzi do wystąpienia
halucynacji (nie odpowiadające rzeczywistości wrażenia) oraz do urojeń (myśli).

Bodźce zdegradowane – bodźce niepełne, niekompletne, pojawiające się w nieoptymalnych

warunkach czasowych lub przestrzennych.

Naiwne koncepcje spostrzegania (metafora aparatu fotograficznego)
Ignorują problem przekładu danych zmysłowych na dane umysłowe. Rejestrator zmysłowy pełni

funkcję przekaźnik informacji na drodze do kory mózgowej, zatem informacja ma charakter
zmysłowy.

Proces identyfikacji obiektów:

26

background image

- koncepcja modeli – egzemplarz jest porównywany do modelu wzorca, który reprezentuje
nadrzędną kategorię. Modelem może być specyficzny egzemplarz, czyli pierwszy napotkany

przedstawiciele danego wzorca lub prototyp, czyli najczęstszy z dotychczas napotkanych
egzemplarzy.

- koncepcja cech – decyzja o rozpoznaniu wzorca jest wynikiem porównania cech
kategoryzowanego obiektu i cech wzorcowych.

Spostrzeganie jest procesem oddolnym – przebiega w kierunku od rejestracji wrażeń do

identyfikacji obiektów.
Mechanizm orientacyjny selektywnej uwagi – uchwycenie przez receptory wystąpienia bodźca w

polu percepcyjnym
Detektory cech – odbiór i kodowanie wrażeń

Magazyny informacji sensorycznej (pamięć ultrakrótkotrwała) – przechowywanie efektów recepcji
Pamięć trwała – wiedza w niej zgromadzona umożliwia identyfikację poostrzeganych bodźców

Magazyny informacji sensorycznej:
- magazyn ikoniczny – czas przechowywanie – 500 ms, pojemność jest zmienna w czasie, sposób

kodowanie jest ściśle sensoryczny
- magazyn echoiczny - dłuższy czas przechowywania, ale mniejsza pojemność

Percepcja głębi – możliwość spostrzegania absolutnego dystansu, jaki dzieli obserwatora od obiektu

oraz względnego dystansu, dzielącego poszczególne obiekty w polu wzrokowym od siebie.
Warunkuje percepcję przedmiotów, a ona z kolei jest warunkiem procesu kategoryzacji i myślenia

pojęciowego.

Szacowanie odległości odbywa się za pomocą:
- wskazówek okulomotorycznych

- śledzenie zmiany lokalizacji obiektu w polu wzrokowym (akomodacja soczewki)
- określenie siły sygnału przesyłanego drogami nerwowymi z centrum kontroli motorycznej

do mięśni, regulujących kształt soczewki.
- wskazówek wizualnych

- monokularne

- perspektywa liniowa

- szacowanie wielkości cienia
- ocena kontrastu

- szczegóły powierzchni
- porównywanie względnej pozycji obiektów (możliwe złudzenie Kanizsy)

- znajomość wielkości obiektu
- ocena paralaksy ruchowej (przebytego dystansu)

- binokularne

- konwergencja dwuoczna

- widzenie stereooptyczne – zdolność do oszacowania względnego dystansu

obiektów znajdujących się obok siebie w polu wzrokowym

Identyfikacja obiektu

Humphreys i Bruce - Fazy identyfikacji obiektu (relatywnie odrębne, ale posiadające sztywne
następstwo czasowe):

- recepcja danych zmysłowych
- odzwierciedlenie obiektu w systemie poznawczym

- klasyfikacja percepcyjna obiektu – dane zmysłowe są porównywane z danymi umysłowymi
- klasyfikacja semantyczna – przywołanie danych dotyczących funkcji danego obiektu

- klasyfikacja leksykalna – przypisanie obiektowi określonej etykiety werbalnej

Biederman – Identyfikacja obiektów zachodzi poprzez detekcję ich geometrycznych komponentów
strukturalnych, zwanych geonami.

Spostrzeganie jest również procesem odgórnym. Reprezentacja percepcyjna obiektu jest

konfrontowana z danymi umysłowymi. Dowody na odgórny charakter percepcji:
- stałość spostrzegania (stałość wielkości, kształtu, jasności i barwy)

- wpływ nastawienia na spostrzeganie (wstępne przygotowanie umysłu do odbioru określonej
informacji – Bugelski i Alampay – łysy i szczur  )

- złudzenia i błędy w spostrzeganiu (trójkąt Penrose’a, sześcian Neckera)
- wpływ kontekstu na spostrzeganie

27

background image

Teorie percepcji

Teoria asocjacjonistyczna – spostrzeżenie to prosta suma wrażeń i powstaje (oddolnie) jako ich

połączenie na zasadzie praw kojarzenia:
- styczności wrażeń w czasie

- styczność wrażeń w przestrzeni
- wrażeń przez podobieństwo

- wrażeń przez wzajemny kontrast
Spostrzeżenie powstaje po wielokrotnym łącznym występowaniu poszczególnych wrażeń.

Głosi prymat części nad całością oraz wrażeń nad spostrzeżeniami.
Nie uwzględnia roli reprezentacji umysłowych w procesie percepcji.

Teoria postaciowa (Wertheimer, Koffka, Kohler)

Prymat całości nad częścią – pierwotne są spostrzeżenia, wrażenia zaś wtórne (wynikają z
analizy).

Sumowaniem wrażeń nie da się wyjaśnić procesu percepcji. Dowody:
- płynny ruch pozorny

- spostrzeganie całej konstelacji gwiazd wcześniej niż elementów konstelacji

Zasady, zgodnie z którymi system poznawczy wyodrębnia całości (figury) z tła różnorodnych
wrażeń:

- bliskość przestrzenna
- podobieństwo

- kontynuacja – wspólny ruch obiektów w tym samym kierunku
- pregnancja – „domknięcie” obiektu niedokończonego

- dobra figura - najpierw widzimy figurę, a następnie jej niedoskonałości

Teoria wzorców (Reed)
- proces identyfikacji obiektu przebiega na zasadzie porównania obrazu percepcyjnego z jego

umysłowym wzorcem
- wzorce są holistyczne, nie podlegają rozbiciu na elementy składowe

- miarą rozpoznania jest stopień pokrywania się obrazu percepcyjnego i wzorca
- teoria ta jest możliwa do zaakceptowania jedynie tylko na poziomie recepcji sensorycznej

Teoria cech (Gibson)

- nabywanie wzorcowych reprezentacji odbywa się w procesie spostrzegania dystynktywnych cech
- cecha kryterialna

- musi przyjmować różne wartości dla różnych wzorców
- musi pozostać niezmienna niezależnie od punktu i właściwości obserwacji

- wszystkie cechy kryterialne powinny razem układać się w unikatowy wzorzec
- liczba cech kryterialnych powinna być relatywnie mała

- tego typu identyfikacja ma miejsce przy długiej prezentacji obiektu

Teoria obliczeniowa (Marr)
- proces spostrzegania polega na generowaniu pewnej serii reprezentacji spostrzeganego

środowiska

- reprezentacja pierwotna – dwuwymiarowy obraz, pozbawiony głębi

Zjawisko przechodzenia przez krawędź – wyróżnienie krawędzi figury dzięki oddzieleniu

dwóch obszarów o różnej luminacji światła

- surowe – mapa punktów świetlnych
- pełne – odzwierciedlają kształty obiektów

- reprezentacja wymiarowa – opis obiektów w kategorii głębi oraz obrazu powierzchni
- odzwierciedlenie 3D – ostateczny produkt procesu percepcji – pełny trójwymiarowy obraz,

niezależny od kąta obserwacji. Są łatwo dostępne i konstruowane, niezależne od obiektu
widzianego z różnych perspektyw oraz elastyczne. Są konstruowane z różnych przestrzennych form

podstawowych.

Teoria ekologiczna (James Gibson)
- rzeczywistość poznajemy bezpośrednio, bez konieczności posługiwania się danymi pamięciowymi

dotyczącymi spostrzeganych obiektów.
- oddolne podejście do procesów spostrzegania

- informacje docierają do receptorów w szyku optycznym (ze względu na intensywność światła)

28

background image

- spostrzegamy dystans za pomocą gradientu struktury powierzchni, paralaksy ruchowej
- właściwość priorytetowa obiektów – ruch

- właściwości pola percepcyjnego:

- niezmienniki – właściwości, które się nie zmieniają wraz ze zmianą punktu obserwacji,

ważne z punktu widzenia przebiegu procesu percepcji

- zmienniki

- percepcja wynika z wyuczonej umiejętności
- cechy i funkcje obiektów są spostrzegane bezpośrednio

- percepcyjnie dane są afordancje – akty lub zachowania, których wykonanie umożliwiają nam
pewne obiekty, miejsca lub zdarzenia.

Spostrzeganie twarzy –
koncepcja modeli (ujęcie holistyczne) vs. koncepcja cech (najważniejsze są rejony oczu, a najmniej

istotne rejony nosa)

Czytanie słów – proces wykorzystujący oddolne mechanizmy spostrzegania:
Tłumienie sakkadowe – rejestrowanie danych zmysłowych nie jest możliwe.

Asymetria wokół punktu fiksacji – obszar na lewo od punktu fiksacji jest trzykrotnie mniejszy od
obszaru na prawo.

Poprzedzanie percepcyjne – poprzedzające obiekty punkt fiksacji są objęte wstępną analizą
percepcyjną.

Czytanie słów – proces wykorzystujący odgórne mechanizmy spostrzegania:

Efekt przewagi słowa nad literami

ROZDZIAL 8

PAMIĘĆ

Pamięć – zdolność do przechowywania informacji i późniejszego wykorzystania. LUB zespół

procesów poznawczych, zaangażowanych w nabywanie, przechowywanie i późniejsze odtwarzanie
informacji.

1. RODZAJE PAMIĘCI

Pamięć przemijająca (nietrwała) – Pamięć trwała (bez ograniczeń czasowych)

Norman, 1970 – rozróżnił ponad 20 rodzajów pamięci

Tulving, 1984 – systemy pamięciowe są odrębne jeśli:

a) są wyspecjalizowane w przetwarzaniu różnych rodzajów informacji
b) funkcjonują wedle różnych reguł

c) mają różne podłoże neuronalne
d) pojawiają się w różnym czasie w rozwoju ontogenetycznym

e)

różnią się formatem reprezentowanych informacji

1)

2)

Klasyczny podział pamięci:

3)

4)

Wywodzi się z blokowego modelu pamięci (Atkinson i Shifrin, 1968). Oparty na kryterium

czasu przechowywania. Dzieli się na: magazyn sensoryczny -> magazyn krótkotrwały(STS) ->
magazyn długotrwały(LTS).

a) Magazyn sensoryczny: powiązany ze zmysłami zmysłu np. wzroku, słuchu, węchu.
Przechowuje bodziec krótko (kilkaset milisekund). Ogromna pojemność a na pewno

większa od STM.
b) Magazyn pamięci krótkotrwałej: posiada informacje zarówno bodźcową jak i

przywołaną z LTS. Posiada różne kody podtrzymywania informacji jak np.
mechanizm bezgłośnego powtarzania. Mało pojemny. Funkcją jego jest

29

background image

przetrzymywanie informacji w czasie niezbędnym do dalszego przetwarzania.
c) Magazyn pamięci długotrwałej: nieograniczony czas przechowywania informacji.

Funkcją jego jest umożliwienie skutecznej adaptacji jednostki w środowisku w
dłuższej perspektywie czasowej.

Klasyfikacja rodzajów pamięci wg Squire’a i Zola-Morgan (1991)

Pamięć:

a) Deklaratywna (jawna): fakty i wydarzenia(u Tulvinga semantyczna i epizodyczna*)

b) niedeklaratywna (niejawna): umiejętności i nawyki, poprzedzanie, warunkowanie

klasyczne, nieasocjacyjne uczenie się.

*jej odmianą jest autobiograficzna czyli zapis wydarzeń w których sami braliśmy
udział.

Informacje w pamięciach semantycznych i epizodycznych mogą się przenikać.

Metoda miejsc: mnemotechnika polegająca na nałożeniu wiedzy na utrwalony zapis
autobiograficzny z charakterystyczną lokalizacją przestrzenną.

Blokowe modele pamięci (Atkinson i Shifrin, 1968):

pamięć rozumiana jako system wielu magazynów. Każdy magazyn jest wyspecjalizowany w
przechowywaniu określonej informacji. Ich model był niemalże identyczny z modelem klasycznym.

Blokowy Model Lehra i Fishera (1988): system percepcyjny człowieka przetwarza w

przybliżeniu 10_9 – 10_11 bitów na sekundę. Sensoryczna->Długotrwała->Krótkotrwała-

>Długotrwała.

Efekt świeżości: łatwiej odtworzone bodźce z końca listy
Efekt pierwszeństwa: łatwiej odtworzone bodźce z początku listy

Utrata dostępu do informacji w LTM to powód „zapominania”(informacja ciągle jest ale nie

możemy wydobyć np. efekt końca języka).

Podwójna dysocjacja: dowód na odrębność STM i LTM. Pacjenci z uszkodzeniami mają np. efekt
świeżości ale nie mają efektu pierwszeństwa.

Interferencja: w STM przez nakładanie się podobieństwa akustycznego bodźców. W LTM przez

nakładanie się bodźców semantycznych.

a)

Procesualne modele pamięci

Modele procesualne: wszystkie alternatywne dla modeli magazynowych ale ich nie kwestionuje.

Teorie poziomów przetwarzania (Craik i Lockhart, 1972):
Przełomowa alternatywa. Trwałość śladów pamięciowych wiąże się z głębokością przetworzenia

stymulacji. System pamięciowy jednorodny choć angażuje różne systemy poznawcze. Ślady
pamięciowe są zapisem operacji poznawczych składających się na proces jego percepcji nie zaś

odwzorowaniem bodźca. Dlatego proces odpamiętania jest próbą odtworzenia sytuacji
percepcyjnej.

Efekt autoreferencji (Rogers, Kupler i Kirke, 1977):

Badani odpowiadali na różne pytania + jedno (czy słowo opisuje ich samych). Najłatwiej
odpamiętywali to właśnie pytanie.

2. SYSTEMY PAMIĘCI PRZEMIJAJĄCEJ

Pamięć przemijająca: obejmuje rejestry sensoryczne oraz pamięć krótkotrwałą (roboczą)

Pamięć sensoryczna: pamięć ikoniczna(wzrok) i echoiczna(słuch).

a) pamięć ikoniczna (Sperling, 1960): Przechowuje dużo ale krótko.

b) Pamięć echoiczna (Treisman, 1964): Odkryta w badaniu słuchu dychotycznego.

30

background image

Maskowanie wsteczne: nowy bodziec przy szybkiej prezentacji po starym (max 100ms) zaciera
go całkowicie.

Pamięć krótkotrwała:

Około 7 sekund. Zapominamy bo: zanik z upływem czasu, interferencja, przekierowanie
uwagi.

Grupowanie: mnemotechnika polegająca na próbie połączenia materiału tak by więcej się go

zmieściło w STM. Można zapamiętać mniej dużych „brył” niż małych.

Efekt podobieństwa fonologicznego: Baddeley. Słowa podobne trudniejsze w odpamiętaniu od
wyraźnie różnych.

Rodzaje przeszukiwania STM (Sternberg): sekwencyjne i wyczerpujące. Jeden element po

drugim i wszystkie, a nie losowo do znalezienia poszukiwanego.

Pamięć robocza (wielokomponentowy model Baddeleya):

Pamięć robocza (Baddeley i Hitch): zarówno przechowywanie i przetwarzanie informacji.

Centralny system wykonawczy pętla fenologiczna, bufor epizodyczny, szkicownik

wzrokowo-przestrzenny.

Centralny system wykonawczy: funkcje: bieżące przetwarzanie informacji, koordynacja
buforów, nadzór nad bieżącym przetwarzaniem.

Pętla fenologiczna: jeden z 3 buforów podlegających CSW. Odpowiada za krótkotrwałe

przechowywanie informacji fenologicznych (dwa sposoby: pasywny i aktywny).

Szkicownik wzrokowo-przestrzenny: przechowywanie materiału wzrokowego i
przestrzennego.

Bufor epizodyczny: czasowe przechowywanie zintegrowanych epizodów.

Pamięć robocza (model aktywacyjny Cowana):

Koncepcja jednorodna – tłumaczy funkcjonowanie pamięci roboczej bez odwoływania się do

podsystemów krótkotrwałego przechowywania informacji.

Ognisko uwagi – w nim znajduje się najbardziej aktywna informacja

Model długotrwałej pamięci roboczej Ericssona i Kintsha:

Zaproponowali model pamięci roboczej powiązanej z przechowywaniem informacji w LTM. Według
nich STM tylko wyciąga i podtrzymuje aktualnie potrzebne informacje z LTM.

Pamięć prospektywna: Pamięć planów na najbliższy czas. Najprawdopodobniej jest niezależna i

niezwiązana z retrospektywną.

3. SYSTEMY PAMIĘCI TRWAŁEJ
(powtórka z pkt 1. semantyczna itd.)

Pamięć trwała: dłuższy czas przechowywania i inne funkcje niż przemijająca. Gromadzi

informacje potrzebne do dobrej adaptacji do środowiska.

Decyzja leksykalna: badani mieli określić czy to słowo czy nie słowo

RODZIAL 10

31

background image

MYŚLENIE I ROZUMOWANIE (rozdz. 10)

Myślenie to proces łączenia elementów poznawczej reprezentacji świata (obrazów, pojęć lub

sądów) w dłuższe ciągi. Tak utworzony ciąg zastępy realne, obserwowalne zachowanie w
rzeczywistym świecie fizycznym lub społecznym, uwalniając nas od konieczności ponoszenia

natychmiastowych skutków własnych działań.

Rozumowanie jest procesem formułowania wniosku na podstawie przesłanek, czyli z
wykorzystaniem uprzednio nabytej lub powszechnie dostępnej wiedzy

5)

Istota myślenia

Nęcka – myślenie jest jednym z narzędzi budowania modeli mentalnych – zawiera

alternatywne wersje wydarzeń, które mogłyby być skutkiem konkretnych działań. Jest taż

narzędziem wirtualnego testowania tych modeli

Pinker – nie ma dużej różnicy pomiędzy problemami, z jakimi borykali się nasi przodkowie

w długim procesie antropogenezy a rozwiązywaniem abstrakcyjnych problemów, z jakim

borykamy się dziś
- egzaptacja – proces adaptacji struktur mózgowych do zadań, które pierwotnie nie były im

stawiane

Cole – badanie na przedstawicielach plemienia Kpelle – różnice w myśleniu w sytuacjach

naturalnych i abstrakcyjnych

- utajona „definicja” inteligencji w danej kulturze wpływa na to, jakie zachowania będą w niej

cenione i wzmacniane; definicja ta jest ściśle związana z potrzebami i celami danej kultury

Carraher, Scheliman – powiązanie treści problemu z dotychczasowymi doświadczeniami

badanego wpływa pozytywnie na poprawność rozwiązania problemu

Ceci i Ruiz – eksperci w jednej dziedzinie nie potrafili dokonać transferu swojej wiedzy na

inną dziedzinę, mimo że stawiane przed nimi problemy były izomorficzne, tj. identyczne w
swojej strukturze głębokiej

Ceci – istotny wpływ na efektywność myślenia ma motywacja

Tobby i Cosmides – racjonalnośc ekologiczna – niepełne dostosowanie ludzkiego umysłu

do myślenia abstrakcyjnego, w przeciwieństwie do znakomitego dostosowania do myślenia
praktycznego

Trzy rodzaje modeli myślenia:

- modele deskryptywne – ich celem jest opis procesu myślenia w jego rzeczywistej postaci

ze wszystkimi systematycznymi błędami i uproszczeniami; podstawowa forma ekspresji –
heurystyki, czyli uproszczone reguły postępowania, stosowane w konkretnych sytuacjach

- modele preskryptywne – dotyczą poprawności z punktu widzenia stosowanych heurystyk
(zastosowanie heurystyki dostosowanej do charakteru zadania)

- modele normatywne - dotyczą poprawności myślenia z punktu widzenia pewnego
systemu norm, którym może być np. rachunek prawdopodobieństwa; czasochłonne i bardziej

wysiłkowe niż zastosowanie prostszych heurystyk

Maruszewski – krytykuje dwie podstawowe właściwości myślenia w rozumowaniu

potocznym: to, że myślenie jest procesem świadomym oraz kontrolowany charakter procesu
myślenia (intruzje w myśleniu)

Rodzaje myślenia

David Berlyne – dwa rodzaje myślenia: autystyczne i realistyczne

- myślenie autystyczne – nie jest nastawione na osiągniecie konkretnego efektu;
charakterystyczne dla stanu relaksacji, kiedy myślimy o przysłowiowych niebieskich

migdałach; pozwala fantazjować i zastępczo zaspokajać potrzeby, które chwilowo nie są
możliwe do zaspokojenia

- myślenie realistyczne – uwzględnia ograniczenia nakładane przez rzeczywistość, jest
ukierunkowanie na osiągnięcie jakiegoś celu (np. rozwiązanie problemów)

Otto Sezl – podział myślenia na produktywne i reproduktywne

- myślenie produktywne – efektem jest wytworzenie nowych treści intelektualnych;

nowość może dotyczyć albo wytworu będącego efektem myślenia albo procesu poznawczego,
który do tego wytworu doprowadził; treść i wynik m.p. są nowe z punktu widzenia

dotychczasowej wiedzy podmiotu myślącego, ale nie koniecznie z punktu widzenia innych
ludzi

- myślenie reproduktywne – sprowadza się do różnych form odtwarzania przeszłego
doświadczenia (np. wyciągnięcie pierwiastka kwadratowego z liczby 256, sporządzenie

rutynowego raportu)

podział myślenia na twórcze i odtwórcze

- myślenie twórcze – rodzaj myślenia, którego wynik jest oceniany jako nowy i wartościowy
w sensie poznawczym, estetycznym, etycznym albo użytkowy (Nęcka)

32

background image

- myślenie odtwórcze – aktywność umysłowa, której wynik nie zyskał uznania jako nowy i
wartościowy dla społeczności

myślenie krytyczne – jest rodzajem myślenia realistycznego ukierunkowanego na

specyficzny cel, jakim jest ewaluacja; jego celem jest rzetelna i realistyczna ocena istotnych

aspektów aktywności intelektualnej człowieka;

- Sternberg – w przypadku, gdy myślenie krytyczne dotyczy samego siebie uważane jest

wtedy za proces metapoznawczy
-
myślenie krytyczne  krytyczna refleksja – ocena relacji między tym, jak działamy, a

tym, co jest w danej kulturze cenione jako spełniające kryteria etyczne

6)

Podział oparty na kryterium rozwojowym

dwa rodzaje myślenia

- sensoryczno-motoryczne – przetwarzanie informacji ograniczone do bodźców

rejestrowanych sensorycznie w danym momencie, a operacje na nich dokonywane mają
postać czynności eksploracyjnych

- wyobrażeniowo-pojęciowe – dojrzała forma myślenia, charakterystyczną wyłącznie dla
człowieka od pewnego stadium rozwoju, gdzie wyobraźnia i pojęcia zajmują miejsce

spostrzeżeń, a abstrakcyjne operacje przejmują rolę czynności motorycznych

klasyfikacje myślenia według Piageta

- stadium myślenia sensoryczno-motorycznego
- stadium przedoperacyjne – rozwój myślenia pojęciowego

- stadium operacji konkretnych – umiejętność myślenia logicznego, odwracalność operacji
myślenia (dokonanie w umyśle odwróconego działania i wyprowadzenia logicznego wniosku)

oraz decentracja (uwzględnienie wmyśleniu więcej niż jednej cechy obiektów, a nawet
gradacji ich ważności

- stadium operacji formalnych – przeniesienie zdolności wykształconych w poprzednim
stadium na obiekty abstrakcyjne

myślenie postformalne (dialektyczne) – formułowanie w myśleniu tez i antytez oraz ich

późniejszego syntetyzowania, które może być podstawą sformułowania kolejnej tezy, a dla

niej stosownej antytezy itd.

a)

Teorie myślenia

teoria Berlyne’a – myślenie jest ciągiem symbolicznych bodźców i reakcji; symboliczny

bodziec to taki, który posiada znaczenie i wywołuje reakcję, kiedy fizycznie bodziec nie jest

obecny; reakcja symboliczna – r. wywołana bodźcem symbolicznym (np. mowa, gesty,
czynności obrzędowe)

- myślenie typu S – jeżeli reakcje nawykowe rutynowo uruchamiane w danej kategorii
sytuacji, w wyniku procesu myślenia przenoszone są na inna kategorię sytuacji (zbliżone do

m. reproduktywnego)
- myślenie typu R – podmiot wykonuje reakcję lub sekwencję reakcji, której nigdy

wcześniej nie wykonywał (zbliżone do m. produktywnego)

dwie grupy procesów poznawczych wzbogacające myślenie:
- zbieranie informacji – wypełnianie luk informacyjnych w aktualnej sytuacji bodźcowej

(zachowania eksploracyjne i zachowania poznawcze)
- odrzucanie informacji – selekcja uwagowa i abstrakcja (mechanizm redukcji różnorodności

przez ignorowanie różnic)

teoria Barona – myślenie składa się z dwóch grup operacji:

1) poszukiwania

- możliwości – potencjalne możliwości odpowiedzi na zadane pytania, dopuszczalne

sposoby rozwiązywania początkowego stanu wątpliwości czy niepewności

- dowodów – wszelkie informacje pomocne w ustaleniu zakresu, w którym określona

możliwość spełnia założone cele

- celów – stanowią kryteria czy standardy oceny możliwości

2) wnioskowania

Dowody wpływają na „moc” możliwości , ale z uwzględnieniem ich wag, które wynikają z

realizowanych celów.

Elementy struktury myślenia

Badanie struktury myślenia polega na wyróżnianiu składników budulcowych tego procesu

oraz sposobu (reguł)ich łączenia

Właściwości analizy struktury myślenia:

- materiał – rodzaj informacji przetwarzanych w procesie myślenia, który charakteryzuje się

określoną formą reprezentacji (konkretno-obrazowa vs. abstrakcyjna) i treścią (drzewo vs.
prawda)

33

background image

- operacje umysłowe – przekształcenia dokonywane na reprezentacjach umysłowych
- reguły – sposoby uporządkowania łańcucha operacji umysłowych, składających się na

proces myślenia

Operacje i strategie

Do lat 60. XX w. uważano, że myślenie można sprowadzić do dwóch grup operacji: analizy

(proces dekompozycji złożonej całości na jej elementarne części) i syntezy.

Ponadto wyróżniono 3 operacje pochodne względem analizy i syntezy: porównywanie,

abstrahowanie i uogólnianie

Berlyne – w przebiegu procesu myślenia wyróżnić można:

- ogniwa – poszczególne stany wiedzy składające się na cały proces umysłowy

- operacje – przekształcenie jednego stanu ogniwa w drugi

- operacje kluczowe – są koniecznym warunkiem osiągnięcia celu

Łańcuch operacji symbolicznych posiada dwie charakterystyczne właściwości:

- pętle – operacje nie powodujące zmiany w jego ogniwach

- I rodzaju – polega na cofnięciu się do poprzedniego stanu

- II rodzaju – polega na wykonaniu operacji tożsamościowej (nie powoduje żadnej zmiany)

- rozgałęzienia – powstają, gdy w wyniku jakiejś operacji mogą zostać wypracowane różne
stany wiedzy; decydują o alternatywnym charakterze myślenia

b)

Reguły, algorytmy i heurystyki

Reguły to sposoby uporządkowania łańcucha operacji umysłowych, składających się na

proces myślenia

Algorytm jest jednoznacznym i niezawodnym przepisem działania, zawierającym skończona

sekwencję operacji, jaką należy wykonać, aby osiągnąć określony cel; właściwości:
- niezawodny – prowadzi do uzyskanie jednoznacznego rezultatu w danej klasie zadań

- dobrze określony – jednoznaczna procedura postępowania
- masowy – można go stosować do każdego problemu z danej klasy

- jest zestawem sztywnych reguł – brak choćby niewielkiej części danych powoduje, że
uzyskany wynik jest błędny albo w ogóle niemożliwy do uzyskania

Heurystyka jest nieformalną, spekulatywną, uproszczoną albo skrótową metodą

rozwiązywania problemów lub podejmowania decyzji; jest zawodna i bardziej ryzykowna

od algorytmu oraz słabo określona, ma zastosowanie w przypadku problemów, których nie
da się jednoznacznie i kompleksowo określić; dwa powody stosowania heurystyk:

- złożoność sytuacji nie pozwala na wykonanie algorytmu
- oszczędność czasu i wysiłku poznawczego

 Berlyne – wyróżnił 4 podstawowe reguły myślenia, tworzące grupę transformacji:

- składanie transformacji – zakłada istnienie takiej transformacji, która prowadzi do

identycznego wyniku, jak dwie jej składowe 

3

= (

2

1

)

- transformacja tożsamościowa

0

– złożona z dowolną inną transformacją 

i

, daje taki

rezultat, jak zastosowanie wyłącznie 

i

; zatem (

i

0

) = (

0

i

) = 

i

- odwracalność transformacji – zakłada istnienie przekształcenia 

p

odwrotnego w

stosunku do 

i

, a ich łączne zastosowanie daje wynik transformacji tożsamościowej 

0

,

znaczenie odgrywa kolejność zastosowanych transformacji 

p

i 

i

- łączenie transformacji – dowolne trzy transformacje, połączone dowolnie parami na
zasadzie składania transformacji, dają ten sam rezultat

Rozumowanie dedukcyjne

Tu doczytac z książki

Rozumowanie warunkowe- jest częścią logiki zajmującą tzw. rachunkiem zdań.

Implikacja- funktor używany w rachunku zdań; składa się z dwóch zdań:
- poprzednik

- następnik
połączonych spójnikiem „ jeżeli… to…”

Aby implikacja była prawdziwa, zajście poprzednika jest warunkiem wystarczającym (ale
niekoniecznym) dla zajścia następnika, ale zajście następnika jest koniecznym skutkiem

uprzedniego zajścia poprzednika.

Implikacje można w sposób formalny wyrazić następująco:
„jeżeli p, to q”, a każdy z jej argumentów może przyjąć dwie wartości- prawda albo fałsz.

34

background image

Schematy wnioskowania:

1) Modus Ponens:
Jeżeli p, to q

p
więc: q

2) Potwierdzenie Następnika:

Jeżeli p, to q
q

więc: p

3) Potwierdzenie Poprzednika:
Jeżeli p, to q

nie p
więc: nie q

4) Modus Tollens:

Jeżeli p, to q
nie q

więc: nie p

schematy 1 i 4 są niezawodne, ich użycie jest uprawnione i konkluzywne z logicznego punktu
widzenia, wnioskowanie z ich użyciem jest poprawne, co nie oznacza, że implikacja jako całość jest

prawdziwa bądź fałszywa

Zadanie selekcyjne (Wason) wymaga weryfikacji prawdziwości prostej hipotezy, że jeśli na kartce

z jednej strony napisano konkretną literę (np. A), to na drugiej stronie musi być napisana liczba
parzysta. Osoba badana widzi cztery kartki, dwie odkryte po stronie liczby, z dwie po stronie litery.

Musi wskazać te kartki, które koniecznie trzeba odkryć, aby sprawdzić, czy hipoteza jest
prawdziwa.

Większość ludzi przy wykonywaniu zadania odwołuje się do konfirmacyjnej strategii testowania

hipotez ( poszukiwanie przypadków potwierdzających regułę, przy niedostatecznym uwrażliwieniu
na przypadki, które jej przeczą). Tymczasem mnożenie przypadków potwierdzających nie daje

gwarancji prawdziwości hipotezy, bo wystarczy jeden przypadek przeczący hipotezie, aby ją obalić.
Zmiana treści implikacji z „abstrakcyjnej” na „życiową” znacznie zwiększa poprawność

rozumowania (Griggs, Cox).
W życiowej wersji więcej osób badanych wykonało zadanie poprawnie (efekt materiału

tematycznego).
Jednak, jeśli implikacja wymaga specyficznej wiedzy, efekt materiału tematycznego jest słabszy, a

nawet zupełnie zanika.

Implikacja jest poprawnie używana w specyficznych sytuacjach społecznych (Cosmides).

Czynnikiem wpływającym na poprawność rozumowania jest również jego kontekst (Braine)
Specyficzna postać zadań dedukcyjnych może stanowić dla osób badanych ukrytą wskazówkę, aby

we wnioskowaniu wykorzystać jedynie te informacje, które są wyrażone wprost w przesłankach i
wniosku.

Ale kontekst może też się przyczynić do zmniejszenia poprawności rozumowania (Byrne), jeśli będą

podane informacje nieistotne.

Rozumowanie dedukcyjne

Człowiek jest z natury istotą racjonalną, co przekłada się na zdolność efektywnego używania reguł
logiki (logika mentalna).

Jeśli zdanie zostanie rozpoznane jako wymagające zastosowania reguł logicznych, uruchamia się

program rozumowania:

35

background image

1. identyfikacja logiczna struktury przesłanek, ich treść jest przekładana na abstrakcyjną

formę sądów, operujących abstrakcyjnymi symbolami

2. jeżeli struktura konkretnego zdania zostanie uznana za dopasowaną do jakiejś reguły

umysłowej, zostaje uruchamiany odpowiedni program rozumowania; efektem jest

wygenerowanie konkluzji, sformułowanej w języku abstrakcyjnych symboli

3. przełożenie wniosku z formy abstrakcyjnej na język przesłanek.

Ludzie w sposób naturalny myślą logicznie, błędy popełniają raczej sporadycznie (Braine).
Rozumowanie bezpośrednie- zastosowanie w konkretnej sytuacji ogólnych schematów opartych

na abstrakcyjnych regułach.
Schematy biorące udział w rozumowaniu bezpośrednim dzielą się na

- rdzenne (takie jak modus ponens, korzystają z fundamentalnych reguł logicznych)
- posiłkowe (pełnią funkcje pomocnicze i są stosowane do generowania wniosków wspomagających

działanie schematów podstawowych)
- inną kategorią są schematy niezgodności( stosowane do testowania zawartości pamięci roboczej

pod kątem detekcji wniosków nieuprawnionych)

Rozumowanie pośrednie- schematy wnioskowania wykraczają poza reguły logiki umysłowej

Rodzaje i źródła powstawania błędów w rozumowaniu

1) błędy rozumienia- wynika z niepoprawnej interpretacji związków między informacjami

zawartymi w przesłankach i ewentualnie we wniosku

2) błędy przetwarzania- powstają w wyniku dekoncentracji uwagi albo niskiej wydolności

procesu przechowywania i obróbki informacji w pamięci roboczej

3) błędy nieadekwatności heurystyki- wynikają z niewłaściwego doboru strategii, które

odpowiadają za koordynację schematów rozumowania w konkretnej sytuacji

Teoria modeli mentalnych (Johnson- Laird)
Ludzie często wyobrażają sobie konkretne przykłady pojęć użytych w sylogizmach wraz z

zachodzącymi między nimi relacjami, te wyobrażenia są umysłowymi modelami sytuacji opisanej w
zadaniu, bądź zaistniałej w rzeczywistości.

Wg tej koncepcji rozumowanie polega na konstruowaniu i manipulacji tzw. modelami mentalnymi-

quasi-analogowa reprezentacja sytuacja problemowa, opisana w zadaniu logicznym albo
dostrzeżona w sytuacji życia codziennego, która zawiera minimalną ilość informacji potrzebnej do

rozumienia tej sytuacji.

Model umysłowy:
- elementy sytuacji problemowej mają swoje odpowiedniki w modelu umysłowym

- model umysłowy odzwierciedla strukturę sytuacji problemowej
- możliwe jest zbudowanie większej liczby modeli umysłowych, dla jednego problemu

- możliwe jest włączenie niektórych elementów reprezentacji obiektów, o których mowa w
przesłankach

Etapy rozumowania:

1) skonstruowanie modelu stanu rzeczy opisanego w przesłankach
2) sprawdzenie czy domniemany wniosek jest zgodny z tym modelem

3) próba falsyfikacji konkluzji, poprzez skonstruowanie alternatywnych modleli wynikających z

przesłanek

Racjonalność nie polega na stosowaniu abstrakcyjnych reguł logicznych, lecz poszukiwaniu większej

liczby modeli, prawidłowo ujmujących informacje zawarte w przesłankach. Chodzi w szczególności
o uwolnienie się od modelu początkowego, czemu służy poszukiwanie kontrprzykładów- mechanizm

do falsyfikacji hipotez.

Zalety teorii:

- nie wymaga przyjmowania założeń wątpliwych lub niefalsyfikowalnych
- dobrze radzi sobie z wyjaśnieniem błędów negacji poprzednika i potwierdzenia następnika, nie

potrzebując w tym celu właściwie żadnych dodatkowych założeń

36

background image

- świetnie radzi sobie z wyjaśnianiem wpływu treści o kontekstu na wynik rozumowania
- jest stosowana do wyjaśniania złożonych procesów poznawczych

Krytyka:

- niedopracowana
- nie opisuje mechanizmu poprawnego rozumowania, lecz koncentruje się na wyjaśnieniu błędów

- niejasny mechanizm poszukiwania kontrprzykładów, kontrprzykładów nawet samych modeli
mentalnych

Rozumowanie indukcyjne

Istotą jest dokonywanie nieuprawnionych (wyprowadzonych na podstawie skończonej liczby

obserwacji) uogólnień.

Reguła relacyjna- osobom badanym prezentowany był ciąg liczb, zestawionych wg prostej reguły,
np. 2 4 6 – zadaniem było podanie innego ciągu wg reguły ciągu wzorcowego oraz próba

werbalizacji reguły.

Tendencja konfirmacyjna- pomimo prostoty reguły ciągu wzorcowego, poziom poprawności
wykonania okazał się niski; osoby badane szybko stawiały hipotezę, a następnie generowały ciąg

zgodny z jej treścią, tworzyły, więc ciągi, które mogły potwierdzić wstępną hipotezę.

Rozumowanie przez analogię
Analogia- związek między dwoma obiektami, oparty na podobieństwie ich wewnętrznej

struktury lub podobieństwie relacji zachodzących w obrębie porównywanych członów.
podobieństwo celu, okoliczności, skutków
A jest analogiczne względem B, jeśli A i B są zbiorami i jeśli relacja Ri porządkująca elementy
zbioru A jest podobna do relacji Ri’ porządkującej elementy zbioru B
wymaga głównie podobieństwa wewnętrznych struktur porównywanych członów, a nie związku
między obiektami opartego na podobieństwie zewnętrznym ; nie zachodzi ze względu na

pojedynczą cechę
dzięki niej nabywamy nową wiedzę
jeden z centralnych mechanizmów regulacji psychicznej
szczególny rodzaj indukcji: najpierw od szczegółu do ogółu (abstrahowanie relacji między

członami relacji w dziedzinie analogii Y) a następnie od ogółu do szczegółu (przeniesienie
wyabstrahowanej relacji na przestrzeń semantyczną dziedziny Y)
zjawisko transferu wiedzy, czyli przeniesienia jej na zupełnie nową dziedzinę- charakter
pozytywny lub negatywny

D. Gentner- teoria odwzorowania struktury; najważniejsze jest dostrzeżenie podobieństwa

relacji zachodzących między elementami w obrębie dwóch różnych dziedzin (relacja ich
wewnętrznej struktury)
inne stanowisko- uchwycenie odpowiedniości między strukturami dwóch dziedzin nie wystarczy-
potrzeba analizy podobieństw niższego rzędu, w tym cech powierzchownych obu dziedzin
obecnie- w przypadku dziedzin słabo znanych dostrzegane podobieństwo zewnętrzne i dopiero
wraz z nabywaniem doświadczeń w obrębie funkcji czy mechanizmów
pomyśle przeniesienie wiedzy zależy od abstrakcyjnych schematów rozumowania, które są
ogólnym reprezentacjami rozwiązań możliwych do zastosowania w różnych sytuacjach- im

bogatsze schematy tym łatwiej dostrzegać analogię

 Rumelhart i Abrahamson testowali hipotezę, w myśl, której rozumowanie przez analogię wymaga
wydawania sądów na temat podobieństwa pomiędzy pojęciami ( konc. semantyczna- stopień

podobieństwa zależy od odległości pojęć w niej zawartych)
-autorzy uznali, że w wypadku wnioskowania przez analogię zadanie polega na znalezieniu takiego

wektora w wielowymiarowej przestrzeni pamięci, który miałby taką samą długość dla relacji A:B
jak i do relacji C:x, szukamy x; manipulowano eksperymentalnie odległością alternatywnych

członów x1- x4, wyprowadzoną z wielowymiarowym modelu Henley; (czyli nie tylko odległość
pomiędzy pkt w przestrzeni decyduje, ale i pomiędzy alternatywami)

wyniki potwierdziły model, tolerancja pomiędzy C a x-ami wynosi ok., 0,12 jedn.

37

background image

 Sternberg, użył analizy komponentowej i wielu zadań wymagających rozumowania przez
analogię, uzyskał najlepsze dopasowanie danych-80% wyj waniancji

Rekonstrukcja procesu rozumowania przez analogię:

1.

osoba badana koduje człony A i B analogii i następuje przywołanie z LTM do WM niektó-
rych atrybutów tych pojęć

2.

w procesie wnioskowania człony A i B podlegają kompletnemu porównaniu ze względu na
atrybuty wydobyte z WM

3.

odwzorowanie polega na znalezieniu relacji pomiędzy członem A i C analogii, co wymaga
wcześniejszego kodowania członu C i przywołania jego atrybutów porównanie atrybutów w

ramach odwzorowania przebiega z uwzględnieniem relacji A: B i dokonuje się dla jednej
wyróżnionej wcześniej relacji

4.

jeśli relacja okaże się istotna z uwzględnieniem C, następuje przejście do dekodowania
członu D i zastosowania wykrytej relacji w stosunku do tego elementu

5.

proces kończy się emisją reakcji

6.

jeśli relacja C:D nie spełnia wymagań podobieństwa A:B to następuje powtórzenie cyklu w
pętli rozpoczynającej się odwzorowaniem
, z uwzględnieniem innej relacji A:B, aż do

znalezienia poprawnego rozwiązania

najistotniejsza rola składnika odwzorowania

CO ŁĄCZY RÓŻNE FORMY ROZUMOWANIA???
Integracja relacyjna- zestawienie relacji między obiektami albo zdarzeniami i manipulowanie nimi

Wlatz i współpracownicy
zadanie dedukcyjne- wnioskowanie przechodnie
zadanie indukcyjne- matrix problem

3 grupy pacjentów:

1. uszkodzenie kory przedczołowej

2. uszkodzenie przyśrodkowej części płata skroniowego
3. normalni

zwiększenie trudności zadań powodowało znaczne obniżenie poprawności u 1, odwołanie do WM

ROZUMOWANIE PROBABILISTYCZNE
efekt siły przekonań- treść logicznego wniosku pozostaje w związku z wiedzą czy przekonaniami

osób bzdanych

ROZUMOWANIE NIEFORMALNE
zdecydowanie odbiega od tego, które przyjmują logicy; włączanie nowych wiadomości do

przesłanek

ROZDZIAL 11

ROZWIĄZYWANIE PROBLEMÓW

1.PROBLEM I ROZWIĄZYWANIE PROBLEMU

Problem – rozbieżność między aktualnym stanem rzeczy a wyznaczonym bądź

narzuconym celem (pożądanym stanem), której nie można usnąć rutynowo)
Rozwiązywanie problemów – aktywność ukierunkowana na zredukowanie rozbieżności

pomiędzy stanem aktualnym a pożądanym, polegająca na realizacji zaplanowanej
sekwencji operacji poznawczych

Problem to rodzaj relacji między obiektywną zewnętrzną sytuacją bodźcową a jednostką lub grupą

ludzi. Istotą tej relacji jest to, że nie można osiągnąć celu, co wynika z różnych powodów (brak
forsy, wsparcia, wiedzy). Kiedy człowiek pomimo braku środków podejmuje się próby osiągnięcia

celu to znaczy, że wykonuje czynność rozwiązywania problemu.

PROBLEM CHARAKTERYZUJEMY WG 4 WYMIARÓW -

38

background image

Stan docelowy – na ten stan nakierowany jest proces rozwiązywania problemu i podług niego
oceniamy czy cel został osiągnięty

Stan początkowy – dane wyjściowe, okoliczności decydujące o tym, że jest problem
Operatory – są to środki, reguły, których można użyć w przekształcaniu stanu początkowego w

dążeniu do osiągnięcia celu
Przeszkody – mogą być nakładane na operatory niektóre przekształcenia się w ich obrębie

niedozwolone (np.nie można dzielić przez 0)

2.TYPY PROBLEMÓW

PODZIAŁ PROBLEMÓW ZE WZGLĘDU NA ICH CECHY I STRUKTURĘ

Problem konwergencyjny (zbieżny)

ma jednoznaczne rozwiązanie – niezależnie od

przyjętej strategii – procesy poznawcze zbiegają się w jednym punkcie stanowiącym
rozwiązanie problemu

Problem dywergencyjny (rozbieżny) – dopuszcza wiele rozwiązań – każde może być
poprawne – procesy myślowe angażowane w rozwiązanie problemu rozbiegają się w wielu
kierunkach

Dymensja proste-złożone – różnica w poziomach komplikacji modelu umysłowego

Dymensja łatwe-trudne – różnica w wysiłku poznawczym włożonym w rozwiązanie
problemu

Problem dobrze określony – zawiera jasny opis kryteriów oceny jego osiągnięcia

Problem źle określony – niesprecyzowane dopuszczalne i niedopuszczalne zasady
rozwiązywania problemów – Wg Simona – problem źle określony można rozwiązać, jeśli

przekształci się go w dobrze określony

Problem wymagający wglądu - wymaga odrzucenia podstawowej przeszkody –
przyjętych ukrytych, fałszywych założeń, – kiedy je odrzucimy problem wydaje się prosty)

Wgląd wg WOLFGANGA KOHLERA to zjawisko nagłej zmiany percepcji problemu
poprzedzone zazwyczaj tzw. przerwą inkubacyjną

Problem bogaty semantycznie – sieć semantyczna związana z problemem jest
rozbudowana. Dysponujemy zasobem doświadczeń w jego rozwiązaniu, pomimo, że
problem jest nowy.

Problem ubogi semantycznie

– nie może być odniesiony do naszych wcześniejszych

doświadczeń, ponieważ jego struktura jest całkiem nowa.

Problemy z pozoru różne mogą mieć identyczną strukturę.

Problem o strukturze głębokiej – podobieństwo struktury dotyczy danych początkowych
mimo różnic w przekształceniach

Problem o strukturze powierzchniowej - podobieństwo struktury dotyczy reguł
przekształcenia i relacji zachodzącymi między składowymi elementami problemów

Ten podział wprowadził pan KOZIELECKI otwarte - zamknięte

Problem otwarty, – (jeśli otwarty jest abstrakcyjny i złożony – to jest to
DYLEMAT) -
niewielka ilość danych początkowych, niejasny cel, słabo zdefiniowane
kryteria jego osiągnięcia (liczne różnorodne rozwiązania) – są źle określone i

dywergencyjne

Problem zamknięty – pełna dawka informacji, z danymi dotyczącymi alternatywnych
rozwiązań. – wybór jednego alternatywnego rozwiązania – są dobrze określone i
kowergencyjne

PODZIAŁ PROBLEMÓW ZE WZGLĘDU NA WYMAGANIA POZNAWCZE

Problem specyficzny – odnoszący się do określonej dziedziny wiedzy

Problem ogólny –wymaga zastosowania prostych zasad logiki – niezależny od
specyficznej dziedziny wiedzy

Podział wprowadzony przez JAMESA GREENO – opiera się na zdolnościach operacjach umysłowych
angażowanych w proces rozwiązywania

Problem wymagający porządkowania – polega na organizacji obiektów według z góry
określonych reguł (np.anagramy – zadania wymagające reorganizacji ciągu liter tak, aby

utworzyły słowo)

39

background image

Problem wymagający indukcji - polega na odkryciu i zastosowaniu relacji między
elementami problemu. (Np. ciągi liczb – 2,4,6..... zwany jest ten problem ekstrapolacją

serii, lub uzupełnianiem serii)

Rodzajem problemu o strukturze indukcyjnej jest zadanie wymagające transferu wiedzy
poprzez zastosowanie analogii
np. szewc but księgowa – znaleźć słowo pasujące do tych

słów – odp.zeznania podatkowe

Transfer przez analogię – polega na przeniesieniu przez analogię relacji odnalezionej w obrębie
pierwszej pary pojęć przez drugą, wymaga dostrzeżenia relacji wyższego rzędy między

problemami.
Odwzorowanie – polega na takim ujęciu relacji A:B aby można ją było aplikować do obszaru

semantyczego związanego z C.
Transparencja – wg.GENTNERA u jej podłoża leży błąd lub brak procesu abstrahowania

( to tak jakby ktoś do szewc but księgowa dopasował słowo – trzewik)

TRANSFER może być NEGATYWY – badał to LUCHINS na przykładzie rozwiązywania tzw.
problemów dzbanów z wodą, – czyli odmierzanie określonej ilości wody mając do dyspozycji

trzy dzbany o zadanej pojemności i nieograniczony dostęp do wody
Jeśli rezultatem transferu powstałego na skutek rozwiązywania kolejnych zadań było skrócenie

czasu to był TRANSFER POZYTWNY – struktura zadań powierzchniowa i głęboka była identyczna.

To zjawisko badane przez LUCHINSA to Efekt nastawienia lub Efekt mechanizacji
myślenia i obrazuje ono negatywne skutki transferu uprzednich doświadczeń, jeśli

głęboka struktura dwóch lub większej liczby problemów jest różna.

Problem transformacyjny – problem tego typu posiada jasno zdefiniowany stan
początkowy, cel oraz reguły przekształcenia wraz z restrykcjami. Polega na znalezieniu
drogi przejścia z punktu wyjścia do punktu docelowego. Takie problemy są dobrze

określone, łatwo śledzić sposób rozwiązywania problemu.

Przykłady – gra w szachy i problem wieży z Hanoi

Problem wieży z Hanoi – zadanie polega na „przeniesieniu” wieży zbudowanej z trzech lub

większej liczby krążków o różnej średnicy z jednego pręta na inny przy czym obowiązują 3 zasady
– można przenieść jeden krążek w jednym ruchu, można położyć tylko mniejszy na większym,

można je kłaść tylko na prętach.

Algorytm – za jego pomocą można rozwiązać cześć problemów transformacyjnych – jest to ścisły,
jednoznaczny przepis działania zawierający sekwencje operacji, jakie należy wykonać, aby osiągnąć

określony cel (dlatego można je modelować przy użyciu komputerów) – jego główną cechą jest
powtarzalność.

Heurystyka – nieformalna, spekulatywna, uproszczona metoda rozwiązywania problemów – ale

zawodna i ryzykowna – kolejne jej użycie w tej samej postaci daje inny rezultat.
Heurystyka jest osobną dziedziną wiedzy zajmującą się twórczym rozwiązywaniem problemów.

***Neuroobrazowanie procesu rozwiązywania problemów – za pomocą:

ERP – pomiar potencjałów skorelowanych z pobudzeniem;
(uchwycenie szybkich zmian aktywności elektrycznej kory – ale nie ma zadawalających inf.

o jej lokalizacji i nie da się uchwycić aktywności struktur leżących w głębszych partiach mózgu)
PET – tomografia pozytonowa; fMRI – funkcjonalny rezonans magnetyczny.

(pozwalają na precyzyjne lokalizowanie aktywności metabolicznej głębokich struktur mózgowych –
ale ze względu na małą rozdzielczość czasową nie wychwytują szybkich zmian

tej aktywności)

3. TEORIE ROZWIĄZYWANIA PROBLEMÓW

TEORIA NEWELLA I SIMONA

- umysł jako system przetwarzania informacji
- problem jako układ STANÓW WIEDZY

- przekształcenia dokonują się w tzw. PRZESTRZENI PROBLEMU

40

background image

Przestrzeń stanów – potencjalne stany wiedzy, które mogą pojawić się w przestrzeni
problemu

Metoda protokołów werbalnych wymyślona przez ERICSSONA I SIMONA

GŁOŚNE MÓWIENIE OSÓB BADANYCH

- BEZPOŚREDNIA – pojawiąją się problemy natury werbalnej np. operacje arytmetyczne
- ZAWARTOŚCI STM – opisanie aspektu stanu i przełożenie kodu obrazowego na werbany

3 TYPY (rodzaje) interesujących badacza wypowiedzi
TYP I – werbalizacja bezpośrednia

TYPII – werbalizacja zawartości STM
TYP III – werbalizacja polegająca na chwilowym przerwaniu procesu rozwiązywania

problemu i wyjaśnieniu dlaczego podjęto określone działanie

4.

HEURYSTYKI ROZWIĄZYWANIA PROBLEMÓW

HEURYSTYKI – są konsekwentne, nastawione na cel, świadome

(metoda prób i błędów do rozwiązywania problemów bez udział myślenia to nie
heurystyka, bo niesystematyczna i nieintelektualna)

a)METODA RÓŻNICY REDUKCJI (heurystyka wspinania się)

- między stanem aktualnym a celem
- każdy kolejny etap przybliża nas do celu

Problem Misjonarzy i Kanibali
to Problemy izomorficzne –ich struktura głęboka jest identyczna

b)METODA PORUSZANIA SIĘ WSTECZ
- odwrócenie kierunku rozwiązywania problemu

- problem i niektóre aspekty nie są symetryczne

c)METODA ANALIZOWANIA ŚRODKÓW I CELÓW
- podział problemu na mniejsze części tzw. cele cząstkowe

plany dalekosiężne

Wg. SIMONA są tzw. heurystyki dekompozycji celów
Strategia powracającego celu

Złożona strategia percepcyjna

5.

FAZY ROZWIĄZYWANIA PROBLEMÓW

7 Etapów

5 Faz - model IDEAL

-identyfikacja

-Identyfikacja

-definiowanie

-Definiowanie celów

-budowanie strategii rozwiązania

-Eksploracja

-zdobywanie i przywoływaie

-Antycypacja

-alokacja zasobów poznawczvch

-Lustracja

-monitorowanie postępu

FAZA IDENTYFIKACJI PROBLEMÓW
-problem istnieje

Wg GETZELS –

- problemu zbadanego nie trzeba definiować, ale potrzeba redefinicji lud ewentualnie
doprecyzowania

FAZA DEFINIOWANIA PROBLEMU

Ujęcie celów

41

background image

Reprezentacja problemu
Redefinicja – reorganizacja danych wyjściowych

Problem dwóch sznurków Maiera
Problemy Wickelgrena – problem uszkodzonej szachownicy

FAZA DOBORU STRATEGII

Tendencja do używania strategii optymalnych
- Strategie – konkretne zadania poznawcze

-heurystyki – ogólne

Poziom strategiczny – sprawność procesów
Poziom metapoznania – analiza potencjalnych strategii, wybór najbardziej użytecznych, eliminacje

nieużytecznych – przykład : wiedza ekspercka

Wg ROZENWAJG – 3 rodzaje strategii –
STRATEGIE:

analityczna - segmentacja wzorca

syntetyczna – uchwycenie postaci całego układu

globalna – manipulacja całością wzoru do momentu dopasowania

Efektywniejsze rozwiązywanie problemów daje stasowanie większej ilości rutynowych strategii
(np. eksperci, którzy mają doświadczenie) a także wysoki poziom kompetencji

metapoznawczych

Wg KOSSOWSKA, NĘCKA

strategia analityczna – długie sekwencyjne, głębokie kodowanie, szybki i poprawny
wybór rozwiązania (wysoki poziom EQ)

strategia holistyczna – szybkie całościowe, płytkie kodowanie i wolny mniej poprawny
wybór

FAZA ZDOBYWANIA INFORMACJI

- poziom strategii; podcelów; operatorów

FAZA ALOKACJI ZASOBÓW

rodzaj zasobów np. czas, zaangażowanie

przydział zasobów

Osoby bardziej sprawne w rozwiązywaniu problemów – więcej czasu poświęcają fazom

wcześniejszym (identyfikacji, definiowaniu) niż późniejszym.
Eksperci stosują planowanie globalne – Całość problemu (nie – lokalne – szczegółowe podcele)

Wg DUNKER rozwiązywanie problemów ma charakter fazowy (od ogółu do szczegółu)

***Problem nieoperacyjnego zniszczenia guza jamy brzusznej – DUNKER (problem

rentgenowski)

FAZA MONITOROWANIA POSTĘPU

- proces kontrolny
-osoba bardziej biegła w rozwiązywaniu problemów mniej monitoruje jedynie w ważniejszych

momentach (monitorowanie pochłania zasoby poznawcze)
- może ja uruchamiać werbalizacja, ale nie jest ona sama wystarczającym czynnikiem, a badania

pokazują, że jest nawet zbędna

FAZA OCENY POPRAWNOŚCI ROZWIĄZANIA
- daje możliwość wprowadzenia rozwiązania w życie

-następuje konfrontacja z WARUNKAMI BRZEGOWYMI ograniczeniami

Wg PROCTOR
-wyodrębnienie przeszkód

-ocena możliwości wprowadzenia w życie
- działania prewencyjne, plany awaryjne

42

background image

Rozumowanie warunkowe- jest częścią logiki zajmującą tzw. rachunkiem zdań.

Implikacja- funktor używany w rachunku zdań; składa się z dwóch zdań:
- poprzednik

- następnik
połączonych spójnikiem „ jeżeli… to…”

Aby implikacja była prawdziwa, zajście poprzednika jest warunkiem wystarczającym (ale
niekoniecznym) dla zajścia następnika, ale zajście następnika jest koniecznym skutkiem

uprzedniego zajścia poprzednika.

Implikacje można w sposób formalny wyrazić następująco:
„jeżeli p, to q”, a każdy z jej argumentów może przyjąć dwie wartości- prawda albo fałsz.

Schematy wnioskowania:

1) Modus Ponens:

Jeżeli p, to q
p

więc: q

2) Potwierdzenie Następnika:
Jeżeli p, to q

q
więc: p

3) Potwierdzenie Poprzednika:

Jeżeli p, to q
nie p

więc: nie q

4) Modus Tollens:
Jeżeli p, to q

nie q
więc: nie p

schematy 1 i 4 są niezawodne, ich użycie jest uprawnione i konkluzywne z logicznego punktu

widzenia, wnioskowanie z ich użyciem jest poprawne, co nie oznacza, że implikacja jako całość jest
prawdziwa bądź fałszywa

Zadanie selekcyjne (Wason) wymaga weryfikacji prawdziwości prostej hipotezy, że jeśli na kartce
z jednej strony napisano konkretną literę (np. A), to na drugiej stronie musi być napisana liczba

parzysta. Osoba badana widzi cztery kartki, dwie odkryte po stronie liczby, z dwie po stronie litery.
Musi wskazać te kartki, które koniecznie trzeba odkryć, aby sprawdzić, czy hipoteza jest

prawdziwa.

Większość ludzi przy wykonywaniu zadania odwołuje się do konfirmacyjnej strategii testowania
hipotez ( poszukiwanie przypadków potwierdzających regułę, przy niedostatecznym uwrażliwieniu

na przypadki, które jej przeczą). Tymczasem mnożenie przypadków potwierdzających nie daje
gwarancji prawdziwości hipotezy, bo wystarczy jeden przypadek przeczący hipotezie, aby ją obalić.

Zmiana treści implikacji z „abstrakcyjnej” na „życiową” znacznie zwiększa poprawność
rozumowania (Griggs, Cox).

W życiowej wersji więcej osób badanych wykonało zadanie poprawnie (efekt materiału
tematycznego).

Jednak, jeśli implikacja wymaga specyficznej wiedzy, efekt materiału tematycznego jest słabszy, a
nawet zupełnie zanika.

Implikacja jest poprawnie używana w specyficznych sytuacjach społecznych (Cosmides).

Czynnikiem wpływającym na poprawność rozumowania jest również jego kontekst (Braine)

Specyficzna postać zadań dedukcyjnych może stanowić dla osób badanych ukrytą wskazówkę, aby
we wnioskowaniu wykorzystać jedynie te informacje, które są wyrażone wprost w przesłankach i

wniosku.

43

background image

Ale kontekst może też się przyczynić do zmniejszenia poprawności rozumowania (Byrne), jeśli będą

podane informacje nieistotne.

Rozumowanie dedukcyjne

Człowiek jest z natury istotą racjonalną, co przekłada się na zdolność efektywnego używania reguł
logiki (logika mentalna).

Jeśli zdanie zostanie rozpoznane jako wymagające zastosowania reguł logicznych, uruchamia się

program rozumowania:

1. identyfikacja logiczna struktury przesłanek, ich treść jest przekładana na abstrakcyjną

formę sądów, operujących abstrakcyjnymi symbolami

2. jeżeli struktura konkretnego zdania zostanie uznana za dopasowaną do jakiejś reguły

umysłowej, zostaje uruchamiany odpowiedni program rozumowania; efektem jest
wygenerowanie konkluzji, sformułowanej w języku abstrakcyjnych symboli

3. przełożenie wniosku z formy abstrakcyjnej na język przesłanek.

Ludzie w sposób naturalny myślą logicznie, błędy popełniają raczej sporadycznie (Braine).

Rozumowanie bezpośrednie- zastosowanie w konkretnej sytuacji ogólnych schematów opartych
na abstrakcyjnych regułach.

Schematy biorące udział w rozumowaniu bezpośrednim dzielą się na
- rdzenne (takie jak modus ponens, korzystają z fundamentalnych reguł logicznych)

- posiłkowe (pełnią funkcje pomocnicze i są stosowane do generowania wniosków wspomagających
działanie schematów podstawowych)

- inną kategorią są schematy niezgodności( stosowane do testowania zawartości pamięci roboczej
pod kątem detekcji wniosków nieuprawnionych)

Rozumowanie pośrednie- schematy wnioskowania wykraczają poza reguły logiki umysłowej

Rodzaje i źródła powstawania błędów w rozumowaniu

1) błędy rozumienia- wynika z niepoprawnej interpretacji związków między informacjami

zawartymi w przesłankach i ewentualnie we wniosku

2) błędy przetwarzania- powstają w wyniku dekoncentracji uwagi albo niskiej wydolności

procesu przechowywania i obróbki informacji w pamięci roboczej

3) błędy nieadekwatności heurystyki- wynikają z niewłaściwego doboru strategii, które

odpowiadają za koordynację schematów rozumowania w konkretnej sytuacji

Teoria modeli mentalnych (Johnson- Laird)

Ludzie często wyobrażają sobie konkretne przykłady pojęć użytych w sylogizmach wraz z
zachodzącymi między nimi relacjami, te wyobrażenia są umysłowymi modelami sytuacji opisanej w

zadaniu, bądź zaistniałej w rzeczywistości.

Wg tej koncepcji rozumowanie polega na konstruowaniu i manipulacji tzw. modelami mentalnymi-
quasi-analogowa reprezentacja sytuacja problemowa, opisana w zadaniu logicznym albo

dostrzeżona w sytuacji życia codziennego, która zawiera minimalną ilość informacji potrzebnej do
rozumienia tej sytuacji.

Model umysłowy:

- elementy sytuacji problemowej mają swoje odpowiedniki w modelu umysłowym
- model umysłowy odzwierciedla strukturę sytuacji problemowej

- możliwe jest zbudowanie większej liczby modeli umysłowych, dla jednego problemu
- możliwe jest włączenie niektórych elementów reprezentacji obiektów, o których mowa w

przesłankach

Etapy rozumowania:

1) skonstruowanie modelu stanu rzeczy opisanego w przesłankach

2) sprawdzenie czy domniemany wniosek jest zgodny z tym modelem

44

background image

3) próba falsyfikacji konkluzji, poprzez skonstruowanie alternatywnych modleli wynikających z

przesłanek

Racjonalność nie polega na stosowaniu abstrakcyjnych reguł logicznych, lecz poszukiwaniu większej

liczby modeli, prawidłowo ujmujących informacje zawarte w przesłankach. Chodzi w szczególności
o uwolnienie się od modelu początkowego, czemu służy poszukiwanie kontrprzykładów- mechanizm

do falsyfikacji hipotez.

Zalety teorii:

- nie wymaga przyjmowania założeń wątpliwych lub niefalsyfikowalnych
- dobrze radzi sobie z wyjaśnieniem błędów negacji poprzednika i potwierdzenia następnika, nie

potrzebując w tym celu właściwie żadnych dodatkowych założeń
- świetnie radzi sobie z wyjaśnianiem wpływu treści o kontekstu na wynik rozumowania

- jest stosowana do wyjaśniania złożonych procesów poznawczych

Krytyka:
- niedopracowana

- nie opisuje mechanizmu poprawnego rozumowania, lecz koncentruje się na wyjaśnieniu błędów
- niejasny mechanizm poszukiwania kontrprzykładów, kontrprzykładów nawet samych modeli

mentalnych

Rozumowanie indukcyjne

Istotą jest dokonywanie nieuprawnionych (wyprowadzonych na podstawie skończonej liczby
obserwacji) uogólnień.

Reguła relacyjna- osobom badanym prezentowany był ciąg liczb, zestawionych wg prostej reguły,

np. 2 4 6 – zadaniem było podanie innego ciągu wg reguły ciągu wzorcowego oraz próba
werbalizacji reguły.

Tendencja konfirmacyjna- pomimo prostoty reguły ciągu wzorcowego, poziom poprawności

wykonania okazał się niski; osoby badane szybko stawiały hipotezę, a następnie generowały ciąg
zgodny z jej treścią, tworzyły, więc ciągi, które mogły potwierdzić wstępną hipotezę.

Rozumowanie przez analogię

Analogia- związek między dwoma obiektami, oparty na podobieństwie ich wewnętrznej
struktury lub podobieństwie
relacji zachodzących w obrębie porównywanych członów.
àpodobieństwo celu, okoliczności, skutków
àA jest analogiczne względem B, jeśli A i B są zbiorami i jeśli relacja Ri porządkująca elementy

zbioru A jest podobna do relacji Ri’ porządkującej elementy zbioru B
àwymaga głównie podobieństwa wewnętrznych struktur porównywanych członów, a nie związku

między obiektami opartego na podobieństwie zewnętrznym ; nie zachodzi ze względu na
pojedynczą cechę
àdzięki niej nabywamy nową wiedzę
àjeden z centralnych mechanizmów regulacji psychicznej
àszczególny rodzaj indukcji: najpierw od szczegółu do ogółu (abstrahowanie relacji między
członami relacji w dziedzinie analogii Y) a następnie od ogółu do szczegółu (przeniesienie

wyabstrahowanej relacji na przestrzeń semantyczną dziedziny Y)
àzjawisko transferu wiedzy, czyli przeniesienia jej na zupełnie nową dziedzinę- charakter

pozytywny lub negatywny

àD. Gentner- teoria odwzorowania struktury; najważniejsze jest dostrzeżenie podobieństwa
relacji zachodzących między elementami w obrębie dwóch różnych dziedzin (relacja ich

wewnętrznej struktury)
àinne stanowisko- uchwycenie odpowiedniości między strukturami dwóch dziedzin nie wystarczy-

potrzeba analizy podobieństw niższego rzędu, w tym cech powierzchownych obu dziedzin
àobecnie- w przypadku dziedzin słabo znanych dostrzegane podobieństwo zewnętrzne i dopiero

wraz z nabywaniem doświadczeń w obrębie funkcji czy mechanizmów

45

background image

àpomyśle przeniesienie wiedzy zależy od abstrakcyjnych schematów rozumowania, które są
ogólnym reprezentacjami rozwiązań możliwych do zastosowania w różnych sytuacjach- im

bogatsze schematy tym łatwiej dostrzegać analogię

à Rumelhart i Abrahamson testowali hipotezę, w myśl, której rozumowanie przez analogię wymaga
wydawania sądów na temat podobieństwa pomiędzy pojęciami ( konc. semantyczna- stopień

podobieństwa zależy od odległości pojęć w niej zawartych)
-autorzy uznali, że w wypadku wnioskowania przez analogię zadanie polega na znalezieniu takiego

wektora w wielowymiarowej przestrzeni pamięci, który miałby taką samą długość dla relacji A:B
jak i do relacji C:x, szukamy x; manipulowano eksperymentalnie odległością alternatywnych

członów x1- x4, wyprowadzoną z wielowymiarowym modelu Henley; (czyli nie tylko odległość
pomiędzy pkt w przestrzeni decyduje, ale i pomiędzy alternatywami)

wyniki potwierdziły model, tolerancja pomiędzy C a x-ami wynosi ok., 0,12 jedn.

à Sternberg, użył analizy komponentowej i wielu zadań wymagających rozumowania przez
analogię, uzyskał najlepsze dopasowanie danych-80% wyj waniancji

Rekonstrukcja procesu rozumowania przez analogię:

1. osoba badana koduje człony A i B analogii i następuje przywołanie z LTM do WM niektó-

rych atrybutów tych pojęć

2. w procesie wnioskowania człony A i B podlegają kompletnemu porównaniu ze względu na

atrybuty wydobyte z WM

3. odwzorowanie polega na znalezieniu relacji pomiędzy członem A i C analogii, co wymaga

wcześniejszego kodowania członu C i przywołania jego atrybutów porównanie atrybutów w
ramach odwzorowania przebiega z uwzględnieniem relacji A: B i dokonuje się dla jednej

wyróżnionej wcześniej relacji

4. jeśli relacja okaże się istotna z uwzględnieniem C, następuje przejście do dekodowania

członu D i zastosowania wykrytej relacji w stosunku do tego elementu

5. proces kończy się emisją reakcji

6. jeśli relacja C:D nie spełnia wymagań podobieństwa A:B to następuje powtórzenie cyklu w

pętli rozpoczynającej się odwzorowaniem, z uwzględnieniem innej relacji A:B, aż do

znalezienia poprawnego rozwiązania

ànajistotniejsza rola składnika odwzorowania

CO ŁĄCZY RÓŻNE FORMY ROZUMOWANIA???
Integracja relacyjna- zestawienie relacji między obiektami albo zdarzeniami i manipulowanie nimi

Wlatz i współpracownicy
àzadanie dedukcyjne- wnioskowanie przechodnie
àzadanie indukcyjne- matrix problem

3 grupy pacjentów:

1. uszkodzenie kory przedczołowej

2. uszkodzenie przyśrodkowej części płata skroniowego
3. normalni

àzwiększenie trudności zadań powodowało znaczne obniżenie poprawności u 1, odwołanie do WM

ROZUMOWANIE PROBABILISTYCZNE
àefekt siły przekonań- treść logicznego wniosku pozostaje w związku z wiedzą czy przekonaniami

osób bzdanych

ROZUMOWANIE NIEFORMALNE
àzdecydowanie odbiega od tego, które przyjmują logicy; włączanie nowych wiadomości do

przesłanek

ROZDZIAL 12

WYDAWANIE SĄDÓW I PODEJMOWANIE DECYZJI

46

background image

Sąd – wyrażone wprost twierdzenie na temat pewnego stanu rzeczy, np.: przynależności

obiektu do określonej kategorii, posiadania przez obiekt jakiejś cechy, wartości danego obiektu z

punktu widzenia pewnego kryterium, a także prawdopodobieństwa wystąpienia danego zdarzenia.

Decyzja – to wybór jednej możliwości decyzji spośród dwóch co najmniej dwóch opcji.

Samo dokonanie wyboru nie oznacza jeszcze podjęcia działania, ponieważ do tego potrzebna jest

skuteczna motywacja oraz obiektywne możliwości realizacji decyzji.

Sądy dzielimy w zależności od tego, czego dotyczą i czemu służą:

Sądy atrybucyjne – odnoszą się do cech, które – według nas – charakteryzują ludzi
(włącznie z nami samymi) lub inne obiekty.

Sądy probabilistyczne – polegają na ocenie szans lub zagrożeń, lub prawdopodobieństwa
wystąpienia wydarzeń całkowicie nam obojętnych.

Sądy wartościujące – to te, w których obiektowi jest przypisana jedna wartość np.:
estetyczna lub etyczna.

TENDENCYJNOŚĆ W WYDAWANIU SĄDÓW

Tendencyjność- przypadłość umysłu ludzkiego polegającą na systematycznym

odstępowaniu od idealnego wzorca rozumowania, co skutkuje regularnym popełnianiem błędu

określonego rodzaju. Tendencyjność nie jest więc równoznaczna z podatnością na błędy wszelkiego
rodzaju, lecz ze skłonnością do popełniania błędów uniwersalnych i bardzo charakterystycznych

Amos Tversky i Daniel Kahnemamo tendencyjności sądów

ich zdaniem ludzie wydając sądy nie kierują się racjonalnymi przesłankami i ścisłymi regułami
rozumowania ale tzw heurystykami

Uproszczone zasady wnioskowania,

umożliwiające szybkie sformułowanie sądu,

któremu bardzo często towarzyszy

subiektywne przekonanie o słuszności.

Najcześciej badano dwie heurystyki decydujące i tendencyjności w wydawaniu sądów:

1. Heurystyka reprezentatywności- polega na kierowaniu się tym, czy dany obiekt lub

zdarzenie jest według nas charakterystycznym egzemplarzem szerszej klasy obiektów lub

zdarzeń, np. wybierając 6 liczb w totolotku i mając dwa ciągi liczb:

1 2 3 4 5 6

i
3 8 17 26 35 47

Bardziej prawdopodobny w wydaje się nam drugi ciąg liczb. Tymczasem oba przykłady SA
jednakowo mało prawdopodobne, ponieważ wylosowani dowolnej liczby nie zmienia

prawdopodobieństwa wylosowania dowolnej, innej liczby
Ciąg liczb 1 2 3 4 5 6 wydaje nam się mniej reprezentatywny

Reprezentatywnośc danego obiektu oceniamy na podstawie dwóch przesłąnek:

- podobieństwo tego obiektu do innych egzemplarzy tej samej klasy. Obiekt

reprezentatywny to taki, który charakteryzuje się dużą liczbą cech wspólnych dla wszystkich
egzemplarzy kategorii

- sposób, w jaki dany obiekt został pobrany ze zbioru lub populacji obiektów. Wylosowany

ciąg liczb musi wyglądać jak wylosowany inaczej nie będzie uważany za cos typowego w swojej

klasie.

Złudzenia poznawcze/ tendencyjność sądów, do których prowadzi nas heurystyka
reprezentatywności:

Złudzenie hazardzisty (efekt Monte Carlo)- ludzie przeceniają prawdopodobieństwo wyniku

losowania, który od dawna nie wystąpił, przykład z rzucaniem monetą (str 551)

Złudzenie koniunkcji- zawyżanie prawdopodobieństwa posiadania przez obiekt pewnej cechy,

jeśli występuje ona z inną cechą (Tversky i Kahneman- problem Lindy- badani wskazywali na
większe prawdopodobieństwo posiadania dwóch cech niż posiadanie jednej z nich)

-

złudzenie może wynikać z tego, że poszczególne elementy koniunkcji postrzegane są jako
logiczny ciąg zdarzeń powiązanych relacjami przyczynowo- skutkowymi. Zdarzenia tworzą

47

background image

wtedy tzw. wiarygodny scenariusz, charakterystyczny dla szerszej klasy scenariuszy tego
samego typu.

2. Heurystyka dostępności- polega ona na kierowaniu się tymi przesłankami lub elementami

wiedzy, które są dostępne i łatwe do wydobycia z pamięci trwałej, a ignorowaniu tych,
które są trudno dostępne (przykład z szacowaniem częstości występowania w polskich

nazwiskach litery K jako przedostatniej- str 555).

Błędy i tendencyjne sądy do których prowadzi heurystyka dostępności:

Efekt świeżości- przykład z dużą liczbą informacji w mediach o atakach

terrorystycznych i katastrofach- ludzie przeceniają prawdopodobieństwo śmierci w
wyniku ataku terrorystycznego)

Złudzenie osobistego doświadczenia- osobiste doświadczenia, zapisane w pamięci
autobiograficznej, wspomagane emocjami i licznymi, dobrze pamiętanymi

szczegółami, jest łatwo dostępne, w przeciwieństwie do suchych statystyk, które
nawet gdyby były nam znane, nie mogą konkurować z osobiście zapamiętanymi

epizodami.

Prawo małych liczb- ludzie chętniej wnioskują na podstawie skąpej liczby

przypadków, pod warunkiem ze sa to przypadki przez nich osobiście doświadczone.
W szczególności mamy tendencję do ferowania sądów o ludziach na podstawie

nielicznej próbki badanych pod nazwą „moi znajomi”

Heurystyka dostępności (dysponujemy klasą ogólną, np. końcówki SKI- przykład powyżej- po czym
szukamy w pamięci konkretnych przykładów kategorii, jeśli znajdujemy je szybko i bez wysiłku to

przeceniamy częstość występowania elementów tej kategorii, a jeśli idzie nam wolno to mamy
tendencje do niedoszacowania częstości ich występowania) jest w pewien sposób odrotnością

heurystyki reprezentatywności (dysponując konkretnym przypadkiem- osoba o imieniu Linda-
odwołujemy się o szerszej klasy zjawisk lub obiektów, po czym przeceniamy prawdopodobieństwo

wystąpienia tego, co uważamy za charakterystyczne dla całej tej kategorii)
Heurystyka zakotwiczenia i dopasowania- prowadzi do błednej oceny wielkości liczbowych.

Odpowiada za niedoszacowanie bądź przeszacowanie głównie wartości statystycznych

IGNOROWANIE PROPORCJI PODSTAWOWEJ

Wiele błedów w ocenie prawdopodobieństwa wynik z ignorowanie proporcji podstawowej-
określa ona ogólną częstość występowania zdarzenia lub cechy w populacji

- reguła Bayesa

WADY I ZALETY PROSTYCH HEURYSTYK
 (badania Tversky’ego i Kahnemana) krytykowano sposób zadawania pytań i formułowania

zadań

Np. (problem Lindy- str 553) sztuczne przyklejenie cechy „feministka” do „pracuje w

banku”. Należało porównać częstość zaznaczania pozycji „feministka” z „feministka pracująca w
banku”

w realnych sytuacjach życiowych tendencyjność w wydawaniu sądów jest znaczne mniejsza niż
w badanich laboratoryjnych

 Zaleta: umożliwiają sformułowanie poprawnego sądu osobom, które bez nich byłyby skazane

na porażkę ze względu na brak wymaganych zdolności intelektualnych.

SĄDY INTUICYJNE:
- poznanie intuicyjne- szeroka kategoria zjawisk dotyczących uczenia się, nabywania wiedzy,

języka oraz myślenia i rozwiązywania problemów. Wspólną cechą tych zjawisk jest to, że człowiek
wykonuje złożone czynności poznawcze, np. rozwiązywanie problemów, nie zdają sobie sprawy z

istotnych elementów tego procesu lub z jego przesłanek, a często nawet z tego, że w ogóle
dysponuje jakąś sprawnością poznawczą lub wiedzą

- sąd intuicyjny- nagły, bo w doświadczeniu wewnętrznym nie stanowi końcowego ogniwa
dłuższego ciągu rozumowania. Nagłość sądu apriorycznego jest cechą charakterystyczną ale nie

konieczną.

-oczywisty bo nie domaga się uzasadnień, jego prawdziwość nie budzi wątpliwości.

oczywistość sądu intuicyjnego nie występuje w każdym przypadku. Czasami doświadczamy
tzw poczucia wiedzy(FOK)-ale nie jest ono zawsze mocne i niezachwiane.

48

background image

-aprioryczny, bo wydaje się nam, że powstał nie na podstawie doświadczenia i

wiedzy ale w wyniku tajemniczego olśnienia. Aprioryczność jest cechą nieodzowną

- sąd intuicyjny odnosi się do trzech kategorii zjawisk:

1.

Sądy, których nie potrafimy uzasadnić

Westcott- przeskoki intuicyjne- zgadywanie kolejnych wartości ciągu jeszcze przed
sformułowaniem ogólnej zasady

Bowers- twierdzi, że sądy intuicyjne powstają w dwóch etapach:

- stadium naprowadzenia- uaktywniają się struktury wiedzy

Odpowiadające poszczególnym składnikom koherentnej struktury.
Stopniowo aktywizują się odpowiednie węzły sieci semantycznej,

Reprezentujące trzy oderwane pojęcia np. grzywa, król, pustynia
- Faza integracji- pobudzenie czwartego węzła może przekroczyć

wartość graniczną, umożliwiającą uświadomienie sobie i zwerbalizowanie
rozwiązania

2.

Sąd naiwny oparty na doświadczeniu potocznym- często przybierają postać

przysłów i są elementami wiedzy przednaukowej

Modele umysłowe- dotyczą określonego obszaru rzeczywistości fizycznej lub społecznej, na
ich analizie polega badanie poznania potocznego

3.

Sąd alogiczny- są to sądy oparte na heurystyce dostępności czy

reprezentatywności.

Przykładem są też sądy dzieci w wieku przedoperacyjnym dotyczące stałości masy lub
objętości (przykład z przelewaniem wody ze szklanki do innego naczynia str 571)

Piaget uważa, że myślenie alogiczne trwa dotąd aż dziecko jest w stanie poprawnie
uzasadnić swój sąd

Istotą myślenia operacyjnego (logicznego) jest wg Piageta odwracalność operacji

umysłowych. Operacje są odwracalne  ich negacja znosi skutek ich własnego działania
np. 7+5- 5=7

PODEJMOWANIE DECZJI

Klasyczna teoria decyzji (KTD)- opisuje zachowanie idealnego, doskonale racjonalnego sprawcy
(decydenta) w warunkach wymagających wyboru jednej spośród pewnej liczby dobrze znanych

opcji. Doskonale racjonalny decydent kieruje się zasadą użyteczności, biorąc pod uwagę przede
wszystkim te opcje, które niosą mu jakąś korzyść. Kieruje się także zasadą prawdopodobieństwa,

odrzucając opcje mało realne.
Teoria ta jest modelem preskryptywnym- podaje przepis na racjonalną decyzję ale nie opisuje

rzeczywistych zachowań ludzi w sytuacjach wymagających podjęcia decyzji.

Chcąc zmodyfikować KTD w taki sposób, aby opisywała rzeczywiste, a nie idealne

zachowania ludzi, wprowadzono pojęcie

- oczekiwanej subiektywnej użyteczności wyniku – SEU – oznacza ono wartość

konkretnej opcji jako funkcję subiektywnego prawdopodobieństwa jej wystąpienia i subiektywnej
użyteczności jej skutków.

- Pewna odmiana KTD, nazywana jest modelem kompensacyjnym. Zgodnie z tym

modelem, dostępne nam opcje oceniamy według szeregu kryteriów, a następnie wybieramy to, co

uzyskuje wyższą globalną sumę ocen. Zakładamy przy tym, że przyjęte kryteria równoważą się,
czyli możliwa jest kompensacja braków w jednej dziedzinie zaletami w innych. Model

kompensacyjny może też opisywać przypadki znacznie bardziej skomplikowane, gdzie
poszczególnym opcjom towarzyszą szacowane prawdopodobieństwa. Na przykład lekarz może

rozważać zastosowanie jednej z dwóch możliwych terapii, z których każda – oprócz zalet – ma
negatywne skutki uboczne, a ponadto każda cechuję się określonym prawdopodobieństwem

wyzdrowienia pacjenta. Prawdopodobieństwo to może być oceniane obiektywnie, np. na podstawie
ogólnej wiedzy medycznej i raportów z poprzednich przypadków stosowania danej terapii, lub

subiektywnie, na podstawie intuicji lekarza i jego osobistego doświadczenia klinicznego.

Mimo, że koncepcja oczekiwanej subiektywnej użyteczności oraz model kompensacyjny

wprowadzają istotne modyfikacje do klasycznej teorii decyzji, są to dalszym ciągu mało trafne
przybliżenia w stosunku do tego, jak ludzie naprawdę podejmują decyzje.

STRATEGIE W PODEJMOWANIU DECYZJI:

49

background image

1.

Strategia zadowolenia- (Herbert Simon) polega na przeglądaniu dostępnych opcji w
przypadkowych porządku i wyborze pierwszej, która nas wystarczająco satysfakcjonuje.
Zdaniem Simona ludzie nie porównują wszystkich opcji pod każdym względem w celu

wybrania najlepszej, ponieważ zabrakłoby na to czasu, wiedzy lub wolnych zasobów
poznawczych. Autor odwołuje się tu do koncepcji ograniczonej racjonalności umysłu

ludzkiego- wybieramy kryterium, niekiedy bardzo skromne, i na tej podstawie wybieramy.
W tej sytuacji jest mało prawdopodobne odnalezienie idealnego rozwiązania ale z

pewnością przyniesie nam zadowolnie

2.

Eliminacja według aspektów- (Amos Tversky)- model ten może być użyty jako
przygotowanie do bardziej dogłębnych procesów decyzyjnych. Raz odrzucona opcja nie jest

już brana pod uwagę w dalszych rozważaniach, nawet gdyby niektóre jej aspekty były
atrakcyjne

3.

„ Kieruj się tym co najważniejsze”

( grupa ABC)- tworzymy liste najważniejszych kryteriów

odrzucając po kolei te opcje, które ich nie spełniają

4.

„ Kieruj się tym co się ostatnio sprawdziło”- (grupa ABC)- nie mając Widzy która wskazówka
jest najważniejsza lub nie mogąc się zdecydować, bierzemy pod uwagę kryterium

sprawdzone w ostatniej próbie tego samego rodzaju.

Grupa ABC- porównuje umysł ludzki do przydatnej skrzynki narzędziowej- zestawu modułów

służących rozwiązywaniu konkretnych problemów. Szybkie i oszczędne heurystyki to narzędzia
dzieki którym umysł przystosowuje się do stawianych mu wymagań.

TEORIA PERSPEKTYWY

- Daniel Kahneman
- wiąże się ona ściśle z teorią obramowania- Kahnemana i Tversky’ego dotycząca wpływu

mentalnej reprezentacji problemu decyzyjnego na treść podejmowanych decyzji (eksperyment
ze studentami i wyborem programu ratowania ludzi przed epidemią- str 581)- poznawcza

reprezentacja problemu może ulec zmianie pod wpływem rodzaju użytych słów
- efekt obramowania jest przykładem asymetrii pozytywno- negatywnej-(Kahneman,

Tversky)- ludzie inaczej wartościują zyski a inaczej straty nawet jeśli sa one wyrazone w
porównywalnych jednostkach np. pieniężnych. Subiektywne poczucie straty rośnie znacznie

szybciej niż subiektywne poczucie zysku

PROCES PODEJMOWANIA DECYZJI:

Podejmowanie decyzji to złożony proces poznawczy, na który wpływa mają elementy
poznawcze, emocjonalne i motywacyjne a także wiedza i doświadczenie decydenta jak i

czynniki kontekstualne

Faza przeddecyzyjna- zdefiniowanie problemu (określenie rozbieżności miedzy stanem
obecnym a stanem docelowym) i zbieranie informacji na temat dostępnych opcji

Proces decyzyjny- wg Oli Svenson jest to stopniowe wyróżnienie jednej opcji spośród
pozostałych. Jest to długi proces polegający na gromadzeniu wiedzy na temat wyróżnionej
opcji. Rohrbaugh i Shanteau uważają ze zasadniczym elementem procesu decyzyjnego jest

ocena ważności zebranyc wcześniej inf na temat dostępnych możliwości wyboru. Co
uznamy za informacje ważną zależy od trzech czynników(wykres na str 585- warto

zerknąć):

 procesów poznawczych- przywołanie wiedzy z pamięci trwałej a ponadto operacje

myślenia i rozumowania. W ich wyniku dochodzi do uaktywnienia heurystyk lub
strategii decyzyjnych. Na przebieg tych procesów mają wpływ takie czynniki:

- poziom ryzyka

- pozytywne lub negatywne emocje

- polityka podejmowania decyzji(zachowania automatyczne- decydent szybko i automatycznie
uruchamia pewien system działania, jeśli bieżąca sytuacja jest szczególnym przypadkiem

szerszej klasy problemów, które skutecznie rozwiązywał już wczesniej, intuicyjne-
uwzględnienie najbardziej oczywistych przesłanek z pominięciem tych ukrytych choc może

ważniejszych, decydent wspomaga się wyobrażeniem tego co się stanie, deliberatywne-
decydent dokładnie rozważawszelkie opcje i przesłanki wyboru)

- korzystanie z inf zwrotnych
- zasobność systemu poznawczego

 doświadczenia-
 kontekstu

50

background image

Szczególną role odgrywają również takie zmienne indywidualne jak: temperament, osobowość,
ekspertywność (eksperci stosują bardziej wydajne strategie a także szybciej i trafniej

rozpoznają)

Model Rohrbaugh i Shanteau pokazuje również z czego wynikają błędy decyzyjne:
- Niewłaściwy przebieg procesów poznawczych lub działanie czynników zakłócających

- działanie czynnikow indywidualnych np. brak doświadczenia
- ignorowanie kontekstu lub nadmierne przejmowanie się nim

Faza postdecyzyjna- często rodzą się wątpliwości co do słuszności wyboru. Decydent
wtedy:

- utwierdza się w przekonaniu ze dobrze zrobil (jeden z trzech przejawów

dysonansu poznawczego Festingera)

- wybiórczy stosunek do inf napływającej z otoczenia (odrzuca się inf niezgodne z

przekonaniem)

- poszukiwanie uzasadnienia dla własnych działań (dorabia się wewnętrzne motywy,

wczesnej nieobecne)

Żal postdecyzyjny jest tym wiekszy im wazniejsza była decyzja i im trudniej było ja podjąć, im

dłużej nad nia pracowaliśmy i im trudniej teraz przeciwdziałać jej negatywnym skutkom.
Według Svenson można uniknąć zalu pod warunkiem ze wybrana wczesniej opcja ulegnie

konsolidacji (podnszenie wartości wybranej opcji a obniżeniu wartości odrzuconych)
Faza postdecyzyjna zawiera także takie elementy jak: trafność decyzji, uwzględnionych

kryteriów wyboru, wagi tych kryteriów itp

RODZIAL 13

by Marzenna :-) Rozdział 13

Język i mowa

Język- system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli (dźwięków
mowy lub znaków pisma). Operowanie na symbolach podlega regułom gramatycznym, swoistym

dla każdego języka naturalnego lub sztucznego.
Mowa- używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze lub

własne. W innym ujęciu mowa to zdolność gatunku ludzkiego do przekazywania i odbierania
komunikatów językowych za pomocą wyrażeń wokalnych lub znaków pisma.

Procesy przetwarzania języka- procesy przetwarzania informacji biorące udział w tworzeniu
wyrażeń językowych i ich analizie.

Język pełni dwie podstawowe funkcje psychiczne:

komunikacyjna- język to medium porozumiewania się, czyli wzajemnego przekazywania sobie
informacji; porozumiewanie się ma postać:
- niewerbalną (mimika, pantomimika, postawa ciała itp.)

- parawerbalną (ton głosu, pauzy, intonacja)
- komunikatów stricte językowych

zasada prymatu komunikacji niewerbalnej nad werbalną- niekiedy sens komunikatu
niewerbalnego jest sprzeczny z treścią przekazywaną za pośrednictwem języka, np. mówimy

do dziecka „chodź tu mały brzydalu”- komunikat negatywny jednak dzięki pieszczotliwej
artykulacji dziecko przybiega; komunikaty niewerbalne nie muszą być sprzeczne z werbalnymi-

zwykle wzajemnie się uzupełniają i wzmacniają.

poznawcza- polega na wspomaganiu procesów przetwarzania informacji (głównie myślenia i
rozumowania); dzięki językowi możliwe jest myślenie pojęciowe, którego składnikami są

pojęcia, sądy i schematy; myślenie abstrakcyjne nie jest tożsame z używaniem języka, ale nie
byłoby bez niego możliwe; język pełni ważną rolę w procesach kontroli poznawczej i

samokontroli emocjonalnej (panowanie nad sobą w postaci nakazów i zakazów); kategoryzacja

Inny podział funkcji języka:

ekspresyjna- wyrażanie stanów podmiotu mówiącego (emocjonalnych-czuję; motywacyjnych-
chcę); nakazy, zakazy, polecenia, groźby i inne wyrażenia mające na celu wpływanie na

działanie innych ludzi lub zwierząt to przejawy ekspresyjnej funkcji języka.

referencjalna- język może służyć do opisu rzeczywistości pozajęzykowej, też do opisu samego
siebie; referencjalnośc- odnoszenie się symbolu oznaczającego (słowa) do przedmiotu

51

background image

oznaczanego (desygnat); relacje słowo-przedmiot tworzą znaczenie; słowo, desygnat i
znaczenie składają się na trójkąt semantyczny.

Cechy języka: system złożony, dynamiczny (ciągle ewoluujący), produktywny (korzystając z

ograniczonego zasobu słów jesteśmy w stanie stworzyć nieskończoną liczbę zdań (komunikatów)->
niekiedy produktywność prowadzi do twórczości językowej (np. dziecko „Co foczki ją?”).

Przyczyny dynamicznej zmiany języka:

Zmiany polityczne, kulturowe i obyczajowe

Eufemizacja i poprawność polityczna, np. sprzątaczka-> osoba sprzątająca

Bariera oni-my, gwary środowiskowe działające jako przeszkoda dla niewtajemniczonych.

Poziomy języka:

fonologiczny- obejmuje podstawowe jednostki budulcowe komunikatu werbalnego (głoski,
fonemy); każdy język buduje swoje przekazy korzystając z około 30-40 głosek

semantyczny- obejmuje ulepione z głosek lub znaków pisma elementarne składniki znaczenia
(morfemy (rdzeń)- składniki słów, niosące pewną treść); na tym poziomie analizy języka
istotne staje się znaczenie, definiowane jako fragment wiedzy o świecie, wyrażonej pojęciami i

sądami:
- znaczenie denotacyjne- kiedy wiedza dotyczy faktów

- znaczenie konotacyjne- kiedy wiedza dotyczy emocji i skojarzeń
np. denotacja słowa dom to budynek, a konotacja to bogata siec skojarzeń (ciepły, rodzinny)

syntaktyczny- składa się z fraz i zdań, połączonych według reguł gramatyki; zdanie składa się
z:
- frazy nominalnej- określającej sprawcę i jego atrybuty

- frazy czasownikowej- określającej czynność i jej okoliczności
Strukturę zdania możemy zapisać w postaci drzewka derywacyjnego.

pragmatyczny- dotyczy społecznych aspektów języka, a właściwie jego użycia w funkcji
komunikacyjnej- czyli co komu i w jakim celu chcemy powiedzieć. Jest on szczególnie istotny w
przypadku wyrażeń ironicznych czy sarkastycznych, np. „no to pieknie!”.

Niektórzy wyróżniają 2 warstwy funkcjonowania języka (Noam Chomsky-teoria gramatyki

generatywnej)

struktura powierzchniowa- to rzeczywiste zdanie utworzone według obowiązujących reguł
gramat.

struktura głęboka- to abstrakcyjna postać tego zdania, wyrażona w postaci drzewka
derywacyjnego

Przekształcenie struktury głębokiej w powierzchniową jest możliwe dzięki regułom transformacji);

umysł przechowuje sens zdarzenia na poziomie głębokim, co wystarczy, aby w razie potrzeby
wygenerować odpowiadające temu sensowi struktury powierzchniowe; perspektywa mówcy:

transformacja z głębokiego znaczenia na powierzchniową strukturę syntaktyczną zdania<- z
perspektywy słuchacza odwrotnie; opowiadając jakąś historię, za każdym razem generujemy nowy

zestaw struktur powierzchniowych.

Hipoteza determinizmu językowego (hipoteza Sapira- Whorfa)- język zasadniczo wpływa na
to, jak spostrzegamy rzeczywistość, przetwarzamy informacje, formułujemy sądy lub korzystamy z

zasobów pamięci; wielu pojęć nie da się przełożyć z jednego języka na inny; sposób w jaki mówimy
determinuje to, jak widzimy świat i myślimy o nim; relatywizm językowy- nie ma dwóch

identycznych języków, więc nie ma dwóch jednakowych sposobów poznawczego reprezentowania
rzeczywistości, przede wszystkim społecznej.

Koncepcje przyswajania języka:

behawioryzm (teoria uczeniowa):
- warunkowanie klasyczne

*Iwan Pawłow- język jako drugi system sygnałowy- w wyniku warunkowania wyższego
rzędu możemy

reagować strachem już nie tylko na sygnał zagrożenia, ale również na sygnał zapowiadający
ten sygnał

(słowa jak „uważaj”, „groźne”)
*Hobart Mowrer- wyróżnił 4 grupy sytuacji odpowiadających znaczeniom językowym:

groźba,

52

background image

obietnica, ulga, rozczarowanie-tymi terminami opisał przypadki, gdy słowo sygnalizuje
niebezpieczeństwo, nagrodę, minięcie zagrożenia lub brak zapowiadanej nagrody.

- warunkowanie sprawcze- człowiek spontanicznie używa pewnych dźwięków- najpierw
pojedynczych głosek i sylab, potem słów i pełnych zdań- otrzymując w zamian wzmocnienie

pozytywne lub negatywne; dzięki stosowaniu reguł kształtowania złożonych reakcji, dorośli są
w stanie wykształcić u dzieci umiejętność posługiwania się długimi, skomplikowanymi

strukturami językowymi. Czynnikiem wzmacniającym może być tutaj sam fakt naśladowania
innego osobnika, w szczególności kogoś ważnego.

poglądy natywistyczne:
- zdaniem Norma Chomsky’ego proces nabywania języka jest zdeterminowany wrodzonymi

strukturami mózgowymi (urządzenie do przyswajania języka- LAD); dziecko posiada wrodzoną,
ukrytą kompetencję językową, AGRUMENTY:

* istoty języka nie tworzą słowa, lecz struktury syntaktyczne, które są ukryte a przez to trudne
do bezpośredniego utrwalania poprzez wzmocnienia pozytywne

* struktur gramatycznych raczej nie uczymy się wprost w sposób jawny (dziecko posługuje się
już w pełni gramatycznym językiem, zanim pójdzie do szkoły)

* ludzie-zwłaszcza dzieci- używają zdań, których nie mieli okazji wcześniej usłyszeć
- Steven Linker- człowiek ma instynktowną zdolność do mówienia (instynkt językowy), czyli

wrodzoną gotowość do wykształcenia określonych struktur; dzięki ekspozycji na komunikaty
językowe, która musi nastąpić w okresie sensytywnym, uruchamiają się odpowiednie struktury

mózgowe, w wyniku czego proces przyswajania języka uzyskuje nadzwyczajne przyspieszenie i
wydajność.

- mowa ukierunkowana na dziecko- polega na modelowaniu (a nie karaniu) zachowań
werbalnych dziecka w następstwie wielokrotnego powtarzania krótkich, ale syntaktycznie

poprawnych zdań, np. „Kot mleko”- „Tak, kot pije mleko”.

Stadia przyswajania języka:
- proces przyswajania pierwszego języka jest w zasadzie ukończony u progu 4 roku życia dziecka

(chodzi tu o kompetencję językową- kompetencja komunikacyjna rozwija się niekiedy do okresu
adolescencji)

pierwszy rok życia dziecka to ćwiczenia w zakresie fonologii, prozodii (charakterystyczny dla
każdego języka typ „zaśpiewu”- składa się na nią intonacja, a także akcent i rytm), intonacji

* głużenie- wypowiadanie pojedynczych fonemów
* gaworzenie- wypowiadanie pojedynczych sylab

drugi rok życia to próby konstruowania niegramatycznych zdań z ukrytą syntaksą

- pierwsze słowa pojawiają się zwykle między 12-14 miesiącem życia, choć przejawy ich

rozumienia już po 9 miesiącach od urodzenia
- mowa telegraficzna-mówienie pojedynczymi wyrazami lub łączenie ich w krótkie zestawy bez

poprawnego odmieniania przez osoby, czasy, przypadki, np. „mama bawić”.

trzeci rok życia to ćwiczenia w pełni gramatycznych wypowiedzi i dopasowywanie ich do
potrzeb komunikacyjnych dziecka; dwa rodzaje błędów występujące w tym okresie dotyczą
kategoryzowania i tworzenia struktur gramatycznych:

* błąd nadrozciągłości znaczeń- włącznie w obręb kategorii obiektów, które do niej nie należą
(np. nazywanie każdej istoty czworonożnej psem)

* błąd hiperregularyzacji- dziecko ignoruje wyjątki i przypadki szczególne, stosując wszędzie
regularne struktury gramatyczne (np. „on ma dwa braty”= dwóch braci).

Dwujęzyczność i wielojęzyczność:

- we współczesnym ujęciu dwujęzyczność i wielojęzyczność to zdolność do posługiwania się więcej
niż jednym językiem

- do pewnego momentu w rozwoju poznawczym drugi język przyswajamy tak jak pierwszy, to
znaczy szybko i bezwysiłkowo, korzystając z „instynktu językowego”

- kiedy minie okres sensytywny, przyswajanie drugiego języka staje się procesem powolnym i
wymagającym wysiłku, a jego efekty nigdy nie będą idealne

- do kosztów dwujęzyczności zalicza się interferencję między językami- znajomość więcej niż
jednego języka zwiększa ryzyko pomyłki w doborze słów i wyrażeń, spowalnia procesy

wydobywania słów z leksykonu mentalnego i wymaga zwiększenia kontroli na etapie artykulacji,
aby słowo z jednego języka nie „wcisnęło się” w komunikat sformułowany w innym języku

- osoby wielojęzyczne funkcjonują na wyższym poziomie świadomości metajęzykowej- osoby te
wyrażają się bardziej precyzyjnie, ponieważ staranniej dobierają słowa i struktury składniowe

53

background image

Mówienie:

planowanie mowy: polega na podjęciu decyzji co do sensu przekazu i intencji jego
przekazania; wymaga uwzględnienia pragmatycznego aspektu języka;

- zasada kooperacji- mówca i słuchacz muszą ze sobą współdziałać (Paul Grice); 4 maksymy
językowe mające ułatwić kooperację:

1) maksyma ilości- komunikat powinien zawierać tyle danych, ile to konieczne- nie więcej i nie
mniej

2) maksyma jakości- mówca powinien mówić prawdę, ponieważ takie będzie prawdopodobne
oczekiwanie słuchacza (chyba, że słuchacz zdaje sobie sprawę, że komunikat jest fałszywy to OK.)

3) maksyma relacji- mówca powinien mówić na temat, bez dygresji i odbiegania od głównego
wątku- jeśli jednak dygresja czemuś służy, maksyma relacji nie zostaje złamana

4) maksyma sposobu- mówca powinien używać środków wyrazu dostępnych odbiorcy (głośna i
wyraźna artykulacja, nieużywanie słów i wyrażeń, których słuchacz nie rozumie ze względu na brak

wiedzy itp.)
- planowanie mowy dokonuje się z uwzględnieniem wspólnej płaszczyzny czyli podzielanych przez

obie strony konwersacji elementów wiedzy, często niejawnej- jeśli porozumiewają się osoby obce,
ustalenie wspólnej płaszczyzny może być bardzo trudne

- planowanie mowy jest minimalnie przesunięte w czasie w stosunku do realizacji planu=
wypowiadając zaplanowane wcześniej słowa, jesteśmy już mentalnie przy następnym fragmencie

wypowiedzi, świadczą o tym przejęzyczenia, w szczególności błędy antycypacji (Piciu, co ci zrobić
do misia?”)

- jednostką planowania mowy jest FRAZA
- przetwarzając frazę, mamy do czynienia ze szczególnym przypadkiem interferencji, wynikającej z

wykonywania dwóch czynności jednocześnie (planowanie wypowiedzi- realizacja planu)

kodowanie semantyczno- syntaktyczne:

- leksykalizacja- przekształcanie myśli w słowa; wymaga zaangażowania trzech poziomów języka:

semantycznego, syntaktycznego, fonologicznego
- według Levelta pierwszy etap leksykalizacji polega na wyborze lemm (abstrakcyjna postać słowa

obejmująca 3 elementy: jego znaczenie, funkcję syntaktyczną przewidzianą dla niego w przyszłym
zdaniu oraz wskaźniki fonologiczne, czyli wstępne dane dotyczące sposobu jego wymawiania)

- dowód na obecność tego etapu- efekt końca języka- np. pytamy kogoś jak nazywa się rezygnacja
osoby panującej z praw do tronu-> osoba nie udzieli odpowiedzi choć jest przekonana, że zna to

słowo (abdykcja), co więcej niektórzy badani będą w stanie poprawnie określić na jaką literę
zaczyna się to słowo, czyn z ilu składa się sylab- świadczy to o tym, że lemma zawiera nie tylko

znaczenie i funkcję przyszłego słowa, ale też wskaźniki fonologiczne (jedynie szczątkowe
wskazówki)

kodowanie fonologiczne:

- następuje drugi etap leksykalizacji= wybór leksemów; leksem- jednostka umysłowego słownika,

na który składają się konkretne słowa odpowiadające określonym znaczeniom (np. leksemy słowa
koń to koń, konie, koniom itp.); leksykon mentalny- zbiór wszystkich leksemów, którymi dysponuje

konkretny użytkownik języka (jeśli jest wielojęzyczny może dysponować więcej niż jednym
leksykonem)

- teoria Levelta- etap fonologiczny obejmuje trzy podetapy:
* przywoływanie z pamięci głosek i układanie ich we właściwej kolejności

* sylabizacja i prozodyzacja wypowiedzi
* kodowanie fonetyczne czyli wybór odpowiednich wzorców artykulacyjnych dla każdej sylaby (w

pamięci
mamy „sylabiarz” składający się z ok. 500 sylab)

- interakcyjny model mówienia- Dell twierdzi, że istnieje samoorganizująca się sieć tworzą ją
znaczenia i brzmienie wszystkich słów, jest podobna do sieci semantycznych), zdolna do

wytwarzania mowy

Rozumienie przekazów językowych:

złamanie kodu:

- pierwszym zadaniem słuchacza jest dokonanie podziału nieprzerwanego potoku głosek na
jednostki (segmenty), odpowiadające poszczególnym słowom ->segmentacja; dokonując

segmentacji słuchacz musi kierować się innymi wskazówkami, takimi jak prozodia (intonacja,
akcent, rytm), kontekst ogólny, a przede wszystkim kontekst wewnątrzjęzykowy

- proces identyfikacji poszczególnych słów w potoku żywej mowy dobrze opisuje model kohorty-
słuchacz rozpoznaje słowa, systematycznie zwężając listę potencjalnych „kandydatów”, czyli

zmniejszając kohortę możliwych jednostek leksykalnych aż do momentu, gdy nie będzie innego
wyboru (np. słowo wczoraj jest rozpoznawalne już po pierwszych czterech głoskach ‘wczo…’)

54

background image

- w procesie deszyfracji mowy współwystępują dwie czynności: segmentacja i odczyt znaczeń
zapisanych w pamięci semantycznej; segmentacja byłaby niemożliwa bez wstępnej hipotezy na

temat znaczenia słowa: tylko znaczenie eliminuje kolejne elementy z kohorty, aż do momentu
wyeliminowania wszystkich z wyjątkiem jednego

- łamanie kodu akustycznego u dorosłych posługujących się językiem ojczystym dokonuje się
automatycznie i bezwysiłkowo, stanowi jednak poważne wyzwanie dla kogoś, kto posługuje się

słabo opanowanym językiem obcym

rozbiór zdania:

- rozbiór zdania polega na utworzeniu umysłowej reprezentacji jego treści, czyli zbudowania ‘w
wyobraźni’ czegoś na kształt drzewna derywacyjnego

- zdania „ślepej uliczki” to szczególny rodzaj zdań dwuznacznych (np. Chłopiec odbił piłkę ręką
podtrzymując kolegę)-> zdania te tracą dwuznaczności po dodaniu przecinka

- zasada późnego domknięcia- odbiorca stara się domknąć frazę najpóźniej, jak się da;
domykanie frazy polega na ustaleniu granicy, poza którą zaczyna się nowa fraza zdaniowa

- w momencie, gdy dokona się rozbiór zdania, użytkownik języka przechodzi na poziom, który
Chomsky nazwałby strukturą głęboką; powierzchniowa forma wypowiedzi jest zapominana tak

szybko, jak tylko zbudowana zostanie reprezentacja głęboka
- parser- struktura odpowiedzialna za rozbiór zdania; jego głowne zadanie polega na przypisaniu

poszczególnym słowom odpowiednich funkcji, np. podmiotu, orzeczenia, dopełnienia; w przypadku
języka polskiego parser odpowiada przede wszystkim za prawidłową interpretację wskazówek

fleksyjnych (końcówki definiujące rodzaj, czas i tryb gramatyczny)

budowa modelu sytuacyjnego i wnioskowanie:

- model sytuacyjny jest niezbędnym warunkiem zrozumienia, jeśli przekaz zawiera wiele luk

wymagających wypełnienia przez wnioskowanie
- budowę modelu sytuacyjnego kształtuje wiele czynników, przede wszystkim znajomość tematu:

wystarczy krótki fragment prozy opatrzyć tytułem aby poprawić jego zrozumienie i przechowanie
treści w pamięci; dzięki tytułowi możliwe jest zbudowanie modelu sytuacyjnego

- szczególną rolę w rozumieniu przekazów językowych odgrywają schematy narracyjne, czyli
elementy wiedzy zorganizowane ze względu na epizody; schemat narracyjny wpływa na rozumienie

przekazu, jeśli określone porcje wiedzy nabierają sensu dopiero w kontekście całej historii
- procesy zaangażowane w budowanie modelu sytuacyjnego to przede wszystkim rozumowanie

nieformalne, czyli wnioskowanie na podstawie swobodnie wybranych przesłanek, nie zawsze
zwerbalizowane; mówca konstruując wypowiedź, przekazuje pewne treści jawnie, a inne

domyślnie- odbiorca musi więc odróżnić to, co mówca chciał przekazać, od tego, co rzeczywiście
przekazał

- reguły rządzące wnioskowaniem podczas rozmowy nazwano implikaturą; Grice wyróżnił dwa jej
rodzaje:

* implikatura konwencjonalna- treść wypowiedzi (np. mówiąc koń mamy na myśli zwierze z
kopytami, a

nie konika morskiego)
* implikatura konwersacyjna- polega na domyślnym, wzajemnym szanowaniem reguł dobrej

komunikacji
(zasady kooperacji i czterech maksym konwersacyjnych)

- wnioskowanie w procesie rozumienia mowy pełni dwie funkcje:
* uzupełnianie luk w strukturze przekazu

* budowanie połączeń między nową wiedzą zawartą w komunikacie, a wiedzą nabytą już
wcześniej

- komunikaty nie wprost- polecenia sformułowane w postaci pytań lub delikatnych sugestii (np.
Czy mógłbyś zgasić światło?)-> wymagają odkrycia prawdziwych intencji nadawcy, co zwykle nie

jest trudne

55


Document Outline


Wyszukiwarka

Podobne podstrony:
Filozofia skrypt do nauki id 47 Nieznany
Filozofia egzamin skrypt do nauki id 170386
Mechanika Techniczna I Skrypt przyklady do rozwiazania id 291
podrecznik do komunikacji id 36 Nieznany
cw 16 odpowiedzi do pytan id 1 Nieznany
odpowiedzi do testu id 332437 Nieznany
Montaz zamka do drzwi id 307578 Nieznany
Mój skrypt do zajęć grupy wyznaniowe i sekty wpływna rozwój człowieka
Oswietlenie LED do akwarium id Nieznany
mnozenie do 25 2[1] id 304290 Nieznany
DO Gimn 1 id 137870 Nieznany
dodawanie do 10 4 id 138940 Nieznany
negocjacje skrypt do szkolenia
PRINCE2 do czytania id 392408
Noktowizyjny obraz do kamery id Nieznany
616 Finanse Przedsiebiorstw II pytania do wykladu id 44260 (2)

więcej podobnych podstron