procesy poznawcze, skrypty notatki

TEMAT II.

1. Zmienna- właściwość charakteryzująca osoby i zwierzęta.

Rodzaje zmiennych:

2.Rodzaje metod badawczych: (Allport)

Obserwacja i rejestracja zwykłych, wyuczonych czynności poznawczych. Analizuje błędy popełniane przez badanych w trakcie wykonywania rejestrowanych czynności. W wyniku obserwacji otrzymuje się raport zawierający poznawczą charakterystykę obserwowanej czynności, rodzaj procesów poznawczych zaangażowanych w wykonanie czynności oraz źródło błędów. Gdy raport sporządza osoba badana mówimy o samoopisie, częściej jednak robi to obserwator.

Eksperyment laboratoryjny prowadzony z osobami niedysponującymi wiedzą specjalistyczną. Uczestnicy wykonują określone czynności, np. porównanie bodźców. Zazwyczaj są prowadzone w warunkach sztucznych, pozwala to na kontrolowanie zmiennych i prezentowanych bodźców. Ponadto pozwala to na precyzyjną rejestrację reakcji badanych.

Badanie kliniczne udział biorą pacjenci z upośledzeniami poszczególnych zdolności poznawczych, przez uszkodzenie niektórych obszarów mózgu. Jest to metoda, która dostarcza wielkiej wiedzy.

Symulacja komputerowa Badacz tworzy sztuczny system zdolny do wykonywania określonych zadań, a następnie porównuje wyniki działania tego systemy z zachowaniami człowieka.

Piątą dodatkową metodą może być metoda obrazowania pracy mózgu. Do metody tej zaliczamy PET i fMRI (rezonans magnetyczny). Pierwsza metoda pozwala na rejestrację poziomu ukrwienia, a druga rejestrację poziomu zużycia tlenu w wybranych obszarach mózgu.

oraz obrazowanie pracy mózgu, chronnometria umysłowa

TEMAT III
1. Wskaźniki chronometryczne
- zmienne używane przy pomiarze psychologicznym oparte na analizie czasu reakcji (maksymalny lub minimalny czas reakcji, indywidualna zmienność czasu reagowania, związek między poprawnością odpowiedzi a czasem reakcji)

2.Istota metody Dondersa- metoda odejmowania
Wykonanie każdego zadania wymaga serii osobnych operacji umysłowych następujących w czasie rzeczywistym. Umysł działą podobnie do urządzeń technicznych.

Istotą metody Dondersa jest konstrukcja paru wersji tego samego zadania różniących się jedynie liczbą operacji umysłowych. Mierząc c ałkowity czas reakcji w każder wersji zadania a potem odjemując czas reakcji w wersji krótszej od wersji dłuższej otrzymujemy informacje na temat tego czy w tej wersji występuje i ile trwa konkretny etap różnicowania bodźców.

4.metoda addytywna (S. Sternberg)
– manipulacja warunkami zadania, można sprawdzić dzięki temu czy mają one współna czy odrębny wpływa na czas rozwiazania zadania, czas reakcji zależy od warunku A i warunku B oraz łącznego wpływu obu warunków. Jeżeli Ai B oddziałowuje interaktywnie na czas oznacza to że działają na ten sam etap zadania. A jeżeli sumują się to działają na różne etapy osobno

metoda komponentowa (R. Sternberg)- rozbicie działania na elementarne składniki i dostarczenie operacji wstępnych do wykonania określonego etapu co zmniejsza czas reakcji o czas potrzeby przetworzenia informacji dostajemy wyniki jedynie dotyczące samej reakcji, ostateczny proces jest pełny i niepozbawiony żadnych istotnych części

5.Rygory metodologiczne zabezpieczające przed przypadkowością pomiaru:

TEMAT IV

1.Faza- etap procesu kodowania fizjologicznego w przewodzeniu impulsów nerwowych wywołanych przez bodziec świetlny

Fazy procesu percepcyjnego

2. ATOMIZM (ASOCJACJONIZM) VS STRUKTURALIZM



Atomizm
-prymat części nad całością
-wrażenia są pierwotne a spostrzeżenia wtórne
-łączenie wrażeń w spostrzeżenia na podstawie praw kojarzenia
-wszystkie części w polu percepcyjnym są jednakowo ważne
-nie są znane fizjologiczne podstawy wrażeń subiektywnie pierwotnych


Strukturalizm (gesztaltyzm, psychologia postaci):
-prymat całości nad częściami
-spostrzeżenia są pierwotne a wrażenia powstają na podstawie analizy spostrzeżeń
-wyodrębnienie całości następuje na podstawie zasad Wertheimera które mają charakter wrodzony
- w polu percepcyjnym można wyodrębnić figurę i tłó
-nieznane są fizjologiczne podstawy spostrzeżeń

3.Pole percepcji (figura i tło)
Figura jest ważniejszym elementem pola percepcji a tło jest mniej ważne.
1. Figura ma pewien kształt tło spostrzegane jest jako coś bezkształtnego
2. Tłó wygląda jakby rozsprzestrzeniało się z figurą w sposób ciągły
3. Figura wydaje się wysunięta ku przodowi a tło wygląda jakby było z tyłu
4. Figura ma charakter rzeczy a tło to nieukształtowany materiał
5. Figura silniej się rzuca jest łatwiej zapamiętywana
6. Figura wydaje się jaśniejsza od tła

PROCES GÓRA-DÓŁ
Pojawia się, gdy większą rolę w spostrzeganiu odgrywają procesy pamięciowe, które kierują poszukiwaniem i interpretacją danych zmysłowych. Pojawiają się, gdy informacja sensoryczna jest niepełna.

Konstruowanie poprzedzające- dostosowanie późniejszej informacji do wcześniej nabytych doświadczeń

PROCES DÓŁ-GÓRA
Zapoczątkowany przez odbiór informacji zmysłowych przez narządy zmysłów, informacje te potem są analizowane na wyższych piętrach układu nerwowego (także w korze mózgowej). Na najwyższym poziomie powstaje spostrzeżenie warunkiem spostrzeżenia i rozpoznania obiektu jest możliwość zinterpretowania go za pomocą informacji zarejestrowanych w pamięci.

Koncepcja Biedermnan dotycząca rozpoznawania przedmiotów na podstawie komponentów. Każdy przedmiot składa się z tzw geonów, prostych figur geometrycznych, różniących się takimi właściwościami linii charakteryzującej dwuwymiarowy obraz, jak zakrzywienie, współwystępowanie, symetria, równoległość i wspólne zakończenie. Te cechy są stałe niezależnie od ich transformacji przestrzennych.

Teoria rozpoznawania przedmiotów na podstawie komponentów jest koncepcją integracyjną, w której proste elementy składają się na obiekt złożony. Jeżeli zwrócimy uwagę na o, że w percepcji najpierw są organizowane wyodrębniane geony jako proste figury, potem złożone z nich przedmioty, to mamy do czynienia z procesem spostrzegania z dołu do góry.


Zasady kosntytuowania sie figury:
-bliskość przestrzenna w polu widzenia
-jednakowy wygląd elementów
-"wspólna droga" elementy poruszające się w okroślonym kierunku widzimy jako odrębną grupę
-dobra kontynuacja lub dobra figura
-niewielkie rozmiary
-symetria
-zgodność z chwilowym nastawieniem (oczekiwanie pojawienia się pewnego układu bodźców)
-doświadczenie i przyzwyczajenie

Pojęcia do tematu nr. IV.

-wrażenie- oddziaływanie podstawowej cechy zmysłowej zarejestrowanej w wyniku odbioru danych sensorycznych. Poszczególne wrażenia są od siebie izolowane.

-percepcja- Percepcja jest procesem twórczym, polegającym na aktywnym odbiorze, analizie i interpretacji zjawisk zmysłowych. W procesie tym aktualnie nadchodzące informacje zmysłowe przetwarzane są w taki sposób, aby zgadzały się z zarejestrowaną w pamięci jednostki wiedzą o otaczającym świecie.

-bodziec dystalny- poza organizmem, działa z odległości oddziałując na zmysły

-bodziec proksymalny- pojawia się w bezpośrednim kontakcie bodźca dystalngo z narządem zmysłowymBodziec proksymalny jest mocno zniekształcony zarówno w stosunku do bodźca dystalnego i w stosunku do spostrzeżenia.

-postać(figura)- jeden odrębny element w polu percepcyjnym

-prawa organizacji percepcyjnej- Podział na regiony: Siatkówka składa się z wielu odrębnych receptorów, więc oko reaguje na układ bodźców mozaiką milionów niezależnych reakcji nerwowych kodujących ilość światła padającego na poszczególne punkty siatkówki. ,Figura i tło , zasadę zamykania. Figury niepełne widzimy jako pełne. Bodziec zawiera tylko kąty, ale nasz system percepcyjny wypełnia luki między nimi krawędziami i widzimy pełny trójkąt.

-prawa kojarzenia- prawa rządzące powstawaniem asocjacji, sformułowane po raz pierwszy przez Arystotelesa, obejmujące kojarzenie zjawisk przez styczność: w czasie, w przestrzeni, na podstawie podobieństwa oraz kontrastu.

-zasady Wertheimera- zasady wyodrębnienia całości Bliskość przestrzenna (sąsiedztwo) ,Podobieństwo wyglądu, Wspólna droga ,Dobra figura (kontynuacja), Niewielkie rozmiary, Symetria, Zgodność z chwilowym nastawieniem, Doświadczenie i przyzwyczajenie

-izomorfizm-
cecha percepcji bezpośredniej,

-figura Rubina-dwuznaczności figury i tła , powoduje problem w mózgu do odróżnienia która część pola percepcyjnego to figura a która to tło Postrzeganie danego kształtu zależy to od tego, która z części konturu uznana zostanie przez nasz system percepcji jako część figury

-sześcian Neckera- Patrząc na sześcian Neckera widzimy układ linii, ale spodziewamy się zobaczyć sześcian. Więc można definiować to jako patzrenie na niego od góry od dołu albo od boku


TEMAT NR V.

1.Światło- boziec wzrokowy, jego głowne cechy to częstotliwość i intensywność, w zależności od częstotliwości fali zależy barwa jaką postrzegamy a intensywność jest czynnikiem określającym jasność. Widzialne światło stanowi część widma fal elektromagnetycznych

2. TEORIE PERCEPCJI BARWY

-teoria Helmholtza - teorią widzenia trójbarwnego, zgodnie z którą trzy rodzaje sensorów znajdujących się w siatkówce ludzkiego oka są wrażliwe na światło niebieskie, zielone i czerwone, a mózg tworzy wrażenie koloru na podstawie sygnałów dochodzących z poszczególnych receptorów. Można więc powiedzieć, że informacja o kolorze jest sumą informacji o kolorach składowych.

- teoria Heringa- teoria barw przeciwstawnych. istnieje sześć barw podstawowych, tworzących trzy pary barw przeciwstawnych: żółta - niebieska, czerwona - zielona, biała - czarna. Oko ludzkie jest systemem sensorów znajdujących się w stanie równowagi. Wpadające do oka światło powoduje zakłócenie tej równowagi, zależnie od proporcji barw składowych, a oko (sensory) przekazuje informację o tych proporcjach do mózgu, w którym powstaje wrażenie barwy.

-teoria Hurvicha i Jamesonateoria stref widzenia pierwsza strefa jest związana z reaktywnością siatkówkowych fotoreceptorów wrażliwych na światło czerwone, zielone i niebieskie. Strefa druga to droga wzrokowa na odcinku siatkówka oka – kora mózgu i trzecia, związana jest z aktywnością struktur korowych.


3. Jednooczne wskaźniki głębi- stosuje się je na płaskiej powierzchni, w obydwu oczach powstają takie same obrazy, dzięki nim na powierzchni dwu wymiarowej przedmioty sprawiają wrażenie ustawionych przestrzennie
-perspektywa ( przedmioty ustawione dalej wydają się mniejsze)
-wyrazistość (przedmioty ustawione dalej maja mniejszą ilość szczegółów)
-interpozycja (przedmioty zasłaniające wydają się być bliżej niż obiekty zasłaniane)
- rozkład światła i cieni – element rozjaśniony jest wypukły
-gradient powierzchni (obiekty znajdujące się blizej wydają się mieć mniej jednolitą powierzchnię)

Dwuoczne wskaźniki głębi- obrazy trójwymiarowe, w każdym oku obraz jest troche inny (pod innym kątem)

-konwergencja oczu – ocena napięci mięśni okoruchowych przy percepcji bliskich i odległych przedmiotów

-akomodacja soczewki – dostosowanie, sczytywanie napięcia mięśni rzęskowych soczewki



4. Człowiek otrzymuje informacje o ruchu za pośrednictwem dwóch systemów

Układ OBRAZ-SIATKÓWKA

Jeśli oczy pozostają nieruchome, przedmiot poruszający się w przestrzeni stymulują kolejno coraz to nowe miejsca siatkówek oczu. Oko się nie porusza, a obraz poruszającego się przedmiotu przesuwa się na siatkówce. Gdy bodziec porusza się w określonym kierunku i z określoną prędkością, a nie reaguje na nieruchome bodźce.

Układ OKO-GŁOWA

Gdy w polu widzenia znajduje się poruszający się przedmiot, oczy w sposób odruchowy zaczynają go śledzić. Informacje o ruchach gałek ocznych są wykorzystywane do oceny zmian położenia tego przedmiotu. Helmoholtz przyjął, że proces ten opiera się na sygnałach pochodzących z centrów mózgowych które sterują ruchami oczu, a nie sygnałami z mięsni ocznych. Gdy poruszamy oczami obraz różnych przedmiotów przesuwa się na siatkówce.


5.Stałość spostrzegania- zjawisko polegające na tym, że spostrzeżenie albo nie ulega zmianom albo ulega mniejszym zmianom w porównaniu ze zmianami bodźców proksymalnych.


-widmo elektromagnetyczne-Fale elektromagnetyczne można podzielić ze względu na częstotliwość lub długość, taki podział nazywa się widmem fal elektromagnetycznych. Obejmuje ono fale radiowe, mikrofale, promieniowanie podczerwone, światło widzialne, promieniowanie nadfioletowe, promieniowanie rentgenowskie, promieniowania gamma.

-addytywne a substraktywne mieszanie kolorów światła i pigmentów Możemy wyróżnić dwa różniące się zasadniczo sposoby mieszania kolorów. Jeżeli mieszane są kolorowe światła, rezultat zawsze będzie jaśniejszy niż poszczególne kolory składowe, a jeśli odpowiednie kolory są mieszane w odpowiedni sposób, wówczas wynik ostateczny będzie kolorem białym. Proces ten nazywamy addytywnym mieszaniem barw.

Jeżeli mieszane są kolorowe farby, to wynik będzie zawsze ciemniejszy niż kolory składowe. Jeśli odpowiednie kolory są mieszane w odpowiedni sposób, wówczas wynik ostateczny będzie kolorem czarnym. Taki sposób mieszania nazywamy subtraktywnym mieszaniem barw.

-zjawisko Purkiniego-  zjawisko z zakresu fizjologii widzenia, polegające na zaburzeniu percepcji jasności barw przy słabym oświetleniu Purkyně zauważył, że przy adaptacji oczu do zmierzchu światło o krótkiej długości fali (na przykład niebieskie lub niebieskozielone) jest postrzegane jako jaśniejsze niż światło o długiej fali (czerwień). 

TEMAT NR VI.


1.Kategoryzacja sensoryczna- wykorzystuje detektory cech,

Detektory cech- zespoły komórek nerwowych, wyspecjalizowane w odbiorze wybranych cech, takich jak barwa, wielkość, ruch czy położenie w polu widzeniawyodrębniają informacje ze środowiska, które są ważne adaptacyjnie dla danego gatunku, są wrażliwe tylko na pewneinformacjedo rozpoznawania kształtów wystarczą detektoryinii poziomych, pionowych i ukośnychkątów prostych i ostrychkrzywychw toku ewolucji u człowieka wykształciły się specyficzne detektory twarzy (prawa półkula)


2.Kategoryzacja w obrębie pamięci- wykorzystuje schematy

Schematy- uogólniona wiedza na temat pewnego wycinka świataprzyjmują informacje odbierane przez powierzchnie sensoryczne i są zmieniane przez te informacjeą poznawczym punktem odniesienia dla informacji odbieranych przez narządy zmysłowe


3.gotowość percepcyjna – łatwość wykorzystania określonej kategorii pamięciowej do danego materiału percepcyjnego, uzależniona od czynników zewnętrznych i wewnętrznych; stan organizmu warunkujący to, co będzie spostrzegane
(stereotypizacja, konformizme, fekt rozproszonej odpowiedzialności)

zjawisko obronności percepcyjnej – klasyczny przykład obniżenia gotowości percepcyjnejbniżenie progu rozpoznawania materiału zagrażającego jednostce subcepcja – różnicowanie bodźców na poziomie reakcji autonomicznych, bez udziału świadomości
obronność percepcyjna stanowi przejaw orientacji emocjonalnej (ewolucja)

4.procesy dół – góra (bottom – up) zapoczątkowane przez odbiór informacji zmysłowych przez narządy zmysłowe a potem dopiero analiza inf. na wyższych piętrach układu nerwowego (analiza na poziomie kory mózgowej) (na tym najwyższym poziomie powstaje spostrzeżenie)

warunkiem spostrzeżenia jakiegoś obiektu jest możliwość zinterpretowania go za pomocą inf. zarejestrowanych wcześniej w pamięci

procesy góra – dół (up – bottom) pojawiają się ,kiedy większą rolę w spostrzeganiu zaczynają odgrywać procesy pamięciowe, które kierują poszukiwaniem i interpretacją danych umysłowych pojawiają się, kiedy informacja sensoryczna nie jest pełnanasze doświadczenie wpływa na interpretację tego, co przesyłają nam narządy zmysłowe


ZAGADNIENIA DO TEMATU V.

- cykl percepcyjny Neissera- Neisser przyjmuje obecność wrodzonych schematów eksploracyjnych, czyli schematy uzyskiwania informacji na temat świata dzięki nim jednostka uczy się specyficznych sposobów pobierania informacji z otoczenia

schemat pamięciowy kieruje >>>> Ekploracją >>>> eksploracja dostarcza danych>>>>>> dane zmieniają schemat pamięciowy


1.Złudzenie i jego rodzaje:
-długości
-powierzchni
-kąta powierzchni

Efekty następcze – bardzo często obrazy występujące pod wpływem silnej stymulacji narządu. Cechą specyficzną jest odwrotność reakcji do bodźca (jeżeli obserwujemy przez długi czas ruch z dołu na górę to po pewnym czasie otrzymamy odwrócenie ruchu z góry na dół, po intensywnej obserwacji powierzchni białej i przeniesienia wzroku otrzymamy efekt następczy w postaci czarnej plamy)

POJĘCIA DO TEMATU NUMER V

złudzenie strzały (Mullera-Lyera)- Para strzał, których drzewce są jednakowo długie, ale ostrza jednej mają ramiona rozwarte na zewnątrz, a drugiej ku drzewcowi. Pierwsza wydaje się dłuższa, choć w rzeczywistości obie są takie same.

wachlarza (Heringa-Helmholtza)-promienie wachlarza nie są zniekształcone, natomiast wszelka figura umieszczona na ich tle wydaje się w określony sposób zniekształcona. Wywołują zniekształcenie, ale same mu nie podlegają.

toru kolejowego (Ponzo)-składa się z czterech tylko linii z których dwie równej długości położone są zbieżnie po bokach figury. Pomiędzy nimi są jeszcze dwie linie obie jednakowej długości położone równolegle. (takie złudzenie torów kolejowych). Zbiegają się, przez co pozioma linia w węższej części może wydać się krótsza od poziomej linii w części szerszej.

wstęga (pasy) Macha- kontrast jasności, Mach zauważył, że człowiek może widzieć jasne i ciemne pasy mimo braku odpowiednich zmian fizycznych w intensywności światła. Zjawisko to związane jest z tym, że granica między słabo oświetlonym obszarem i obszarem intensywnie oświetlonym jest spostrzegana jako znacznie bardziej ostry spadek jasności niż moa to miejsce w rzeczywistości, a co więcej po obu stronach granicy między słabiej i silniej oświetlanymi obszarami są widoczne pasy jasne i ciemne.

Teorie pojęć

Pogląd klasyczny

Wedle tego poglądu pojęcie jest taką reprezentacją klasy, która obejmuje wszystkie istotne właściwości tej klasy.

Kryterium istotności jest powtarzalność –

cechą istotną jest taka cecha, która charakteryzuje wszystkie obiekty należące do tej klasy, czyli - mówiąc inaczej - jest to cecha wspólna dla tych obiektów

Cechy istotne stanowią warunki zarazem wystarczające i konieczne do stwierdzenia przynależności danego obiektu do zakresu danego pojęcia. Przykładem takiego pojęcia może być pojęcie trójkąta: trójkąt jest płaską figurą geometryczną, mającą trzy boki i trzy kąty. Cechy istotne w myśl tego poglądu są cechami definicyjnymi - zbiór wszystkich cech istotnych stanowi definicję pojęcia. Cechą wtórną, wynikającą z istnienia zbioru cech definicyjnych, jest to, że granice pojęcia są ostre. Człowiek – zgodnie z poglądem klasycznym - nie ma żadnych wątpliwości, czy dany obiekt jest egzemplarzem pojęcia, czy też nie. Przykładowo, znając pojęcie liczby parzystej, liczbę 36 bez zastanowienia traktujemy jako liczbę parzystą, 37 zaś jako nieparzystą

zalety i wady poglądu klasycznego.

zalety:

1)Możliwość określenia ostrych granic

pojęcia.

2)Łatwe określanie relacji między pojęciami - pojęcia mają przecież ostre granice.

3)Możliwość przekazywania wiedzy drogą werbalną. W pewnych sytuacjach staje się to wadą, gdy ktoś wpada w nałóg definiowania.

Obok zalet pogląd klasyczny ma również liczne wady:

1) Utożsamianie pojęć z atrybutami percepcyjnymi. Atrybuty, na których podstawie określamy znaczenie pojęcia, nie muszą oznaczać jego głębokiego znaczenia.

2)Pogląd klasyczny nie wyjaśnia efektu typowości, to jest faktu, że niektóre formalnie należące do zakresu pojęcia są traktowane jako lepsi przedstawiciele tego pojęcia w porównaniu z innymi.

Pogląd probabilistyczny

Poszczególne egzemplarze można zaliczać do zakresu pojęcia z pewnym tylko prawdopodobieństwem. Granice pojęć muszą być nieostre - w pobliżu tych granic rozciąga się szara strefa, w której obiekty mogą być zaliczane do zakresu pojęcia, lub też nie.

Pogląd probabilistyczny przyjmuje dwa podstawowe założenia. Pierwsze z nich głosi, że pojęcie jest sumarycznym opisem pewnej klasy. Drugie natomiast stwierdza, że pojęcia nie można sprowadzić do zbioru cech, które byłyby zarazem konieczne i wystarczające (część negatywna); sumaryczną reprezentację pojęcia stanowi miara tendencji centralnej poszczególnych wymiarów egzemplarzy pojęcia, albo też układów tych wymiarów (część pozytywna). Pierwsze z tych założeń jest identyczne z założeniem przyjmowanym przez pogląd klasyczny, drugie natomiast wprowadza pewną nowość, a mianowicie stanowi próbę scharakteryzowania reprezentacji przez coś, co wydaje się najbardziej niewątpliwe. Reprezentacją nie jest zbiór cech definicyjnych, to jest cech, które charakteryzują wszystkie egzemplarze należące do danej klasy. Reprezentacja uosabiana jest przez prototypy. Prototypy określane są przez Rosch (1978) jako najczystsze wypadki przynależności kategorialnej. Upraszczając całą sprawę, można powiedzieć, że prototypem jest taki egzemplarz, który jest najbardziej typowy. Prototyp może być egzemplarzem istniejącym realnie, ale może być też pewną reprezentacją umysłową

Wprowadzenie pojęcia prototypu pozwala uniknąć trudności związanych z koniecznością znalezienia zbioru cech, które byłyby zarazem wystarczające i konieczne do stwierdzenia przynależności kategorialnej. Aby stwierdzić taką przynależność, należy porównać badany obiekt z prototypem. Im większe podobieństwo, tym większe prawdopodobieństwo, że dany obiekt jest egzemplarzem pojęcia

Pogląd egzemplarzowy

Pogląd ten przyjmuje, że pojęcia nie stanowią sumarycznej reprezentacji pewnej klasy, ale reprezentację co najmniej jednego lub kilku egzemplarzy danej klasy (Medin, Schaffer, 1978). W przeciwieństwie do pozostałych modeli przyjmuje, że człowiek przechowuje w pamięci in-formacje na temat odrębnych egzemplarzy. Dziecko, zobaczywszy psa, tworzy pojęcie psa w ten sposób, że rejestruje informacje na temat tego właśnie psa, a nie na temat psów w ogóle albo na temat pudli. Nie istnieją cechy definicyjne, które charakteryzowałyby wszystkie egzemplarze należące do danej klasy, ani też egzemplarze zajmujące centralną pozycję w danej klasie. Pogląd ten unika więc problemów, z jakimi borykali się filozofowie zaangażowani w spór o uniwersalia, czyli

spór dotyczący tego, czy istnieją obiekty oznaczane przez pojęcia. Ponieważ pojęcie jest reprezentacją jakiegoś egzemplarza (najczęściej jest to egzemplarz widziany jako pierwszy, który staje się wzorcem wykorzystywanym później w kategoryzacji), to jest to pewien rzeczywisty obiekt, a nie jakaś abstrakcja.

Pogląd egzemplarzowy potrafi wyjaśnić zależności, które wyjaśniane były wcześniej przez pogląd probabilistyczny. Przykładowo, wypadki nietypowe są trudne do skategoryzowania, ponieważ są one podobne do egzemplarzy z różnych kategorii.

Proces identyfikacji polega na ocenie podobieństwa nowego obiektu do znanego lub znanych egzemplarzy

Wynika stąd, że nasze decyzje będą w znacznym stopniu zależały od tego, jaki był ten pierwszy egzemplarz pojęcia. Zjawisko to zostało nazwane w teorii pojęć „efektem pierwszeń-stwa"2. Badania empiryczne potwierdziły istnienie tego zjawiska (Cohen, 1983).

Efekt pierwszeństwa sprawia, że proces kategoryzacji staje się mniej stabilny, ponieważ wszystko zależy od właściwości pierwszego napotkanego egzemplarza.

Pojęcia jako teorie naiwne

Wszystkie trzy przedstawione wcześniej stanowiska przyjmowały jedno wspólne założenie: pojęcia tworzone są tam, gdzie jednostka dostrzega podobieństwa między obiektami, grupami obiektów czy stanami. Podobieństwo było rozumiane w różny sposób. W wypadku poglądu klasycznego postulowano maksymalne podobieństwo - była to identyczność ze względu na cechy definicyjne. W wypadku poglądu probabilistycznego była mowa o podobieństwie rodzinnym, to jest o posiadaniu pewnych cech, które w różnych zestawieniach charakteryzują różne obiekty należące do danej klasy. Ważną rolę w ocenie podobieństwa odgrywały prototypy kategorii, które wykorzystywane były jako poznawcze punkty odniesienia. Wreszcie w wypadku poglądu egzemplarzowego człowiek oceniał podobieństwo nowego obiektu do egzemplarzy, z którymi zetknął się wcześniej.

Murphy i Medin (1985) piszą, że „...podobieństwo stanowi spoiwo, które sprawia, że kategorii można się nauczyć i staje się ona użyteczna dla danej jednostki" (1985, s. 241). Jednakże nadal nierozwiązany pozostaje problem, dlaczego pewne cechy wydają się ludziom podobne. Cytowani autorzy odpowiadają na to pytanie przewrotnie - piszą, że „...wiele rzeczy wydaje się ludziom podobnych właśnie dlatego, że są przedstawicielami tej samej kategorii. Wyrażając to w sposób praktyczny, można stwierdzić, iż na oceny podobieństwa może wpływać wiedza na temat tego, że porównywane rzeczy należą do tych samych (albo różnych) kategorii"

Pojawia się jednak pytanie, w jaki sposób oceniać podobieństwo. Próbę rozwiązania tego problemu zawiera teoria podobieństwa Tversky'ego (1977). Tversky uważa, że wielkość podobieństwa możemy wyrazić za pomocą proporcji cech wspólnych i cech różnicujących dwie kategorie. Im więcej cech wspólnych oraz im mniej cech różnicujących kategorie, tym bardziej kategorie te są do siebie podobne. Tversky wprowadził jeszcze jeden element do oceny podobieństwa - jest nim mianowicie waga cech. Waga określana jest albo na podstawie wyrazistości, albo na podstawie ważności danej cechy. Przy ocenie podobieństwa bierze się pod uwagę proporcję ważonych cech wspólnych i różnicujących.

CA 7

REPREZENTACJE WIEDZY. POJĘCIA, SCHEMATY I MODELE SIECI SEMANTYCZNEJ (1.04)

Definicja „pojęcia”. Pojęcia ogólne a jednostkowe. Schematy poznawcze

„Pojęcie” – reprezentacja umysłowa, która odnosi się do jakiegoś zbioru obiektów i w której skład wchodzą istotne właściwości tych obiektów; ma charakter schematyczny.

Pojęcia ogólne stanowią reprezentację całych klas przedmiotów lub procesów. Poszczególne egzemplarze traktowane są jako równoważne (kryteria: własność fizyczna, funkcja, pochodzenie itp.)

Pojęcia jednostkowe mają tylko jeden egzemplarz i w przeciwieństwie do poprzedniej grupy wydają się bardziej konkretne – można wskazać na jeden egzemplarz pojęcia.

POZORNA RÓŻNICA: pojęcia ogólne zawierają abstrakcyjną reprezentację całej kategorii przedmiotów, natomiast pojęcia jednostkowe zawierają jeden egzemplarz

w obu przypadkach jednak musimy posługiwać się reprezentacją abstrakcyjną!

Abstrakcja – jest to proces polegający na tym, że pomija się różnice między różnymi egzemplarzami pojęcia albo między właściwościami tego samego pojęcia w różnych punktach czasu i jednocześnie wyodrębnia się pewne cechy wspólne/ Cechy te odrywa się od konkretnego przedmiotu i te oderwane właściwości tworzą pojęcie.

Zarówno w przypadku pojęć ogólnych (odnoszących się do różnych przedmiotów), jak i jednostkowych (odnoszących się do jednego przedmiotu, który zmienia się w czasie) mamy do czynienia z równoważnością, ale jest ona określana w inny sposób.

Schematy poznawcze to złożone formy reprezentacji umysłowej, obejmujące zarówno sens typowej sytuacji (np. obiad w restauracji), jak i znaczenie typowych form zachowania (jedzenie, płacenie), jakie powinny być wygenerowane w reakcji na tę typową sytuację.

Pojęcie a kategoria

Kategoria – grupa obiektów, których reprezentację stanowią pojęcia. Obiekty, których reprezentacjami są pojęcia, nie muszą istnieć w świecie realnym.

Kategoria jest wynikiem pewnego podziału, o którym coś się orzeka. Pojęcie jest określane za pomocą innych pojęć.

Medin (1989) – ludzie nie tyle odkrywają kategorie, ile nakładają je na istniejącą rzeczywistość. Wiele czynników decyduje o tym, jakiego rodzaju kategorie zostaną przez nas wykorzystane. Niektóre kategorie podzielane są powszechnie inne specyficznie.

Rodzaje kategorii wg. Medin, Lynch, Solomon:

a) kategorie naturalne (wyróżniają się same i wydaje się nam, że istniały do zawsze np. zwierzęta, kwiaty, motyle itd.)

b) kategorie sztuczne (odnoszą się do przedmiotów zrobionych przez człowieka)

c) kategorie nominalne (są pewnymi konwencjami lingwistycznymi, w wyniku działania których jakieś nazwy zostały przypisane pewnym bytom spełniającym określone warunki, np. kawaler – mężczyzna powyżej 18 roku życia, który nie jest żonaty)

Rodzaje kategorii wg. Barsalou:

a) kategorie taksonomiczne (wyraźnie wyodrębnione cechy wspólne np. ssaki, ptaki, ryby)

b) kategorie zorientowane na cel wykorzystanie zasady ideału – poszukuje się egzemplarza, który w idealny sposób np. chroni nas przed mrozem i śniegiem)

c) kategorie ad hoc (tworzone w sposób spontaniczny i zawierają przedmioty przydatne w specyficznej sytuacji np. ludzie nie łączą ze sobą takich rzeczy, jak karty kredytowe, kosmetyki, kwiaty i czekoladki (lub marihuana) – a może to stanowić podręczny zestaw potrzebny na randce).

Funkcje pojęć

Funkcje pojęć są bardzo zróżnicowane. Oprócz funkcji intraindywidualnych, wyróżniamy również funkcje interindywidualne (wykorzystywane w procesach komunikacji) a także funkcje perswazji.

a) zapewnienie ekonomii funkcjonowaniu poznawczemu poprzez redukcję różnorodności informacji przetwarzanych przez umysł (dzięki ekonomii poznawczej jednostka może ograniczyć wysiłek poświęcany na analizę jednostkowych właściwości jakiegoś przedmiotu – wystarczy stwierdzenie, że przedmiot należy do pewnej klasy, i wtedy jednostka wie, że ma on wszystkie właściwości charakteryzujące daną klasę. Błędy: (1) niesłuszne poszukiwanie pewnych właściwości tam, gdzie obiekty są bardzo zróżnicowane (np. stereotypy etniczne), (2) niewłaściwa identyfikacja cech wspólnych (np. stereotypy rasowe) ).

b) rozumienie i wyjaśnienie (dzięki traktowaniu obiektów wchodzących w zakres pojęcia jako równoważnych można wykorzystywać dotychczasową wiedzę w odniesieniu do nowych obiektów należących do tej samej grupy)

c) wnioskowanie (dzięki pojęciom możemy wyciągnąć wnioski z przesłanek)

d) funkcja komunikatywna (umożliwia pośrednie uczenie się)

Posługiwanie się pojęciami jest podstawą inteligentnego zachowania się, aczkolwiek nie gwarantuje skuteczności tego zachowania.

Modele sieci semantycznych

Zgodnie z teorią sieci semantycznej, pojęcia są przechowywane na trwałe w pamięci w postaci zhierarchizowanej struktury sieciowej, składającej się z punktów węzłowych i wiążących te punkty relacji. W poszczególnych punktach kodowane są różnorodne reprezentacje pojęciowe. Podstawowym założeniem modeli sieci semantycznych jest hipoteza dotycząca właściwości charakteryzujących pojęcia. Są one przyporządkowane reprezentacjom pojęciowym na możliwe najwyższym poziomie hierarchii ogólności. Punkty węzłowe są powiązane relacjami znaczeniowymi (relacja semantyczna – suma wszystkich połączeń pomiędzy desygnatami i właściwościami; ścieżki sieci – im silniejszy związek pomiędzy reprezentacjami tym większej uwagi nabiera łącząca je ścieżka; połączenia pozytywne, ścieżki zaprzeczające).

Modele sieci semantycznych pozwalają na wyjaśnienie relacji znaczeniowych, wiążących poszczególne reprezentacje pojęciowej.

Słowa kluczowe:

pojęcie – trwała reprezentacja poznawcza zbioru obiektów, zarówno kategorii naturalnych, sztucznych jak i hipotetycznych.

pojęcie ogólne – stanowi reprezentację całych klas przedmiotów lub procesów.

pojęcie jednostkowe - ma tylko jeden egzemplarz i w przeciwieństwie do ogólnego wydaje się być bardziej konkretny – można wskazać na jeden egzemplarz pojęcia.

kategoria – grupa obiektów, których reprezentację stanowią pojęcia.

prototyp – najbardziej typowy egzemplarz reprezentacji pojęciowej.

schemat poznawczy – złożona forma trwałej reprezentacji poznawczej, obejmująca zarówno sens typowej sytuacji, jak i znaczenie typowych form zachowania, które powinny być wygenerowane w reakcji na tę typową sytuację.

model sieci semantycznej - modele sieci semantycznych pozwalają na wyjaśnienie relacji znaczeniowych, wiążących poszczególne reprezentacje pojęciowej.

efekt typowości w zakresie organizacji pojęciowej – polega na tym, że im bardziej typowy jest jakiś egzemplarz, tym łatwiej go przywołać z pamięci; obiekty typowe są opanowywane jako pierwsze przy uczeniu się nowych kategorii.

CA 5

PAMIĘĆ AUTOBIOGRAFICZNA (18.03)

  1. Pamięć autobiograficzna – zakres semantyczny pojęcia. Pamięć autobiograficzna a inne rodzaje pamięci

Pamięć autobiograficzna to pamięć deklaratywna odnosząca się do własnej przeszłości. Pamięć możemy traktować zarówno jako pewną zdolność do rejestrowania i odtwarzania zdarzeń z osobistej przeszłości, jak też jako proces rejestrowania i odtwarzania tych doświadczeń. Może przechowywać informacje zarówno w sposób trwały jak i krótkotrwały. Informacje przechowywane w sposób krótkotrwały mogą wchodzić w konflikty z tymi, przechowywanymi trwale. Pamięć autobiograficzna ma charakter zarówno retrospektywny (dotyczy przeszłych doświadczeń) jak i prospektywny (dotyczy realizowanych celów i planów). Doświadczenie życiowe zawiera elementy deklaratywne (czyli pamięć autobiograficzną) jak i niedeklaratywne (czyli pewne zdolności, umiejętności czy ślady przeżytych emocji, niedostępnych obecnie w świadomości).

  1. Specyficzne właściwości pamięci autobiograficznej

a) Uporządkowanie sekwencyjne zdarzeń (uporządkowanie może mieć charakter liniowy, lecz sekwencje mogą wchodzić w skład hierarchii – przykład z kupnem radia i telewizora, z konwersacjami; rzadkie porządkowanie przez ludzi zdarzeń na osi czasu w sposób spontaniczny – dominacja tendencji do porządkowania zdarzeń wg. kryterium pojęciowego, związanego z przynależnością zdarzeń do konkretnej kategorii)

b) Datowanie zdarzeń, tj. zdarzenia mają pewną lokalizację czasową (lokalizacja może być określana mniej lub bardziej dokładnie; dokładne datowanie pochłania duże zasoby pamięci, dlatego stosowane jest rzadko – w odniesieniu do zdarzeń bardzo ważnych; zwykle stosuje się datowanie mniej dokładne – pochłania ono znacznie mniejsze zasoby pamięci; mechanizmy poznawcze wykorzystywane podczas datowania są opisywane przez różne modele, wiele danych wskazuje jednak na fakt, że lokalizacja czasowa nie jest kodowana bezpośrednio; zwykle przy datowaniu ludzie popełniają błędy, polegające na przybliżeniu lub oddaleniu zdarzeń w czasie)

c) Sens zdarzeń dla jednostki (dzięki znajomości owego sensu jednostka może uzupełniać brakujące elementy ze swej przeszłości, przypominając sobie np. na czym jej szczególnie zależało w jakimś momencie w przeszłości; ten sens ma duże znaczenie dla ukształtowania się poczucia tożsamości oraz dla pojawienia się pozytywnej samooceny)

d) Odnoszenie zdarzeń do własnego Ja (jednostka musi je traktować jako dotyczące własnej osoby; zdarzenia zapisywane w pamięci autobiograficznej nie muszą być zdarzeniami, w których jednostka odgrywała kluczową rolę; oddzielanie zdarzeń osobistych od nieosobistych jest trudne – zdarzenia osobiste: takie, w których jednostka odgrywała kluczową rolę, bądź była zaangażowanym świadkiem, natomiast zdarzenia nieosobiste: takie, których jednostka była jedynie świadkiem, które nie wchodziły w interakcję z jej osobistymi celami; im starsze wydarzenie tym silniejsza tendencja do postrzegania go z punktu widzenia obserwatora)

  1. Formy pamięci autobiograficznej

Wg. Rubina:

a) narracje werbalne – historie dotyczące własnej przeszłości; kształtowane są one przez trening socjalizacyjny, w którego wyniku człowiek uczy się konstruować historie, aprobowane społecznie.

b)elementy obrazowe – mogą dotyczyć zdarzeń rzeczywistych i wymyślonych; przykładem może być pamięć fleszowa; dzięki obrazom umysłowym ujawniane są specyficzne szczegóły zdarzenia; zwiększa się ich subiektywna wiarygodność; jednakże zdarzenia pamiętane bardzo dokładnie nie muszą być prawdziwe (przykład Neissera i usłyszenia o ataku na Pearl Harbor, zjawisko przesunięcia czasowego); brak związku z naocznością obrazów pamięciowych a ich prawdziwością.

c)emocje – mogą skupiać uwagę jednostki na jednym aspekcie zdarzenia; mogą obniżyć zdolność do przywoływania specyficznych kategorii zdarzeń (przykład pacjentów depresyjnych).

  1. Organizacja informacji w pamięci autobiograficznej

4.1 Mechaniczne zapamiętywanie sekwencji zdarzeń.

Wzrost liczby zapamiętywanych zdarzeń doprowadza do szybszego wzrostu liczby zapamiętywanych relacji między nimi. Wskazuje to na to, że mało prawdopodobne jest rejestrowanie informacji w pamięci autobiograficznej w wierny ale zarazem mechaniczny sposób. Pamięć autobiograficzna nie może działać jak kamera wideo czy magnetowid ponieważ powinna wtedy dysponować olbrzymią pojemnością (z czym nie ma problemu) a także sprawnie działającymi mechanizmami kodowania i wydobywania informacji (z tym akurat jest problem).

4.2 Zapamiętywanie kolejności poprzez odwołanie się do skali zewnętrznej.

Wykorzystanie jakiejś skali zewnętrznej – skala czasu – na której lokowane są zdarzenia. Wprowadzenie takiej skali ułatwia porządkowanie informacji w pamięci autobiograficznej. Skala czasu jest już zarejestrowana w pamięci trwałej i relacje, które znamy na tej skali, można wykorzystać do uporządkowania zdarzeń w naszej biografii, przy tym pozwala na ograniczenie wielkości puli zasobów pamięciowych, którymi operuje jednostka przy określaniu kolejności zdarzeń. Ale jej wadą jest, ze pewne zdarzenia stają się nierozróżnialne czasowo.

  1. Determinanty trwałości przechowywania w pamięci autobiograficznej

1. czas. Im więcej czasu upłynęło od momentu zajścia pewnego zdarzenia, tym gorzej jest ono pamiętane.

2.częstość pojawiania się pewnego epizodu w życiu danej jednostki. Wzrost liczby powtórzeń jakiegoś zdarzenia wpływa w sposób destrukcyjny na pamięć autobiograficzną. Zdarzenia stają się mało specyficzne i trudno człow. Odróżnić jedno zdarzenie w serii od innych, podobnych.

3. pojemność schematów pojęciowych wykorzystywanych do kodowania treści. Im bardzie pojemne schematy, tym więcej informacji można zapisać w ramach jednego schematu.

Dzięki grupowaniu elementów można zapamiętać ich znacznie więcej. Informacje przechowywane w schematach pojemnych są b. ogólne i zawierają niewielką liczbę danych konkretnych i szczegółowych. Wskazują one jak powinien przebiegać pewien ciąg zdarzeń, a nie na to jak ten ciąg faktycznie przebiegał.

4. wyrazistość danego zdarzenia. Znacznie lepiej pamięta się zdarzenia wyraziste, odmienne od powszednich (znacznie bardziej przyciągają uwagę, a tym samym sprzyjają głębszemu kodowaniu) niż mało wyraziste. Najbardziej wyraziste to te, które nie pasują do istniejących schematów poznawczych.

5. znak emocjonalny zarejestrowanego zdarzenia. Gdy jest negatywny czasem gorzej je pamiętamy ze względu na wyparcie czy tłumienie, a ze strony ewolucji lepiej ze względu na unikanie doświadczeń negatywnych w przyszłości. W miarę upływu czasu znak afektywny przypisywany jakiemuś zdarzeniu może ulegać zmianie.

  1. Pamięć autobiograficzna a psychologia zeznań świadków

Zdarzenia, które rejestrują świadkowie, trwają zazwyczaj krótko, mają charakter specyficzny, rzadko pasują do schematów, jakie jednostka samodzielnie stworzyła oraz wywołują silne i negatywne emocje. Kodują nie tyle to, co faktycznie się stało ile to, co ich zdaniem faktycznie powinno się stać. Pierwsze źródło błędów wiąże się z tym, że trudno zapisać pewną informację w pamięci z powodu braku odpowiednich schematów, lub też z powodu posiadania nieodpowiednich schematów. Zdarzenia, których ludzie są świadkami wywołują z reguły silne emocje negatywne, które wywierają dwojakiego rodzaju wpływ na pamięć:

1. Ograniczają zakres pola uwagi, prowadząc do widzenia i pamięci tunelowej;

2. Mogą sprzyjać szczegółowemu kodowaniu informacji na temat pewnego zdarzenia.

  1. Metody badania pamięci autobiograficznej

  1. Metoda swobodnych skojarzeń Galtona (1883)

Polega na tym , że podaje się człowiekowi jakieś słowo i prosi się go o podawanie skojarzeń z tym słowem. Np. podaje się słowo ‘’plaża’’ prosząc o wymienienie co kojarzy się z plażą. Jeśli człowiekowi przypomni się jakieś wydarzenie które nastąpiło na plaży to zazwyczaj stara się je opisać mniej lub bardziej dokładnie. W technice tej nie nie prosi się wprost o podawanie zdarzeń, dlatego też badani mówią o skojarzeniach natury ogólnej np. ‘’plaża-piasek-ciepło’. Metoda ta ma charakter otwarty, może się zdarzyć , że podawane słowa nie będą wywoływały wspomnień autobiograficznych, ale ujawnią zawartość pamięci semantycznej czy wzrokowej.

  1. Metoda kierowanych skojarzeń Crowitza i Scg iffmana (1974 r. – modyfikacja metody swobodnych skojarzeń)

Badany otrzymuje listę słów przygotowana przez eksperymentatora. W instrukcji podaje się informacje , że jest to metoda, która służy do badania pamięci zdarzeń z życia jednostki. Badacz kladzie nacisk na to aby przywołać specyficzne zdarzenia z życia badanego, a nie uzyskać informacje o charakterze ogólnym.

  1. Metoda dzienników Galtona

Aby zdobyc niezależne informacje należy poprosić człowieka o zapisanie tego co zrobił. A następnie próbować odtworzyć zapisane zdarzenia

Ewolucja tej metody:

  1. Badanie nad pamięcią specyficznych zdarzeń życiowych

Forma wywiadu gdzie zadaje się pytania dotyczące zdarzeń z różnych okresów życia

pamięć autobiograficzna – pamięć obejmująca zdarzenia z własnego życia, doświadczenia osobiste, historię itp.

błąd nadużycia schematu – polega na „przypominaniu” sobie takich danych, z którymi człowiek faktycznie się nie zetknął, które jedynie wywnioskował, zaś oba te rodzaje danych są subiektywnie nierozdzielne i wydają nam się jednakowo dotyczyć faktów.

efekt względnej świeżości – polega na tym, że większość naszych wspomnień to wspomnienia z ostatniego roku.

reminiscencja – polega na tym, że ludzie lepiej, niż wynikałoby to z ogólnego przebiegu krzywej zapominania, pamiętają zjawiska z okresu, kiedy mieli od dziesięciu do trzydziestu lat.

zasada specyficzności kodowania – zasada zgodnie z którą prawdopodobieństwo odtworzenia treści zależy od tego, czy dostępne wskazówki są podobne do informacji zawartych w śladzie pamięciowym.

zasada wielości ścieżek dostępu – im więcej ścieżek dostępu do poszukiwanej informacji, tym większa szansa, że informacja ta zostanie wydobyta z pamięci. Informacja, która nie jest dostępna przy wykorzystaniu jednej ścieżki, może zostać odnaleziona, kiedy znajdziemy inną ścieżkę dostępu.

CA 4

PAMIĘĆ JAKO ZDOLNOŚĆ I JAKO PROCES. FAZY PROCESU PAMIĘCIOWEGO. RODZAJE PAMIĘCI (11.03)

  1. Pamięć jako zdolność i jako proces

Dwie tradycje ujmowania pamięci:

a)pamięć jako zdolność: „Pamięć jest zbiorem śladów, za pomocą których sięgamy do naszych przeszłych doświadczeń, dzięki czemu możemy wykorzystać owe informacje w chwili obecnej.”

b)pamięć jako proces: „Jako proces odnosi się do dynamicznych mechanizmów związanych z zachowywaniem i odtwarzaniem informacji o naszych przeszłych doświadczeniach.”

Trzy podstawowe rodzaje operacji w pamięci (jako procesu):

- operacje kodowania informacji: operacje polegające na zamianie bodźców w ślady pamięciowe. Kodowanie zależy od rodzaju pamięci, w jakiej będą zapisywane informacje (inaczej są kodowane te przechowywane przez krótki okres, a inaczej te przechowywane dłużej).

- operacje przechowywania informacji: są wyznaczane przez sposoby kodowania – informacje przechowywane krótko w niewielkim stopniu zmieniają treść, dokładność czy postać; informacje przechowywane długo ulegają licznym zmianom (ze względu na to, że nakładają się na nie dane zdobywane przez nas później).

- operacje odtwarzania informacji (operacje wydobywania albo odzyskiwania informacji): wiążą się z uzyskiwaniem dostępu do zawartości naszej pamięci – niekiedy dostęp jest szybki, a niekiedy wymaga wysiłku. Wyznaczane są również przez strukturę zadania stojącego przed jednostką (np. inaczej odtwarzamy informacje dla siebie, a inaczej gdy dzieje się to publicznie itp.)

Pamięć jako zdolność Pamięć jako proces
Właściwość jednostki warunkiem pojawienia się procesu Proces, którego konsekwencje ujawniają się w zachowaniu
Element psychicznego wyposażenia, wykazujący duże zróżnicowanie Proces złożony z uniwersalnych faz, takich samych dla wszystkich
Pamięć jest składnikiem inteligencji Pamięć jest fazą przetwarzania informacji
Składa się ze zdolności specyficznych Składa się z różnych faz
Zdolności specyficzne odnoszą się do różnych dziedzin Specyficzne procesy przetwarzania informacji, charakterystyczne dla różnych form pamięci
Możliwe jest doskonalenie albo ćwiczenie całej pamięci Możliwe jest doskonalenie poszczególnych faz procesu pamięciowego – przede wszystkim fazy kodowania i fazy odtwarzania
  1. Fazy procesu pamięciowego (koncepcja Tulvinga)

1) Spostrzeganie: aby coś zapamiętać musimy to najpierw spostrzec

2) Kodowanie spostrzegania: zamiana spostrzeżenia w ślad pamięciowy (spostrzeżenia mają charakter obrazowy, a informacje pamięciowe mogą być przechowywane w kodach dyskretnych, którego nie mają charakteru obrazowego)

3) Przechowywanie śladu kodowanego: ślad pamięciowy jest przechowywany w postaci kodu charakterystycznego dla danego systemu pamięciowego

4) Rekodowanie: modyfikacja zawartości pamięci przez informacje później docierające do jednostki. Występuje w sposób nieprzerwany. Nowe informacje są analizowane ze względu na posiadane zasoby pamięciowe i jeśli zawierają nowe elementy to są wbudowywane w istniejące systemu wiedzy. Mogą wywoływać zmiany globalne albo lokalne.

5) Przechowywanie śladu rekodowanego:

6) Poszukiwanie informacji w pamięci (wydobywanie): pojawienie się bodźca uruchamiającego zasoby pamięciowe. Proces wydobywania jest efektem interakcji informacji zarejestrowanej w śladzie pamięciowym z informacją zawartą w pytaniu kierowanym pod adresem pamięci.

7) Decyzja (wybór informacji, która zawarta jest w śladzie rekodowanym i odpowiada podanym wskazówkom dla procesu wydobycia): jednostka szuka pewnego dopasowania między śladami pamięciowymi, a pytaniami adresowanymi do pamięci.

8) Pamięć świadoma: jeśli uda się znaleźć odpowiednie dopasowanie proces kończy się sukcesem, a jego wynik jest prowadzony do pamięci świadomej.

9) Decyzja o zachowaniu: jednostka podejmuje decyzję czy ujawnić zawartość swojej pamięci w zachowaniu. Decyzja nie zawsze musi być pozytywna, ze względu na różne ograniczenia sytuacyjne. Gdy decyzja jest pozytywna, zawartość pamięci ujawnia się w zachowaniu.

  1. Rodzaje procesów pamięciowych wyodrębnionych ze względu na kryterium czasu (pamięć sensoryczna-krótkotrwała- trwała)

a) pamięć sensoryczna (ultrakrótka)

b) pamięć krótkotrwała

c) pamięć trwała

  1. Rodzaje procesów pamięciowych wyodrębnionych ze względu na format przechowywanych informacji (pamięć semantyczna-epizodyczna)

a) pamięć semantyczna

b) pamięć epizodyczna

  1. Podział pamięci ze względu na formy przechowania (pamięć deklaratywna niedeklaratywna)

a) pamięć deklaratywna

b) pamięć niedeklaratywna

(DO PUNKTÓW 3-5 ODPOWIEDZI NIŻEJ)

  1. Podział pamięci ze względu na kryterium mechanizmów wydobycia (pamięć jawna i ukryta)

W przypadku pamięci jawnej wymaga się od człowieka całkowitego, pelnego ujawnienia zawartości pamięci. Wydobywanie pamięci jawnej może przybierać rożne formy. Zadaje się pytania wymagające użycia wiedzy szkolnej, pytanie związane z osobistą przeszłością , pytania wymagajće jedynie rozpoznania właściwej odpowiedzi.

W pamięci ukrytej przechowywane są również złożone zbiory informacji. Badanego nie informuje się o tym, że ma przywołać pewna informacje , ale podaje mu się zadanie wymagające uzycia tej infoprmacji lub umiejętności.

  1. Podstawowe mechanizmy pamięciowe (zapamiętywanie-przechowywanie-odtwarzanie) – prawidłowości

Zapamiętywanie = utrwalanie odbieranych informacji , może dokonywać się samorzutnie bez zamiaru zapamiętywania , mimo woli i wtedy mówimy o zapamiętywaniu mimowolnym lub dokonuje się w sposób zamierzony = zapamiętywanie dowolne.

Cechy zapamiętywania :

• Szybkość – jest to liczba kontaktów z danym materiałem niezbędna do zapamiętywania( im mniej tych kontaktów tym mówimy o większej szybkości = łatwości zapamiętywania). Łatwość zależy od rodzaju materiału ( obcy materiał zapamiętujemy trudniej niż ten z którym mamy częstą styczność )

• Zakres ( pojemność ) – ilość materiału jaką człowiek / jednostka jest wstanie zapamiętać

Przechowywanie = proces w toku którego magazynujemy zapamiętany materiał

Cechy przechowywania :

• Pamięć bezpośrednia – jeżeli dany materiał przechowujemy bardzo krótko bezpośrednio po zachowaniu się materiału np. numer telefonu – po wykręceniu już jest nam niepotrzebny

• Pamięć odroczona – pozwala nam na przechowywanie materiału przez dłuższy czas

Cecha przechowywania = trwałość

Trwałość jest to długość przechowywania w czasie ( = czas przechowywania; na jak długo potrafimy dany materiał przechować)

Odtwarzanie (przypominanie)– polega na aktualizacji śladów pamięciowych, czyli wydobywanie z pamięci potrzebnych nam w danej chwili informacji.

• Rozpoznawanie – następuje wtedy gdy jednostka ma ponowny kontakt z jakimś materiałem i uświadamia sobie ,że zetknął się już z nim w przeszłości

• Reprodukcja – następuje w sytuacji braku ponownego kontaktu z zapamiętanym materiałem i polega na jego odtworzeniu w postaci słownej , rysunkowej, za pomocą myśli , wyobrażeń itp. Np. siedząc na wykładzie przypominamy sobie jak wygląda nasz pokój chodź go nie widzimy.

Cechy przypominania

- wierność – stopień zgodności treściowej pomiędzy przypominaniem a tym co stanowiło zapamiętany materiał

- gotowość – jak łatwo następuje przypominanie danego materiału ( ważna cecha dla osób zdających testy na czas np. teleturnieje).

  1. Tradycyjny model pamięci vs alternatywny sposób rozumienia pamięci – analiza porównawcza

  2. Zapominanie i sposoby jego wyjaśniania

Na podstawie badań wysunięto kilka teorii które próbują wyjaśnić ten problem np. :

a) teoria zanikania śladów – wg. Tej teorii wyuczony materiał zostawia „ ślad” w mózgu i jeżeli nia czyni się z niego użytku to z czasem zanika

b) teoria interferencji (= nakładanie fal tej samej częstotliwości , albo powoduje zwiększenie albo zmniejszenie ) wszystko czego się nauczyliśmy pozostanie w pamięci o ile nie zajdzie coś nowego co będzie interferowało z przyswojoną wcześniej wiedzą

c) teoria usuwania – tzw. Magazyn pamięciowy ma ograniczona pojemność i wobec tego nowe informacje ( niejako ) wypychają stare

d) zapominanie jako utrata dostępu – rzeczywistości niczego nie zapominamy tylko informacje które na pozór zapomnieliśmy stały się jedynie czasowo nie dostępne za względu na brak odpowiednich sygnałów umożliwiających ich odszukanie

e) teoria motywacyjna ( wg. Zygmunta Freuda ) – autor stwierdził że zapominanie możźe być intencjonalne ( intencja = czyli chcemy) np. rzeczy bardzo dla nas przykre często wypychamy z świadomości = wybieranie / wyparcie( jest to rodzaj reakcji obronnej) ; w ten sposób np. wypieramy jakiś termin nieprzyjemnego spotkania / zachowania i naprawdę o tym zapominamy

Słowa kluczowe:

pamięć - zdolność do rejestrowania i ponownego przywoływania wrażeń zmysłowych, skojarzeń, informacji

pamięć sensoryczna – jest systemem pamięci, który przechowuje chwilowo niezwykle dokładne wyobrażenia informacji sensorycznych. Pamięć ta jest bezpośrednim rezultatem zadziałania bodźca na receptor. Pamięć sensoryczna jest jak worek, który przechowuje informacje do momentu, gdy ze strumienia bodźców napływających do naszych zmysłów potrafimy wybrać przekazy, które są warte  uwagi

pamięć ikoniczna – pamięć wzrokowa, rodzaj pamięci sensorycznej (eksperyment Sperlinga)

pamięć echoiczna – pamięć słuchowa, rodzaj pamięci sensorycznje (badania Moraya, Batesa i Barnetta)

pamięć krótkotrwała - Przechowuje niewielkie ilości informacji przez krótki okres (bez dokonywania powtórek wewnętrznych czas ten szacuje się na kilka do kilkunastu sekund). Pamięć krótkotrwała wykorzystywana jest do czasowego zapamiętywania danych zmysłowych lub informacji pobranej z pamięci długotrwałej, czy rezultatów procesów przetwarzania danych wmózgu

pamięć operacyjna - Pamięć operacyjna to zdolność do zapamiętania informacji przez krótki czas i manipulowania nimi. Odgrywa ona istotną rolę w organizacji złożonych funkcji poznawczych, procesach adaptacyjnych, plastyczności psychicznej i świadomości

pamięć długotrwała - trwały magazyn śladów pamięciowych o teoretycznie nieograniczonej pojemności i czasie przechowywania.

efekt świeżości - polega na silniejszym oddziaływaniu informacji, które nadeszły jako ostatnie (najświeższych), niż tych, które pojawiły się wcześniej. Efekt świeżości kontrastuje z efektem pierwszeństwa - zjawiskiem lepszego zapamiętywania informacji odbieranych na początku. Z efektem świeżości wiąże się zagadnienie zmieniania postaw. Badacze interesowali się, który z efektów będzie przeważać: efekt świeżości czy efekt pierwszeństwa. Zagadnienie to jest badane w ramach wpływu perswazyjnego i zmiany postaw.

efekt pierwszeństwa -  informacja otrzymana wcześniej wywiera zazwyczaj większy wpływ na tworzenie się ogólnego wrażenia, niż informacja otrzymana później. Pierwsza informacja stanowi punkt odniesienia dla kolejnych informacji, jakie do nas docierają. Efekt pierwszeństwa tłumaczy m.in. fakt, że szybko wyrabiamy sobie zdanie o nowo poznanej osobie i późniejsze zachowanie tej osoby interpretujemy w sposób zgodny z naszym pierwszym wrażeniem.

pamięć semantyczna - rodzaj pamięci służący do łączenia w grupy informacji o podobnym charakterze. Przypuszczalnie powstała na drodze ewolucji pamięć semantyczna – skojarzeniowa. Działa ona prawdopodobnie w ten sposób, że w mózgu tworzone są zbiory informacji o podobnym charakterze, opatrzone pewnymi etykietami. W zamierzchłych czasach etykiety te niekoniecznie były wyrazami, lecz wraz z upowszechnieniem się języka mówionego słowa szybko nadały się do roli kluczy w pamięci semantycznej. Tak więc pamięć ta w dużej mierze powiązana jest z językiem oraz procesem kojarzenia różnych faktów. Nie ma w niej żadnych reguł co do tego, jak grupowane są poszczególne informacje i ulega ona ciągłemu procesowi nauki.

pamięć epizodyczna -  – przechowuje ślady pamięciowe na temat zdarzeń posiadających swoją lokalizację przestrzenną i czasową.Tu przechowywane są także informacje na temat wzajemnych relacji między zdarzeniami.

pamięć deklaratywna – jeden z rodzajów pamięci długotrwałej, wyróżniany obok pamięci niedeklaratywnej. W literaturze przedmiotu obecne jest także pojęcie "pamięć jawna" lub "pamięć świadoma", jako synonim pamięci deklaratywnej. Dzieje się tak, ponieważ dane z pamięci deklaratywnej mogą być stosunkowo łatwo wydobyte i uświadomione w odróżnieniu od danych gromadzonych przez pamięć niedeklaratywną ("pamięć nieświadomą" lub "pamięć niejawną").

pamięć niedeklaratywna -  rodzaj pamięci zaproponowanej przez Larry Squire w 1986 r. Pamięć niedeklaratywna gromadzi wiedzę o tym jak wykonywać czynności. Jeżdżenie na rowerze, taniec, chodzenie, mówienie itp. wymagają zapamiętania wielu doświadczeń i informacji - przechowywane są one właśnie w systemie pamięci niedeklaratywnej. Ten rodzaj pamięci różni się istotnie od pamięci deklaratywnej, która przechowuje informacje językowe i abstrakcyjne.

pamięć proceduralna - (ruchowa) - rodzaj pamięci u człowieka. Informacje do tej pamięci nabywane są poprzez bezpośrednie spostrzeganie, doświadczanie oraz dostrajanie do wymagań otoczenia. Pamięć ta wyrażana jest w formie zmiany prawdopodobieństwa reagowania na specyficzne bodźce. Dostęp do tej pamięci jest automatyczny. Nie jesteśmy świadomi operacji pamięciowych, uświadamiamy sobie, że została wykonana pewna reakcja.

warunkowanie - mechanizm powstawania odruchów warunkowych przez stosowanie bodźca warunkowego w połączeniu z bodźcem bezwarunkowym, zarówno w warunkach doświadczalnych, jak i w naturalnych sytuacjach życiowych.

warunkowanie klasyczne – polega na wiązaniu pewnej reakcji z coraz to nowymi rodzajami bodźców. Bodźce, które wcześniej były obojętne z biologicznego punktu widzenia, wskutek wspólnego występowania z bodźcami nieobojętnymi biologicznie (bodźców bezwarunkowych, Pawłow) nabywają zdolność wywoływania reakcji.

warunkowanie instrumentalne – polega na tym, że zwierzę lub człowiek uczy się nowej reakcji instrumentalnej (warunkowej), pozwalającej na zaspokojenie pewnej potrzeby, lub też na uniknięcie zagrożenia. Jest to reakcja nowa, której poprzednio nie było w repertuarze behawioralnym danej jednostki. Utrwala się w wyniku wzmocnienia, czyli uzyskania kontaktu z bodźcami zaspokajającymi pewną potrzebę.

torowanie (priming) - zjawisko polegające na zwiększeniu prawdopodobieństwa wykorzystania określonej kategorii poznawczej w procesach percepcyjnych i myślowych wskutek wielokrotnej ekspozycji bodźca zaliczanego do tej kategorii, bądź bodźca semantycznie lub afektywnie powiązanego z tą kategorią. Zjawisko może zachodzić również przy braku świadomości postrzegania bodźca torującego (percepcja podprogowa) – nazywa się je wówczas torowaniem (lub prymowaniem) podprogowym.

habituacja - najprostsza forma uczenia się, polegająca na wyzbywaniu się dawnych, znanych już reakcji. Zwierzę stopniowo przestaje reagować na monotonne, powtarzające się bodźce, które nie mają istotnego znaczenia biologicznego, a nie są nagradzane ani karane.

sensytyzacja - zwiększenie wrażliwości przez narząd

prawo Foucault - im większa jest objętość materiału, tym więcej powtórek należy wykonać, aby go opanować.

prawo częstości - im więcej dany materiał był powtarzany, tym lepiej zostaje zapamiętany. Powtarzanie utrwala wszystkie rodzaju materiału: zarówno prawidłowy, jak i zawierający błędy

mały cykl pamięciowy - związany jest z wielokrotnym odbieraniem informacji, które w ten czy w inny sposób powiązane są z dotychczasową wiedzą jednostki.

duży cykl pamięciowy - wiąże się z tym, że zachowanie ujawniające zawartość pamięci może stać się przedmiotem spostrzegania. Powstaje spostrzeżenie, które następnie podlega kodowaniu i cały cykl zaczyna się od nowa.

magazynowy model pamięci - oparty na kryterium czasu przechowywania informacji , Dzieli się na: magazyn sensoryczny -> magazyn krótkotrwały(STS) -> magazyn długotrwały(LTS).

a) Magazyn sensoryczny: powiązany ze zmysłami zmysłu np. wzroku, słuchu. Przechowuje bodziec krótko (kilkaset milisekund). Ogromna pojemność a na pewno większa od STM.

b) Magazyn pamięci krótkotrwałej: posiada informacje zarówno bodźcową jak i przywołaną z LTS. Posiada różne kody podtrzymywania informacji jak np. mechanizm bezgłośnego powtarzania. Mało pojemny. Funkcją jego jest przetrzymywanie informacji w czasie niezbędnym do dalszego przetwarzania.

c) Magazyn pamięci długotrwałej: nieograniczony czas przechowywania informacji. Funkcją jego jest umożliwienie skutecznej adaptacji jednostki w środowisku w dłuższej perspektywie czasowej.

jednostka pojemności pamięci Millera – Miller liczył pojemność pamięci krótkotrwałej w kęsach lub elementach

sieć semantyczna - to koncepcja wzajemnych połączeń między określonymi pojęciam. Takie koncepcje nie tylko potrafią zaprezentować jakąś wiedzę w postaci schematu ilustrującego sieć wzajemnie połączonych pojęć.

kodowanie - proces przekształcania i organizowania napływających informacji tak, aby można je było następnie włączyć do pamięci lub porównać z danymi już zmagazynowanymi w pamięci

pętla fonologiczna - część systemu pamięci roboczej, odpowiada za przechowywanie i przetwarzanie informacji werbalnych.

magazyn fonologiczny - zbiór bodźców słuchowych

pętla artykulacyjna - mechanizm wywołujący powtórki zapamiętanych danych

bufor epizodyczny - czasowe przechowywanie zintegrowanych epizodów, reprezentowanych równocześnie za pomocą kilku kodów. uczestniczy w wydobywaniu informacji z pamięci długotrwałej

szkicownik wzrokowo-przestrzenny - podsystem odpowiadający za informacje obrazowe

podręczny magazyn wzrokowy – jeden ze sposobów funkcjonowania szkicownika wzrokowo-przestrzennego; mechanizm pasywnego przechowywania informacji wzrokowej i przestrzennej.

centralny system wykonawczy - system niejednorodny, poznawczy nadzorca. Funkcje : bieżące przetwarzanie – realizowanie konkretnych operacji poznawczych wchodzących w skład danego zadania. Wykorzystuje podsystemy pamięciowe koordynacja buforów: ujawnia się przy wykonywaniu czynności równoczesnych. Im większe wymagania od sytuacji spadek szybkości przetwarzania nadzór – kontrola nad bieżącym przetwarzaniem informacji. Aktualizacja zawartości buforów, usuwanie elementów już zbędnych, planowanie i koordynacja w stacjach nowych

wewnętrzny system zapisu,

krzywa zapominania - linia krzywa przedstawiająca według niemieckiego psychologa Hermanna Ebbinghausa zależność między ilością przechowywanej informacji w pamięci a upływem czasu, jaki nastąpił od momentu ich zapamiętania

uwaga – system odpowiedzialny za selekcję informacji i zapobieganie negatywnym skutkom przeładowania systemu poznawczego przez nadmiar danych; mechanizm odpowiadający za dystrybucję energii.

odruch orientacyjny – reakcja organizmu na wydarzenie nagłe i nieoczekiwane, polega na skierowaniu receptorów na źródło stymulacji.

indukcja ujemna – mechanizm polegający na tym, że pobudzenie pojawiające się w pewnej okolicy kory mózgowej wywołuje hamowanie w okolicach sąsiednich – wskutek tego jednostka jest mało wrażliwa na bodźce kierowane do tych okolic.

trójkąt aktywności uwagowej – trzy okolice, które odpowiedzialne są za trzy aspekty uwagi: ekspresję (aktywacja sieci neuronalnych w przednich i tylnych częściach kory), mechanizm wzmacniania (neurony podwzgórza, odpowiedzialne za wybiórcze aktywizowanie różnych okolic kory) oraz mechanizm kontroli (pobudzenie sieci neuronalnych w korze czołowej)

czujność – zdolność lub stan, dzięki któremu jednostka potrafi w dłuższym okresie wykrywać bodźce specyficzne spośród wielu możliwych bodźców pojawiających się w jej środowisku

detekcja sygnału – w dowolnej sytuacji sygnał może być dostępny lub nie, a człowiek ma do wyboru zareagowanie lub powstrzymanie się od reakcji. Jeśli zareaguje na sygnał, oznacza to trafienie, jeśli nie zareaguje na szum oznacza to poprawne odrzucenie (działania prawidłowe). Można natomiast zareagować na szum (błąd fałszywego alarmu) lub zlekceważyć sygnał (błąd chybienia) – działania nieprawidłowe.

dystraktor – cecha, obiekt lub inny bodziec, który sprawia jednostce trudności w selektywnym koncentrowaniu uwagi na pożądanym bodźcu.

filtr uwagowy – hipotetyczny mechanizm selekcyjny skutecznie blokujący znaczną część docierającej do organizmu stymulacji sensorycznej, jednocześnie umożliwiający informacjom ważnym dostęp do kolejnych etapów przetwarzania.

technika słuchania dwuusznego – jednoczesne prezentowanie różnych słyszalnych bodźców, takich jak przekazy słowne, do każdego z uszu.

efekt torowania (poprzedzania) – proces, za pomocą którego określone wstępne bodźce aktywizują ścieżki umysłowe, co podwyższa zdolność przetwarzania kolejnych bodźców związanych w jakiś sposób z bodźcem torującym.

pula zasobów uwagowych – pewna ilość energii mentalnej czy też mocy obliczeniowej, która może być przeznaczona na wykonanie poszczególnych procesów przetwarzania informacji.

uwaga podzielna – proces, poprzez który jednostka dokonuje alokacji dostępnych zasobów uwagi, aby koordynować wykonywanie więcej niż jednego zadania jednocześnie.

uwaga selekcyjna – proces, poprzez który jednostka stara się śledzić jeden bodziec czy jeden rodzaj bodźców oraz ignorować inny.

proces pierwotnej selekcji – proces następujący na poziomie narządów zmysłów, który polega na tym, że narządy zmysłowe nie odbierają wszystkich docierających do organizmu informacji, ze względu na np. ograniczenia anatomiczne i fizjologiczne.

wczesna selekcja – koncepcje wczesnej selekcji zakładają że przyjęcie informacji ważnej a odrzucenie zbędnej dokonuje się na wczesnych etapach przetwarzania informacji – mechanizm uwagi ma się kierować sensorycznymi, fizycznymi właściwościami bodźców.

późna selekcja – wybór i odrzucenie informacji przez mechanizm uwagi dokonuje się na późnych etapach przetwarzania. Głównym kryterium selekcji są semantyczne aspekty stymulacji, nie zaś sensoryczne.

centralne pole uwagowe – uwaga skupiona na bardzo niewielkiej liczbie bodźców, ale skupiona intensywnie. Uwadze intensywnej towarzyszy wyostrzona świadomość treści wchodzących w jej pole.

peryferyczne pole uwagowe – stany uwagi rozproszonej, obejmujące wiele bodźców lub obiektów w sposób mniej intensywny. Tu charakterystyczne jest osłabienie świadomości tego, co znajduje się w polu uwagi.

przeszukiwanie pola percepcyjnego – aktywne, systematyczne badanie pola percepcyjnego w celu wykrycia obiektów spełniających założone kryterium.

alokacja zasobów uwagi- teoria zakładająca istnienie niespecyficznej energii mentalnej (zasobów uwagi), przydzielana poszczególnym czynnościom wg ich ważności lub pilności. Odnosi się do czynności nieautomatycznych. Niektóre czynności nic nie zyskują na przydzieleniu im zasobów , ponieważ jakość ich wykonania determinowana jest konkretnymi danymi , a nie zasobami.

efekt rykoszetu – nasilanie się myśli i obrazów intruzywnych mimo usilnych prób zapobiegania im.(Myśli i obrazy intruzywne pojawiają się podczas trwania innego procesu psychicznego, niezależnie od woli jednostki i maja charakter natrętny. )

czynności limitowane zasobami - im więcej zasobów uwagi wykorzystywanych jest w przypadku danej czynności , tym lepsze jej wykonanie. (np. przypadek prowadzenia samochodu w trudnych warunkach drogowych)

czynności limitowane danymi – czynność zależna od konkretnych danych (docierających przez kanały sensoryczne) lub ich braku, gdy zaangażowanie większych zasobów uwagi jest niewystarczające. (przypadek prowadzenia samochodu w pogarszających się złych warunkach drogowych, np. w przypadku śnieżycy, gdzie na drodze nie widać nic)

przeduwagowy etap obróbki bodźca- odbiór, selekcja i obróbka bodźców , z których działania nie zdajemy sobie sprawy. (działanie podprogowe)

uwagowy etap obróbki bodźca – koncepcja uwagi intensywnej i ekstensywnej. Uwaga intensywna ma stosunkowo wąski zakres ale pozwala na głębokie przetwarzanie informacji będących w jej zasięgu. Uwaga ekstensywna ma zakres stosunkowo szeroki ale przetwarzanie dostępnych jej informacji jest dość płytkie.

hipoteza osłabiacza = metafora „bramki otwieranej od wewnątrz” (teorie później selekcji) – Anna Treisman – informacje nieważne, nieistotne lub niespełniające kryterium selekcji są osłabiane na wczesnym etapie przetwarzania, ale nie blokowane i bezpowrotnie odrzucane. Osłabione przechodzą do dalszych etapów przetwarzania i mogą być wykorzystane na dalszym, nawet najwyższym piętrze analizy jeśli to się okaże konieczne.

metafora ‘’szyjki od butelki’’ = metafora „wąskiego gardła’’ (teorie wczesnej selekcji) – Broadbent – model symbolicznie przedstawiany w postaci dużej litery Y. Gdzie ramiona litery oznaczają kanały stymulacji sensorycznej , uważa się je za ‘’poczekanie’’ dla bodźców przed ich wybiórczym przepuszczeniem na wyższe piętra obróbki ( które symbolizowane są przez podstawe czyli ‘’nózke’’ litery Y)

\

  1. Uwaga – pojęcie, funkcje. Procesy selekcji (pierwotna, na poziomie procesów pamięciowych), funkcja ukierunkowania procesów poznawczych, określania zasobów energetycznych przeznaczonych na wykonanie zadania poznawczego i podtrzymująca zaangażowanie poznawcze)

Funkcje uwagi:

a)selekcjonowanie bodźców docierających do jednostki

- selekcja pierwotna, polega na tym, że bodźce ze środowiska są odbierane przez narządy zmysłów, jednak ze względu na niektóre anatomiczne i fizjologiczne ograniczenia niektórych informacji nie są w stanie odebrać (np. promieniowanie ultrafioletowe, ultradźwięki itp.). Po odebraniu informacji w samym narządzie zmysłowym również następuje selekcja.

- selekcja na poziomie procesów pamięciowych, polega na tym że informacje, które znalazły się w pamięci krótkotrwałej są przekazywane do pamięci trwałej. Niektóre informacje w pamięci krótkotrwałej są bezpowrotnie zapominane i nigdy nie trafiają do pamięci trwałej (podobnie informacje doskonale znane – proces habituacji – nie wywołują one reakcji orientacyjnych i są zbyt słabe by zostały zapisane w pamięci trwałej). Pamięć trwała nie jest w stanie odebrać wszystkich bodźców, gdyż informacje nie są przekazywane mechanicznie – proces wymaga czasu

b)ukierunkowanie procesów poznawczych

- funkcja wiąże się z procesami eksploracji (percepcyjnej i poznawczej) – wykrywanie nowych informacji – pole poznawcze możemy podzielić na dwie części: centralną (informacje wyraziste, można dostrzec szczegóły) i peryferyjną (mniej wyraziste – czasami można dostrzec jedynie ich występowanie, treść jest niedostępna)

c)określanie wielkości wykorzystywanych zasobów poznawczych

- uwaga decyduje o tym, ile energii psychicznej poświęcimy na wykonanie danego zadania – zależnie od stopnia ważności (jeśli zadanie jest ważne poświęci więcej energii, jeśli mniej ważne – stosunkowo mniej)

d)podtrzymywanie zaangażowania poznawczego

- wymagania zadania (innej puli zasobów wymaga zadanie proste a innej trudniejsze)

- wielkość zasobów poznawczych (im większa pula zasobów tym więcej jednostka może ich zaangażować)

- stopień przeuczenia zadania (zadania przeuczone – zautomatyzowane – wymagają mniejszej puli zasobów niż zadania nowe)

  1. Fizjologiczne mechanizmy uwagi

- odruch orientacyjny - mechanizm polegający na skierowaniu receptorów na źródło stymulacji, przy czym towarzyszy temu aktywność motoryczna ułatwiająca odbieranie bodźców. Jednocześnie pojawia się wzrost wrażliwości wszystkich receptorów (organizm jest otwarty na dopływ nowej stymulacji). Jednocześnie pojawia się wzrost poziomu aktywacji organizmu. Odruch ulega wygaszeniu po kilku wystąpieniach bodźca (szybko – bodźce proste, dłużej – bodźce złożone).

- indukcja ujemna - mechanizm polegający na tym, że pobudzenie pojawiające się w pewnej okolicy kory mózgowej wywołuje hamowanie w okolicach sąsiednich – wskutek tego jednostka jest mało wrażliwa na bodźce kierowane do tych okolic. Dzięki indukcji ujemnej pobudzanie w korze ma charakter zogniskowany a nie rozlany. Początkowo pobudzanie jest rozlane – jednostka reaguje nie tylko na jeden konkretny bodziec, ale również bodźce do niego podobne, dopiero po powstaniu odruchu warunkowego można zaobserwować efekty indukcji ujemnej.

- aktywność układu siatkowatego – układ siatkowaty zbudowany jest z sieci włókien nerwowych, jest odpowiedzialny za tzw. procesy zasilania. Zawiera włókna pobudzające lub hamujące. Część wstępująca tego układu decyduje o wybiórczym pobudzeniu różnych okolic kory oraz o uwrażliwieniu ośrodków zmysłów na odbiór bodźców. Dzięki aktywności układu siatkowatego w jednym momencie mamy ułatwiony odbiór bodźców słuchowych, za chwilę zaś jesteśmy uwrażliwieni na bodźce wzrokowe itp.

  1. Podstawowe rodzaje zjawisk analizowanych w badaniach nad uwagą (detekcja sygnałów i zjawisko czujności, przeszukiwanie pola percepcyjnego)

  1. Teorie uwagi

Teorie uwagi selektywnej powstały w odpowiedzi na pytanie : co decyduje o odrzuceniu pewnych informacji (lub źródeł stymulacji ) jako nieistotnych oraz na którym piętrze przetwarzania informacji dokonuje się selekcja.

teoria filtra uwagowego Broadbent - to nic innego jak :

Metafora ‘’szyjki od butelki’’ = Metafora „wąskiego gardła’’ teorie wczesnej selekcji) – Broadbent – model symbolicznie przedstawiany w postaci dużej litery Y. Gdzie ramiona litery oznaczają kanały stymulacji sensorycznej , uważa się je za ‘’poczekanie’’ dla bodźców przed ich wybiórczym przepuszczeniem na wyższe piętra obróbki ( które symbolizowane są przez podstawe czyli ‘’nózke’’ litery Y)

teoria wielu filtrów uwagowych Treisman – to nic innego jak :

Hipoteza osłabiacza (teorie później selekcji) – Anna Treisman – informacje nieważne, nieistotne lub niespełniające kryterium selekcji są osłabiane na wczesnym etapie przetwarzania, ale nie blokowane i bezpowrotnie odrzucane. Osłabione przechodzą do dalszych etapów przetwarzania i mogą być wykorzystane na dalszym, nawet najwyższym piętrze analizy jeśli to się okaże konieczne.

teorie integrujące- założenie że selekcja uwagi dokonuje się zarówno na wczesnych , jak i na późniejszych etapach przetwarzania . każdy etap może polegać na jakościowo różnym sposobie selekcjonowania nadmiaru informacji

funkcjonowanie uwagi w świetle teorii zasobów

Wyjaśnienie jak możemy wykonywać więcej niż jedno zadanie wymagające uwagi .

koncepcja pojedynczej puli zasobów – ludzie mają określony zasób uwagi, którego alokacji mogą dokonywać w zależności od tego czego wymaga zadanie

teoria zasobów uwagi specyficznych dla modalności- przynajmniej część zasobów uwagi może być specyficzna dla zmysłu , który odbiera dane zadanie

  1. Dystraktory

Dystraktory to bodźce odwracające uwagę.

Można klasyfikować je ze względu na ich pochodzenie :

  1. Bodźce pochodzące z zewnątrz

  2. Bodźce które jednostka sama sobie eksponuje( jednostka sama zadaje sobie różne procesy, które zakłócić mogą jej zdolność poznawczą. )

- dystraktory intencjonalne

- dystraktory nieintencjonalne (zamiarem jednostki wcale nie było wywołanie dystraktorów)

Środowisko w jakim pojawiają się dystraktory może być :

  1. Zewnętrzne

  2. Wewnętrzne

Ważne !

Myśli intruzywne – natrętne , pojawiające się niezależnie od woli jednostki, dotyczą spraw nieprzyjemnych, próby ich eliminowania najczęściej prowadzą do nasilenia

Ruminacje – wielokrotne powracanie do pewnych problemów, ponowna ich analiza

  1. Uwaga a świadomość.

Kiedyś psychologowie przekonani byli że uwaga i świadomość (zjawisko dzięki któremu nie tylko aktywnie przetwarzamy informacje ale jesteśmy świadomi tego działania) to jedno i to samo.

Obecnie uważają że niektóre rodzaje aktywnego przetwarzania informacji zmysłowej , informacji pochodzącej z pamięci i informacji poznawczej , może przebiegać poza naszą świadomością. (np. pisanie dobrze znanego własnego imienia nie wymaga świadomego zaangażowania i można wykonywać je , będąc świadomie zajętym innym zadaniem, jednak należy pamiętać ze zadania nie wykonamy gdy jesteśmy całkowicie nieświadomi)

  1. Wytwory wyobraźni jako źródło informacji dla psychologa w czynnościach diagnostycznych

Najczęstszymi wytworami wyobraźni człowieka są rysunki, malowidła. Psycholog zajmuje się ich analizą. Takim wytworem mogą być też rzeźby, poezja czy pamiętniki. (skupiamy się głównie na rysunkach)

Będziemy się skupiać na dzieciach, gdyż ten rysunek najwięcej o dziecku nam powie.

Dziecko przechodzi przez określone fazy, psycholodzy rozwojowi dokonują periodyzacji okresu, od poczęcia aż po okres starości – psycholog dzieli te okresy na pewne etapy.

Główne etapy rozwoju plastycznego człowieka:

Dziecko rysuje nie to co widzi, ale to co wie na temat rysowanego obiektu. Jeśli wiemy że dziecko rysuje to co wie, ten rysunek jest więc istotnym elementem inteligencji. Patrząc na rysunek możemy powiedzieć coś na temat rozwoju intelektualnego.

Rysunki rentgenowskie – prześwitujący koszyk wielkanocny

Dziecko pokazuje też swój stosunek emocjonalny do tego co rysuje – intencjonalność – dowiemy się do lubi a czego nie , co mu się podoba

Rysunek gry w berka – wiadomo ze w tej grze ważna jest ręka (żeby dotknąć drugiej osoby) na tym rysunku ręce są wydłużone

Ideoplastyka: (Lowenfeld, Brittain) dzieli się na okresy

Bazgroty:

Dziecko zazwyczaj trzyma kredkę jedną ręką dziecko zamaszyście rysuje, nie jest zainteresowane tym co wychodzi mu z rysowania, nie interesuje się śladami jakie zostawia . Radość czerpie z samego ruchu ręką. Dziecko nie jest zainteresowane tym co rysuje o czym świadczy że potrafi odwrócić głowę i dalej sobie rysować np. też po stole. Dobrze jest żeby kredka nie była ostro zatemperowana, gruba i miała kontrastujący kolor i duże arkusze. Kontrast jest ważny bo dziecko musi odkryć związek miedzy ruchem reki a tym co się pojawia na papierze. Tutaj pojawia się już drugi okres bazgroty kontrolowane. Wtedy dziecko odkrywa że jeśli zrobi taki ruch to dany kształt narysuje- wtedy można zobaczyć powtarzalność kształtów. To że dziecko przejdzie do bazgrot kontrolowanych świadczy o tym że dziecko jest w stanie kontrolować ruchu używając do tego wzroku – świadczy to o zmianie w dziecku. Dopiero teraz można nauczyć dziecko np. zapinania guzika czy wkładania łyżeczki do buzi. To jak dziecko rysuje mówi nam o rozwoju intelektualnym. Możemy widzieć czy rozwój dziecka jest opóźniony czy przyspieszony- dlatego rysunki są bardzo ważne.

Bazgroty nazywane „Mama idzie na zakupy”, „ żyrafa pędzi przez las” – ok. 2 roku niewiele się zmienia w wyglądzie, ale dziecko mówi co to jest – to dowodzie że dokonał się olbrzymi przełom – dziecko przeszło do rozwoju wyobrażeniowego. Dziecko potrafi opisać swoje doznania wzrokowe jak i czuciowe np. że tam jest ciepło. Rola rodziców to dopytywanie dziecka, żeby dodatkowo rozbudzić wyobraźnię dziecka.

Pojawiają się kształty rozpoznawalne przez nas dorosłych (pozostaje w pewnym związku z otaczającym światem), najczęściej pierwszym symbolem, który pojawia się w rysunkach jest człowiek- przyjmuje postać głowonogu – czyli koło i kreski, które symbolizują kończyny. Na podstawie tego jak dziecko rysuje człowieka dowiemy się co o nim wie. Nie ma stałości i kształtu ani barwy- dziecko próbuje, jest to okres dochodzenia do schematu

Intencjonalność w tej fazie – wyraża się w tym że dziecko wyolbrzymia, a konkretnie powiększa lub pomniejsza te elementy które mają bądź nie mają znaczenia emocjonalnego, jeśli dziecko czegoś nie lubi może tego nie narysować, albo narysować bardzo małe

Psycholodzy dysponują testem- narysuj mężczyznę i kobietę- sprawdzenie rozwoju intelektualnego dziecka – jest ponad 70 wskaźników oceniania rysunku – te rzeczy odnosi się do norm czyli do rówieśników

Dzieci mają styl indywidualny ale widoczna jest geometryzacja- np. tułów jest kółkiem, albo trójkątem. To się również odnosi do innych przedmiotów np. drzewa.

Geometryzacja jest na tyle silna, że dzieci wręcz proszą o linijke i pod linijke rysują wszystkie kształty

Ten schemat jest sztywny ale nie do końca, ponieważ od wpływem przeżyć emocjonalnych intencjonalności, może on ulec zmianie być modyfikowany, jeśli np. coś co rysuje dziecko jest ważne.

O czym mówi rysunek dziecka ?

Poziom intelektualny – test rysunkowy : postać człowieka mężczyzna/kobieta

Sposób uszczegółowienia postaci mówi jaką wiedzę posiada dziecko o otaczającym go świecie. Trzeba zrobić wywiad czy to jak dziecko nie wynika z problemów emocjonalnych albo np. braku motywacji – dziecku mogło się nie chcieć rysować.

Zdolności twórcze – mają związek z oryginalnością- jest to ocena na podstawie porównania wytworu jednostki z wytworami innych osób które stanęły przed tym samym zadaniem . rzadkie występowanie pomysłu wskazuje na oryginalność wyobraźni.

Tematem testu może być rysunek na dowolny temat. Może tez być rysunek na określony temat. Rozpoznaje się również na podstawie zadań o dywergencyjnym charakterze. Testy z twórczości najczęściej nie spełniają wymogów testów i niektórzy buntują się, że nie można ich nazywać testami.

Konwergencyjne zadanie to problem w którym mamy jedno rozwiązanie. Jest jedna prawidłowa odpowiedź- zazwyczaj na matmie

Dywergencyjne zadanie gdzie cel może być osiągnięty na różne sposoby, wiele rozwiązać i każde jest rozwiązaniem dobrym np. zadanie opisz swoje wakacje.

Aby uchwycić oryginalność zadanie musi być dywergencyjne.

Joy Guilford – test szkiców

Przykład: mając podany prosty kształt, osoba badana ma wykonać jak najwięcej rysunków przedmiotów za pomocą jak najmniejszej liczby linii dodatkowych . Może być np. na rozmowie kwalifikacyjnej – sprawdza oryginalność.

Test ten nie ma norm, najczęściej ocenia się tę oryginalność porównując do większości

Na podstawie zadań dywergencyjnych mierzymy ( trzy cegiełki podane przez Guilforda jako zdolności twórcze)

Test kółek Paula Torrance’a

Osoba badana ma 16 kółek i ma uzupełnić je tak aby powstały obiekty np. były rysunki wiewiórki albo piekarnika

Osoba dorosła badanie giętkość na 9 pomysłów 4 to były twarze a dwie piłki, trzecia klasa to zegarki

Test Cate Franck

Wykorzystuje się różne motywy i uzupełnia się rysunki- bierze się nie tylko oryginalność ale też złożoność – czyli im więcej szczegółów tym lepiej, rysunek musi być bogaty plastycznie

Młody człowiek stara się odtworzyć to co widzą jego oczy, chce rysować świat takim jakim on jest stąd też ujawnia się tendencja do naturalistycznego, wiernego, realistycznego odtwarzania rzeczywistości.

WYTWORY WYOBRAŹNI wykorzystywane są:

Narysuj rodzinę – nie mówi się czy swoją czy nie tylko w ogóle, czasem dzieci rysują np., rodzinę koleżanki.

Dziecko zwykle rysuje postać najważniejszą jako pierwszą od lewej stronie , albo w centrum postać po prawej jest zazwyczaj rysowana na końcu.

Ważna jest kolorystyka – bogata kolorystyka jest ważna, dzieci z zaburzeniami emocjonalnymi często rysują w odcieniach szarości, czerń.

Waloryzacja wiąże się np. z powiększeniem postaci , bliskość postaci na rysunku świadczy o relacjach

Wskaźniki dewaloryzacji np. rodzeństwa - rysowanie ich małych gdzieś na drugim planie , pozbawienie kolorów

Relacje odległościowe – np. ojciec alkoholik rysowany jest w pewnej odległości od rodziny – wskazuje to na pewien dystans emocjonalny autora rysunku do tej postaci.

Wskaźniki zaburzeń emocjonalnych – tendencje neurotyczne – dużo płaszczyzny białej niezamalowanej, postacie są malutkie, słaby nacisk kredki na papier,

Rysunki też mogą być projekcją gniewu. Dziwaczność rysunku powinna nas zaniepokoić.

Narysuj człowieka

Zaburzony obraz własnej osoby- postać nie ma ust, oczu, czyli twarz jest pozbawiona elementów , albo twarz jest zasłonięta przez np. włosy

Narysuj osobę w deszczu

Interesuje nas jak osoba reaguje na sytuację trudną dla siebie- deszcz jest symbolem warunków stresowych. Jeśli osoba podejmuje się tego rysunku to możemy odczytać jakie są jej mechanizmy obronne czy wgl je uruchamia. Kiedy jest wszystko w porządku osoba zwykle rysuje postać w płaszczu, który zabezpiecza przed wilgocią, kalosze, trzyma parasol.

Taki rysunek nam mówi czy dysponuje systemem zabezpieczeń psychicznych, więc jaki jest jej ego, czy jest ono silne i potrafi sobie radzić, czy też nie..

Osoby które mają małą odporność psychiczną, które nie dysponują systemem zabezpieczeń psychicznych mogą rysować np. osoby zmokłe bez ochrony – poczucie własnej bezradności i opuszczenie brak motywacji do unikania niekorzystnych okoliczności. (depresja)

Wskaźniki schizofrenii – patogramy – jednym z nich jest Maszkaronizacja np. twarzy albo całej postaci, czyli zniekształcenie, jednokrotnie twarz diaboliczna, może tak być , ale trzeba pamiętać , że czasem artyści celowo takim zabiegiem się posługują.

Kolejnym patogramem jest nadmierna dekoracyjność – każdy szczegół jest dokładnie wypracowany ( objaw schizofreni )

Natłok treści i formy – twarze wszędzie

Aglutynacja zbitek zlepki – np. trzy twarze które na siebie nachodzą.

Mutylacje – okaleczenie np. rysunek osoby której wnętrzności się wylewają

Schizofrenia może spowodować degradacje twórczości albo wręcz przeciwnie.

Rola wyobraźni w przebiegu innych funkcji psychicznych

Wizualizacja – proces aktywizowania doświadczeń zmysłowych i emocjonalnych , tworzenie na ich bazie obrazów powstających w wyobraźni- służą one realizacji planów i zamierzeń człowieka.

Ta metoda może być wykorzystywana m.in. w zakresie utrzymywania i odzyskiwania sprawności oraz funkcji fizjologicznych np. u pacjentów chorych onkologicznie np. wizualizacja komórki rakowej, też do doskonalenie czynności fizycznych dot. To sportowców – przerabiają w swojej wyobraźni poszczególne ruchy.

Do doskonalenia procesów pamięciowych

Wykorzystywana jest w obszarze terapii możemy mieć do czynienia np. z pacjentem który cierpi na różnego rodzaju lęki – fobie i można wyjść w tym obszarze np. za pomocą obrazowania pozytywnego np. lęk przed lataniem samolotem, wysokością, pacjent może przywołać sceny pozytywne np. plaże, słońce , te sceny zaczynają wpływać na napięcie fizjologiczne i tym samym redukują odczuwanie lęku.

Np. radząc sobie z problemami uzależnienia np. od alkoholu tytoniu, narkotyku – powinno się obrazować negatywnie, aby kojarzyć te rzeczy z negatywnymi sytuacjami itp.

Pacjent może wtedy przerabiać sceny wywołujące wstręt w związku np. z papierosami np. sceny wymiotowania po zaciągnięciu się papierosem, papierosy zanurzone w wymiotach.

Pamięć i uczenie się 02.03

Funkcje pamięci

  1. Nabywanie informacji

  2. Przechowywanie informacji

  3. Odtwarzanie ( przypominanie, rozpoznawanie)

Przypominanie – przywoływanie informacji

Rozpoznawanie- informacje poznawane pojawiają się w polu percepcyjnym

W ujęciu pedagogicznym rozumiane jest jako czynność – obserwowalna, ukierunkowana na osiągnięcie określonego celu – przyswojenie jakiegoś materiału bądź czynności (która jest zamierzona), ta czynność jest zamierzona ale niekoniecznie osiągalna

Uczenie się w ujęciu psychicznym jest rozumiany jako proces psychiczny (nieobserwowalny) , który prowadzi do zmian w zachowaniu (s-r), o tym że zaszedł mówią nam obserwowalne zmiany w zachowaniu. Uczenie jest nabywaniem wiedzy (s-r) Zmiany mogą mieć charakter wynikający z starzenia się organizmu i wtedy nie zaliczamy zmian których nie zaliczamy do zmian związanych z uczeniem. Tak samo zmiany obwodowe – Zosia nałożyła okulary i lepiej widzi.

Na bazie kierunków behawiorystycznego i poznawczego uczenie się jest inne.

W psychologii poznawczej bodziec jest nośnikiem informacji, więc uczenie jest typu S-S , czyli informacja-informacja, człowiek będzie tworzyła system wiedzy, w którym pewne informacje będą ze sobą wiązane, będzie nabywała, tworzyła system wiedzy, więc będzie tworzyła związki pomiędzy innymi informacjami.

Rodzaje uczenia się:

Uczenie sensomotoryczne , jemu przeciwstawia się uczenie werbalne. Sensomotoryczne jest to nabywanie wszelkich nawyków które przebiegają przez kontrolę wzrokową – uczę się prowadzić samochód, uczę się jeździć na nartach. Nie wymaga udziału systemu werbalnego.

Werbalne- czytam tekst, fragment książki i angażuje system werbalny.

Uczenie się pamięciowe – przeciwstawia się rozwiązywanie problemów. Pamięciowe staram się odtworzyć słowo w słowo ten tekst, z którym się zapoznaje, niekoniecznie to rozumiem.

Przez rozwiązywaniu problemów – zachodzi w sytuacjach gdy angażujemy myślenie, stajemy przed problemem, rozwiązujemy go i nabywamy doświadczenia. Następnym razem korzysta się z tej wiedzy.

Uczenie dowolne- przeciwstawne mimowolne.

Dowolne - mam zamiar się uczyć

Mimowolne – nie miałam zamiaru

Uczenie przez wgląd – atakujemy problem próbując go rozwiązać, czyli zaczynam rozumieć o co chodzi i wpadam na pomysł jak to zrobić, czasem nagle , niespodziewanie wpadnę na ten pomysł

Metoda prób i błędów jest przeciwstawna wglądowi- jest wolną metodą, powoli dochodzę do rozwiązania, stopniowe eliminowanie reakcji błędnych i stopniowo prowadz to do celów

Uczenie logiczne- mechaniczne

Uczenie się bodźców – uczenie się znaczenia bodźców, na początku niektóre bodźce są obojętne ale na skutek innych bodźców nabierają znaczeń ( warunkowanie klasyczne) oraz uczenie się nowych reakcji ( warunkowanie instrumentalne)

Uczenie typu S-R i typu S-S

S-R – na gruncie psych. Behawiorystycznej tworzenie się związków między informacjami bodźcami a zachowaniami- warunkowanie klasyczne, sprawcze, instrumentalne

S-S na gruncie psych. poznawczej – tworzenie różnorodnej wiedzy

Pamięć a uczenie się

Kiedy pamięć jest traktowana jako pojęcie szersze: pamięć wtedy dzielimy na zapamiętywanie, przechowywanie i przypominanie. Uczenie się jest wiązane z fazą pierwszą czyli zapamiętywaniem. To ujęcie jest chyba najbardziej zgodne z tym ujęciem intuicyjnym.

Kiedy różnicujemy pamięć jako LTM i STM i uczenie się wchodzi w pamięć LTM. Więc uczenie się jest nadal zakresowo węższym pojęciem. Aby związać coś z uczeniem się zmiana musi być długotrwała.

Kiedy różnicujemy na pamięć dowolną i mimowolną, uczenie się wchodzi w skład dowolnej.

Stanowisko 2.

Zmiany nie obejmują wskaźników motorycznych uczenie się jest wyższe. Odnosimy pamięć do pracy umysłowej ale gdy jest uczenie się reakcji sensomotoryczne to nie jest pamięć. Czyli jak uczymy się jeździć na rowerze to to nie jest pamięć, więc ma to sens że pamięć jest węższa.

Stanowisko 3

Miarą pamięci i ucznia się jest odtwarzanie. Jest to stanowisko trzecie, w którym pamięć i i uczenie się jest równoważne. Nie ma możliwości rozróżnienie tych dwóch procesów od strony praktycznej

Uczenie się – w kierunku behawiorystycznym

Proces psych prowadzi do zmian w zachowaniu. Poprzez rodzaje: warunkowanie klasyczne (S-R) – uczenie się nowych bodźców i instrumentalne i sprawcze – uczenie się nowych reakcji. (R-S)

Trzy paradygmaty badawcze, które będzie trzeba porównać.

Bodziec bezwarunkowy – zaprogramowany genetyczny

Reakcja bezwarunkowa- reakcja wrodzone, odpowiedź na bodziec biologiczny

Bodziec warunkowy- wyuczony, pierwotnie obojętny, który nabywa własności wyzwalania reakcji wyuczonej

Do 6 miesiąca życia dziecko ma odruch taki że nie tonie SPRWDZIĆ!!!!

  1. Pierwszy paradygmat badawczy w zakresie warunkowania klasycznego

Bodziec warunkowy musi być połączony w czasie (styczność w czasie) z bodźcem bezwarunkowym. Bodziec warunkowy musi być wcześniej podany jako sygnał zapowiadający pojawienie się bodźca bezwarunkowego. Problem sporny jest jaka jest ta odległość czasowa.

Konieczna jest również powtarzalność całej sytuacji.

W warunkowaniu klasycznym uczymy się nowych bodźców które zostały skojarzone (połączone w czasie ) z bodźcami nieobojętnymi zdolnymi do wywołania reakcji.

Cechy warunkowanych reakcji w warunkowaniu klasycznym

Prawidłowości

Generalizacja bodźców – wszystkie bodźce podobne do bodźca warunkowego też nabierają zdolności do wywoływania reakcji warunkowej, jeszcze w początkowej fazie uczenia się

Wygaszanie – można się też oduczyć jeśli w ślad za bodźcem warunkowym nie będzie się pojawiał bodziec bezwarunkowy; jest to stopniowe osłabianie siły reakcji

Różnicowanie – zdolność odróżniania bodźców i wykazywanie specyficznych reakcji tylko na niektóre z nich, na te które sygnalizują pojawienie się bodźca bezwarunkowego

Wzmocnienie – czynnik utrwalający reakcję , pokarm pełni tą rolę

Mamy wzmocnienie pozytywne – na pokarm i negatywne. Skutek jest ten sam utrwalają związek pomiędzy bodźcem warunkowym i reakcją warunkową.

Przykład owca która się faszeruje chlorkiem litu, i wtedy wilki mają nudności. Czując zapach owcy wilk będzie kojarzył go z nudnościami.

Tak tłumaczone jest powstawanie fobii- w wyniku połączenia bodźca bezwarunkowe z warunkowym. Np. dzieci mogą się bać białego fartucha., bo kojarzy je z lękiem.

Mały Albert – klasyczne

Oduczenie

poprzez wygaszanie – nie jest podawany bodziec bezwarunkowy w ślad za bodźcem warunkowym. Jest metoda zatapiania- eksponujemy bodziec lękotwórczy tak długo aż reakcja nań ulegnie wygaszaniu np. boje się windy to wchodzę do windy i długo tam jeżdżę aż mój lęk opadnie

Technika desensytyzacji

Oduczenie oparte na kojarzeniu bodźców awersyjnych wywołujących lęk z bodźcami czy czynnościami wywołującymi pozytywne reakcje

Technika awersyjnego przeciw warunkowania

Oduczenie oparte na kojarzeniu bodźców które jednostka powinna emocjonalnie odrzucić (alkohol papierosy )z bodźcami awersyjnymi np. obejrzenie filmu przedstawiającego raka płuc

Warunkowanie instrumentalne 9.03

R->S

Zachowanie jest zależne od bodźców następujących po tym zachowaniu.

Prekursorem badań był Edward Thorndike, był on prekursorem psychologii behawiorystycznej, to jest mniej więcej ten sam czas kiedy Pavlov prowadził badania przełom XIX XX wieku - prowadził badania na kotach (uczyły się uwalniać ze skrzynek)

Jest autorem drugiego paradygmatu w zakresie warunkowaniu. Jest autorem „prawa efektu”

Badanie

Kot był zamykany w skrzynce i psychologa interesowało czy kot nauczy się uwalniać ze skrzynki ( aby się uwolnić trzeba nacisnąć na przycisk albo pociągnąć za sznurek- różne mechanizmy otwierania skrzynki) kot jest motywowany o opuszczenia skrzynki poprzez no raz dyskomfort i na zewnątrz stała miska pokarmu.

U niego jest stan emocjonalny – motywacyjny (niepokój) u behawiorystów tego nie ma. Kot w chaosie różnych reakcji np. drapania miałczenia itp. przypadkowo kot naciska na dźwignię, pociąga za sznurek itp. i konsekwencją jest uwolnienie.

Przy kilku próbach czas pobytu kota w skrzynce się skraca, aż przychodzi taki dzień że kot od razu pociąga za sznurek i uwalnia się.

Czego uczy się kot w skrzynce Thorndike ?

Sa (zamknięcie w klatce) R instrumentalne - > Sb (uwolnienie, pokarm)

W sytuacja Sa uczymy się że trzeba wykonać taką a nie inną reakcję i w wynik tego otrzymujemy nagrodę która jest konsekwencją takiego a nie innego sposobu zachowania się.

Warunkowanie instrumentalne – zachowanie jest kształtowane przez własne konsekwencje do których to zachowanie prowadzi.

Prawo efektu – częstotliwość występowania określonego zachowania do jakich ono prowadzi, jeśli konsekwencje mają charakter nagród zachowanie ulega utrwaleniu, a jeśli mają charakter kar zachowanie ulega osłabieniu.

Thorndike w ostatnich swoich pracach eliminuje negatywną część prawa mówiąc że kara nie musi osłabiać zachowania a jej działanie nie stanowi odwrotności nagrody. Pod koniec XIX wieku to prawo zostało sformułowanie.

Jak Watson zachwycił się badaniami Pavlova i wzorował swoje badania na paradygmacie warunkowania klasycznego (Mały Albert) Tak Skinner zachwycił się badaniami Thorndike.

Skinner woli używać terminu warunkowania sprawczego.

Sa-> Sd(bodziec dyskryminujący) -> R sprawcze-> S b/w ( wzrost lub spadek prawdopodobieństwa pojawienia się reakcji w podobnej sytuacji )

Różnica pomiędzy drugim a trzecim paradygmatem badawczym: pojawienie się bodźca dyskryminacyjnego

Pojęcie bodźca dyskryminacyjny – sygnalizuje on fakt pojawienia się wzmocnienia pozytywnego (nagrody) bądź kary po wystąpieniu reakcji warunkowej.

Przykładem jest koń Mądry Hans

Przykłady bodźców dyskryminacyjnych

Nauczyciel wchodzi i studenci sprawdzają czy nauczyciel jest zły czy ma dobry dzień, więc mina nauczyciela jest bodźcem dyskryminujących bo wiem że mogę bądź nie pozwolić sobie na gadanie.

Warunkowanie sprawcze- zachowanie jest kształtowane przez swoje własne konsekwencje ale dodatkowe przez bodźce dyskryminacyjne czyli bodźce różnicujące

Wzmocnienie ( Skinnerowskie pojęcie)- jest nim bodziec który podawany po wykonanej przez jednostkę określonej reakcji zwiększy prawdopodobieństwo tej reakcji w podobnych warunkach w przyszłości, podstawowym zarzutem wobec tej definicji jest fakt że jest to definicja o charakterze post hoc – czyli o tym czy jakiś czynnik jest wzmocnienie dowiadujemy się dopiero po zakończeniu jego działania, dla jednej osoby coś może być nagrodą a dla drugiej już nie. Przedtem nie możemy stwierdzić jaki efekt wywrze on na zachowanie.

Wzmocnienia są zawsze sprawą indywidualną nie można przewidzieć jak wpłynie on na zachowanie osoby. To co spowoduje wzrost częstotliwości wykonywania określonej reakcji u jednej osoby nie musi spełniać tej funkcji w przypadku innej osoby.

Skuteczność kar i nagród a czas ich zastosowania

Przykład eksperyment Salomona – psycholog w pierwszym etapie uderza pieska po nosku i nie pozwala dostać Siudo atrakcyjnej miski i musi iść do miski drugiej w drugim etapie pozwala się psiakom spróbować atrakcyjnego jedzenia a następnie uderza po nosku, w trzecim etapie nie ma psychologa i okazało się że zdecydowanie większość psów z gr drugiej udała się do tej atrakcyjnej miski więc to była grupa karana po tym jak doszło do wykonania.

A więc okazuje się, że wszelkie odraczanie w stosowaniu kar i nagród zmniejsza ich efektywność im młodszy wiek tym bardziej powinniśmy przestrzegać tej zasady.

Rodzaje konsekwencji zachowań i ich skutki reakcji.

Nagrody (wzmocnienia pozytywne) - > wzrost częstotliwości reakcji bądź wzrost prawdopodobieństwa wystąpienia reakcji

Kary - > spadek częstotliwości reakcji albo powinna kara osłabić reakcje czy zachowanie (językiem Thorndike)

Brak konsekwencji - > spadek częstotliwości reakcji (wygaszenia)

Wzmocnienie negatywne -> do wzrostu częstotliwości reakcji

Wzmocnienie negatywne

Polega na usunięciu bodźca awersyjnego na skutek wykonania reakcji warunkowej, przy karze podajemy bodziec awersyjny. Przykład boli mnie głowa co robię wykonuję pewną reakcję sprawcza bądź instrumentalną zażywam jakiś proszek czyli usuwam bodziec awersyjny, więc nic dziwnego że następnym razem sięgnę po aspirynę. Albo jest lekcja przychodzi Tomek na lekcje nieprzygotowany i Tomek kłamie nie odrobiłem lekcji bo byłem chory. Wymyśla kłamstwo które owocuje faktem że unika kary czyli oceny niedostatecznej. Nauczycielka usunęła bodziec awersyjny – wzrost prawdopodobieństwa pojawienia się reakcji kłamstwa w podobnych okoliczności. Kłamstwo jest opłacalne.

Inne przykłady – lekcja jest klasówka , Kasia się bardzo boi robi się jej niedobrze podchodzi do nauczycielki i mówi że się źle czuje, nauczycielka kieruje ją do higienistki, Kasia unika pisania klasówka. Jej organizm wypracowuje sobie taką reakcję i sposób radzenia sobie z sytuacją trudną.

Dzisiejsze badania wykazują że reakcje które nie są pod naszą kontrolą czyli wegetatywne można również regulować, więc zamiast brać tabletkę na to że nam się przedwcześnie zamyka zastawka w sercu to podajemy czynnik o charakterze nagrody bądź kary.

Przykład 2.

Chłopczyk dostaje silnych napadów astmy podczas jechania do krewnych, setno sprawy tkwiło w tym że on nie lubił tam jeździć i jak dostawał ten atak astmy to mama go zabierała.

Wzmocnienie negatywne – zabranie bodźca awersyjnego jako konsekwencja reakcji warunkowej i prowadzi do wzrostu częstotliwości reakcji

Kara- podanie bodźca awersyjnego co skutkuje w spadku częstotliwości reakcji.

!!!!Na gruncie warunkowania klasycznego wzmocnienie jest podaniem tego bodźca awersyjnego !!!!!! nadal nie jest karą !

Wzmocnienie negatywne w warunkowaniu klasycznym = polega na podaniu bodźca awersyjnego SW(stymulacja warunkowa/bodziec) -RW a w warunkowaniu sprawczym na usunięciu tego bodźca RW-SW.

W obu wzmacniają związek.

Klasyfikacja wzmocnień

Pozytywne i negatywne

Wzmocnienie pierwotne – naturalne – pokarm dla głodnego, bodźce seksualne

Wzmocnienie wtórne – wyuczone – symboliczne np. pieniądze, społeczne np. pochwała, czynności np. umożliwienie oglądania filmu

Wzmocnienie symboliczne – słynna gospodarka żetonami ; żetony – wzmocnienie wyuczone można przyznawać za zachowanie pożądane w klasie np. za siedzenie na miejscu, uważnie wykonywanie zadania, te żetony są wymieniane, jeśli masz trzy żetony to dostajesz coś tam. Dobrze działa w placówkach z młodzieżą trudną.

Czynność jako wzmocnienie Dawid Premack, 1965

Wszystkie zachowania można uporządkować hierarchicznie według częstości ich występowania - > najbardziej atrakcyjne znajdują się na górze struktury najmniej atrakcyjne na dole. Ta hierarchia nie jest raz na zawsze ustalona. Nie jest stała np. jedzenie zależy od tego jak długo nie jedliśmy.

Zawsze wtedy gdy nie możemy wykonać czynności którą w normalnych okolicznościach wykonujemy z określoną częstotliwością następuje jej awans w hierarchii.

Czynności jako wzmocnienie - Zasada Premacka

Czynność stojąca wyżej w hierarchii czynnościowej można ją wykorzystać dla wzmocnienia czynności stojącej niżej, np. odrobisz lekcje to będziesz mógł obejrzeć film

Trzecie kryterium podziału wzmocnień :kryterium procedura ich stosowania

Ciągłe – np. kiedy mama dla świętego spokoju kupuje grzesiowi zabawkę bo on płacze , mama nagrodziła zachowanie niepożądane społecznie – za każdym razem kiedy Grzesio płacze mama kupuje tą zabawkę

i częściowe – mama dzisiaj kupuje ale następnym razem nie kupi

W obu przypadkach Grzesio się nauczy takiego zachowania, ale konsekwencje będą dla wygaszenia tego zachowania. Jeśli mamy buntują się i mówią że nigdy nie będą kupować już zabawek, więc przystępują do próby wygaszenia. Przy wygaszaniu częściowym mamie będzie ciężej bo ten związek jest silniejszy. Mama nie kupuje potem też nie Grzesio nie jest zdziwiony bo były takie sytuacje że mama nie kupowała, więc skąd Grzesio wie że tym razem nie kupi ?

Grzesio przy ciągłym wzmacnianiu szybko dochodzi do wniosku że nie tędy droga.

W przypadku nagród bardziej efektywne jest nagradzanie częściowe (osiągamy stabilizację zachowania). Przyczyniamy się do utrwalenia pozytywnych reakcji.

Jeśli chodzi o kary to za każdym razem musimy karać nie może być że to samo zachowanie jest ukarane a innym razem nie – brak konsekwencji. Więc tutaj bardziej skuteczna jest ciągła procedura.

16.03 Twórczość

Twórczość jest nadrzędną względem procesu twórczego.

Twórczość skrystalizowana (aktualna) – twórczość prawdziwa , ta twórczość aktualna, którą rozpoznajemy po wytworach po dziele po pewnych rezultatów, czyli kryterium jest pojawienie się określonego wytworu o wymaganych cechach: nowość, wartościowość ( musi być uznany przez pewną grupę ludzi za wartościowy dla nich) Definiuje się tą twórczość po rezultacie końcowym. Nie wszyscy mogą się pochwalić tą twórczością.

Psychologów bardziej interesuje twórczość procesualna (potencjalna) – kiedy obywamy się bez tego dzieła , jest nam niepotrzebne żeby zdefiniować twórczość, kryterium jest zatem specyficzne właściwości procesu umysłowego czy osobowości. Wymaga to określenia jakie cechy aktywności umysłowej odróżniają tę aktywność od innej która byłaby nietwórcza. Odbywa się bez dzieł.

Twórczość skrystalizowana

  1. Mówimy że twórczość to całokształt wytworów np. mówimy będziemy się zajmować twórczością Mickiewicz, mamy na myśli cały dorobek a więc atrybut twórczości przypisany jest ludzkim wytworom np. wszystkim.

  2. Twórczość to wszelkiego rodzaju działania przynoszące nowe i wartościowe wytwory ( Trzebiński) więc ma się tutaj na myśli aktywność w wyniku której powstały te wytworu. Akcent przełożony jest na ten proces. Atrybut przypisany jest procesowi, ale musi on zaowocować powstaniem wytworu.

Pietrasiński – twórczość to aktywność przynosząca wytwory dotąd nieznane i wartościowe.

Strzałecki – twórczość to proces prowadzący do powstania nowego i wartościowego dzieła.

  1. Twórczość to zdolność wytwarzania dzieł nowych i wartościowych, więc atrybut twórczości jest przypisywany osobie , która to dzieło wykona , ale warunkiem nadal jest wytworzenie tego dzieła nowego i wartościowego. Tutaj można identyfikować jakie cechy naszej osoby naszego umysłu powodują że jesteśmy twórczy.

Więc podsumowując ujmujemy dzieło jako Zdolność cecha umysłu dzialanie, aktywność, proces wytwór, rezultat albo dzieło.

Cechy: nowość, wartościowość

Nie wszystko co nowe jest twórcze. Np. moja nowa sukienka , ktoś rok temu mógł ją mieć.

Wartość budzi więcej kontrowersji. Jest to kryterium relatywne.

Np. wystawy Gunthera von Hangens – śmierć i jego dzieła – te rzeźby z umarłych

Wybitna twórczość to często przekraczanie kanonów społecznych i etycznych.

Nowość jest cechą konstytutywną twórczości a wartość jest cechą różnicująca dzielącą dzieła nowatorskie na dobre i złe. Istnieje tendencja do odmawiania dziełom nowatorskim, ale złym, miana twórczości.

Twórczość potencjalna

Odbywająca się bez dzieła. Istotniejsza dla psychologii.

Koncentracja jest na procesie (aktywności) próbują określić te specyficzne dla twórczej aktywności cechy, albo koncentrujemy się na cechach umysłu czy osobowości. Dzieła wytwory nie muszą się pojawić .

Transformacje :

Limon tworzył takie ćwiczenia - Można ćwiczyć łańcuchy transformacji .

A asocjacjach niewiele się teraz mówi, jako pierwszy mówił o nich Arystoteles, są zasady kojarzenia : kojarzenie polega na zestawianiu ze sobą pewnych idei. Są główne trzy zasady asocjacji: styczność w czasie i przestrzeni, podobieństwa i kontrasty. To jest kojarzenie bliskie.

Jeśli mówimy o twórczości to trzeba wprowadzić kojarzenie odległe – bisocjacje – nowe idea rodzą się w wyniku tego że myśl idzie daleko , daleko a więc kojarzymy idea które na pozór nie mają ze sobą nic wspólnego. Nie uwzględniają typowych zasad asocjacyjnych.

Chleb – kanapki , kościół, tosty , smalec, gołębie

Dwa typy kojarzenia:

Łańcuch – kiedy ważna jest poprzednia asocjacja, która stanowiła podstawę wysunięcia kolejnej asocjacji

Chleb-ziarno-zarodek-płód-dziecko-uczeń-szkoła

Gwiazda – ważne jest hasło wyjściowe, które staje się podstawą dla kolejnych asocjacji, czyli takie jak moje

Pszenica żyto

Chleb

Piec rolnik

Dla twórczości ważniejszy jest łańcuch ponieważ pozwala nam oddalić się w odleglejsze rejony .

Bisocjacja

Koestler mówi, że nasze doświadczenie rozpada się na liczne macierze – zbiory zachowań, nawyków, umiejętności , które funkcjonują zgodnie z układem stałych reguł. Szkoła dba o to żeby szufladkować naszą wiedze, żeby nasze doświadczenie ujęte było w pewne kategorie. A więc jeśli mamy problem matematyczny to szukamy rozwiązania w obrębie jednego macierzu , a więc wiedzy matematycznej. To szufladkowanie staje się przeszkodą w dokonywani aktów dysocjacyjnych, bo nowy i twórczy produkt pojawi się jedynie w rezultacie połączenie ze sobą odrębnych macierzy.

Bisocjacja jest więc podstawowym mechanizmem twórczości ( Koestler, Mednick)

Skojarzenie wozu drabiniastego z pociągiem i powstał parowóz – skojarzenie dalekie

Jeśli skojarzymy film z muzyką to powstaje teledysk.

Dokonywanie skojarzeń odległych – mechanizm

  1. Możemy kojarzyć w sposób odległy dzięki pośredniczącej roli innych idei , jeśli mówimy stół a ktoś powie rycerz = ktoś dokonuje takiego przeskoku pomiędzy stołem a rycerzem mogło być jedzenie, uczta, dwór. U niektórych osób ta myśl przeskakuje bardzo łatwo i po drodze niejako, czasem poza obszarem świadomości mija te środkowe skojarzenia.

  2. Kolejny mechanizm związany jest z pośrednicząca rolą emocji. Np. ktoś skojarzy żabę z lataniem inp. Ktoś się boi i żaby i latać ,a więc uczucia tej osoby pośredniczyły z tym skojarzeniem.

  3. Kolejny mechanizm związany jest z rolą kontekstu np. kojarzenie wiewiórki z kosmosem bo szliśmy kiedyś i zobaczyliśmy wiewiórkę w nocy przy świetle księżyca.

  4. Według Nęckiej skojarzenia mogą pojawiać się dzięki podobieństwu cech drugorzędnych np. zamek obronny i zamek do drzwi – podobieństwo liter.

Można ćwiczyć tworzenie bisocjacji np. poprzez zadania, które nastawione są na rozwijanie tej operacji myślowej. Wychodzi się od tego że podaje się dwa hasła całkowicie od siebie odległe np. Arystoteles i baran i trzeba podać ogniw pośredniczących

Arystoteles-> filozofia-> Starożytność-> Grecja-> góry-> łąki-> owca-> baran

Teraz trzeba skrócić ten łańcuch:

Arystoteles-> mądrość -> głupota-> barany

Arystoteles -> broda-> baran

Innymi ćwiczeniami są takie Bricolage, kiedy z bardzo różnych materiałów trzeba zaproponować coś to bd stanowiło całość np. tworzenie ufoludka.

Wykorzystanie bisocjacji w praktyce – oryginalny guzik

I faza : Najpierw pytamy z czego nie można zrobić guzika.

II faza pozwalająca wytworzyć oryginalny pomysł – czyli jak można jednak z tego czegoś guzik wytworzyć , wykorzystując pewne atrybuty?

Analogia – związek między dwoma obiektami opartymi na podobieństwie ich wewnętrznej struktury – analogię konstytuuje wspólnota relacji między kilkoma elementami każdego członu

Szkoła jest jak ul

Np. w szkole mamy dyrektora i ucznia i oni się mają tak do siebie jak matka (pszczół) do robotnic

Relacja nadrzędności-podrzędności

Guilford Joy

Dokonuje rozróżnienia operacji umysłowych: pamięciowe ewaluacyjne, percepcyjne i wytwarzanie dywergencyjne i z tą operacją umysłową łączy twórczość.

Wyróżnia dwa rodzaje operacji : dywergencyjne – twórczość ; konwergencyjne – inteligencja

Cechy wytwarzania dywergencyjnego : płynność wytwarzania treści, giętkość wytwarzania tekstu, oryginalność wytwarzania.

Kolejna propozycja:

Problem jest sytuacją nową dla podmiotu wymagającą myślenia produktywnego (twórczego). Tak ujmowana twórczość pozwala nam podejść do tego zjawiska ze strony etapów, gdyż problem jest rozciągnięty w czasie

Propozycja G.Wallasa (1926) – klasyczna koncepcja

Zauważa on że cały proces rozwiązywania problemów obejmuje fazy:

  1. Preparacji – faza kiedy zbieramy informacje na temat interesującego nas zjawiska, gromadzimy doświadczenie i podejmujemy próby rozwiązania problemu

  2. Inkubacja – okres w którym nie myślimy świadomie od problemu, odrywamy się od niego, następuje przekierowanie uwagi na inny rodzaj aktywności, okres w którym w sposób świadomy o tym problemie już nie myślimy

  3. Olśnienie – nagle w naszej świadomości pojawia się rozwiązanie idei, nie musi być prawidłowe ale się pojawia, niespodziewanie, a więc w okresie inkubacyjnym ten pomysł musiał się wylęgać niejako, dojrzewać i w zasadzie nie znamy operacji które w tym okresie nasz mózg mógł przeprowadzać a dane jest tylko rozwiązanie które pojawia się w tej fazie.

  4. Weryfikacja - pomysł podlega ocenie świadomej, występuje z myśleniem krytycznym kończy się to przyjęciem albo odrzuceniem

Nie ma zgodności co do tych etapów i faz wysnuwania pomysłów.

Inna propozycja – Józef Kozielecki (1996)

  1. Dostrzeżenie problemu

  2. Analiza sytuacji problemowej

  3. Wysnuwanie pomysłów rozwiązania

  4. Weryfikacja pomysłu

Zanika faza inkubacyjna .

Podsumowując można powiedzieć, że można sprowadzić cały proces do działania dwóch sprzężonych ze sobą układów: DWA GŁÓWNE ETAPY wg- J. Kozieleckiego (1966)

Generatora pomysłów – produkuje próbne rozwiązania

Ewaluatora – który poddaje ocenie wytwory generatory

Informacje -> generator pomysłów -> pomysły -> ewaluator -> rozwiązanie

Koncepcja interakcji twórczej

Edwarda Nęckiej, 1999 pętla sprzężenia zwrotneg jako paradygmat twórczości – autor wyraźnie sprzeciwia się takiemu fazowemu ujmowaniu twórczości , pokazuje że można mówić o dwóch podstawowych składowych procesu twórczego:

  1. Cel aktywności twórczej np. poeta sobie stawia za cel napiszę dzisiaj wiersz, powstają pewne utwory, ale ten utwór staje się strukturą

  2. Struktury stanowiące próbę osiągnięcia celu – strukturę niejednokrotnie zmieniam

Składowe procesu twórczego wg. Edwarda Nęckiej

Zauważa że to jest bardziej złożony proces, wie że są operacje wykonawcze, którymi kierują jakieś strategie i są też procesy zasilające które związane są z motywacjami i emocjami. Wymienia on również takie procesy które za wielu autorów są związane za operacje niezwiązane z twórczością albo wręcz stanowią przeciwieństwo twórczości np. dedukcja – logika – wiele autorów uważa że logika nie ma nic wspólnego z twórczością

Wgląd w różnych koncepcjach teoretycznych

Fazy wytwarzania pomysłów – zjawisko wglądu

Wgląd - czyli nagłe wpadnięcie na pomysł zjawisko AHA!

Dochodzi do zasadniczej zmiany sposobu problemu, osoba doświadcza nagłości rozwiązania, nie wie czasem skąd en pomysł się wziął. Zauważa się że to nagłe wpadnięcie na pomysł poprzedzone niejednokrotnie jest porażką - impasem, osoba doświadczy go w rozwiązywaniu zadania i po tym doświadczeniu następuje przerwa i właśnie w tej przerwie miałby pojawić się nagle ten pomysł.

Badania na procesie twórczym – zadania z wykorzystaniem łamigłówek – problem dziecięciu monet za pomocą trzech monet należy je odwrócić

Wgląd – badania z użyciem techniki ciepło-zimno- pozwala to na ustalenie momentu pojawienia się pomysłu.

Co się dzieje w przerwie inkubacyjnej?

To pojęcie funkcjonuje już poza teorią Wallesa, w różnych pojęciach i teoriach się pojawia. Postawiono początkowo trzy hipotezy

  1. Przerwa to okazja do odpoczynku i regeneracji zasobów energetycznych organizmu. W wyniku zmęczenia procesem.

  2. Przerwa to okazji do osłabienia błędnych nawyków i wygaszania sztywnych nastawień. Kiedy pracujemy nad jednym problemem czasem możemy atakować go ciągle z jednej strony- usztywniamy swój proces.

  3. Przerwa to okres, w którym można natknąć się na pożyteczne wskazówki i podpowiedzi, które naprowadzają nas na rozwiązanie problemu.

Badania Ponomareva ZAPAMIĘTAĆ – badania co nam daje przerwa inkubacyjna.

Należy połączyć te kropki trzma liniami nie odrywając ołówka tak by powrócił on do punkty wyjścia, osoby które chcą rozwiązać to zadanie często się usztywniają i przyjmują taki schemat że te kropki mają wyznaczyć ten obszar

W przerwie os. Badane wykonywały etiudę szachową, pomogło im to w rozwiązaniu problemu. Wniosek z tego badania jest taki że ta przerwa inkubacyjna jest okazją do znalezienia wzorca percepcyjnego umożliwiającego pozytywny transfer wiedzy. W tej przerwie inkubacyjnej znajdujemy wskazówkę podpowiedź co do rozwiązania zadania, ale Ponomariev zauważa że ta wskazówka jest pomocną wtedy i tylko wtedy, kiedy wcześniej podmiot podjął próbę rozwiązania zadania, kiedy zmierzył się z problemem i doświadczył impasu- porażki. Wedy wytwarza się dominanta poszukiwawcza i kiedy on przechodzi do przerwy inkubacyjnej funkcjonuje w ramach te dominanty jego umysł został uwrażliwiony na podpowiedź. Problem pojawia się kiedy tu wejść z tą podpowiedzią ( problem nauczycieli) nie można wejść za wcześnie bo ważne jest żeby uczeń wytworzył sobie tą dominantę. Ponomariev uważa że przerwa inkubacyjna nie działa automatycznie przez sam fakt oderwania od pracy, trzeba natknąć się jeszcze na tą wskazówkę.

Badania Dreistadta (1969)

Zadanie : posadź dziesięć drzew w czterech rzędach po cztery w każdym rzędzie

Wychodzi tak gwiazda

Koncepcja Aliny Kolańczyk (1989)

Uwaga intensywna

Uwaga intensywna Uwaga ekstensywna

Pojawia się kiedy jesteśmy skoncentrowani na tym problemie, uwaga jest zogniskowana, pole percepcyjne które obejmuje ta uwaga jest dosyć wąskie, ale przetwarzanie ma charakter głęboki- semantyczny; taka uwaga jest charakterystyczna w warunkach motywacji telicznej czyli kiedy dążymy do ściśle określonego celu; obejmuje mało elementów.

Kiedy wchodzimy w przerwę inkubacyjną uwaga przechodzi w ekstensywną

Jest to uwaga k™óra znacznie poszerza ilość elementów, zaczyna ona penetrować środowisko w sposób szeroki ale powierzchowny, percepcja ogranicza się przeważnie do powierzchownego, sensorycznego aspektu bodźców i ta uwaga charakterystyczna jest warunkach motywacji paratelicznej- czyli kiedy nie zajmujemy się konkretnym problemem np. w stanach relaksacji.

To przejście z uwagi i na uwagę e wpływa na to że zostają stworzone warunki na to żeby zaleźć podpowiedź, zwiększa się prawdopodobieństwo tego że natkniemy się na pożyteczną wskazówkę- rozszerza się nasze pole percepcyjne.

Ta uwaga sprzyja temu że natrafimy na informację użyteczną ( akty bisocjacji, uchwycenie analogii )

Jakie procesy poznawcza umożliwiają wgląd współczesne badania nad wglądem?

Teoria wybiórczości

Poznawczy mechanizm wglądu – J Dawidson, R. Sterberg

Wybiórczość – selektywne kodowanie , selektywne porównywanie i selektywne łączenie - > te trzy operacje są ważne dla tego procesu

Selektywne kodowanie – odnosi się do sytuacji odbioru informacji, związane jest z procesami percepcji, rozwiązanie problemu wymaga od nas zwrócenia uwagi na istotne informacje oraz ignorowanie informacji nieistotnych

Selektywne porównywanie – dochodzi do dostrzeżenia podobieństwa(analogia, metafora) między starą wiedzą a informacjami nabywanymi, dokonuje się swoisty transfer wiedzy

Przykład Galileusza – obserwował ruch kadzielnicy w kościele i w ty wpadł na pomysł żeby ten ruch wahadłowy wykorzystać jako regulator zegara

Selektywne łączenie - kiedy dochodzi do wysunięcia pomysłu na skutek zestawienie, kombinowania pewnych oderwanych fragmentów wiedzy, łączenie je w nowe sensowne całości

Model oportunistycznej asymilacji Seifert (1995)

Wgląd jest skutkiem wykorzystania informacji przypadkowo pojawiających się w polu percepcyjnych - korzystanie z okazji

Faza przygotowawcza jest czteroetapowa:

  1. Konfrontacja z problemem

  2. Doświadczenie porażki i jej zrozumienie

  3. Zapisanie jej w pamięci trwałej

  4. Zaprzestanie pracy nad problemem

W fazie inkubacji natykamy się na wskazówki.

Faza inkubacji :

Rola zewnętrznej stymulacji

Uwaga jest szczególnie uwrażliwiona na bodźce zewnętrzne, które mogą pomóc w przezwyciężanie impasu.

Przypadkowe bodźce zewnętrzne uaktywniają pamięciowe wskazówki porażki i są następnie interpretowane jako pożyteczne podpowiedzi co owocuje iluminacji.

Czym jest twórczość potencjalna? Odbywająca się bez dzieł

Definicja negatywna:

Jeżeli aktywność człowieka nie jest w pełni zdeterminowana przez znane człowiekowi już wcześniej sposoby postępowania i zawiera elementy niepewności i hazardu, możemy powiedzieć, że ma ona charakter twórczy.

Inteligencja 30.03

Ujęcie szerokie:

Odnosi się ono do : Inteligencja odnoszona jest zarówno do świata ludzi jak i do świata zwierząt .

Inteligencja to zdolność do adaptacji do nowych warunków; inaczej jest to zdolność uczenia się – łatwość i szybkość nabywania nowych zachowań

Ujęcie wąskie:

W tym ujęciu inteligencja to właściwości (mechanizmy) psychiczne wyznaczające efektywność w zakresie zadań angażujących procesy intelektualne – poznawcze, przede wszystkim funkcje myślowe

Inteligencja jest zdolnością, poziom osiąganych rezultatów działań- efektywność świadczy o tej zdolności.

Klasycznie inteligencje wiążemy z intelektem , ze sposobem funkcjonowania w obszarze poznawczym i traktujemy ją jak coś co wyznacza efektywność w procesach angażujących procesy poznawcze, a zatem pojawia się tu więcej definicji:

Wąskie ujęcie cd. (ujęcie psychologii poznawczej)

Jest taka specyficzna definicja , która zaistniała na gruncie psychologii poznawczej:

Sternberg i Detterman (86) zorganizowali sympozjum w celu wypracowania jednej definicji inteligencji i w rezultacie wyodrębnione trzy grupy definicji:

  1. Inteligencja to zdolność do uczenia się na podstawie własnych doświadczeń, a zatem jeśli zdarzy mi się popełnić błąd a jestem osobą inteligentną to na drugi raz tego błędu nie popełnię – osoba inteligentna może popełnić błąd ale go nie powtórzy

  2. Inteligencja jest zdolnością przystosowania się do otaczającego środowiska- stawia nam ono pewne wymagania i odpowiednio do tego modyfikujemy swoje zachowanie; osoba inteligentna bd zachowywać się adekwatnie do okoliczności

  3. Inteligencja to zdolność metapoznawcza, czyli rozeznanie we własnych procesach poznawczych i zdolność ich kontrolowania- os. inteligentna używa umysłu bardziej refleksyjnie i jest w stanie intencjonalnie sterować własnymi procesami poznawczymi

Edward Nęcka chciał sprowadzić definicję do jednej:

Koncepcje inteligencji

Psychologiczne (dwa podejścia)

Procesualne – problem różnic indywidualnych schodzi na plan dalszy, interesujemy się mechanizmem, chcemy poznać to zjawisko

Czynnikowe (strukturalne) – próbuje się odpowiedzieć na pytanie jaka jest struktura inteligencji, czy to jest jedna zdolność czy większa liczba zdolności, jeśli więcej to jak one są ze sobą powiązane; nastawione jest to podejście na badanie różnic indywidualnych, więc inteligencja jest cechą, na podstawie której możemy być porównywani i oceniani

Pytania na które próbowano odp:

  1. Czy inteligencja jest zdolnością jednolitą, czy w jej skład wchodzi wiele różnych zdolności?

  2. Jak dużo jest tych zdolności (1-150) ?

  3. Jakie są wzajemne relacje między zdolnościami – czy są wzajemnie niezależne czy może tworzą strukturę hierarchiczną?

W tym podejściu żeby odp na te pytania wykorzystywano metodę korelacji (matematyczno-statystyczna) , inaczej metoda czynnikowa.

Większość psychologów skłania się do tego, żeby uznawać inteligencje jako byt złożony.

Podstawowe zdolności umysłowe według Thurstone’a : zdolności wizualne i przestrzenne, szybkość percepcyjna, zdolności liczbowe, pamięć, znaczenie werbalne, płynność słowna, rozumowanie dedukcyjne, rozumowanie indukcyjne.

W jakim stosunku pozostają do siebie poszczególne zdolności?

Modele hierarchiczne

Czynnik g – inteligencja ogólna

Czynnik s – zdolności specjalne

Inteligencja ogólna – jest to rodzaj energii mentalnej przydzielanej poszczególnym zadaniom poznawczym ( np. obejrzenie filmu wymaga mniej energii mentalnej – mniej inteligencji- niż napisanie tekstu naukowego) .

Podejście strukturalne akcentuje różnice indywidualne i sprowadzałyby się one tutaj do ilości potencjalnej energii mentalnej, jaką dysponują poszczególne osoby.

Spearman twierdził, że najlepszymi zadaniami które mierzą inteligencję ogólną są zadania, które wymagają edukcji relacji ( zadanie wymaga od osoby badanej ujęcie stosunku między elementami np. dom-dach- relacja nadrzędności, podrzędności ; dach jest częścią domu); albo edukcji korelatu ( zadania wymagają wydedukowania co jest brakującym elementem gdy znana jest relacja (np. relacja przeciwieństwo zimny -? – ciepły).

Edukcja korelatu stała się podstawą do stworzenia znanego testu – Test Matryc Ravena. Na matrycy mamy figury i trzeba odkryć relacje między nimi.

Inteligencja w ujęciu Ravena jest zdolnością do ujmowania relacji ( wnioskowania indukcyjnego) na materiale abstrakcyjnym – dostrzeganie abstrakcyjnych relacji i posługiwanie się nimi miało być przejawem tzw. „ogólnej” czy „czystej” inteligencji. Podkreślał on że czynnik g miałby być niezależny od treści zadania i wcześniej nabytej wiedzy.

Na pierwszym poziomie jest inteligencja ogólna, ale czynnik g ujawnia się na każdym poziomie, ale im niższy poziom tym mniejsze nasycenie danej zdolności.

Różnice w różnych modelach dot. liczby i wzajemnego układu zdolności niższego rzędu.

Na drugim poziomie wg. Modelu Gustaffsona rozróżniamy zdolności: werbalne i figuralne.

Zadania które odwołują się do czynnika werbalnego, prosi się os. badaną na wskazanie podobieństwa ( skala słowna) w czym jest podobne masło i kisiel? Może być też zadanie które angażuje poziom figuralny to jest skala wykonaniowa- taka układanka pocięta na kawałki

Czynnik G można też rozróżniać jako inteligencję płynną (ujawnia się w rozwiązywaniu zadań w których chodzi o ujmowanie stosunków między rzeczami czy elementami, przypomina on bardzo edukcję relacji); byłby to czynnik genetyczny, uwarunkowany właściwościami fizjologicznymi, może to być dokonywane na materiale niewerbalnym i inteligencję skrystalizowaną ( ujawnia się najbardziej w rozwiązywaniu zadań które wymagają naszej wiedzy, tych umiejętności których nabywamy w rozwoju osobniczym np. w zadaniach wymagających znajomości słów, zdolności logicznego myślenia czy liczbowych

Kwestia sporna : istota czynnika g; dzisiaj przyjmuje się że inteligencja ogólna badana jest przez zadania wnioskowania i rozumowania , sceptycy podchodzą do czynnika g w ten sposób że tak naprawdę ten czynnik g jest matematyczną abstrakcją i nie istnieje jako samodzielny byt i nie zasługuje na to jako częśc składowa teorii inteligencji

Proponuje się zatem aby ujmować inteligencję jako zestaw niezależnych rodzajów zdolności

Model czynników równorzędnych – Joy Guilford 1950

- operacji umysłowych (operacje głównie związane ze spostrzeganiem, kodowaniem, operacje pamięciowe, związane z oceną i ewaluacją, myślenie konwergencyjne i dywergencyjne)

- materiału ( treści wzrokowe, służbowe, symboliczne, semantyczne, zachowanie)

- wyniku (wytwory jednostki, klasy, relacje,, systemy, przekształcenia, implikacje)

Model inteligencji wielorakiem – Howard Gardner – 1983

Jest wiele inteligencji ( muzyczna, językowa, logiczno-matematyczna, przestrzenno-relacyjna, kinestetyczna, intrapersonalna, interpersonalna)

Inteligencja w ujęciu procesualnym

Inteligencja – jest procesem mobilizacji zasobów poznawczych w celu rozwiązania nowego bądź złożonego problemu

Pojęcie spopularyzowane przez : Daniela Kahnemana – 73 w związku z rozważaniami na temat uwagi i Stevana Hobfolla w związku z teorią stresu

Ujęcie wąskie ( ujęcie Kahnemana)

Zasoby poznawcze – niespecyficzna energia mentalna, która może być zużyta przez umysł w dowolnym celu a o jej wykorzystaniu decyduje system uwagowy. Niespecyficzna oznacza że może obsługiwać wszelkie rodzaje zadania

(Ujęcie szerokie – Hobfolla)

Zasoby to wszelkie aktywa , którymi dysponuje osoba znajdująca się w sytuacji trudnej ( czynniki ściśle psychologiczne np. umiejętności i wiedza, czynniki społeczne np. rodzina i przyjaciele, ekonomiczne np. dobra materialne

Zasoby poznawcze z perspektywy inteligencji ( pojęcie pomiędzy szerokim a wąskim ujęciem)

  1. Formalne właściwości całego systemu poznawczego ( zasoby ogólne)

  2. Formalne właściwości centralnych modułów odpowiedzialnych za nadzór i kontrolę poznawczą ( uwaga , pamięć robocza)

  3. Formalne i treściowe – właściwości reprezentacji poznawczych ( zasoby specyficzne)

Formalne właściwości całego systemu poznawczego: tempo przetwarzania informacji , szybkość mentalna – badania w zakresie rotacji mentalnej np. osoba badana ma sobie wyobrazić obiekt zrotowany o ileś tam stopni i wskaźnikiem tempa przetwarzania informacji miałby być czas tej reakcji, osoby bardziej inteligentne szybciej uporałyby się z wykonanie tego zadania; drugi aspekt to mobilność procesów poznawczych czyli zdolność do zmiany kierunku np. zadanie np. wykonanie odmiennej reakcji która była poprzedzona inną reakcją
Formalne właściwości centralnych modułów umysłu odpowiadających za nadzór o kontrolę uwagi i pamięci operacyjnej – można je opisać poprzez liczbę elementów poddanych obróbce np. pod względem liczny wykorzystania kanałów sensorycznych na ile uwaga osoby jest w stanie kontrolować jednocześnie wykonywane zdolności, czy jak dużą liczbę elementów może pamięć operacyjna przechować

Formalne i treściowe właściwości struktur poznawczych – jest to nasza wiedza i sposób jej zorganizowania, a więc wiedza trwała, jawna, deklaratywna i proceduralna więc jest to wszystko co człowiek wie i w jaki sposób wie, wiedza zawarta w skryptach czy procedurach

Zasoby poznawcze podsumowując są to wszelkie formalne i treściowe cechy umysłu możliwe do wykorzystania w sytuacji problemowej.

Inteligencja to proces mobilizacji zasobów poznawczych w celu rozwiązania nowego bądź złożonego problemu.

Strategie mobilizacji zasobów poznawczych

Strategia mobilizowania zasobów ogólnych w celu przezwyciężenia niedostatków zasobów szczegółowych (typowa dla ludzi młodych i niedoświadczonych); można przezwyciężyć niedostatki dzięki zasobom specyficznym np. szybkości mentalnej

Im jesteśmy starsi korzystanie z zasobów ogólnych staje się zbędne – strategia mobilizacji zasobów specyficznych ( typowa dla ludzi starszych i ekspertów) –wraz z wiekiem inteligencja zaczyna ta ogólna nam być coraz mniej potrzebna, oprócz w sytuacjach zupełnie dla nas nowych

Podsumowanie podejścia czynnikowego i procesualnego

Możliwa jest w tym obszarze synteza: piramida intelektu (wysokość)

Zdolności intelektualne należą do trzech warstw wyróżnionych ze względu na to jak szerokiej klasy one dotyczą: warstwa na samym dole są czynniki specyficzne które odpowiadają zdolnościom specjalnym, które ujawniają się w zadaniach specyficznych , wyższe warstwy są ogólniejsze.

Na tę piramidę można spojrzeć z rzutu z góry (wtedy uwzględniamy wszystkie trzy podejścia do inteligencji ( czynnikowe, biologiczne i procesualne)

Biologiczne

Hipoteza 1.

Podłożem inteligencji jest szybkość przewodzenia impulsów nerwowych. Badania prowadzi się korelując iloraz inteligencji z czasem reakcji – wykonywania zadań prostych, im wyższy iloraz inteligencji tym krótszy czas wykonywania zadania np. badania nad przesyłaniem impulsu od nadgarstka do barku – impuls szybciej przepływa u osób bardziej inteligentnych .

Hipoteza 2.

Podłożem inteligencji jest odporność układu nerwowego na zakłócenia transmisji impulsów nerwowych. Np. osoby badane słuchają różnych dźwięków i mają wychwytywać dźwięki i różnej głośności i obserwujemy, że czas reakcji na dźwięk o średnim natężeniu u osoby inteligentnej jest zbliżony za każdym razem, regularność tych czasów, przybierają one zbliżoną do siebie wartość, bez względu na różne dystraktory i zadania- sugeruje się że spowodowane jest tym, że sieć neuronalna jest bardziej sprawna i odporna na zakłócenia.

Co więcej mózgi osób inteligentnych mają większą energetyczną wydajność. Mniejsze jest zużywanie glukozy przez tkankę mózgową podczas wykonywania zadania poznawczego u osób inteligentnych.

Hipoteza 3.

Inteligencja związana jest z wielkością mózgu czy jego złożonością ( większa liczba neuronów, aksonów, połączeń synaptycznych).

  1. PARADYGMATY POPRZEDZANIA (S.225; S.259)

PARADYGMAT 5.6 poprzedzanie (prymowanie, priming)

Poprzedzanie ma miejsce wtedy, gdy jeden bodziec, zwany prymą (prime), wpływa na przetwarzanie następującego po nim bodźca docelowego (target). W starszych pracach psychologicznych podobne efekty nazywano nastawieniem. Pryma i bo­dziec docelowy muszą być powiązane sensorycznie (np. identyczny lub podobny wygląd; Evett, Humphreys, 1981) lub semantycznie (np. identyczne lub bliskie znaczenie; Posner, Snyder, 1975). Nie jest więc przykładem prymowania jakie­kolwiek oddziaływanie - rzeczywiste lub potencjalne - tego, co było wcześniej, na to, co pojawia się później. Gdyby definicję prymowania aż tak rozszerzyć, pod­padałoby pod nią w zasadzie całe życie psychiczne człowieka. Chcąc uniknąć kłopotów związanych z przyjęciem zbyt szerokiej definicji zjawiska, terminem „pry­mowanie” oznaczamy technikę badań eksperymentalnych, czyli paradygmat, pole­gający na poprzedzaniu bodźca docelowego bodźcem w jakiś sposób z nim powiązanym.

W zależności od rodzaju powiązania rozróżniamy wiele typów poprzedzania, poprzedzanie repetytywne polega na krótkiej ekspozycji tego samego bodźca, który za chwilę ma być przez osobę badaną rozpoznany, przeczytany, zaliczony do jakiejś kategorii lub w inny sposób przetworzony. Poprzedzanie semantyczne polega na tym, że pryma nie jest identyczna z bodźcem docelowym, ale jest z nim znaczeniowo powiązana. Pryma może być np. synonimem bodźca docelowego V (biblioteka księgozbiór) lub słowem należącym do tej samej kategorii (długopis } -» ołówek). W badaniach tego typu stwierdza się zazwyczaj, że bodziec prymujący ułatwia przetwarzanie bodźca docelowego, np. skraca czas potrzebny na jego rozpoznanie, przeczytanie, nazwanie itp. Mamy wtedy do czynienia z poprze­dzaniem pozytywnym, zwanym też niekiedy torowaniem, ponieważ pryma jak gdyby toruje drogę bodźcowi docelowemu. Może się jednak zdarzyć, że bodziec poprzedzający wydłuża czas reakcji albo w inny sposób utrudnia przetwarzanie bodźca docelowego. Nazywamy to efektem poprzedzania negatywnego, który zwykle ujawnia się tylko w specyficznym układzie bodźców (zob. rozdz. 6).

Jeśli bodziec poprzedzający działa w bardzo krótkim czasie, od kilku do kil­kudziesięciu ms, osoba badana nie jest w stanie go zauważyć. Jeśli mimo to obserwujemy zmiany w przetwarzaniu bodźca docelowego, mamy do czynienia z poprzedzaniem podprogowym, inaczej subliminalnym. Trzeba jednak pamiętać, że poprzedzanie podprogowe niekoniecznie wymaga bardzo krótkiej ekspozycji prymy. Niekiedy efekt podprogowości można uzyskać inaczej, np. prezentując bodziec o bardzo małej intensywności. Możemy w tym celu manipulować poziomem jasności bodźca wzrokowego lub poziomem głośności bodźca słuchowego. Jeśli bodziec poprzedzający jest wystarczająco intensywny i trwa wystarczająco długo a mimo to osoba badana nie zdaje sobie sprawy z jego oddziaływania, mamy cl czynienia z poprzedzaniem peryferycznym. Bodziec wzrokowy może np. zr dować się na peryferiach pola widzenia albo w centrum pola widzenia, ale doskonale zamaskowany innymi bodźcami, przez co osoba badana nie jest w stanie zauważyć. Jeśli mimo to obserwujemy obiektywny wpływ takiej prymy na przetwarzanie bodźca docelowego, możemy mówić o efekcie poprzedzania peryferyjnego. Peryferyczna może być też pryma słuchowa, występująca tuż przed bodźcem docelowym i obiektywnie wystarczająco głośna, ale pojawiająca się w t2 kanale ignorowanym (paradygmat 5.1).

Szczególnym przypadkiem jest poprzedzanie afektywne, które polega aplikowaniu przed bodźcem docelowym bodźców emocjonalnie nieobojętnych, wizerunków uśmiechniętych lub zasmuconych twarzy, fotografii przyjemnych albo nieprzyjemnych obiektów lub scen, czy też słów oznaczających uczucia lub jarzących się z emocjami. W takim przypadku obserwuje się zwykle, że bodziec docelowy jest inaczej oceniany pod wpływem działania prymy. Na przykład bod2 pierwotnie neutralny może nam się wydawać sympatyczny lub niesympatyczny w zależności od emocjonalnego znaku zastosowanej prymy.

W większości badań nad poprzedzaniem zachowuje się ścisłe powiązane czasowe między prymą a bodźcem docelowym. Typowy eksperyment polega zaaranżowaniu szeregu prób, z których każda składa się z określonej sekwencji zdarzeń, np.:

reakcja

Pryma trwa zwykle bardzo krótko, chyba że celowo rezygnujemy z możliwości efektów subliminalnych. Po niej następuje maska, czyli np. rząd gwiazdek **** liter XXXX, które zapobiegają utrzymywaniu się śladu bodźca - już po js zniknięciu - na siatkówce oka. Po masce pojawia się bodziec docelowy, na klon należy zareagować zgodnie z instrukcją. Po krótkiej przerwie następuje kolejna próba, skonstruowana według tego samego schematu. Taki schemat bada nazywamy poprzedzaniem sekwencyjnym.

W niektórych badaniach nad pamięcią stosuje się inny, niesekwencyjny paradygmat prymowania. Osoba badana czyta np. krótki fragment prozy, zawierającej pewną liczbę semantycznie powiązanych słów. Mogą to być słowa należące do,; samej kategorii lub kojarzące się z czymś wspólnym. Po pewnym czasie, który mol trwać ok. tygodnia, osobie badanej prezentuje się inny fragment prozy, sprawdzaj? czy wcześniej prezentowane bodźce w jakiś sposób wpłynęły na ocenę drugie fragmentu, albo na to, w jaki sposób będzie on zapamiętany lub zinterpretowany. W badaniach tego typu udało się wykazać, że bodźce prymujące, prezentowanej długo przed właściwym tekstem, są w stanie wpłynąć na sposób przetwarzaj bodźców docelowych, choć osoba badana nie zdaje sobie z tego sprawy.

Obfitość i różnorodność badań z użyciem paradygmatu poprzedzania sprawia, że jest to obecnie jedna z bardziej popularnych technik eksperymentował w psychologii poznawczej.

  1. PARADYGMAT ZADANIA STROOPA (S.241)

Paradygmat 6.2 Stroopa

Efekt interferencji Stroopa (1935) jest jednym z najsłynniejszych zjawisk w psychologii eksperymentalnej. Na przełomie lat 1980/1990 przywoływano go w blisko 80 pracach rocznie. Tendencja ta ma ciągle charakter wzrostowy. Dla porównania - równie słynny efekt świeżości, odkryty przez Petersona i Peterson (1959), przywoływano tylko w 30 publikacjach rocznie i liczba ta była dość stała (MacLeod, 1992). Zadanie Stroopa wykorzystywano jako metodę badawczą w przypadku ponad 20 prac rocznie. Popularność tego efektu wynika z dwóch przyczyn. Po pierwsze, jest on zawsze istotny statystycznie, silny i powtarzalny. Po drugie, pomimo 70 lat badań nad tym zjawiskiem, nadal pozostaje on fenomenem nie do końca wyjaśnionym co do swego podłoża i mechanizmu (MacLeod, 1991).

Istotą efektu Stroopa jest utrudnienie w przetwarzaniu bodźców niespójnych (np. słowo „czerwony” napisane zielonym atramentem) w porównaniu z bodźcami spójnymi (np, słowo „czerwony” napisane czerwonym atramentem; zob. ryc. 6.3) Osoby badane czytają słowa spójne lub niespójne, albo nazywają kolor atrament użyty do napisania słów spójnych lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie kolorów, ponieważ jest czynnością silnie zautomatyzowaną. Jeśli chodzi o nazywanie kolorów, czynność ta jest zwykle znacznie dłużsi w przypadku słów niespójnych, w porównaniu ze spójnymi. Nazwano to efektem interferencji, a jego miarą jest różnica między średnim czasem, potrzebnym do nazwanie koloru słowa niespójnego, a średnim czasem potrzebnym na nazwanie koloru słowa spójnego. Jeśli w badaniu bierze udział bardzo heterogeniczna próba w której skład wchodzą osoby o różnym podstawowym tempie reagowania, lepszą miarą efektu interferencji jest proporcja średnich czasów reakcji, a nie ich różnic

Ryc. 6.3. Bodźce używane w badaniach nad efektem interferencji Stroopa (1935) oraz rozkłady czasów reakcji w warunkach neutralnym i konfliktowym. Drugi z bodźców każdej pary bodźcem konfliktowym, podczas gdy pierwszy jest bodźcem spójnym. Interferencja może dotyczyć kierunku, znaczenia, aspektu emocjonalnego lub układu przestrzennego bodźców.

Interpretacja efektu interferencji Stroopa wymaga starannej analizy procesów biorących udział w jego powstawaniu. Osoba badana musi zahamować nawykową dobrze wyuczoną czynność (przeczytanie słowa), aby zamiast niej wykonać inną czynność, w ogóle nie wyuczoną i dość „egzotyczną” (nazwanie koloru atramentu jakim napisane jest to słowo). Długotrwały proces nabywania wprawy w czytaniu polega m.in. na tym, aby nauczyć się ignorować to, w jaki sposób dane słowo jest napisane (np. literami dużymi czy małymi, pisanymi czy drukowanymi, czcionką Courier czy Times Roman), a skupić się na jego znaczeniu. W eksperymencie I psychologicznym nagle trzeba zachować się zupełnie inaczej, co dla wielu osób stanowi nie lada problem, a dla wszystkich jest źródłem efektu interferencji. Dlatego im słabszy ów efekt, tym silniejsza i skuteczniejsza kontrola poznawcza. Osoba zdolna do uruchomienia silnych, wydajnych procesów kontrolnych szybciej f zahamuje niepotrzebną reakcję, dając wolną drogę reakcji wymaganej instrukcją eksperymentu. W rezultacie czas potrzebny na zareagowanie w warunku niespójnym będzie u takiej osoby relatywnie krótki, choć oczywiście znacząco dłuższy f- niż w warunku spójnym. Jednak relatywne skrócenie czasu reakcji w warunku f niespójnym przełoży się na obniżenie wartości wskaźnika interferencji. Natomiast osoba nie dysponująca silnymi, wydajnymi procesami kontroli, będzie miała duże trudności z zahamowaniem niepotrzebnej reakcji. Nawet jeśli w końcu to uczyni, będzie potrzebowała więcej czasu, co przełoży się na relatywnie długi czas reakcji w warunku niespójnym i w konsekwencji - na podwyższenie wskaźnika inter­ferencji. Badania nad różnicami indywidualnymi zwykle pokazują, że w warunku spójnym wszyscy reagują mniej więcej z taką samą szybkością, choć oczywiście i tu ujawniają się cechy indywidualne. Jednak dopiero w warunku niespójnym wystę­puje prawdziwe wielkie zróżnicowanie. Dlatego relatywne wydłużenie lub skrócenie czasu reakcji w warunku niespójnym decyduje o wielkości efektu interferencji, a wielkość ta świadczy o silnej (mała wartość efektu) lub słabej (duża wartość efektu) kontroli poznawczej. Taką samą logikę interpretacji stosujemy wobec wszystkich zadań, zawierających aspekt interferencji. Natomiast w przypadku po­przedzania negatywnego interpretacja jest odmienna (zob. paradygmat 6.3).

Współczesne wersje zadania Stroopa nieco się różnią od oryginału. W pierw­szym badaniu John Ridley Stroop (1935) porównywał szybkość czytania słów oznaczających kolory, napisanych czarnym atramentem (warunek kontrolny) albo atramentem niezgodnym z ich znaczeniem (bodziec niespójny). Badani potrzebo­wali średnio 23 ms więcej na przeczytanie wyrazu niespójnego niż wyrazu kon­trolnego. Efekt interferencji, wynikający z niespójnych aspektów bodźca, okazał się . nieistotny statystycznie. W badaniu drugim Stroop polecił badanym nazywać kolor atramentu, jakim napisany był wyraz oznaczający kolor, zamiast czytać słowo. Oprócz tego uczestnicy eksperymentu nazywali kolory prostokątów, w tej samej ? liczbie i układzie kolorów, jaki został utworzony na liście bodźców niespójnych, f Badani potrzebowali średnio 470 ms więcej na nazywanie koloru atramentu bodźca |niespójnego w porównaniu do kolorowego paska (efekt Stroopa). W badaniu trze- f cim Stroop poddał osoby badane procesowi automatyzacji czynności nazywania kolorów. Udało mu się zaobserwować, że osiem dni praktyki zmniejsza efekt inter­ferencji średnio o 336 ms, co jednak nie zredukowało statystycznej istotności tego epktu. Co więcej, badani, którzy nabyli wprawę w nazywaniu kolorów, wykazali również istotny efekt interferencji w przypadku czynności czytania bodźców | niespójnych - wyrazy te czytali średnio 308 ms na bodziec dłużej niż w warunku, f-ttpctórym były one napisane czarnym, zwykłym atramentem (tzw. odwrócony efekt Stroopa). Ten ostatni efekt zanikał jednak już w drugim postteście (wielkość efektu ? interferencji średnio 52 ms na bodziec, różnica nieistotna statystycznie). Dokładnej replikacji badań Stroopa (1935) dokonał MacLeod (1986), Uzyskał on analogiczne efekty, a różnice w zakresie wielkości efektu interferencji w porównaniu do eksperymentów Stroopa nie przekraczały 80 ms na pojedynczy bodziec niespójny.

Zadanie Stroopa poddawano licznym modyfikacjom (przegląd w: MacL 1991). Najbardziej znane z nich to:

We wszystkich badaniach z wykorzystaniem zadania Stroopa, niezależnie modyfikacji, uzyskuje się efekt interferencji. Jednak efekty te wykazują z reg swoją specyficzność, ponieważ nie udało się stwierdzić występującej między, korelacji (Shiliing, Chetwynd, Rabbitt, 2002).

6.PARADYGMAT SYGNAŁ STOP (S.240)

Paradygmat 6.1 Sygnał stopu

Paradygmat sygnał stopu (stop-signal; Logan, 1982) wykorzystuje się w badaniach nad hamowaniem dobrze wyuczonych, silnie zautomatyzowanych czynności, głównie motorycznych. Osoby badane wykonują taką czynność w warunkach presji czasu. W różnych, nieprzewidywalnych momentach uczestnikom eksperymentu podaje się umówiony sygnał, który nakazuje im przerwać wykonywaną do tej pory czynność. Początkowe badania dotyczyły pisania na maszynie (Logan, f 1982) i mówienia (Levelt, 1983). Zachowanie osób badanych można w tych warunkach interpretować jako efekt „wyścigu” (teoria rywalizacji egzemplarzy Logan, 1988, 2002) między dwoma procesami. Pierwszy jest wzbudzany przez instrukcję i bodźce określające rodzaj zadania, a jego efekt to aktywacja odpowiednich struktur poznawczych i wykonanie oczekiwanej czynności poznawczej. Drugi proces jest wzbudzany przez sygnał zatrzymania (stop), powodując po­wstrzymanie się od dalszego wykonywania czynności, czyli zahamowanie dominującej reakcji (Logan, Cowan, 1984). W zgodzie z teorią rywalizacji egzem­plarzy, badani są w stanie tym szybciej zahamować wykonywaną czynność, im krótszy jest interwał pomiędzy pojawieniem się bodźca wzbudzającego wykony­waną czynność a pojawieniem się sygnału stopu. Powstrzymanie wykonywanej czynności jest jednak możliwe nawet przy relatywnie długich interwałach (De Jong i in., 1990).

Interesujące modyfikacje w zakresie omawianego paradygmatu przedstawił De Jong (De Jong, Coles, Logan, 1995). Zamiast mówienia czy pisania na maszynie, badani wykonywali prostą czynność motoryczną, polegającą na ściskaniu umieszczonego w ich dłoni dynamometru. Sygnałem do zatrzymania był specjalnie dobrany dźwięk. De Jong porównał trzy rodzaje hamowania dominującej reakcji przez zwykłe powstrzymanie się od jej wykonywania (stop ogólny; stop-all), przez powstrzymanie się od jej wykonania i wzbudzenie w jej zastępstwie reakcji alternatywnej (stop-zmiana; stop-change; zamiast ściskania dynamometru badani musieli nacisnąć nogą specjalny pedał) oraz przez powstrzymanie się od jej konania, ale tylko w zakresie jednego z dwóch efektorów (stop selektywni selective-stop; badani musieli powstrzymać się od reagowania jedną z rąk zazwyczaj dominującą). Badania Logana (1985) wykazały, że hamowanie dominującej reakcji jest znacznie trudniejsze w warunku drugim (stop-zmiana) niż pieszym (stop ogólny), natomiast w eksperymencie De Jonga, Colesa i Logana (199: stwierdzono, że najtrudniejsze jest hamowanie reakcji w zakresie tylko jednej z dwóch możliwych efektorów (stop selektywny). Paradygmat sygnał stopu może być używany w badaniach nad różnicami indywidualnymi w zakresie skuteczności procesów kontroli i hamowania. Im sku­teczniejsi jesteśmy w kontrolowaniu własnych procesów poznawczych, oczywiście : tylko w aspekcie hamowania, tym krócej kontynuujemy dobrze wyuczoną czynność, mimo odebrania sygnału stopu. Tak zdefiniowany wskaźnik skuteczności kontroli pogarsza się wraz ze starzeniem się, a także w niektórych stanach chorobowych. Obserwujemy wówczas wydłużenie czasu, w którym czynność jest nadal wykonywana, mimo sygnału stopu. W skrajnych przypadkach obserwuje się nawet ignorowanie sygnałów stopu. Realistycznym odpowiednikiem takiego zachowania jest niemożność przerwania raz uruchomionej wypowiedzi, mimo odbieranych z otoczenia sygnałów, że mówimy niepotrzebnie lub nie na temat.

  1. PARADYGMAT PODEJMOWANIA DECYZJI SEMANTYCZNYCH (S.109)

Paradygmat 3.2 Podejmowanie decyzji semantycznych

W badaniach nad podejmowaniem decyzji semantycznych respondenci proszeni są o jak najszybsze rozstrzygnięcie kwestii przynależności kategorialnej danego obiektu. Z reguły badania te prowadzi się w formule „od reprezentacji pojęciowej do egzemplarzy” (Trzebiński, 1986). Najpierw uczestnikowi eksperymentu na ekranie monitora prezentuje się etykietę werbalną, będącą nazwą reprezentacji pojęciowej (np. „ptaki”), a następnie wyświetla się etykiety odpowiadające różnym obiektom: ptakom („kanarek”, „wróbel” itd.) i nie-ptakom („pszczoła”, „wieloryb” itd.). Za­daniem osoby badanej jest jak najszybciej nacisnąć przycisk korespondujący z wybraną przez niego odpowiedzią: pozytywną, gdy egzemplarz jest przedstawi­cielem pojęcia, lub negatywną, gdy nim nie jest.

Początkowo paradygmat podejmowania decyzji semantycznych służył do falsyfikowania hipotez w ramach koncepcji struktury i funkcjonowania reprezentacji pojęciowych (wszystkie teorie z wyjątkiem koncepcji klasycznych). Później wykorzystywano go do sprawdzania wzajemnych relacji pomiędzy pojęciami w ramach struktury sieci semantycznej. Pytano więc o cechy poszczególnych pojęć (np. „Czy i kanarek lata?”), próbując ustalić, na jakim poziomie ogólności są przechowywane informacje o poszczególnych właściwościach. Sprawdzano także rodzaj relacji (pozytywne/negatywne) łączących poszczególne reprezentacje, zestawiając w zdaniu do weryfikowania obiekty ze sobą niepowiązane (np. „Czy budynek to | ! koń?”).

Badaczy interesował zarówno czas podejmowania decyzji, jak i poprawność klasyfikowania. Okazało się, że w przypadku nietypowych przedstawicieli danej v kategorii czas podjęcia decyzji rośnie o ok. 60 ms, a liczba błędów zwiększa się

przeciętnie dwukrotnie (Trzebiński, 1986). Wyniki badań w paradygmacie decyzji semantycznych świadczą na niekorzyść koncepcji klasycznych, ale nie są rozstrzygające w odniesieniu do pozostałych teorii reprezentacji pojęciowych.

Tymczasem ich zwolennicy wyraźnie interpretują te dane jako potwierdzenie swoich poglądów.

  1. PARADYGMAT PRZESZUKIWANIA POLA PERCEPCYJNEGO (S.181)

PARADYGMAT 5.2 Badanie przeszukiwania pola wzrokowego

Dlaczego mimo bałaganu na stole pewne obiekty odnajdujemy łatwo (wręcz narzu­cają się nam swoim wyglądem), a innych nie potrafimy zauważyć nawet w wyniku długich poszukiwań (jesteśmy na nie „ślepi uwagowo”)? Treisman i Gelade (1980) postanowiły zbadać proces przeszukiwania pola wzrokowego. W ich eksperymen­cie badani poszukiwali obiektów zdefiniowanych przez pojedynczą cechę (np. kolor: „znajdź zieloną figurę”) lub przez koniunkcję cech (np. kolor i położenie: „znajdź zieloną figurę zorientowaną poziomo”). Pierwszy typ przeszukiwania pola percepcyjnego nazwano prostym, zaś drugi - koniunkcyjnym.

Treisman i Gelade wykazały, że przeszukiwanie koniunkcyjne trwa dłużej niż przeszukiwanie proste, a ponadto jest zależne od liczby elementów przeszukiwanego zestawu. Przeszukiwanie koniunkcyjne ma więc charakter procesu szerego­wego, podczas gdy przeszukiwanie proste dokonuje się raczej równolegle, ponieważ czas reakcji w przeszukiwaniu prostym nie zależy od liczby elementów } w polu percepcyjnym. W paradygmacie przeszukiwania pola wzrokowego cechy definiujące poszukiwane obiekty mają postać właściwości sensorycznych. Próbując ustalić, które z właściwości obiektów mają charakter cech priorytetowych, przetwarzanych jako pierwsze w kolejności, badano poszukiwanie koniunkcyjne z udziałem m.in. takich cech, jak: ruch (McLeod, Driver, 1993), kolor (D’Zamura, 1991), głębia (Julesz, Bergen, 1983), czy położenie przestrzenne (Treisman, 1988). Stwierdzono, że podczas gdy ruch jest właściwością priorytetową niezależnie od . jego fizycznej charakterystyki (szybkość, kierunek), to statyczne położenie przestrzenne (np. horyzontalne, wertykalne) taką właściwością nie jest. Ustalono również, że kolor i głębia mogą być warunkowo cechami priorytetowymi, jeśli są wystarczająco wyraziste percepcyjnie (visual salience, inaczej: dystynktywne, np. rudy kolor włosów).

Manipulowano także liczbą cech w poszukiwanej koniunkcji (Cave, Wolfe) ich wyrazistością (Yantis, Hilistrom, 1994), a także liczbą cech wspólnych dla sygnałów i dystraktorów (Duncan, Humphreys, 1989). Okazało się, że poszukiwanie obiektu stanowiącego koniunkcję licznych właściwości niepriorytetowych może również być równoległe i szybkie, a bardzo wyrazista cecha niepriorytetowa może ;w większym stopniu przyciągać uwagę niż cecha priorytetowa (np. dystraktor o dystynktywnym kolorze powoduje spowolnienie procesu detekcji ruchomego sygnału). Stwierdzono też, że im bardziej podobne do siebie są bodźce zakłócające i celowe, tym dłużej trwa proces detekcji poszukiwanego sygnału i tym większe jest w takim przypadku prawdopodobieństwo szeregowości mechanizmów selekcji informacji.

Początkowo w badaniach prowadzonych w tym paradygmacie osobom badanym prezentowano jednocześnie cały dostępny zbiór obiektów do selekcji. Obecnie prowadzi się badania, w których sygnał lub dystraktor pojawia się w polu percepcyjnym nagle, podczas gdy pozostałe bodźce (tło) są już wcześniej całkowicie dostępne (Yantis, Jonides, 1988). Tło może być jednak prezentowane na peryferiach uwagi selektywnej, co oznacza, że mimo obiektywnej dostępności bodźce te są trudno zauważalne (Theeuwes, Kramer, Atchiey, 1999).

  1. PARADYGMAT DYCHOTYCZNEJ PREZENTACJI BODŹCÓW I METODA PODĄŻANIA (S.179)

Paradygmat 5.1 Dychotyczna prezentacja bodźców i metoda podążania

Czy uczestnicząc w gwarnym przyjęciu możemy skoncentrować się na rozmowie z jednym z naszych przyjaciół? Jeśli możemy, to czy odbywa się to kosztem cał­kowitego „wyłączenia” słów, wypowiadanych przez innych uczestników przyjęcia, nawet jeśli mówią wystarczająco głośno i nie są od nas bardzo oddaleni? Dlaczego, gdy ktoś w innej niż prowadzona przez nas rozmowie wymieni nasze imię, natychmiast tracimy wątek konwersacji i automatycznie „przełączamy się” na to, co się dzieje w rozmowie dotąd ignorowanej? Cherry (1953) przeniósł sytuację komu­nikacyjną z gwarnego przyjęcia wprost do laboratorium w stopniu, w jakim było to technicznie wykonalne. Interesujący go problem ograniczeń w selektywności in- ; formacji nazwał, zgodnie z inspirującymi go obserwacjami, problemem przyjęcia towarzyskiego (cocktail party problem). Osoba badana w zaprojektowanych przez niego eksperymentach odbierała dwa różne przekazy jednocześnie - po jednym do każdego ucha - z zadaniem skupienia się na jednym z nich, przy jednoczesnym i całkowitym ignorowaniu drugiego komunikatu. Następnie proszono uczestnika eksperymentu o zanotowanie treści przekazu, na którym miał się skupić. Pytano także o treści, które pojawiły się w komunikacie ignorowanym. Cherry wykazał, iż badani nie mieli większych problemów z wiernym odtworzeniem ważnego I komunikatu, ale nie mogli odpowiedzieć na jakiekolwiek pytania o treść drugiego przekazu. Nie byli też w stanie zidentyfikować języka (angielski bądź francuski) w którym przekaz ignorowany był formułowany. Zgodnie z przyjętą konwencją językową, zjawisko to nazwano efektem przyjęcia towarzyskiego (cocktail party phenomenon). W przeciwieństwie do semantycznych, treściowych aspektów fl| komunikatu ignorowanego, które nie były w ogóle dopuszczane do dalszego przetwarzania, pewne fizyczne parametry tego przekazu, jak np. zmiana brzmienia (tonu) wymowy, czy też zmiana płci spikera, były przez osoby badane rejes­trowane.

Cherry’ego uważa się za twórcę paradygmatu dychotycznej prezentacji bodźców - techniki eksperymentalnej polegającej na jednoczesnym prezentowa­niu dwóch różnych komunikatów akustycznych osobno do każdego ucha. Broadbent (1954), a później Moray (1959) i Treisman (1960) rozwinęli i zmodyfi­kowali tę technikę, prosząc badanych nie o zapamiętywanie „oficjalnego” przekazu, ale o jego wierne powtarzanie. Osoba badana miała podążać za jednym z komu­nikatów jak cień, stąd nazwa tej techniki - podążanie (shadowing). Ta zmiana w procedurze zapewnia lepszą kontrolę zachowania uczestników badania. Można dzięki niej jednoznacznie stwierdzić, czy badany rzeczywiście podąża „jak cień” za wskazanym przekazem, czy też próbuje dzielić swoją uwagę między dwa jednoczesne komunikaty. Każde odstępstwo od reguły dosłownego powtarzania (np. chwilowe zamilknięcie, zająknięcie, wtręty ze strony komunikatu ignorowa­nego) świadczy o próbie dzielenia uwagi na dwa wykluczające się przekazy. Paradygmat podążania stosowano także w badaniach uwagi podzielnej (Allport, Antonis, Reynolds, 1972; Ninjo, Kahneman,. 1974) z instrukcją jednoczesnego śledzenia dwóch jednakowo ważnych komunikatów.

  1. PARADYGMAT ZADAŃ JEDNOCZESNYCH (S.215, 351)

Paradygmat 8.5 Paradygmat zadań jednoczesnych w badaniach nad pamięcią roboczą

Paradygmat zadań jednoczesnych, stosowany również w badaniach nad uwagą : podzielną, wymaga kontroli dwóch zadań (A i B), wykonywanych w tym samym czasie. W wersji zastosowanej przez Baddeleya i Hitcha (1974) zadanie A polegało na wykonywaniu złożonego zadania poznawczego, np. przeprowadzaniu wniosko­wania logicznego, czytaniu tekstu ze zrozumieniem albo uczeniu się. Z kolei zadanie B polegało na zapamiętywaniu zestawu elementów (liczb) o zmiennej długości.

W analizie wyników porównuje się poziom wykonania zadania A w warunkach,

gdy towarzyszy mu zadanie B z warunkiem kontrolnym. W najprostszej wersji para­dygmatu zadań jednoczesnych warunkiem kontrolnym jest test wykonania zada­nia A, kiedy nie towarzyszy mu żadne inne zadanie. Niekiedy manipulacji ekspery­mentalnej podlega waga zadań jednoczesnych. Najczęściej jedno z nich należy traktować priorytetowo, a drugie jako dystraktor.

Baddeley i Hitch (1974) założyli, że rosnące obciążenie pamięci roboczej przechowywaniem większych zbiorów liczb prowadzić będzie do spadku wyko­nania złożonego zadania poznawczego. Badania potwierdziły te przypuszczenia. Wyjaśniono je, podobnie jak w badaniach nad uwagą podzielną, spadkiem ilości wolnych zasobów, w tym wypadku zasobów WM, które mogą zostać przydzielone wykonaniu zadania A. Spadek ten jest proporcjonalny do wymagań, jakie stawia zadanie pamięciowe B. Co ciekawe, nawet przy bardzo dużym obciążeniu pamięci (zbliżającym się do wartości „magicznej liczby” Millera), poziom wykonania obu zadań był wyższy od poziomu przypadku.

Zadanie pamięciowe może przyjmować różnie formy, w zależności od tego, jaki mechanizm WM ma zostać zaangażowany (Baddeley, 1986). Zadanie parnię- i ciowe wykonywane na materiale werbalnym (np, odliczanie trójkami wstecz) wiąże się z udziałem pętli fonologicznej. Zadanie niewerbalne (np. śledzenie poruszają­cego się obiektu), angażować będzie raczej szkicownik wzrokowo-przestrzeny.

Specyficznym zadaniem, które powoduje obciążenie centralnego systemu wykonawczego, bez udziału podsystemów pamięciowych, jest tzw. generowanie wałów losowych (Vandierendonck, De Vooght, Van der Goten, 1998). Wymaga od osoby badanej nierytmicznego stukania, np. w klawisz komputera. Trudność tego zadania polega na konieczności przełamania automatycznej tendencji wystukiwania regularnego rytmu. Generowanie losowości wymaga więc stałej kontroli ze strony centralnego systemu wykonawczego.

10. PARADYGMAT RECEPCJI (S. 104)

Paradygmat 3.1 Nabywanie pojęć metodą recepcji

Badania prowadzone w paradygmacie recepcji mają na celu poznanie sposobu nabywania przez człowieka wiedzy o otaczającej go rzeczywistości. Uczestnikowi eksperymentu pokazuje się sukcesywnie pewną liczbę obiektów, informując go o tym, czy są one, czy też nie, przedstawicielami sztucznie wymyślonej na potrzeby badania reprezentacji pojęciowej. Istnieją dwie podstawowe odmiany tego paradygmatu, które dokładniej opisują Maruszewski (1983) i Kozielecki (1997), a badania z ich wykorzystaniem prowadził Lewicki (1960, 1968).

W pierwszej odmianie paradygmatu recepcji - po prezentacji każdego z obiek­tów - badany podejmuje decyzje co do jego przynależności kategorialnej, a eksperymentator udziela mu każdorazowo informacji zwrotnej o trafności jego przewidywań. Po przyswojeniu reprezentacji pojęciowej przez badanego następuje seria testowa, w której kategoryzuje on nowe obiekty zgodnie z kryteriami przynależności kategorialnej, nabytymi w fazie uczenia się. W serii testowej nie przewiduje się udzielenia badanemu informacji zwrotnej.

W drugiej odmianie paradygmatu recepcji uczestnikowi eksperymentu prezentuje się sukcesywnie serię obiektów. Podczas pierwszej ich prezentacji udziela się mu informacji o przynależności bądź braku przynależności kategorialnej jednego z obiektów, po czym przystępuje on do kategoryzowania pozostałych obiektów, a po zakończeniu całej serii uzyskuje informację zwrotną - czy udało się mu zaklasyfikować poprawnie wszystkie obiekty. W kolejnej serii dysponuje on już informacją o przynależności kategorialnej dwóch obiektów (w następnej serii trzech, w kolejnej - czterech itd.). Ponownie dokonuje klasyfikacji pozostałych bodźców. Powtarza czynność aż do momentu właściwego podziału obiektów na reprezentantów sztucznie stworzonej kategorii i pozostałe bodźce bądź też do wyczerpania się obiektów, o których przynależności nic jeszcze nie wiadomo.

W obu odmianach paradygmatu recepcji uczestnik eksperymentu w pierwszej kolejności nabywa procedur identyfikacyjnych umożliwiających mu poprawną klasyfikację. W dalszej kolejności przedmiotem uczenia staje się istota pojęcia (zestaw cech je Określających), a prośba eksperymentatora dotyczy sformułowania definicji reprezentacji pojęciowej, na podstawie której odbywa się dotychczasowa klasyfikacja. Jednak ten drugi, wyższy poziom osiąga już relatywnie niewielki odsetek badanych. Okazuje się, że łatwiej posługiwać się pojęciem dokonując poprawnej klasyfikacji, niż sformułować jasną definicję pojęcia.

Paradygmat recepcji należy wyraźnie odróżnić od paradygmatu selekcji (Maruszewski, 1983). W tym ostatnim badany jest aktorem dokonującym wyboru w zakresie bodźca, na który reaguje, i sposobu reakcji na niego (np. w zadaniu polegającym na sortowaniu kart do pudełek; Thompson, 1986). Natomiast w pa­radygmacie recepcji uczestnik badania jest biernym obserwatorem, któremu po­zwala się jedynie na formułowanie hipotez dotyczących wspólności w zakresie spostrzeganych obiektów czy zjawisk.

11.PARADYGMAT PRZESZUKIWANIA PAMIĘCI STM (S.346)

Paradygmat 8.4 Przeszukiwanie pamięci krótkotrwałej

Zadanie wymagające przeszukiwania (search task) stosowane jest zarówno w ba- : daniach nad uwagą, jak i nad pamięcią. Polega ono na prezentacji zbioru bodźców {search set), w którym poszukiwany jest bodziec docelowy (target, pro be). Ma­teriałem bodźcowym najczęściej stosowanym w tego typu zadaniach są litery i cyfry, ale również obrazy, słowa, czy dźwięki. Zadaniem osoby badanej jest udzielenie odpowiedzi twierdzącej, jeśli sygnał (zgodny z bodźcem docelowym) byt obecny w zaprezentowanym zestawie (próby pozytywne), albo przeczącej, kiedy był w nim nieobecny (próby negatywne). Podstawową zmienną podlegającą manipulacji ; w tego rodzaju zadaniach jest rozmiar przeszukiwanego zbioru (set size).

W zadaniach polegających na przeszukiwaniu pamięci (memory search iask) zadaniem osób badanych jest zapamiętanie prezentowanego zestawu bodźców. Prezentacja najczęściej odbywa się sekwencyjne, ale niekiedy również symultanicznie. W warunku prezentacji sekwencyjnej zestaw bodźców prezentowany jest ] element po elemencie. Prezentacja symultaniczna polega na jednoczesnym zapre­zentowaniu całego zestawu, np. w postaci matrycy. Bodziec docelowy ekspono­wany jest po zaprezentowaniu całego zbioru elementów. Manipulacji eksperymentalnej podlega w tym przypadku - poza rozmiarem zbioru elementów - również szereg innych czynników. Najważniejsze z nich to: czas ekspozycji przypadający na pojedynczy element, proporcja reakcji pozytywnych do negatywnych oraz rodzaj prezentowanego materiału. Przykładowo, manipulacja czasem ekspozycji wpływa sposób kodowania bodźców: im jest on dłuższy, tym więcej właściwości można zakodować. Jeśli czas jest zbyt krótki, kodowanie materiału będzie nieefektywne, podobnie jak późniejsze rozpoznanie, czy bodziec docelowy jest zgodny z którymś elementów zapamiętanego zestawu. Jeśli czas ten jest zbyt długi, możliwe staje się zastosowanie mnemotechnik, np. grupowania. W obu przypadkach na poziom wykonania zadania wpływać będą niekontrolowane czynniki uboczne.

W zadaniu polegającym na przeszukiwaniu analizie podlegają głównie wskaźni­ki związane z czasem reakcji, tj. miary tendencji centralnej, czyli średnia i mediana RT M (Zandt, Townsend, 1993), a także miary rozrzutu - odchylenie standardowe RT (Townsend, 2001). Zdecydowanie rzadziej analizuje się poprawność reakcji, gdyż w klasycznych badaniach liczba błędów była niska, a ich rozkład - wyraźnie skośny.

12.PARADYGMAT BADANIA PAMIĘCI KRÓTKOTRWAŁEJ BROWNA-PETERSONÓW (S.343)

Paradygmat 8.3

Procedura badania pamięci krótkotrwałej Browna-Petersonów

W procedurze eksperymentalnej Browna (1958) i Petersonów (Peterson, Peterson) eksponowano zestawy trzech bezsensownych spółgłosek, np. XLR, oraz trzycyfrową liczbę, np. 123. Zadanie osoby badanej polegało na zapamiętaniu zestawu liter, a następnie głośnym odliczaniu trójkami wstecz, poczynając od zaprezentowanej liczby (120, 117, 114 itd.). Po upływie pewnego czasu należało przerwać odliczanie i odpamiętać zestaw spółgłosek. Manipulacji eksperymentalnej podlegał interwał czasu pomiędzy ekspozycją zestawu spółgłosek (i liczby), a poleceniem jego odtworzenia. Wynosił on 3, 6, 9, 12, 15 albo 18 s. Celowo zastosowano bezsensowne zestawy spółgłosek, nie mające swojego odpowiednika w języku, aby wyłączyć tzw. strategię grupowania (chunking strategy), polegającą na łączeniu materiału w większe całości (zob. opis w tekście). Dlatego wyeliminowano zestawienia w rodzaju MSW albo CCC, które łatwo poddają się grupo­waniu. Z kolei odliczanie trójkami wstecz miało na celu zminimalizowanie udziału mechanizmu bezgłośnego powtarzania.

Uzyskane rezultaty dotyczące poprawności odtworzenia zestawów spółgłosek zilustrowano na ryc. 8.5. Okazało się, że poziom odpamiętania sylab bardzo szybko spada w funkcji czasu, i nawet w wypadku najkrótszego interwału nie osiągnął 100%.

13.PARADYGMAT ODTWARZANIA CZĘŚCIOWEGO SPERLINGA (S.341)

paradygmat 8.2 procedura odtwarzania częściowego według Sperlinga

Sperling (1960) eksponował osobom badanym matrycę złożoną z liter, których liczba przekraczała pojemność pamięci krótkotrwałej. W warunkach standardowej prezentacji tachistoskopowej osoby badane były w stanie odtworzyć poprawnie 4-5 liter, niezależnie od wielkości owej matrycy. Ponieważ odtwarzanie w takim zadaniu angażuje pamięć krótkotrwałą, był to kolejny dowód na jej znaczne ogra­niczenie, przy czym mogło ono dotyczyć albo pojemności STM, albo czasu zani­kania zawartej w niej informacji. Sperlinga nie interesowała jednak pojemność STM, lecz pamięci ikonicznej. Zaproponował więc modyfikację opisanego zadania, w któ­rej osoba nie odtwarzała całości zaprezentowanego materiału, lecz losowo wska­zaną jego część. W krótkim interwale czasu prezentowano jej matrycę liter, która - podobnie jak w oryginalnym zadaniu - ze względu na swoją wielkość przekraczała pojemność STM (zob. ryc. 8.4). Prezentacja standardowo trwała 50 ms, po czym następowała przerwa, w której wyświetlano pustą planszę (białą albo czarną). Długość tej przerwy podlegała manipulacji eksperymentalnej. Następnie pojawiała się wskazówka akustyczna (ton o określonej, łatwej do różnicowania wysokości), albo wizualna (strzałka), która informowała osobę badaną o tym, który z rzędów niewidocznej już matrycy należy odtworzyć. Ponieważ wskazówki pojawiały się w porządku losowym, osoba badana nigdy nie wiedziała, który z rzędów będzie musiała odtworzyć. Zakładano, że jeśli istnieje magazyn pamięci ikonicznej, osoba badana powinna mieć ultrakrótkotrwały dostęp do całej informacji zawartej w ma­trycy, również po jej zniknięciu z ekranu tachistoskopu. Jeśli więc w tym czasie wskazana zostanie pewna niewielka część materiału (nie przekraczająca pojem­ności STM) będzie możliwe jej odtworzenie, bez względu na to, gdzie będzie umiejscowiona,

Badania Sperlinga wykazały, że jeśli przerwa pomiędzy ekspozycją matrycy liter a wskazówką była dłuższa niż 500 ms, poprawność odtwarzania była podobna jak w oryginalnym zadaniu. Jeśli jednak czas tej przerwy mieścił się w przedziale 100-500 ms, badani byli w stanie odtworzyć dowolny ze wskazanych im rzędów z niemal stuprocentową poprawnością. Oznacza to, że do momentu uzyskania wskazówki przechowywali obraz całej matrycy, ale tylko jeśli przerwa była bardzo krótka. Nie było istotnych różnic w uzyskanych wynikach, gdy zwiększono wielkość matrycy do 12 liter (3 rzędy po 4 bodźce).

14.METODA PROTOKOŁÓW WERBALNYCH (S.500)

Paradygmat 11.1 Metoda protokołów werbalnych

Metoda protokołów werbalnych: polega na rejestrowaniu i interpretowaniu wypowiedzi, generowanych przez osobę badaną podczas rozwiązywania problemu. Badanego prosi się, aby „głośno myślał”, relacjonując wszystko, co przychodzi mu do głowy. Badacza interesuje to, w jaki sposób uczestnik eksperymentu werbalizuje treść problemu, jakie stawia sobie pytania, jak komentuje uzyskane rezultaty, w jaki sposób reaguje na trudności itd. Wielu psychologów uważa, że jest to metoda odwołująca się do introspekcji, z wszelkimi znanymi jej wadami. Jednak właściwie zastosowana, metoda protokołów werbalnych nie musi oznaczać powrotu do introspekcjonizmu. Wypowiedzi osoby badanej poddaje się bowiem starannej interpretacji, traktując je jak zewnętrzne przejawy nieobserwowalnych procesów umysłowych, a nie jak rzetelne sprawozdanie z „naocznej” obserwacji tych procesów. Żaden z badaczy posługujących się tą metodą, nie łudzi się, że człowiek jest w stanie na bieżąco obserwować działanie swojego umysłu, a ponadto formułować ścisłe sprawozdania z tejże obserwacji. Wypowiedzi werbalne to raczej rodzaj zachowania, które może być jedną ze wskazówek dotyczących przebiegu procesu poznawczego. Mimo niedoskonałości i wyrywkowego charakteru takich wskazówek, badacz może na ich podstawie domyślać się wielu interesujących | spraw, np. jak osoba badana przedstawia sobie istotę problemu, gdzie upatruje | źródeł trudności, w jakim kierunku zmierza, kiedy i pod wpływem jakich okoliczności zmienia strategię rozwiązywania problemu, czy i kiedy doznaje wglądu.

Ponieważ człowiek ma bardzo słaby dostęp do swoich procesów umysłowych,

wyniki takiego postępowania badawczego często przynoszą rozczarowanie. Newell i Simon (1972) korzystali w swoich badaniach z metody protokołów werbalnych,

przyznając, że ich analiza jest kłopotliwa. Badacze ci często mieli problem z uogól­nieniem uzyskanych w ten sposób rezultatów. Jednak z braku lepszych sposobów „podglądania” funkcjonowania umysłu osoby rozwiązującej problem, metoda protokołów werbalnych stosowana jest również obecnie.

Ericsson i Simon (1993) wyróżnili trzy rodzaje interesujących badacza wypo­wiedzi.

Typ I to werbalizacja bezpośrednia, polegająca na relacjonowaniu tego, co ; „mówi” głos wewnętrzny. Można ją więc zastosować do problemów, które mają naturę werbalną, na przykład do śledzenia wykonywania w pamięci złożonych operacji arytmetycznych. Zdaniem autorów, nie dochodzi wówczas do zakłócania ; werbalizacji z „normalnym” przebiegiem rozwiązywania problemu. Werbalizacja nie powinna ani spowolniać wykonywania zadania, ani nie wymaga wprowadzenia do procesu rozwiązywania problemu żadnej dodatkowej operacji poznawczej, związanej z głośnym myśleniem.

Typ II to werbalizacja zawartości STM, polegająca na opisaniu jakiegoś aspektu aktualnego stanu procesu rozwiązywania problemu, np. przywołanego w da­nym momencie wyobrażenia. Werbalizacja wymaga w tym przypadku przełożenia kodu obrazowego na werbalny. Jeśli problem jest złożony, werbalizacja nie tylko wpływa na czas jego wykonania, ale - jako, że jest procesem wysiłkowym (Kapłan, Simon, 1990) - pochłania również zasoby mentalne, odbierając je wykonywanemu ; zadaniu. Zdaniem Ericssona i Simona, nie wpływa to jednak na układ sekwencji stanów w przestrzeni problemu.

Typ III to werbalizacja, polegająca na chwilowym przerwaniu procesu roz­wiązywania problemu i wyjaśnieniu, dlaczego podjęto określone działanie (zasto­powano określony operator), czemu to miało służyć (jaki podcel ono realizuje) itd. Autorzy podkreślają, że niekiedy tego typu werbalizacja może mieć korzystny wpływ na proces rozwiązywania problemu (Berry, 1983; Ballstaedt, Mandie, 1984), jednak zwykle zaburza jego przebieg.

Na przykład werbalizacja może ułatwiać proces rozwiązywania problemów, zwiększając objętość przypominanego tekstu, po jego wcześniejszym przeczytaniu na głos (Ballstaedt, Mandie, 1984). Uważa się jednak, że jest to efekt zapośredniczony. Dzięki werbalizacji aktywowana jest pamięć słuchowa, w konsekwencji uwalniając część pamięci roboczej. Ponieważ ta ostatnia zwykle jest przeciążona w trakcie rozwiązywania złożonych problemów, jej odciążenie w widoczny sposób poprawia wykonanie zadania (Robertson, 2001).

ROZDZIAL 2

REPREZENTACJE UMYSŁOWE

Reprezentacja poznawcza- umysłowy odpowiednik obiektów realnych, fikcyjnych czy hipotetycznych. Obiektem może być przedmiot, osoba, kategoria, relacja. Reprezentacja poznawcza zastępuje swój obiekt w procesach przetwarzania informacji.

Funkcja – Przedstawienie w obrębie umysłu wszelkich zdarzeń bodźcowych dostępnych zmysłom

Reprezentacje są:

reprezentacja pojęciowa matki z reguły należy do najmniej podatnych na zmiany

Proces tworzenia reprezentacji- odmienne stanowiska

Rodzaje reprezentacji:

- wg A. Paivio do reprezentacji zalicza się m.in. obrazy umysłowe, ślady pamięciowe, słowa (elementy języka), sądy, pojęcia, reprezentacje pojęciowe (prototypy, listy cech) oraz schematy

- Rebena to obrazy umysłowe, słowa i idee ( abstrakcje)

- Eyesenck i Keane najbardziej restrykcyjny podział na:

reprezentacje analogowe-obrazy umysłowe, modele mentalne

reprezentacje w formie sądów/ twierdzeń

Obrazy umysłowe- są najbardziej zbliżone do rzeczywistej formy przedstawionych obiektów np. dom (są okna, drzwi,dach, dach jest na szczycie itd)

Pojęcia abstrakcyjne są natomiast bardzo oddalone od rzeczywistości

Wyobrażenia - jeden z wielu typów reprezentacji umysłowych

- nietrwała struktura poznawcza, zbliżóna do spostrzegania, występuje pod nieobecność wyobrażanego obiektu

- nie muszą przyjmować formy obrazowej

- umysłowe przedstawienie przedmiotu, który przestal dzialać na nasze zmysły (Maruszewski)

- charakteryzują się brakiem trwałości i ścisłym powiązaniem z percepcją

Wyróżniono wyobraźnie:

Obraz umysłowy – forma reprezentacji poznawczej świata w umyśle

- ścisła odpowiedniość w stosunku do obiektu (jakby wew. fotografia)

- analogowy charakter

Twierdzenie o wewnętrznej fotografii odrzuca wielu badaczy tłumacząc istnienie wyobrażeń w inny sposób

- umysł generuje wyobrażenie z głębszych struktur wiedzy zapisanych w postaci pojec i twierdzen a nie obrazow

Teoria Kosslyna:

Wyobrażenia składają się z dwoch komponentów:

  1. Powierzchniowego- zawiera to co jest dostępne w doświadczeniach wew.

- jego elementy powstaja w wyniku dzialania elementów głębokich

- świadome i nietrwałe doświadczenia ALE- właściwe wobrażenia

maja charakter trwały i niedostępny świadomemu doświadczaniu

obrazu

- obraz koduje inf. w sposób analogowy i przestrzenny

  1. Głębokiego- obejmuje to co jest zapisane w LTM

Spór o naturę wyobrażeń:

Hipoteza funkcjonalnej ekwiwalencji percepcji i wyobrażni

- Shepard i Chapman- badanie z mapą USA

- Shepard- badanie o podobieństwie cyfr

Badania te SA silnym argumentami na rzecz tezy i funkcjonalnej ekwiwalencji spostrzegania i wyobrażania co zakładał Kosslyn

Rotacje mentalne (argument na rzecz stanowiska obrazowego)

 Paradygmat rotacji mentalnej- prezentowane cyfry, litery lub figury geometryczne wzajemnie zrotowane lub jeszcze dodatkowo przekształcone (lustrzane odbicie). Badani odpowiadali na pytanie czy dwa prezentowane bodźce są identyczne

Niezależnie od płaszczyzny rotacji

Argumenty potwierdzające, że reprezentacje wyobrażeniowe maja charakter obrazowy:

- liniowa zależność miedzy kątem rotacji obiektu a czasem potrzebnym na podjecie decyzji (niezależnie od: typu zadania- identyfikacja, porównanie; typu rotowanego symbolu- litery, cyfry, symbole wymyślone; formy rotacji-płaszczyzna, przestrzeń

- badani pracowali w różnych warunkach- percepcji i wyobraźni a rezultaty w obu warunkach niewiele się różniły

WYJĄTKI (wyklad)

Kąt 180- nie ma czasami efektu rotacji. Czas RT bardzo krótki- Koriat, Norman, Kimchi

Skaning mentalny (argument za stanowiskiem obrazowym)

- Efekt złożoności- im bardziej skomplikowana struktura obiektu tym RT

dłuższe

- Efekt ziarnistości obrazu- aby podać szczegóły jakiegos obiekty, trzeba go sobie w wyobraźni „powiększyć”

Argumenty przeciw stanowisku obrazowemu:

- tożsamość funkcjonalna nie oznacza tożsamości strukturalnej (Edelman)

- efekt rotacji- badania Kariata, Normana i Kimcha wykazuje ograniczenie powszechności tego prawa. Ludzie nie zawsze dokonują rotacji chcąc porównać obiekty

- Marmor i Zaback- badanie osób niewidomych o wykonanie zadania Coopera i Sheparda. Badani wykorzystywali dotyk. Wykazano efekt liniowy między RT a wielkościa kąta

Również badania Indos- Peterson, Raskos- Ewaldson wykazały możliwą zależność modalności zmysłowej formy wyobrażeniowej

- skaning zalezy od oczekiwań badaczy (instrukcja)

- alternatywne wyjaśnienia efektu odległości, wielkości i złożoności (sądy)

Reprezentacje werbalne

Sylogizm werbalny- zadanie wymagające wyciągania wnioskow z przeslanek

Clark- badanie z sylogizmami werbalnymi- im bardziej skomplikowana konstrukcja w stosunku do przesłanek tym czas odpowiedzi jest dłuższy

 Paradygmat weryfikacji treści zdań- badanym prezentuje się obazek przedstawiający „+” i „*” w przestrzeni. Jeden symbol jest u góry a drugi na dole. Uczestnikom prezentuje się zdanie np. „plus jest nad gwiazdką” a badani musza swierdzic zgodność zdania z obrazkiem

Clark i Chale – najpierw zdanie potem obrazek

McLeeod, Hunt i Mathews- odwrotnie

Im bardziej skomplikowane logicznie i gramatycznie zdanie, tym czas weryfikacji dłuższy

Sternberg- analizował związek miedzy czasem rozwiązywania sylogizmow a zdolnościami przestrzennymi

Teoria podwójnego kodowania Paivio:

Są dwa systemy reprezentacji rzeczywistości

- każdy podsystem ma inny język kodowania i odpowiada za inną modalność sensoryczną

- imageny- wszelkie niewerbalne reprezentacje umysłowe, są przetwarzane szybko i równolegle, ponieważ reprezentują struktury holistyczne (całe obiekty, grupy obiektów)

Czyli: imageny zachowują niektóre fizyczne właściwości obiektu np. wielkość

Badanie- kodowanie zależne od wielkości obiektu (zdjęcie)- małe obiekty zapamiętujemy gorzej niż duże

dla danych nadchodzących kanałem wizualnym, akustycznym,

dotykowym

- logogeny- wszystkie reprezentacje werbalne

- przetwarzanie wolne i szeregowe

- kodowanie niezależne od wielkości obiektu

Oba systemy są powiązane relacjami. Mają charakter referencyjny- reprezentacjom obrazowym odpowiadają werbalne i odwrotnie

Trzy rodzaje procesów

1 . Referencjalne- wzbudzanie reprezentacji werbalnej aktywizue reprezentację niewerbalną i na odwrót

2. Reprezentacyjne- przyporządkowanie poszczególnych obiektów, spostrzeganych w różnych modalnościach zmysłowych do jednego z 5 podsystemów niewerbalnych lub jednego z 3 podsystemów werbalnych

3 . Asocjacyjne- odpowiadają za łączenie się poszczególnych reprezentacji w skojarzone ze sobą grupy

Obraz może zostać zakodowany werbalnie ale to jest mniej prawdopodobne niż kodowanie obrazowe i na odwrót

Reprezentacje numeryczne

- umysł nie gromadzi trwałęj wiedzy ani w postaci obrazów, ani w postaci etykiet werbalnych ale w postaci zbioru sądów(twierdzeń)

- kod twierdzeniowy ma postać abstrakcyjnych, amodalnych twierdzeń opisowych

- sąd- forma reprezentacji umysłowej, wyrażająca relacje pomiędzy obiektami

- rachunek predykatów- logiczny system przetwarzania zdań abstrakcyjnych. Dzięki niemu można przekształcać sądy

Oprócz obrazów, słów i sądów umysł generuje tzw. Modele mentalne- Philips Johson-Laird- są to nietrwałe reprezentacje słowno-obrazowe o dość dużym poziomie odpowiedniości. Powstają na bazie reprezentacji nietrwałych (spostrzeżeń, wyobrażeń) i trwałych (wiedzy)

Stanowisko eklektyczne- dopuszcza możliwość istnienia wielu różnych form kodowania

ROZDZIAL 4

Wiedza – forma trwałej reprezentacji rzeczywistości, mająca postać uporządkowanej i wzajemnie powiązanej struktury informacji, kodowanej w pamięci długotrwałej.

Podział wiedzy (Gilbert Ryle):

- deklaratywna (że) – odnosi się do danych (faktów), kodowanych w pamięci trwałej. Danymi może być wiedza ogólna, epizodyczna, czy autobiograficzna. Jest łatwa do werbalizacji, ponieważ ma wyraźny komponent semantyczny. Nabywana jest dyskretnie poprzez włączenie jakiejś informacji w istniejące struktury wiedzy. Wydobywanie ma charakter wolicjonalny i polega na jej werbalizacji.

- proceduralna (jak) – odnosi się do kodowanych w pamięci trwałej procedur realizacji czynności o charakterze umysłowym i ruchowym. Jest to specyficzna wiedza, potocznie zwana umiejętnościami (zarówno wykonawczymi jak i poznawczymi). Nabywana jest w toku treningu, polegającego na wielokrotnym powtarzaniu czynności. Uruchamiana jest automatycznie w przypadku zainicjowania dobrze nam znanej czynności.

Burnett i Ceci – Wiedza może być wykreowana przez jednostkę dzięki wnioskowaniu, powiązaniu posiadanych wcześniej informacji i myśleniu o tych informacjach w nowy sposób.

Metawiedza – wiedza typu „wiem, że wiem”. Dotyczy ona wiedzy o wiedzy posiadanej przez jednostkę.

Michael Polanyi: Wiedza ukryta („milcząca”) – nie wiemy, że ją posiadamy.

Grafi Schacter – wyróżnienie pamięci jawnej i niejawnej.

Wiedza ukryta – wiedza nabywana długotrwale na drodze praktyki i doświadczenia

Wiedza niejawna – efekt mimowolnego uczeni się. Ujawnia się pomiarze pośrednim.

Kryteria, jakie powinny spełniać wyniki testów na potwierdzenie obecności wiedzy niejawnej:

- kryterium wyłączności – dana metoda ma umożliwiać dotarcie tylko do tej wiedz, która jest wykorzystywana w wykonaniu danego zadania. Odporność na inną, niezwiązaną z zadaniem wiedzą.

- kryterium czujności – test mierzący zakres wiedzy jawnej ma być na tyle wyczerpujący, aby ujawnić pełną informację, której badani są świadomi.

Cleeremans – wiedza jest niejawna, kiedy wpływa na przetwarzani informacji bez uświadomienia jej właściwości. Wiedza ta ma swoją reprezentację w pamięci trwałej, przez co może być z niej wydobywana i wykorzystywana.

Wagner i Sternber – wiedza ukryta – „milcząca”; składnik inteligencji praktycznej. Wiedza ta nie jest bezpośrednio wyrażana, a jej nabywanie odbywa się dzięki indywidualnemu doświadczeniu jednostki. Jest nabywana samodzielnie, ma charakter proceduralny i jest stosowana w praktyce. Jest konkretna i specyficzna dla kontekstu (sic!).

Podstawa rozróżnienia: niepełne uświadomienie zawartości wiedzy niejawnej – wiedza jawna jest dostępna i świadoma.

Reber – podstawowym sposobem nabywania wiedzy niejawnej jest mimowolne uczenie się (proces bez udziału świadomych strategii uczenia się i bez zamiaru nabycia wiedzy, bezwysiłkowy).

Paradygmaty badań nad mimowolnym uczeniem się i nabywaniem wiedzy niejawnej:

- uczenie się sztucznej gramatyki

- wyuczenie się sekwencji zdarzeń

- kontrola systemów dynamicznych

Możliwość jawnego wydobycia wiedzy niejawnej występuje tylko wtedy, gdy poziom tej wiedzy jest dość wysoki.

Organizacja wiedzy

Reprezentacja wiedzy za pomocą cech

Cecha – symboliczny i dyskretny (tj. nieciągły i nieanalogowy) element umysłowej reprezentacji wiedzy o wyraźnie określonych granicach.

Zarówno cechy, jak i relacje muszą działać jednocześnie, aby powstało znaczenie.

Definiowanie znaczenia słów:

Clark – definiowanie wymaga zbioru cech unikalnych dla konkretnego pojęcia, stworzonego za pomocą mechanizmu nawarstwiania się cech. Hipoteza cechu semantycznej wyjaśnia ten mechanizm: cechy pochodzą zestawu cech pierwotnych i są łączone w znaczenia w taki sposób, aby było ono zgodne z przyjętym użyciem słowa oraz aby dwa różne słowa nie miały identycznego znaczenia.

Porównywanie znaczeń słów:

Smith – dwa rodzaje cech w reprezentacji znaczenia:

- rdzenne – składają się na rożsamosć obiektu; cechy definicyjne

- charakterystyczne – typowe dla obiektu.

Model dwufazowego porównywania cech:

I faza – porównywanie zarówno cech rdzennych, jak i charakterystycznych

II faza – porównywania wyłącznie cech rdzennych

Tversky – podobieństwo znaczeń jest tym większe, im więcej para znaczeń posiada cech wspólnych i im mniej dystynktywnych.

Organizacja wiedzy semantycznej

Endel Tulving - pamięć semantyczna – „umysłowy słownika”, zorganizowana wiedza o symbolach werbalnych, ich znaczeniu i odniesieniach oraz relacjach między nimi. Zapis wiedzy ogólnej.

Teoria wiedzy semantycznej – kodowaniu podlega treść pojęć języka, czyli ich struktura głęboka, a nie powierzchowna (forma informacji werbalnej).

Collins i Quillian – Wiedza zawarta w pamięci semantycznej ma postać sieci, w której węzłom odpowiadają pojęcia, a połączeniom między nimi – ich wzajemne relacje. Sieć jest zorganizowana hierarchicznie – pojęci bardziej ogólne znajdują się wyżej w hierarchii. Odległość pojęć w sieci jest w ściśle związana z podobieństwem ich znaczenia. Pojęci o wyższym stopniu podobieństwa są reprezentowane przez węzły znajdują się blisko w sieci.

Model zakłada dwa rodzaje relacji między pojęciami:

- relacja przynależności do klasy – relacje obejmują pojęcia z dwóch różnych poziomów hierarchii sieci.

- relacja predykatywna – pełni funkcję orzeczenia, zawiera wiedzę o właściwościach obiektu. Jest kodowana na możliwie najwyższym poziomie ogólności.

Collins i Loftus - podstawowy czynnik decydujący o połączeniach między elementami wiedzy uznali związek skojarzeniowy – bardziej typowe obiekty są szybciej identyfikowane. Struktura wiedzy ma postać sieci, w której węzłom odpowiadają pojęcia, podczas gdy ich etykiety werbalne są reprezentowane w postaci wewnętrznego leksykonu. Im pojęcie jest bogatsze semantycznie, tym więcej połączeń między węzłami, a co za tym idzie tym większa siła skojarzeniowa danego związku.

Proces przywoływania wiedzy odbywa się dzięki rozprzestrzeniającej się aktywacji.

Organizacja wiedzy proceduralnej

Systemy reguł – wiedza jest poznawczo reprezentowana za pomocą zestawu reguł. Reprezentacja tego typu pozwala na tworzenia procedur działania.

Reguła – składa się z warunku wyznaczającego zbiór właściwości, które muszą być spełnione, aby uruchomić daną czynność i samej czynności, czyli zbioru produkcji.

Zasada specyficzności reguł – prymat ma reguła bardziej wyspecjalizowana.

Zasada niepowtarzalności reguł – w procesie korzystania z wiedzy proceduralnej może mieć udział specyficzny bufor pamięci, który zawiera pewien zbiór reguł, które zostały użyte w trakcie bieżącego zadania.

Organizacja wiedzy modelach ACT, ACT* i ACT-R

John Anderson

Wiedza może mieć postać sądów, ale również obrazów, a nawet następstwa czasowego.

Wiedza deklaratywna – reprezentowana jest w postaci węzłów (jednostek informacji) i relacji między nimi (powiązania miedzy jednostkami). Połączenia między węzłami charakteryzują się określoną silą związku skojarzeniowego. Aktywacja może być wywołana albo dzięki zewnętrznym bodźcom, albo dzięki przywołaniu informacji z pamięci. Elementy często przywoływane są bardziej aktywne. Aktywacja jest limitowana pojemność pamięci roboczej i czasem. Zatem o charakterze przetwarzania decyduje struktura oraz sprawność mechanizmu aktywacji.

Wiedza proceduralna – reprezentowana w postaci reguł aplikowanych w celu przetwarzania wiedzy deklaratywnej, oraz w postaci informacji zawartych w buforach wyspecjalizowanych modułów (wzrokowego, słuchowego i motorycznego)

Efekt wachlarza – połączenia odchodzące od każdego z węzłów sieci przypominają wachlarz. Na tym efekcie oparto wyjaśnienie interferencji, kiedy to jedna z konkurencyjnych informacji pozostaje niedostępna.

Nabywanie wiedzy

Kodowanie informacji – odbywa się w każdym magazynie pamięciowym.

Zapamiętywanie – dotyczy pamięci krótkotrwałej i długotrwałej.

Nabywanie wiedzy – pamięć długotrwała.

Nabywanie wiedzy semantycznej

Collins, Loftus – nabywanie wiedzy polega na tworzeniu nowych węzłów oraz łączeni zarówno nowych, jak i istniejących za pomocą nowych połączeń. Nowy węzeł zostaje wbudowany w strukturę sieci poprzez powiązanie go z innymi węzłami.

Anderson – jednostki wiedzy są tworzone dzięki regułom produkcji, aplikowanym do informacji pochodzącej ze środowiska. Wiedza proceduralna służy do budowania trwałych reprezentacji wiedzy deklaratywnej.

Nabywanie wiedzy proceduralnej

Anderson – proceduralizacja – przekształcanie jawnej wiedzy deklaratywnej w niejawne procedury działania. Zachodzi w trzech etapach:

  1. Etap deklaratywny – jednostka otrzymuje zestaw instrukcji o określonej umiejętności i sposobie jej nabywania. Tworzone są procedury działania.

  2. Etap kompilacyjny – polega na ćwiczeniu reguł dostarczonych i wygenerowanych dzięki procedurom interpretacji. Jest wysiłkowy i podlega świadomej kontroli. Prowadzi do zwiększenia tempa wykonywanie czynności, wyeliminowania pośrednictwa wiedzy deklaratywnej, a co za tym idzie konieczności werbalizacji oraz połączenia wielu kroków w jedną, autonomiczną procedurę.

Kompozycja – łączenie dwóch lub więcej procedur w jedną.

Automatyzacja – skomponowane w większe całości procedury w coraz mniejszym stopniu obciążają pamięć roboczą. Wyeliminowanie udziału wiedzy deklaratywnej.

  1. Etap proceduralny – automatyczny i niemal bezwysiłkowy.

Proceduralizacji wiedzy towarzyszy:

- generalizacja – uogólnianie nabywanej wiedzy proceduralnej na szerszą klasę sytuacji.

- różnicowanie – odróżnianie warunków uruchomienia różnych procedur.

Nabywanie wiedzy niejawnej

Reber – wiedza niejawna nabywana jest na drodze uczenia się mimowolnego, rozumianego jako proces poznawczy, w wyniku którego jednostka nabywa wiedzę nie jawną niezależnie od świadomych intencji.

Nabywanie wiedze odbywa się niezależnie od świadomej kontroli albo bez udziału wiedzy werbalnej o wszystkich nabywanych regułach.

Sternberg

- transformacja jawnej wiedzy o procedurach w „milczącą” wiedzę proceduralną; wiąże się z pamięcią semantyczną

- niejawne uczenie się reguł proceduralnych na podstawie osobistych doświadczeń; wiąże się z pamięcią epizodyczną

Wiedza ekspercka

- ekspert posiada bardzo obszerną wiedzę, ale jest ona ograniczona do pewnej dziedziny.

Właściwości wiedzy eksperckiej:

- organizacja – wiedza jest uporządkowana na wielu poziomach: od poziomu elementarnych składników po wyabstrahowane struktury wyższego rzędu.

/struktura wydobycia – powiązanie napływającej informacji z zestawem wskazówek/

- proceduralizacja – wysoka sprawność wykonywania procedur przy utrzymaniu zdolności ich werbalizacji

- schematy rozwiązywania problemów – zawierają abstrakcyjną wiedze pozbawioną kontekstu, w którym została ona pozyskana. Łatwo podlegają transferowi pomiędzy różnymi kontekstami.

/efekt eksperta – polega na większej sztywności ekspertów w rozwiązywaniu nierutynowych problemów/

Nabywanie wiedzy eksperckiej

Glaser:

- etap wsparcia zewnętrznego – nowicjusz otrzymuje wsparcie od osób posiadających wiedzę

- etap przejściowy – rozwijanie umiejętności monitorowania i regulacji własnych czynności oraz identyfikowanie kryteriów coraz wyższego poziomy wykonywania zadania.

- etap samoregulacji – pełna kontrola nad nabywaniem wiedzy i wykonywaniem zadań.

Schaumacher i Czerwiński:

- faza przedteoretyczna – wydobywanie przykładów z pamięci opartych na powierzchownym podobieństwie cech danej sytuacji

- faza doświadczeniowa – odkrywanie związków przyczynowych obowiązujących w systemie. Nabywanie wiedzy eksperckiej.

- faza ekspercka – dokonywanie abstrakcji na najwyższym poziomie, możliwość transferu wiedzy.

ROZDZIAL 5

UWAGA

-powiązana ze świadomością

-selektywna( selekcja dotyczy spostrzegania i wyższych procesów poznawczych, myślenia)

-pozwala na koncentracje na ważnych sygnałach

-konieczna do przystosowania się organizmu do środowiska.

Funkcje uwagi:

  1. Selekcja źródła informacji

Wybór sygnału spośród szumów, ignorowanie dystraktorów.

  1. przeszukiwanie pola percepcyjnego ( przez kodowanie cech i selektywna integracja właściwości poszukiwanego obiektu w postać.

Przeszukiwanie:

-proste( 1 cecha), równoległe

-koniungcyjne( np. ruch i kolor), dłuższe i szeregowe(Treisman, Gelade)

>cechy priorytetowe( przetwarzane jako pierwsze )np. ruch, kolor, głębia

ale!!cecha niepriorytetowa może przyciągać takim samym stopniu jak priorytetowa!

  1. przedłużona koncentracja- dłuższe monitorowanie otoczenia(czujność)

paradygmat zegara gdzie notuje się nieuchronny spadek koncentracji-energii

( Mackworth)

  1. Podzielność uwagi

  2. Przerzutność –przełączenie się między obsługiwanymi niezależnie procesami przetwarzania info.

*paradygmat słuchania dychotycznego( cocktail party problem, Cherry)

*technika podążania(shadoving) wykorzystywana w badaniach Broadbenta Treisman i Moray’a

>koszty poznawcze w postaci dłuższego czasu wykonania, przy zahamowywaniu jednego procesu a uruchamianiu alternatywnego.

*paradygmat przełączania( task switching)-efekt podłogowy????do sprawdzenia

Teorie

Redukcja informacji docierających do systemu odbywa się na wejściu sensorycznym, poprzez zablokowanie wszystkich źródeł info-prócz jednego

!to czego filtr nie zaakceptuje ulega degradacji zależy od modalności zmysłowej(wzrok, słuch itp.)

-->przejście przez filtr oznacza dalsze przetwarzanie info na głębszym poziomie-semantycznym a w rezultacie daje świadome doznanie

Koncepcja ta doczekała się różnych odmian:

~Broadbent Y

Wyróżnił dwa kanały doprowadzające info( sensoryczne) i jeden dalszy kanał semantyczny. Uwaga przełącza się pomiędzy dwoma kanałami na wejściu selekcjonując info pod względem właściwości fizycznych: intensywność, kolejność sekwencji bodźców)

*zasada ,,wszystko albo nic” komunikat nieprzetwarzalny ulega zapomnieniu(pozostaje po nim jedynie ślad fizyczny np. rozpoznanie płci spikera w kanale ignorowanym(słuchanie dychotyczne) ale nierozpoznanie treści.

Krytyka: wiele wskazuje na to, że decyzje o zaakceptowaniu info przez filtr podejmowane są na podstawie znaczenia sygnału

=>wybór filtra sensoryczny/semantyczny zależy od dostępności czasu( Gray, Wadderburn, prezentowanie ciągów cyfr i sylab naprzemiennie. Odpamiętywane są osobno: litery,liczby)

~ Treisman

uwaga przełączana jest z jednego kanału sensorycznego na drugi aby śledzić treść komunikatu. Filtr skleja info z kanału ważnego i ignorowanego, gdy taki zlep ma sens.

>związki iluzoryczne: połączenie wbrew instrukcji 2 odrębnych elementów sensorycznych różnych źródeł sensorycznych (zbitek dwóch słów)

=>filtr uwagi otwierany jest od środka przez informacje, które przedostały się przez filtr, są przetwarzane semantycznie wzmacniają dane próbujące się tam przedostać

propozycja Treisman została nazwana modelem ,,osłabiacza” gdyż info niepowiązane z wcześniej przetworzonymi są słabiej obrabiane.

~ Broadbent & Gregory

proponują koncepcje dwóch filtrów( model poprawiony): sensorycznego sensorycznego semantycznego

~ Deutsch & Deutsch

według ich koncepcji decyzja o wzmocnieniu/osłabieniu sygnału jest podejmowana dopiero po przekroczeniu prze info progu świadomości- do tego momentu bodźce przetwarzane są jednakowo głęboko. Zasada koniecznej świadomości została jednak szybko odrzucona

!!spory pomiędzy modelami wczesnej i później selekcji.

~ Johnson

zaproponował istnienie jednego filtra, ale zmieniającego charakter w zależności od poziomu przetwarzania-elastyczność

=>im wyższy poziom przetwarzania tym większa pojemność filtra

=>możliwość działania zasady przetargu między szybkością a poprawnością

Filtr na poziomie sensorycznym działa wraz z zasadą wszystko albo nic. Na poziomie semantycznym wraz z zasadą osłabiacza a na najgłębszym poziomie (odniesienie do ,,ja”)z zasadą koniecznej świadomości i zasady przetargu.

Ograniczenia: analiza i selekcja dalej odbywa się tylko w jednym kanale przetwarzania.

~ Treisman i teoria ,,integracji cech” sygnały docierają do ,,map lokacyjnych”(kodują sygnał w mapach cech: kolor, kształt itp.) wykrywają one własności bodźców wykrywają czy atrybut jest obecny w obiekcie w polu wzrokowym

według koncepcji zadaniem uwagi jest:

-wybór właściwych map lokacyjnych co prowadzi do selekcji właściwych map cech następuje integracja zakodowanych wcześniej cech rozpoznanie obiektu

selekcja= aktywacja poszczególnych cech i ich integracja w obiekt

>proces przeszukiwania pola percepcyjnego ma charakter szeregowy( gdy mamy do czynienia z koniunkcjami cech

>ma charakter równoległy, gdy występują cechy proste

krytyka teori Triesman

=>im trudniejsze odróżnienie sygnału spośród szumów/dystraktorów tym większe prawdopodobieństwo wystąpienia procesu szeregowego!!

=> to czy proces będzie szeregowy/równoległy zależy od podobieństwa sygnału do dystraktora, a nie liczby integrowanych cech. ( Bergen, Juliusz)( Duncan), potwierdzone w badaniach Słabosz i Szymury.

=>bodźce poruszające się wraz z sygnałem wywołują większą interferencję niż dystraktory statyczne

=> w przypadku cech priorytetowych możliwe jest szybkie przetwarzanie bodźcazachodzi we wczesnej fazie selekcji(przeduwagowej)tylko wtedy, gdy cecha rzeczywiście wyróżnia obiekt w polu wzrokowym( przyjmuje wartości dystynktywne).

~Treisman (zmodyfikowana wersja)

właściwości priorytetowe są kodowane szybciej w odpowiednich mapach cech.

Model,, dwufazowy” równoległej i szeregowej integracji cech:

-proces odgórny, aktywizacja właściwych map cech,

-oddolny, automatyczna dezaktywacja pozostałych cech

!!model akceptowany do dziś!!

~Theeuwes

model uwagi podążającej za najbardziej znaczącą( dystynktywną) prezentacją stymulacji

Najpierw polu uwagi wyodrębniamy element o najwyrazistrzych cechach

Skupianie uwagi przez dłuższy czas powoduje spadek czujności( obniżenie poprawności, rejestruje się dłuższy czas wykonania zadania)

~ teoria detekcji sygnałów( Green, Swets)

model odróżniania sygnału od szumu. Idealny obserwator zauważy każdy sygnał( reakcja –trafienie) i zawsze zignoruje szum/dystraktory( prawidłowe odrzucenie. Możliwe jest jednak popełnienie błędów:

- FA zareagowanie na szum/dystraktory

-OM zignorowanie sygnału

Obserwator przy rozwiązywaniu może podejmować różne strategie to znaczy skłaniać się ku FA lub OM np. wtedy gdy konsekwencje popełnienia błędów FA są mniejsze niż OM.

Każdy ustala sobie kryterium decyzyjne= próg reaktywności

Im wyższy próg tym maleje prawdopodobieństwo FA ale rośnie OM

=>z upływem czasu obserwuje się jednak po prostu generalny wzrost liczby błędów.

Idealny obserwator ma niższe kryterium decyzyjne dla bodźców prawdopodobnych niż dal tych mniej prawdopodobnych!!!

*eksp Baddeley’a -nieadekwatne oczekiwania co do prawdopodobieństwa wystąpienia sygnału są przyczyną spadku czujności.

=>Baker , zależność między subiektywnym prawdopodobieństwem pojawienia się sygnału a wielkością przedziału czasowego jest krzywoliniowa -odwrócone,,U”

 trening przedłuża koncentrację

spadek czujności występuje w wyniku zmniejszenia się wrażliwości na bodziec przy dłuższej jego ekspozycji w czasie

*Poziom wykonania zadania zależy od aktualnego stanu energetycznego organizmu( prawo Jerkesa-Dodsona , odwrócone,, U”

>introwertycy łatwiej radzą sobie monotonnych i łatwych zadaniach na czujność uwagi

>ekstrawertycy łatwiej natomiast w zadaniach złożonych i stymulujących.

=>hipoteza zmieniającej się aktywacji Daviesa i Parasuramana

Badania prowadzone w paradygmacie słuchania dychotycznego

>Bernstein i badania nad dwiema czynnościami wykonywanymi niezależnie, przy braku ponoszenia kosztów poznawczych( widzenie i słuchanie)potwierdziły jej założenia. Okazało się ponadto, że gdy obie modalności dotyczą tego samego zadania info słuchowe skraca czas reakcji na jednocześnie prezentowany bodziec wzrokowy.

=> Duncan- koncepcja uwagi ,,ukierunkowanej na obiekt”. Oznacza to iż podzielność uwagi w zakresie jednego zadania lub obiektu jest możliwa bez ponoszenia dodatkowych kosztó( błędów, wydłużonego czasu reakcji)

=>Allport i współpracownicy ,,multikanałowa koncepcja selektywnej uwagi

według nich uwaga funkcjonuje jako zestaw niezależnych kanałów zawierających własne filtry( są to mechanizmy zdolne do niezależnej selekcji)

-wersja poprawiona:

niezależność kanałów selekcyjnych zależy od tego czy dwa konkurencyjne zadania wymagają różnych receptorów, reprezentacji umysłowych i efektorów.

*uwaga może działać jak zbiór niezależnych modułów to, który z nich zostaje użyty jest zdefiniowane na wejściu

moduł- każdy ma wyspecjalizowany podsystem własnymi zasobami, dlatego możliwe jest przetwarzanie równoległe. Są one jednak ograniczone to znaczy, że tylko jeden może przetwarzać info słuchową, tylko jeden info wzrokową itp.

ograniczenia zatem wynikają nie z istnienia jednego filtra lecz z limitowanej dostępnośći modułów.

~Kahneman teoria zasobów

uwagamoże działać tylko przy szeregowym jednokanałowym przetwarzaniu. Jeśli dochodzi do przetwarzania wielokanałowego to muszą pojawić się koszty jednoczesności(zakłócenia przebiegu jednoczesnych procesów selekcji, analizy info) ( str 213, graficzny model-warto zerknąć).

=>każdy system poznawczy ma ograniczoną pulę zasobów- energię mentalną. Są one przydzielane różnym procesom( alokacja zasobów). Zajmuje się tym ,,nadrzędny mechanizm selekcjonujący” jest on centralnym dyspozytorem energii( Nęcka, Szymura)!!

Dlaczego powstają koszty??:

Interferencja strukturalna( Allport) czy interferencja zasobowa( Kahneman) trudne do rozstrzygnięcia!!

Uwaga jest konsruktem jednorodnym!

Stanowisko pośrednie między koncepcjami parcjalistycznymi a holistycznymi prezentują m.in. Hirst Hist. Kalmaruwaga może funkcjonować jako zestaw do pewnego stopnia niezależnych zasobów specyficznych. Jeśli wymagania ze strony jednocześnie realizowanych różnych procesów nie przekraczają możliwości systemu do przydzielenia tych zasobów to uwaga funkcjonuje jako system niezależnych podsystemów zasobowych.

=>Nęcka i Szymura,( DIVA) ich badania wskazują na to, że uwaga jest mechanizmem jednorodnym. W zadaniach trudnych system zaostrza politykę przydzielania zasobów, przy zadaniach łatwych poszczególne składniki systemu uzyskują częściową autonomię!

*hipoteza przełącznika( Nęcka) przy zadaniach wykonywanych jednocześnie filtr przełącza się między dwoma zadaniami( naprzemiennie jedno jest analizowane a drugie ignorowane). Jeśli dokonuje się to dostatecznie szybko, koszty ograniczają się jedynie do czasu. Jeśli przełączanie się jest zbyt wolne lub rzadkie, pojawiają się koszty poprawności( FA, OM)

~ Rogers & Monsell w przełączaniu biorą udział dwa procesy:

-odgórne: wzbudzane wewnętrznie, przygotowują odpowiednie operacje umysłowe, przygotowawcze, działają proakywnie- uruchamiane jeszcze przed bodźcem, mają charakter kontrolny

- oddolne: wzbudzane zewnętrznie, działają reaktywnie jako odpowiedź systemu na zaistniałą sytuację, dokańczają rozpoczęty proces, charakter automatyczny.

*zestaw zadaniowy- kieruje procesem od skupiania uwagi do odpowiedzi motorycznej. Jest to rodzaj modułu funkcjonalnego przechowywanego w pamięci.

* RSI( response-stimulus interval)- przerwa między zadaniami konieczna do zredukowania kosztów przerzutności.

 jeśli za powstawanie kosztów miałyby odpowiadać jedynie procesy kontrolne to powinny one ulec całkowitej redukcji na skutek podania wskazówki wyprzedzającej lub wystarczająco długiej( RSI) w rzeczywistości redukcja kosztów nigdy nie jest zupełna, może być jedynie minimalizowana.--> oznacza to że w generowaniu kosztów przełączania się biorą udział również procesy automatyczne( wzbudzane oddolnie przez stymulację zewnętrzną).

>takim przykładem działania procesów automatycznych jest efekt ,,poprzedzania pozytywnego”szybsze przetwarzanie w kolejnym zadaniu z serii tej samej stymulacji co w poprzednim zadaniu lub podobnej.

> za powstawanie kosztów odpowiedzialna jest interferencja proaktywna: przy nowym zadaniu utrzymująca się aktywacja z poprzedniego zadania utrudnia wzbudzenie nowej. Aby ją zredukować potrzebna jest odpowiednio długa przerwa między zadaniami

> badania Allporta:

koszty przerzutności wiążą się z wykonywaniem wcześniejszego zadania nie zadania nadchodzącego

 badanie Śmigasiewicz, Szymury i Słabosz nie potwierdziły tej tezy(str 220).wielkość kosztów przerzutności zależy od poziomu trudności zadania.

*koszty rezydualne –koszty ujawniające się mimo wszystko, ale nie podlegające redukcji. Źródłem takich kosztów mogą być:

>źródłem kosztów rezydualnych może być mechanizm inhibicji(odrzucenie) gdyżprzejście do kolejnego zdania z serii wymaga uruchomienia dwóch procesów:

-wzbudzeniu aktywacji nowego zestawu zadaniowego

-zahamowaniu aktywacji zestawu już nieprzydatnego.

 Mayr i Keele wykazali, aktywacja modułu potrzebnego do realizacji zadani wcześniej odłączonego trwa dłużej (ABA) niż aktywacja nowego modułu(ABC) – analogia do zjawiska poprzedzania negatywnego.

UWAGA, PERCEPCJA, NIEŚWIADOMOŚĆ

* procesy przeduwagowe dotyczą obróbki info na wczesnych etapach( uwaga jest tu obecna)

!!obecnie uważa się że uwaga selekcjonuje info nawet gdy jej treść nie przedostaje się do świadomości

> kryterium świadomego przetwarzania(Velmans) :

zdawanie sobie sprawy przebiegu procesu poznawczego i dysponowanie wiedzą o rezultatach tego procesu. Świadomość procesu ma ponadto wpływ na jego przebieg

> Baar jest zdania że proces nieświadomy to taki gdzie nie wyzwala się subiektywne doświadczenie, nie jest możliwe jego zrelacjonowanie ale ujawniają się skutki jego działania.

* bodziec podprogowy: jest na tyle silny, iż pobudza org sensorycznie, ale zbyt słaby by go świadomie zauważyć. Działa powyżej absolutnego progu percepcji, ale poniżej progu świadomości.

>Mendelson i anagramy:

efekt nieuświadomionej podpowiedzi np. słowo zapamiętane w uprzednim zadaniu eksperymentu pomaga rozwiązać zadanie z anagramami. Wielkość efektu zalezy od modalności zmysłowej( większy przy modalności wizualnej)

* bodźce peryferyczne: bodźce znajdujące się na peryferiach uwagi, przetwarzane są słabo, na płytkim poziomie, mało analizowane semantycznie.

W zauważeniu bodźca peryferycznego pomagają cechy priorytetowe( kolor ruch)jeśli są dystynktywne(str 223)

>Dallas i Merikle

reakcja na słowo kanale ważnym( samochód) może być przyspieszona gdy w kanale ignorowanym pojawi się słowo semantycznie związane( kierowca). Czas reakcji wydłuża się natomiast gdy w kanale ignorowanym pojawi się synonim słowa( auto).

Poprzedzanie:

Bodziec wcześniejszy( pryma)wpływa na przetwarzanie bodźca docelowego!

Paradygmat*

>poprzedzanie repetytywne: krótka prezentacja tego samego bodźca przed tym jak ma on być za chwilę rozpoznany

> poprzedzanie semantyczne: pryma nie jest identyczna z bodźcem docelowym, ale jest z nim semantycznie związana( np., bibliotekaksięgozbiór)

>*gdy bodziec prymujący ułatwia przetworzenie b.docelowegopoprzedzanie pozytywne

>poprzedzanie podprogowe(sublimalne):pryma działa w bardzo krótkim czasie-badany jej nie zauważa, ale obserwujemy zmianę w przetwarzaniu bodźca docelowego(!efekt ten można uzyskać również przez prezentacje bodźca o bardzo małej intensywności)

>poprzedzanie peryferyczne: bodziec poprzedzający jest wystarczająco intensywny, trwa długo ale osoba jest nieświadoma jego oddziaływania.

>poprzedzanie afektywne: przed bodźcem właściwym prezentowany jest bodziec o zabarwieniu emocjonalnym-bodziec docelowy jest przez to inaczej interpretowany

>poprzedzanie sekwencyjne:

pryma maskabodziec docelowyreakcja

*paradygmat prymowania niesekwencyjnego( str. 226)

ROZDZIAL 6

KONTROLA POZNAWCZA (ROZDZIAŁ 6)

Kontrola poznawcza- zdolność systemu poznawczego do nadzorowania i regulowania własnych procesów poznawczych, poznawczych także do planowanego sterowania ich przebiegiem.

Trzy postaci kontroli poznawczej (Chuderski):

- monitorowanie

- regulacja

- sterowanie

Automatyzacja- nabywanie wprawy na skutek treningu

→ trening jednorodny- ta sama reakcja jest odpowiedzią na ten sam układ bodźców

→ trening niejednorodny- ten sam typ reakcji przy częstej zmianie bodźców

czynności automatyczne są szybkie, bezwysiłkowe, pozbawione kosztów poznawczych; realizowane bez namysłu i poza kontrolą świadomości; balistyczne (rozpoczęta czynność musi zostać ukończona)

Procesy nieautomatyczne dzięki nabywaniu wprawy mogą stać się procesami zautomatyzowanymi (wtórnie automatyczne)- takie procesy są poza kontrolą świadomości, zmniejszają wysiłek umysłowy, są intencjonalne oraz celowe

przeciwieństwem są procesy pierwotnie automatyczne, które są bezwysiłkowe, poza kontrolą świadomości, nieintencjonalne

↑ procesy słabo i silnie automatyczne

Schneider i Shriffin teoria kontinuum (efekt nabywania wprawy przesuwa się od bieguna kontroli w stronę automatyzmu)

- model procesów automatycznych i kontrolowanych

→ system poznawczy podzielony na dwie ścieżki

pierwsza wymaga kontroli ze strony uwagi, pojawia się w przypadku pojawienie się

nowych bodźców i braku strategii postępowania

druga jest związana z automatyczną detekcją układu bodźców, jest poza kontrolą, czynności zapisane są w pamięci długotrwałej, są niemodyfikowalne

Schneider i Shriffin podzieli procesy kontrolowane na dwa rodzaje

- procesy jawne (dostępne świadomości)

intencjonalne przeszukiwanie świadomości

niewydajne, wolne

- procesy zawoalowane (niedostępne świadomości)

porównywanie elementów w pamięci świeżej

szybkie, możliwe zmiany na skutek instrukcji werbalnych lub nabywania wprawy

Procesy automatyczne są nieświadome i jednorodne, wymagają jedynie minimalnej ilości zasobów (wysiłku mentalnego)

Różnica w zakresie stopnia automatyzacji

- warunek spójny

- warunek niespójny (szybka identyfikacja)

Proces automatyzacji wymaga długiego treningu, procesy kontrolowane mogą stać się automatycznymi

Interakcje procesów automatycznych i kontrolowanych nie musi wyzwalać efektów interferencji

Możliwy jest transfer wprawy w zakresie zautomatyzowania czynności z jednego zestawu bodźców na drugi

Możliwość kontroli procesów automatycznych- modyfikacja w takcie ich przebiegu (Logan, Tzelgov) np. przerwanie pisania na maszynie, kiedy się popełni bład

Paradygmat SYGNAŁU STOP

Pisanie na maszynie z presją czasową, w nieprzewidzianym momencie zaprzestanie czynności

- zgodnie z teorią egzemplarzy badani tym szybciej zahamują czynność im krótszy będzie interwał czasowy pomiędzy bodźcem wzbudzającym a bodźcem stop. Możliwe jest także powstrzymanie czynności przy dużych interwałach czasowych.

Paradygmat EFEKTU STROOPA

Istotą efektu jest utrudnienie w przetwarzaniu bodźców niespójnych w porównaniu z bodźcami spójnymi

- zahamowanie dobrze wyuczonej czynności i zastąpienie jej inną niewyuczoną

- efekt interferencji

Osoby badane czytają słowa spójne lub niespójne albo nazywają kolor atramentu użyty do napisania słów spójnych lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie kolorów, ponieważ jest czynnością silnie zautomatyzowaną. Jeśli chodzi o nazywanie kolorów czynność ta jest zwykle znacznie dłuższa w przypadku słów niespójnych w porównaniu ze spójnymi.

Procesy automatyczne nie są całkowicie balistyczne

siła automatyzmu zależy od proporcji bodźców

np. można zredukować efekt Stroopa zmniejszając liczbę kolorów

Modyfikacje zadania Stroopa:

  1. Stroop emocjonalny – nazywanie koloru jakim napisano słowo kojarzące się z lękiem albo rzeczami lub sytuacjami o negatywnym zabarwieniu emocjonalnym

  2. Stroop rozproszony – nazywanie koloru obiektu występującego w towarzystwie wyrazu oznaczającego zupełnie inny kolor

  3. Stroop figuralny – nazywanie figury stanowiącej tworzywo, a ignorowanie figury głównej, osoby badane widzą figurę zbudowaną z innych figur

  4. Stroop kierunkowy – badani mają za zadanie reagować za pomocą odpowiedniego klawisza kursora klawiatury na strzałkę pokazującą kierunek przeciwny niż klawisz

Teoria rywalizacji egzemplarzy (Logan) <teoria przypadków>

uwzględnia możliwość kontroli procesów automatycznych, które mają właściwości:

- są autonomiczne (uruchamiane i wykonywane nieintencjonalnie)

detekcja bodźca powoduje przywołanie informacji deklaratywnych i proceduralnych

- można je wykorzystywać intencjonalnie (kontrola do momentu uruchomienia reakcji

motorycznych)

- dostępność do pamięci długotrwałej

- brak introspekcyjnej świadomości przebiegu

- bezwysiłkowość

Najważniejszym konstruktem tej teorii jest pojęcie egzemplarza- reprezentacja bodźca (S) i sposobu reakcji (R).

Egzemplarz przechowywany jest w postaci wiedzy trwałej

Pojawienie się bodźca może spowodować jeden z dwóch sposobów przetwarzania informacji

- zastosowanie ogólnego algorytmu (automatyczna procedura)

- znanego z przeszłości sposobu poradzenia sobie z bodźcem (kontrolowane przetwarzanie)

Egzemplarze podlegają procesowi nabywania

→ pojawienie się bodźca powoduje zapis w pamięci

→ odmienne pojawienie się tego samego bodźca powoduje ukształtowanie się odrębnej

reprezentacji egzemplarzowej

→ gromadzenie egzemplarzy jest tożsame z nabywaniem wprawy

→ początkowe efekty gromadzenia egzemplarzy gwałtownie skraca czas reagowania, dalsze

ćwiczenia skracają go w coraz mniejszym stopniu

Nabywanie wprawy jest związane z wtórna automatyzacją

Automatyzmy związane są z dostępnością egzemplarzy

Dzięki automatyzacji uwalniane są zasoby systemu, które można przeznaczyć na wykonywanie innych zadań, co przyspiesza i większa poprawność reagowania, redukuje efekt przetargu między poprawnością a szybkością

Efekt przetargu między szybkością a poprawnością

z presją czasową

im płytszy poziom analizy bodźców tym szybszy i mniej poprawny proces selekcji informacji, na głębokich poziomach przetwarzania informacji analizy selekcyjne są znacznie bardziej złożone, wymagają więcej czasu, ale w konsekwencji są bardziej poprawne

zwiększona szybkość powoduje wzrost błędów, jednakże efekt ten ulega sukcesywnemu zmniejszaniu w każdej kolejnej próbie tego samego testu, najbardziej istotne różnice na początku (Szymura, Słabosz)

Negatywne konsekwencje automatyzacji- deproceduralizacja

Trzy stadia nabywania automatyzacji

- poznawcze (zrozumienie i przyswojenie instrukcji)

- asocjacyjne (proceduralizacja sposobu wykonania czynności)

- autonomiczne (uzyskanie statusu autonomicznego, przebieg bezwysiłkowy)

Innym negatywnym zjawiskiem jest transfer negatywny – dobrze wyuczona czynność utrudnia wykonanie czynności podobnej, ale nie tożsamej z poprzednio wyuczoną

• Hamowanie

Hamowanie jest mechanizmem kontrolnym polegającym na, z jednej strony, utrudnieniu dostępu do informacji nieistotnych, a z drugiej, na powstrzymaniu niepożądanej w danym momencie aktywności neuronalnej, mentalnej lub behawioralnej.

Podstawowym zadaniem hamowanie jest blokowanie pobudek zarówno zewnętrznych, jak i wewnętrznych.

Hamowanie jest konstruktem niejednorodnym.

Hamowanie ze wzbudzeniem alternatywnej reakcji motorycznej jest trudniejsze niż proste powstrzymanie dominującej reakcji (warunek stop- zmiany, warunek stop- ogólny)

Najtrudniejsze jest hamowanie selektywne- powstrzymanie tylko jeleniej z dwóch możliwych do wzbudzenia reakcji motorycznych (stop- selektywny) należy, bowiem zablokować energię potrzebną do wykonania ruchu, ale nie każdego ruchu, a jedynie takiego, który zostanie centralnie wskazany do zablokowania.

Francolini i Egeth (1980) twierdzą, że w pewnych warunkach proces odrzucania dystrakcji może być całkowicie skuteczny dzięki przestrzennej separacji konfliktowych aspektów bodźca:

- udane próby redukcji efektu Stroopa

- udane próby redukcji efektu flankerów

Bodźce zakłócające przetwarzanie poza ogniskiem uwagi są w stanie wzbudzić reakcję konkurencyjną względem wykonywanej czynności.

W Teście flankerów badani reagują na literę pojawiającą się w centrum ekranu. Litera ta jest otoczona przez dwa bodźce zakłócające (flankery), którymi są inne litery pojawiające się po obu stronach sygnału w jednym rzędzie. Flankery mogą być tożsame z sygnałem lub też mogą być zupełnie innymi literami. Zadania testowe różnią się w zakresie przestrzennej lokalizacji bodźców zakłócających (bliżej lub dalej od sygnału).

- Czas reakcji na sygnał znacznie się wydłuża, gdy pojawiają się flankery, w porównaniu do sytuacji, gdy ich nie ma lub są tożsame z sygnałem. Wydłuża się tym bardziej, im bardziej podobne do siebie są sygnały i dystraktory oraz im mniejsza jest ich wzajemna odległość (Eriksen i Eriksen)

[np. C A C / CCC/CAC/C C C]

Efekt flankerów wynika z konieczności zahamowania potencjalnej reakcji na bodziec zakłócający. Wykonanie tego testu jest bardziej związane z hamowaniem reakcji konkurencyjnej (na dystraktor) niż z odpornością na dystrakcję rozumianą jako powstrzymywanie się od przetwarzania bodźców zakłócających (przetwarzanie tak, dopiero na poziomie reakcji jest STOP).

Karen, O’Hara i Skelton wykorzystali w swoim badaniu zadanie Posnera i Mitchella (1967). Badani mieli podjąć decyzję, czy para prezentowanych liter spełnia narzucone przez instrukcję kryterium selekcyjne:

  1. identyczności fizycznej (AA)

  2. identyczności nominalnej (Aa)

  3. identyczności opartej o regułę (np. Ae)

Wg nich przetwarzanie bodźców może być powstrzymywane bardzo wcześnie, na poziomie ich rozpoznania (1), lub też bardzo późno, na poziomie przetwarzania ich znaczenia (2)

  1. dystraktory powodowały interferencję tylko w zadaniach, w których zastosowano kryterium fizycznej identyczności (skutecznie odrzucane w warunkach wymagających uwzględnienia znaczenia bodźców)

  2. interferencja stwierdzona w zakresie wszystkich zadań, niezależnie od kryterium selekcji

Dynamiczna wersja zadania Posnera i Mitchella- DIVA- pokazał, że sposób przeszukiwania pola percepcyjnego jest zależny od odporności na dystrakcje.

Efekt tłumienia dystrakcji (Neill) – zastosowano zadanie Stroopa układając w specyficzny sposób porządek bodźców na liście niespójnej. N+1 bodziec tej listy był napisany kolorem atramentu, który był tożsamy ze znaczeniem bodźca N-tego

Reakcja na tłumiony wcześniej aspekt bodźca konfliktowego jest wolniejsza niż wówczas, gdy aspekt ten nie był uprzednio odrzucany.

Efekt ten jest zależny od strategii rozwiązania przetargu między poprawnością a szybkością (Neill, Westberry). Gdy badani, wykonujący zadanie Stroopa, poświęcali poprawność na rzecz szybkości, nie stwierdzono efektu tłumienia dystrakcji, gdy zaś poświęcali szybkość na rzecz poprawności, efekt ten wystąpił z jeszcze większą siłą.

Tłumienie dystrakcji jest krótkotrwałe- proces ten jest aktywny przez najwyżej 1000ms.

Paradygmat POPRZEDZANIA NEGATYWNEGO (Neill)

Własną wersję zadania w tym paradygmacie stworzył także Tipper

- N-ty bodziec- pryma, N+1- próba testowa

- prezentowanie prymy utrudnia przetwarzanie bodźca właściwego

- wydłużenie czasu potrzebnego na przetworzenie bodźca właściwego

- efekt występuje tylko w kontekście konieczności dokonywania procesu selekcji w obrębie pary bodźców

Zagadnieniem odporności na interferencję pamięciową zajęli się Andersen, Bjork i Bjork- określili oni zjawisko zapominania z powodu przywoływania- odpamiętanie informacji z konkretnej kategorii może spowodować brak możliwości przypomnienia innej informacji z tej samej kategorii.

Hamowanie pamięciowe (Pefrect, Mulin, Conway, Perry)- redukcja w zakresie poziomu aktywacji reprezentacji pamięciowej.

- odpamiętywane są przede wszystkim egzemplarze ćwiczone

Klasyfikacja rodzajów hamowania (Nigg, 2000):

  1. kontrola interferencji

  2. hamowanie percepcyjne (tłumienie odruchu kaskadowego)

  3. hamowanie poznawcze (tłumienie irrelewantnych reprezentacji umysłowych)

  4. hamowanie behawioralne

  5. hamowanie powrotu

  6. hamowanie uwagowe odruchu orientacyjnego

Odmienna taksonomia rodzajów hamowania (Friedman i Miyake, 2004)

  1. hamowanie dominującej reakcji [zadanie Stroopa]

  2. odporność na dystrakcję (możliwe jest odrzucenie informacji niepotrzebnych, z punktu widzenia aktualnie przetwarzanych danych) [Test flankerów]

  3. odporność na interferencję proaktywną (proces aktywny i wysiłkowy, prowadzonym przy wykorzystaniu głębokich, trwałych reprezentacji umysłowych) [zadanie Petersonów- opamiętywanie egzemplarzy pojedynczej kategorii, które wcześniej są sukcesywnie prezentowane]

    • Funkcje zarządcze

Problem homunculusa (Nęcka, 2004)- odnalezienia, opisania i wyjaśnienia mechanizmów działania Tego, który buduje reprezentacje, steruje myśleniem i podejmuje ważne dla całości systemu poznawczego decyzje, a więc Tego, który kontroluje działanie systemu poznawczego.

Homunculus odnaleziony przez psychologów poznawczych został określony mianem funkcji zarządczych

- zlokalizowanych w przednich płatach czołowych mózgu

- ich upośledzenie – syndrom czołowy- dezorganizacja wszystkich form zachowania

Funkcje zarządcze:

  1. przerzutność (pomiędzy zadaniami, procesami, czynnościami) [Wisconsin Card Sorting Test]

  2. hamowanie (niepożądanej reakcji, bodźców zakłócających) [Wieża z Hanoi]

  3. odświeżanie informacji w zakresie pamięci roboczej [Test Sternberga]

Collete i Van der Linden (2002) wykazali, że wykonywanie zadań wymaga aktywizacji zarówno przednich płatów czołowych, jak i płatów tylnych, a w szczególności ciemieniowych obszarów kory mózgowej.

Owen (2000) stwierdził, że mechanizm hamowania dominującej reakcji należy lokalizować tylko w części przednich płatów czołowych, zawierających obszary:

- środkową część grzbietowo-boczną

- środkową część brzuszno-boczną

- grzbietową część przedniej części zakrętu obręczy

Modele kontroli poznawczej:

- markery somatyczne

- mechanizmy uwagowe

- mechanizmy pamięciowe

Koncepcja uwagi Posnera- podstawowe mechanizmy uwagowe:

- mechanizm aktywacyjny- podtrzymanie umysłu w sta nie pobudzenia niezbędnego do wykonania danej czynności poznawczej

- mechanizm orientacyjny- odpowiada za przenoszenie uwagi w polu percepcyjnym z obiektu na obiekt

- mechanizm zarządczy- kontrola wykonania czynności celowych; mechanizm zarządczy bierze górę nad mechanizmem orientacyjnym.

Mechanizm zarządczy może skutecznie ograniczyć interferencję płynącą z bodźców zakłócających, jeśli system poznawczy z wyprzedzeniem zna np. kolor, odróżniający oba rodzaje bodźców: sygnał i dystraktor (Theeuwes, Burger, 1998).

Zarządczy mechanizm uwagi odpowiada za hamowanie wagowego odruchu orientacyjnego oraz kontrolę interferencji pochodzenia zewnętrznego; niepowodzenia w funkcjonowaniu tego odpowiada hamowanie powrotu- niedopuszczanie do powrotu uwagi do wskazanego miejsca pojawienia się sygnału (Posner, Cohen, 1984).

Kontrola uwagowa jest sprawowana odgórnie i ma charakter wewnętrzny. Mechanizm zarządczy determinuje, co i w jaki sposób będzie dalej przekazywane. Percepcja podąża wiec za uwagą.

Jeśli mechanizm zarządczy nie jest dostatecznie ukształtowany- przetwarzanie informacji sterowane jest oddolnie i ma charakter zewnętrzny, przez co uwaga podąża za percepcją, będąc automatycznie nakierowaną na spostrzegany obiekt.

Dwustopniowy system kontroli zachowania (Shallice)

Zachowanie jest kierowane w większości przez automatyzmy (rutyny), zarówno pierwotne (odruchy), jak i wtórne (nawyki)

System kontroli czynności automatycznych decyduje, w przypadku konfliktu czynności automatycznych, automatycznych kolejności realizowania czynności; jego zadaniem jest hamowanie wszystkich rutyn, które są w mniejszym stopniu dostosowane do sytuacji bodźcowej.

Ogólnym zadaniem mechanizmu automatycznego, selektywnego hamowania działań rutynowych jest ustalenie rozkładu jazdy czynności automatycznych.

System kontroli czynności automatycznych jest nieskuteczny w sytuacjach nowych.

W takich sytuacjach trzeba zahamować dominującą reakcję, monitorować i korygować błędy wynikające z prób dostosowania posiadanych schematów do nowych układów bodźców je wyzwalających, a także podejmować złożone decyzje i tworzyć nowe plany działań.

Kontrolą przetwarzania informacji w sytuacjach nowych zajmuje się nadzorczy system uwagi SAS (polska nazwa tego sytemu: dominujący system zadaniowy).

Zadaniem SAS jest układanie „rozkładu jazdy” czynności kontrolowanych oraz ich bieżący monitoring:

- tworzenie nietrwałej reprezentacji umysłowej dla sytuacji problemowej

Konsekwencje wynikające z założeń modelu kontroli zachowania (Shallice):

- działanie systemu kontroli czynności nieautomatycznych może zostać upośledzone w sytuacji wykonywania zadań jednoczesnych o porównywalnym priorytecie

- system kontroli nieautomatycznych może funkcjonować skutecznie jedynie przy efektywnym hamowaniu interferencji ze strony danych zawartych w pamięci

- jednym z najważniejszych mechanizmów kontrolnych SAS powinien być mechanizm przerzutności pomiędzy elementami aktualnie przetwarzanych schematów działań

Centralny system wykonawczy pamięci roboczej (Baddeley)

Do tego modelu Baddeley zapożyczył model SAS. System ten jest jednym z elementów pamięci roboczej.

Centralny system wykonawczy jest odpowiedzialny za kontrolę zadań jednoczesnych. Jego głównym zadaniem jest zarządzanie zasobami uwagowymi systemu poznawczego i przeznaczenie ich do wykonywania czynności jednoczesnych. Kontrola czynności jednoczesnych jest możliwa, a redukcja kosztów poznawczych w wyniku efektywnej kontroli wydajna.

Np. test generowania liczb losowych

Centralny system wykonawczy zlokalizowany jest w przednich płatach czołowych mózgu.

System ten jest kandydatem na poszukiwanego przez psychologię poznawczą homunculusa kierującego zachowaniem.

RODZIAŁ 1

Język i mowa

Język- system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli (dźwięków mowy lub znaków pisma). Operowanie na symbolach podlega regułom gramatycznym, swoistym dla każdego języka naturalnego lub sztucznego.

Mowa- używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze lub własne. W innym ujęciu mowa to zdolność gatunku ludzkiego do przekazywania i odbierania komunikatów językowych za pomocą wyrażeń wokalnych lub znaków pisma.

Procesy przetwarzania języka- procesy przetwarzania informacji biorące udział w tworzeniu wyrażeń językowych i ich analizie.

Język pełni dwie podstawowe funkcje psychiczne:

- niewerbalną (mimika, pantomimika, postawa ciała itp.)

- parawerbalną (ton głosu, pauzy, intonacja)

- komunikatów stricte językowych

zasada prymatu komunikacji niewerbalnej nad werbalną- niekiedy sens komunikatu niewerbalnego jest sprzeczny z treścią przekazywaną za pośrednictwem języka, np. mówimy do dziecka „chodź tu mały brzydalu”- komunikat negatywny jednak dzięki pieszczotliwej artykulacji dziecko przybiega; komunikaty niewerbalne nie muszą być sprzeczne z werbalnymi- zwykle wzajemnie się uzupełniają i wzmacniają.

Inny podział funkcji języka:

Cechy języka: system złożony, dynamiczny (ciągle ewoluujący), produktywny (korzystając z ograniczonego zasobu słów jesteśmy w stanie stworzyć nieskończoną liczbę zdań (komunikatów)-> niekiedy produktywność prowadzi do twórczości językowej (np. dziecko „Co foczki ją?”).

Przyczyny dynamicznej zmiany języka:

Poziomy języka:

- znaczenie denotacyjne- kiedy wiedza dotyczy faktów

- znaczenie konotacyjne- kiedy wiedza dotyczy emocji i skojarzeń

np. denotacja słowa dom to budynek, a konotacja to bogata siec skojarzeń (ciepły, rodzinny)

- frazy nominalnej- określającej sprawcę i jego atrybuty

- frazy czasownikowej- określającej czynność i jej okoliczności

Strukturę zdania możemy zapisać w postaci drzewka derywacyjnego.

Niektórzy wyróżniają 2 warstwy funkcjonowania języka (Noam Chomsky-teoria gramatyki generatywnej)

Przekształcenie struktury głębokiej w powierzchniową jest możliwe dzięki regułom transformacji); umysł przechowuje sens zdarzenia na poziomie głębokim, co wystarczy, aby w razie potrzeby wygenerować odpowiadające temu sensowi struktury powierzchniowe; perspektywa mówcy: transformacja z głębokiego znaczenia na powierzchniową strukturę syntaktyczną zdania<- z perspektywy słuchacza odwrotnie; opowiadając jakąś historię, za każdym razem generujemy nowy zestaw struktur powierzchniowych.

Hipoteza determinizmu językowego (hipoteza Sapira- Whorfa)- język zasadniczo wpływa na to, jak spostrzegamy rzeczywistość, przetwarzamy informacje, formułujemy sądy lub korzystamy z zasobów pamięci; wielu pojęć nie da się przełożyć z jednego języka na inny; sposób w jaki mówimy determinuje to, jak widzimy świat i myślimy o nim; relatywizm językowy- nie ma dwóch identycznych języków, więc nie ma dwóch jednakowych sposobów poznawczego reprezentowania rzeczywistości, przede wszystkim społecznej.

Koncepcje przyswajania języka:

- warunkowanie klasyczne

*Iwan Pawłow- język jako drugi system sygnałowy- w wyniku warunkowania wyższego rzędu możemy

reagować strachem już nie tylko na sygnał zagrożenia, ale również na sygnał zapowiadający ten sygnał

(słowa jak „uważaj”, „groźne”)

*Hobart Mowrer- wyróżnił 4 grupy sytuacji odpowiadających znaczeniom językowym: groźba,

obietnica, ulga, rozczarowanie-tymi terminami opisał przypadki, gdy słowo sygnalizuje

niebezpieczeństwo, nagrodę, minięcie zagrożenia lub brak zapowiadanej nagrody.

- warunkowanie sprawcze- człowiek spontanicznie używa pewnych dźwięków- najpierw pojedynczych głosek i sylab, potem słów i pełnych zdań- otrzymując w zamian wzmocnienie pozytywne lub negatywne; dzięki stosowaniu reguł kształtowania złożonych reakcji, dorośli są w stanie wykształcić u dzieci umiejętność posługiwania się długimi, skomplikowanymi strukturami językowymi. Czynnikiem wzmacniającym może być tutaj sam fakt naśladowania innego osobnika, w szczególności kogoś ważnego.

- zdaniem Norma Chomsky’ego proces nabywania języka jest zdeterminowany wrodzonymi strukturami mózgowymi (urządzenie do przyswajania języka- LAD); dziecko posiada wrodzoną, ukrytą kompetencję językową, AGRUMENTY:

* istoty języka nie tworzą słowa, lecz struktury syntaktyczne, które są ukryte a przez to trudne do bezpośredniego utrwalania poprzez wzmocnienia pozytywne

* struktur gramatycznych raczej nie uczymy się wprost w sposób jawny (dziecko posługuje się już w pełni gramatycznym językiem, zanim pójdzie do szkoły)

* ludzie-zwłaszcza dzieci- używają zdań, których nie mieli okazji wcześniej usłyszeć

- Steven Linker- człowiek ma instynktowną zdolność do mówienia (instynkt językowy), czyli wrodzoną gotowość do wykształcenia określonych struktur; dzięki ekspozycji na komunikaty językowe, która musi nastąpić w okresie sensytywnym, uruchamiają się odpowiednie struktury mózgowe, w wyniku czego proces przyswajania języka uzyskuje nadzwyczajne przyspieszenie i wydajność.

- mowa ukierunkowana na dziecko- polega na modelowaniu (a nie karaniu) zachowań werbalnych dziecka w następstwie wielokrotnego powtarzania krótkich, ale syntaktycznie poprawnych zdań, np. „Kot mleko”- „Tak, kot pije mleko”.

Stadia przyswajania języka:

- proces przyswajania pierwszego języka jest w zasadzie ukończony u progu 4 roku życia dziecka (chodzi tu o kompetencję językową- kompetencja komunikacyjna rozwija się niekiedy do okresu adolescencji)

* głużenie- wypowiadanie pojedynczych fonemów

* gaworzenie- wypowiadanie pojedynczych sylab

- pierwsze słowa pojawiają się zwykle między 12-14 miesiącem życia, choć przejawy ich rozumienia już po 9 miesiącach od urodzenia

- mowa telegraficzna-mówienie pojedynczymi wyrazami lub łączenie ich w krótkie zestawy bez poprawnego odmieniania przez osoby, czasy, przypadki, np. „mama bawić”.

* błąd nadrozciągłości znaczeń- włącznie w obręb kategorii obiektów, które do niej nie należą (np. nazywanie każdej istoty czworonożnej psem)

* błąd hiperregularyzacji- dziecko ignoruje wyjątki i przypadki szczególne, stosując wszędzie regularne struktury gramatyczne (np. „on ma dwa braty”= dwóch braci).

Dwujęzyczność i wielojęzyczność:

- we współczesnym ujęciu dwujęzyczność i wielojęzyczność to zdolność do posługiwania się więcej niż jednym językiem

- do pewnego momentu w rozwoju poznawczym drugi język przyswajamy tak jak pierwszy, to znaczy szybko i bezwysiłkowo, korzystając z „instynktu językowego”

- kiedy minie okres sensytywny, przyswajanie drugiego języka staje się procesem powolnym i wymagającym wysiłku, a jego efekty nigdy nie będą idealne

- do kosztów dwujęzyczności zalicza się interferencję między językami- znajomość więcej niż jednego języka zwiększa ryzyko pomyłki w doborze słów i wyrażeń, spowalnia procesy wydobywania słów z leksykonu mentalnego i wymaga zwiększenia kontroli na etapie artykulacji, aby słowo z jednego języka nie „wcisnęło się” w komunikat sformułowany w innym języku

- osoby wielojęzyczne funkcjonują na wyższym poziomie świadomości metajęzykowej- osoby te wyrażają się bardziej precyzyjnie, ponieważ staranniej dobierają słowa i struktury składniowe

Mówienie:

- zasada kooperacji- mówca i słuchacz muszą ze sobą współdziałać (Paul Grice); 4 maksymy językowe mające ułatwić kooperację:

1) maksyma ilości- komunikat powinien zawierać tyle danych, ile to konieczne- nie więcej i nie mniej

2) maksyma jakości- mówca powinien mówić prawdę, ponieważ takie będzie prawdopodobne oczekiwanie słuchacza (chyba, że słuchacz zdaje sobie sprawę, że komunikat jest fałszywy to OK.)

3) maksyma relacji- mówca powinien mówić na temat, bez dygresji i odbiegania od głównego wątku- jeśli jednak dygresja czemuś służy, maksyma relacji nie zostaje złamana

4) maksyma sposobu- mówca powinien używać środków wyrazu dostępnych odbiorcy (głośna i wyraźna artykulacja, nieużywanie słów i wyrażeń, których słuchacz nie rozumie ze względu na brak wiedzy itp.)

- planowanie mowy dokonuje się z uwzględnieniem wspólnej płaszczyzny czyli podzielanych przez obie strony konwersacji elementów wiedzy, często niejawnej- jeśli porozumiewają się osoby obce, ustalenie wspólnej płaszczyzny może być bardzo trudne

- planowanie mowy jest minimalnie przesunięte w czasie w stosunku do realizacji planu= wypowiadając zaplanowane wcześniej słowa, jesteśmy już mentalnie przy następnym fragmencie wypowiedzi, świadczą o tym przejęzyczenia, w szczególności błędy antycypacji (Piciu, co ci zrobić do misia?”)
- jednostką planowania mowy jest FRAZA

- przetwarzając frazę, mamy do czynienia ze szczególnym przypadkiem interferencji, wynikającej z wykonywania dwóch czynności jednocześnie (planowanie wypowiedzi- realizacja planu)

- leksykalizacja- przekształcanie myśli w słowa; wymaga zaangażowania trzech poziomów języka: semantycznego, syntaktycznego, fonologicznego

- według Levelta pierwszy etap leksykalizacji polega na wyborze lemm (abstrakcyjna postać słowa obejmująca 3 elementy: jego znaczenie, funkcję syntaktyczną przewidzianą dla niego w przyszłym zdaniu oraz wskaźniki fonologiczne, czyli wstępne dane dotyczące sposobu jego wymawiania)

- dowód na obecność tego etapu- efekt końca języka- np. pytamy kogoś jak nazywa się rezygnacja osoby panującej z praw do tronu-> osoba nie udzieli odpowiedzi choć jest przekonana, że zna to słowo (abdykcja), co więcej niektórzy badani będą w stanie poprawnie określić na jaką literę zaczyna się to słowo, czyn z ilu składa się sylab- świadczy to o tym, że lemma zawiera nie tylko znaczenie i funkcję przyszłego słowa, ale też wskaźniki fonologiczne (jedynie szczątkowe wskazówki)

- następuje drugi etap leksykalizacji= wybór leksemów; leksem- jednostka umysłowego słownika, na który składają się konkretne słowa odpowiadające określonym znaczeniom (np. leksemy słowa koń to koń, konie, koniom itp.); leksykon mentalny- zbiór wszystkich leksemów, którymi dysponuje konkretny użytkownik języka (jeśli jest wielojęzyczny może dysponować więcej niż jednym leksykonem)

- teoria Levelta- etap fonologiczny obejmuje trzy podetapy:

* przywoływanie z pamięci głosek i układanie ich we właściwej kolejności

* sylabizacja i prozodyzacja wypowiedzi

* kodowanie fonetyczne czyli wybór odpowiednich wzorców artykulacyjnych dla każdej sylaby (w pamięci

mamy „sylabiarz” składający się z ok. 500 sylab)

- interakcyjny model mówienia- Dell twierdzi, że istnieje samoorganizująca się sieć tworzą ją znaczenia i brzmienie wszystkich słów, jest podobna do sieci semantycznych), zdolna do wytwarzania mowy

Rozumienie przekazów językowych:

- pierwszym zadaniem słuchacza jest dokonanie podziału nieprzerwanego potoku głosek na jednostki (segmenty), odpowiadające poszczególnym słowom ->segmentacja; dokonując segmentacji słuchacz musi kierować się innymi wskazówkami, takimi jak prozodia (intonacja, akcent, rytm), kontekst ogólny, a przede wszystkim kontekst wewnątrzjęzykowy

- proces identyfikacji poszczególnych słów w potoku żywej mowy dobrze opisuje model kohorty- słuchacz rozpoznaje słowa, systematycznie zwężając listę potencjalnych „kandydatów”, czyli zmniejszając kohortę możliwych jednostek leksykalnych aż do momentu, gdy nie będzie innego wyboru (np. słowo wczoraj jest rozpoznawalne już po pierwszych czterech głoskach ‘wczo…’)

- w procesie deszyfracji mowy współwystępują dwie czynności: segmentacja i odczyt znaczeń zapisanych w pamięci semantycznej; segmentacja byłaby niemożliwa bez wstępnej hipotezy na temat znaczenia słowa: tylko znaczenie eliminuje kolejne elementy z kohorty, aż do momentu wyeliminowania wszystkich z wyjątkiem jednego

- łamanie kodu akustycznego u dorosłych posługujących się językiem ojczystym dokonuje się automatycznie i bezwysiłkowo, stanowi jednak poważne wyzwanie dla kogoś, kto posługuje się słabo opanowanym językiem obcym

- rozbiór zdania polega na utworzeniu umysłowej reprezentacji jego treści, czyli zbudowania ‘w wyobraźni’ czegoś na kształt drzewna derywacyjnego

- zdania „ślepej uliczki” to szczególny rodzaj zdań dwuznacznych (np. Chłopiec odbił piłkę ręką podtrzymując kolegę)-> zdania te tracą dwuznaczności po dodaniu przecinka

- zasada późnego domknięcia- odbiorca stara się domknąć frazę najpóźniej, jak się da; domykanie frazy polega na ustaleniu granicy, poza którą zaczyna się nowa fraza zdaniowa

- w momencie, gdy dokona się rozbiór zdania, użytkownik języka przechodzi na poziom, który Chomsky nazwałby strukturą głęboką; powierzchniowa forma wypowiedzi jest zapominana tak szybko, jak tylko zbudowana zostanie reprezentacja głęboka

- parser- struktura odpowiedzialna za rozbiór zdania; jego głowne zadanie polega na przypisaniu poszczególnym słowom odpowiednich funkcji, np. podmiotu, orzeczenia, dopełnienia; w przypadku języka polskiego parser odpowiada przede wszystkim za prawidłową interpretację wskazówek fleksyjnych (końcówki definiujące rodzaj, czas i tryb gramatyczny)

- model sytuacyjny jest niezbędnym warunkiem zrozumienia, jeśli przekaz zawiera wiele luk wymagających wypełnienia przez wnioskowanie

- budowę modelu sytuacyjnego kształtuje wiele czynników, przede wszystkim znajomość tematu: wystarczy krótki fragment prozy opatrzyć tytułem aby poprawić jego zrozumienie i przechowanie treści w pamięci; dzięki tytułowi możliwe jest zbudowanie modelu sytuacyjnego

- szczególną rolę w rozumieniu przekazów językowych odgrywają schematy narracyjne, czyli elementy wiedzy zorganizowane ze względu na epizody; schemat narracyjny wpływa na rozumienie przekazu, jeśli określone porcje wiedzy nabierają sensu dopiero w kontekście całej historii

- procesy zaangażowane w budowanie modelu sytuacyjnego to przede wszystkim rozumowanie nieformalne, czyli wnioskowanie na podstawie swobodnie wybranych przesłanek, nie zawsze zwerbalizowane; mówca konstruując wypowiedź, przekazuje pewne treści jawnie, a inne domyślnie- odbiorca musi więc odróżnić to, co mówca chciał przekazać, od tego, co rzeczywiście przekazał

- reguły rządzące wnioskowaniem podczas rozmowy nazwano implikaturą; Grice wyróżnił dwa jej rodzaje:

* implikatura konwencjonalna- treść wypowiedzi (np. mówiąc koń mamy na myśli zwierze z kopytami, a

nie konika morskiego)

* implikatura konwersacyjna- polega na domyślnym, wzajemnym szanowaniem reguł dobrej komunikacji

(zasady kooperacji i czterech maksym konwersacyjnych)

- wnioskowanie w procesie rozumienia mowy pełni dwie funkcje:

* uzupełnianie luk w strukturze przekazu

* budowanie połączeń między nową wiedzą zawartą w komunikacie, a wiedzą nabytą już wcześniej

- komunikaty nie wprost- polecenia sformułowane w postaci pytań lub delikatnych sugestii (np. Czy mógłbyś zgasić światło?)-> wymagają odkrycia prawdziwych intencji nadawcy, co zwykle nie jest trudne


Wyszukiwarka

Podobne podstrony:
opracowanie rozdziału 13, PSYCHOLOGIA, I ROK, semestr II, psychologia procesów poznawczych, skrypty
UCZENIE SIe notatki, Psychologia - WSFiZ, III semestr, WPP - wyższe procesy poznawcze, ćwiczenia
Procesy poznawcze - ćwiczenia (mgr Kossakowska Petrycka) - skrypt, SŁOWO PISANE, NA RÓŻNE SPOSOBY, P
notatki z PPP, Procesy poznawcze, Psychologia procesów poznawczych
percepcja i uwaga, ♠ Studia- Psychologia ▬▬▬▬▬▬▬▬▬▬, I Rok, Procesy Poznawcze, Notatki
Procesy Poznawcze (wyklady) - skrypt bednarek, 
ROZWÓJ PROCESÓW POZNAWCZYCH U DZIECI, Uniwersytet notatki z neta
E. Necka - skrypt, Procesy poznawcze, podręczniki
Percepcja 2122, ♠ Studia- Psychologia ▬▬▬▬▬▬▬▬▬▬, I Rok, Procesy Poznawcze, Notatki
Notatki-PPP-Jaskowski, PSYCHOLOGIA I rok II semestr, PODSTAWOWE PROCESY POZNAWCZE
Skrypt Procesy Poznawcze
Jak emocje wplywają na procesy poznawcze
Procesy poznawcze
Nęcka 2012 termin A, Procesy poznawcze, testy
PRAWO SPÓŁEK HANDLOWYCH, socjologia, skrypty i notatki, Prawo

więcej podobnych podstron