Szymura,Slabosz2002


Błażej Szymura* Aleksandra Słabosz**
*Szkoła Wyższa Psychologii Społecznej **Instytut Psychologii UJ
Warszawa Kraków
Uwaga selektywna
a pozytywne i negatywne konsekwencje automatyzacji czynności.
1. Streszczenie
W badaniu analizie poddano pozytywne i negatywne skutki automatyzacji procesu selekcji bodzców w polu
wzrokowym. Zakładano, iż automatyzacja czynności selekcji prowadzić będzie do zniesienia efektu przetargu
pomiędzy tempem a poprawnością wykonania zadania, i jednocześnie do efektu transferu negatywnego w sytuacji
zmiany warunków wykonywania zautomatyzowanej czynności. Zgodnie z oczekiwaniami, trzykrotne wykonanie
pierwszej wersji testu uwagi selektywnej Moronia prowadziło do efektu automatyzacji procesu selekcji (w zakresie
szybkości i poprawności) i tym samym do osłabienia efektu przetargu pomiędzy szybkością a poprawnością wykonania
zadania. Natomiast zmiana wersji testu w próbie czwartej powodowała pogorszenie wydajności procesu selekcji,
charakterystyczne zwłaszcza dla osób, które uprzednio zautomatyzowały tę czynność bardziej efektywnie. Efekt
transferu negatywnego ujawnił się przede wszystkim w zakresie liczby popełnianych błędów i ogólnej wydajności
przebiegu selekcji, nie zaś w zakresie szybkości wykonania zadania. Negatywny transfer wprawy miał jednak mniejszy
wpływ na wykonywaną czynność poznawczą niż sama wprawa. W świetle przeprowadzonych badań zasadne wydaje
się uzupełnienie charakterystyki procesów kontrolowanych jako takich, w przypadku których obserwuje się zjawisko
przetargu pomiędzy szybkością a poprawnością wykonania zadania.
2. Wprowadzenie
Przewidywanie poziomu wykonania czynności w toku nabywania wprawy jest tematem od
dawna interesującym psychologów. Od dawna również wiadomo, iż wprawa ma dwa oblicza.
Wielokrotne powtarzanie danej czynności prowadzi do wzrostu poziomu jej wykonywania dzięki
zautomatyzowaniu poszczególnych komponentów lub całej sekwencji działania. Ten pozytywny
aspekt procesu nabywania wprawy (automatyzacja czynności) procentuje w bardzo wielu
sytuacjach życiowych, stwarzając podstawy do efektywnych zachowań. Czynności
zautomatyzowane wykonywane są szybko i bezbłędnie, zaś uwolniony potencjał systemu
przetwarzania może być przeznaczony do obsługi innych zadań. Automatyzacja pociąga jednak za
sobą także skutki negatywne. Ujawniają się one przede wszystkim wówczas, gdy zmianie ulegnie
sytuacja, w jakiej zadanie jest wykonywane, lub choćby jeden z komponentów czynności.
Przykładu takich konsekwencji procesu automatyzacji dostarcza zjawisko transferu negatywnego.
Celem prezentowanego badania była analiza pozytywnych i negatywnych skutków
automatyzacji w odniesieniu do czynności polegającej na selekcji bodzców w polu wzrokowym. W
pierwszej kolejności przedstawione zostaną koncepcje przetwarzania automatycznego oraz
poznawcze modele nabywania wprawy. Analiza zmierzać będzie w kierunku wychwycenia
warunków umożliwiających automatyzację czynności, a także ustalenia jej pozytywnych i
negatywnych skutków. Następnie omówione zostanie zjawisko przetargu pomiędzy poprawnością a
szybkością wykonania czynności. Do takiego przetargu dochodzi we wszystkich tych przypadkach,
gdy system poznawczy nie dysponuje wystarczającą pulą zasobów, by zadanie wykonać zarówno
szybko, jak i bezbłędnie. Zgodnie z przyjętą hipotezą automatyzacja czynności prowadzi do
zniesienia takiego przetargu. Dowolna jednak zmiana - czy to dotycząca warunków wykonywania
zadania czy też samej czynności - powoduje ponowne ujawnienie się efektu przetargu.
2.1. Automatyzacja czynności i nabywanie wprawy
Różne podejścia do zjawiska automatyzowania czynności można opisać, odwołując się do
modeli przetwarzania automatycznego i kontrolowanego (Shiffrin i Schneider 1977; Schneider i
Shiffrin 1977) oraz do badań nad wzorcami nabywania wprawy (Anderson 1982; Ackerman 1988).
U podstaw procesu automatyzowania czynności leżą dwa zasadnicze czynniki: spójność w obrębie
czynności (spójność: bodziec wyzwalający  wymagana reakcja) oraz liczba powtórzeń. O ile drugi
z tych czynników jest oczywisty i nie wymaga głębszej analizy, to warto chwilę zastanowić się nad
czynnikiem spójności.
Zgodnie z koncepcją Shiffrina i Schneidera każdy proces przetwarzania informacji można
opisać na dymensji, której bieguny stanowią procesy kontrolowane oraz procesy automatyczne.
Procesy kontrolowane przebiegają stosunkowo wolno, sekwencyjnie, wymagają wysiłku i
podlegajÄ… kontroli ze strony podmiotu. Na tych procesach opiera siÄ™ reagowanie w nowych bÄ…dz
niespójnych sytuacjach (Schneider, Dumais i Shiffrin 1984). Natomiast każdy proces, który
przebiega szybko, równolegle, bez wysiłku, niezależnie od zasobów pamięci krótkotrwałej i poza
kontrolÄ… podmiotu, jest procesem automatycznym. Kontrola podmiotu jest w przypadku takich
procesów ograniczona - raz zapoczątkowaną czynność automatyczną trudno przerwać, zanim nie
dobiegnie końca (zjawisko  balistyczności ; Hasher i Zacks 1979). Procesy automatyczne
przebiegają opierają się na stałych sekwencjach zapisanych w pamięci długotrwałej i są
niedostępne introspekcyjnie. Jednakże w odniesieniu do procesów wtórnie automatycznych, czyli
czynności zautomatyzowanych w toku treningu, twierdzi się, iż mimo wszystko w pewnym stopniu
korzystają one z ograniczonej puli zasobów uwagi (Posner 1982; Kolańczyk, w druku).
Do automatyzacji dochodzi, gdy w toku kolejnych powtórzeń czynności wymagania
nakładane na system poznawczy są zawsze takie same (spójność wymagań) oraz gdy w toku
uczenia się dana reakcja jest wyzwalana zawsze w odpowiedzi na ten sam bodziec (spójność
mapowania relacji: bodziec wyzwalajÄ…cy  wymagana reakcja). Wyuczenie tej relacji prowadzi do
zmniejszenia wymagań stawianych zasobom uwagi - czynność zaczyna być wykonywana niemal
bezwysiłkowo. W realnych zadaniach życiowych mapowanie spójne można odnalezć w takich
czynnościach, jak: pisanie przy użyciu klawiatury, stosowanie komend i poleceń w konkretnym
programie komputerowym, wykonywanie działań arytmetycznych.
Podobne założenie o konieczności spójności mapowania przyjmują teorie nabywania
wprawy. Większość modeli poznawczych zakłada istnienie trzech stadiów nabywania wprawy:
poznawczego, asocjacyjnego i autonomicznego (Ackerman 1988; Anderson 1982). Stadium
poznawcze charakteryzuje się dużym ładunkiem poznawczym, co wynika z konieczności
zrozumienia i przyswojenia instrukcji, ogólnego zaznajomienia się z celem czynności oraz
wstępnego sformułowania strategii wykonania. Kiedy uczący zapozna się z tymi podstawowymi
wymaganiami zadania  przyswoi sobie podstawowe procedury - przechodzi do fazy asocjacyjnej.
Tak się jednak dzieje tylko w przypadku zadań nakładających spójne wymagania na system
poznawczy. W stadium asocjacyjnym następuje proceduralizacja strategii wykonania (Anderson
1982), dzięki czemu wykonanie czynności staje się łatwiejsze. W efekcie ulegają skróceniu czasy
reakcji oraz spada liczba popełnianych błędów. Wreszcie trzecie stadium nabywania wprawy to
stadium autonomii, obejmujące pełną automatyzację czynności. W tym stadium raz wyzwolona
reakcja przebiega niemal bezwysiłkowo, zadanie zaś wykonywane jest tak szybko i poprawnie, jak
tylko pozwalają na to zdolności psychomotoryczne. W stadium autonomicznym  jak twierdzi
Anderson (1982) - serie systemów produkcji są już bowiem ustalone, tak, iż długie ich sekwencje
mogą być wyzwalane jednym bodzcem lub wewnętrzną intencją.
Wspólna dla modeli przetwarzania automatycznego i kontrolowanego oraz modeli
nabywania wprawy konkluzja brzmi następująco: wielokrotne powtarzanie czynności opartej na
spójnym mapowaniu bodziec - reakcja prowadzi do jej zautomatyzowania. Do pozytywnych
skutków automatyzacji należą: skrócenie czasów reakcji oraz spadek liczby błędów zakłócających
efektywne wykonanie czynności. Te pozytywne skutki ograniczają się jednak wyłącznie do
sytuacji, gdy wszystkie warunki wykonywania zadania, jak i samo zadanie, sÄ… zachowane w
niezmienionej postaci.
2.2. Sztywność mentalna i negatywny transfer wprawy
W niektórych sytuacjach niezbędna jest jednak deproceduralizacja czynności już
zautomatyzowanej. System produkcji musi być np. zmodyfikowany, gdy wykonywaną czynnością
jest kierowanie nowo nabytym samochodem. Czasem do tego systemu musi również zostać dodany
nowy element  np. gdy nowy samochód posiada dodatkowe wyposażenie. Niekiedy wreszcie
konieczna jest większa niż normalnie poprawność  gdy miejsce do zaparkowania samochodu jest
bardzo ograniczone. We wszystkich tych przypadkach do zapewnienia pożądanego poziomu
wykonania niezbędna jest dodatkowa kontrola ze strony systemu przetwarzania.
Powyższe przykłady ilustrujące sytuacje wymagające deproceduralizacji wskazują, iż
automatyzacja nie zawsze jest korzystna. W sytuacji minimalnej choćby zmiany warunków
wykonywania zadania lub konieczności wprowadzenia zmiany w obrębie samej czynności mogą
pojawiać się błędy wynikające z  bezrefleksyjnego jej wykonywania  starym trybem .
Spektakularnego przykładu kosztów płynących ze zautomatyzowania czynności dostarcza dobrze
znany i szeroko omawiany eksperyment Shiffrina i Schneidera (1977; omówienia zob. np.
Czyżewska 1991; Kolańczyk 1992).
Innym przykładem kosztów płynących z procesu automatyzacji jest zjawisko transferu
negatywnego, polegające na tym, iż dobrze wyuczona czynność utrudnia wykonywanie czynności
podobnej, ale nie tożsamej z uprzednio wyuczoną. Podobieństwo to może dotyczyć zarówno
bodzców, jak i wymaganej reakcji. Wydaje się, iż przeciwieństwie do dużego zainteresowania
problemem zysków płynących z automatyzacji czynności, zainteresowanie badaczy zjawiskiem
transferu negatywnego jest relatywnie niewielkie. Według Woltza, Gardnera i Bella (2000),
negatywny transfer wprawy ma zapewne mniejszy wpływ na wykonywaną czynność poznawczą
niż sama wprawa - doświadczający negatywnego transferu są mimo wszystko lepsi w
wykonywaniu nowej czynności niż osoby mające niewielką lub żadną wprawę w jej wykonywaniu.
Krótko mówiąc: zyski z automatyzacji zdają się przeważać nad kosztami.
Koszty płynące z procesu automatyzacji można zaobserwować także w obrębie zjawisk z
zakresu myślenia i rozwiązywania problemów, czego najbardziej znanym przykładem są badania
nad sztywnością mentalną, przeprowadzone przez Luchinsa (1942; omówienie zob. np. Nęcka
1987). W mniej znanych eksperymentach, Woltz, Bell, Kyllonen i Gardner (1996) potwierdzili
znaczenie negatywnego transferu umiejętności w zadaniu zbliżonym do zadania Luchinsa. Osoby
badane zdobywały wprawę w wykonywaniu zadania polegającego na stosowaniu prostych reguł
redukcyjnych w celu zastąpienia liczby trzycyfrowej jedną cyfrą. W odróżnieniu od eksperymentu
Luchinsa, osoby badane nie wprawiały się jednak w stosowaniu jednej reakcji (pojedyncza,
skuteczna formuła). Różne liczby wymagały wprawdzie stosowania tych samych reguł
redukcyjnych, ale ich zastosowanie prowadziło do odmiennych reakcji pośrednich, a także trzech
alternatywnych reakcji końcowych. Osoby badane, które nabyły umiejętność stosowania reguł
redukcyjnych na jednym zestawie liczb, wykazywały znacznie wydłużony czas redukcji nowych
zestawów liczb, jeśli reguły redukcyjne zostały tylko nieznacznie zmienione. Co więcej, podobnie
jak w eksperymencie Luchinsa (1942), uczestnicy z grupy kontrolnej, którzy nie uczyli się
wcześniej reguł redukcyjnych, byli znacznie szybsi w procesie redukcji nowych zestawów. W
kolejnym badaniu realizowanym w tym samym paradygmacie, przy wykorzystaniu nieco
trudniejszych reguł Woltz, Gardner i Bell (2000) wykazali, że negatywny transfer umiejętności
może przejawiać się również w zakresie poprawności nowej czynności.
Określenie  sztywność pada także często w kontekście badań nad ekspertami i specyfiką
wiedzy eksperckiej. Ciekawego przykładu kosztów płynących ze zautomatyzowania czynności
dostarczają badania nad diagnozą medyczną Raufaste a i współpracowników (Raufaste, Eyrolle i
Martiné, 1998). W badaniach tych polegajÄ…cych na postawieniu diagnozy na podstawie zdjÄ™cia
radiologicznego uczestniczyły cztery grupy radiologów o różnym poziomie kompetencji: studenci,
stażyści, eksperci - lekarze samodzielni i super-eksperci (lekarze o statusie konsultantów
krajowych). Obraz chorobowy przedstawiony osobom badanym na zdjęciu był jednak nietypowy.
Wstępna analiza stawiana na podstawie kilku narzucających się symptomów sugerowała bowiem
inną diagnozę niż prowadząca do trafnych wniosków analiza pogłębiona. Z tak nietypowym
przypadkiem najgorzej poradzili sobie ... eksperci, czyli lekarze samodzielni. Ich diagnozy były
mniej poprawne niż te sformułowane przez super-ekspertów (co oczywiste). Jednakże eksperci
okazali się również gorsi w diagnozie od stażystów i studentów  zupełnych nowicjuszy na tym
polu (co zatrważające). Szczegółowa analiza punktów fiksacji gałek ocznych podczas analizy
kliszy pozwoliła stwierdzić, iż grupa ekspertów wykazała się najbardziej schematycznym  a więc
zautomatyzowanym  sposobem analizy zdjęcia, co prowadziło do pominięcia w analizie ważnych
wskazówek prowadzących do diagnozy prawidłowej.
Reasumując, automatyzacja  oprócz niewątpliwych zalet - ma też swe negatywne
konsekwencje, które ujawniają się w sytuacjach nowych, gdy zmianie ulegają warunki
wykonywania zadania lub też jego poszczególne komponenty. Jak się wydaje, swoistym
wskaznikiem zysków i kosztów automatyzacji może być wielkość efektu przetargu między
szybkością a poprawnością.
2.3. Przetarg między szybkością a poprawnością
W badaniach nad przebiegiem procesów przetwarzania informacji jednym z ważniejszych
jest paradygmat przetargu pomiędzy szybkością a poprawnością (Meyer, Irwin, Osman i Koniuos
1988). W eksperymentach wykorzystujących tę metodologię osoby badane z reguły nie są w stanie
uzyskać wysokich wyników przetwarzania jednocześnie w zakresie szybkości i poprawności
reakcji. W efekcie albo są szybcy, ale wtedy popełniają wiele błędów, albo też są poprawni, ale
kosztem znacznego spowolnienia przebiegu procesów poznawczych. Przetarg pomiędzy szybkością
a poprawnością może zostać wywołany przez odpowiednią instrukcję (lub informację zwrotną
podawaną w trakcie trwania zadania), jeśli kładzie ona nacisk na tylko jeden z parametrów
przetwarzania (Dickman i Meyer 1988). Zjawisko przetargu występuje też zazwyczaj wtedy, gdy
zadanie jest wykonywane pod presjÄ… czasu (Snodgrass, Luce i Galanter 1967).
Jak się wydaje, zjawisko przetargu dotyczy raczej procesów uwagowych, choć stwierdzono
je również w zakresie krótkotrwałych procesów pamięciowych, niekoniecznie bezpośrednio
związanych z funkcjonowaniem centralnego wykonawcy pamięci roboczej (McElree i Dosher
1993). Istnienie zjawiska przetargu między szybkością a poprawnością można wyjaśnić, powołując
się zarówno na starsze teorie filtru selektywnej uwagi, jak i na nowsze teorie integracji cech w
obiekt.
Zgodnie z modelem elastycznego filtru uwagi Johnstona (1978; Johnston i Heinz 1978),
hipotetyczny system selekcjonujący informacje może funkcjonować na różnych poziomach
przetwarzania informacji (Craik i Lockhart 1972). Im płytszy jest poziom analizy bodzców, tym
szybszy jest proces selekcji informacji. Jednak, w sytuacji płytkiego przetwarzania sygnału,
niewiele jego cech podlega analizie. W efekcie hipotetyczny filtr uwagi jest narażony na znaczne
błędy w selekcji informacji  może on nie wychwycić sygnałów o cechach ważnych z punktu
widzenia zasady selekcji. Na głębokich poziomach przetwarzania informacji podejmowane przez
hipotetyczny filtr uwagi analizy bodzców są znacznie bardziej złożone i uwzględniają znacznie
więcej cech stymulacji. Wiąże się to z wyższą poprawnością procesów selekcyjnych kosztem
wydłużenia czasu potrzebnego na podjęcie decyzji. Johnston (1978) ustalił m.in., iż minimalny czas
selekcji informacji na poziomie płytkim wynosi około 100-180 ms (czas reakcji prostej dla
bodzców różnej modalności), a na poziomie głębokim  360-480 ms(prosta kategoryzacja
bodzców; porównaj także: Posner i Mitchell 1967). Johnston i Dark (1982) wykazali również, że
skuteczność procesu selekcji jest wprost proporcjonalna do efektywności procesu odrzucania
zakłóceń na poziomach płytkich analizy informacji. Proces selekcji jest tym gorszy, im więcej
dystraktorów jest przepuszczanych przez szybki filtr funkcjonujący na płytkim poziomie
sensorycznym.
Efekt przetargu między szybkością a poprawnością wykonania zadania można również
wyjaśnić, nawiązując do drugiej wersji modelu przewodników Wolfe (1994). Zgodnie z tym
modelem, w trakcie przeduwagowej fazy kodowania stymulacji informacje dotyczÄ…ce liczby i
rodzaju cech aktywnych (występujących w obrębie pola wzrokowego) są zapisywane w tzw. mapie
aktywacyjnej. Ta mapa jest wykorzystywana przez system selekcjonujÄ…cy jako przewodnik w
selekcyjnym procesie integracji cech w obiekt. Jako pierwsze analizowane sÄ… te elementy pola
wzrokowego, które wzbudziły największą aktywność w obrębie mapy-przewodnika. Są to elementy
charakteryzowane w pierwszej kolejności przez cechę ruchu (McLeod, Driver i Crisp 1988), w
drugiej  przez cechÄ™ koloru (D Zamura 1991; Duncan 1989), a w dalszej zaÅ›  przez inne cechy
statyczne (Treisman 1988). Jak siÄ™ wydaje, proste, narzucajÄ…ce siÄ™ cechy percepcyjne, takie jak
ruch czy kolor (zwane również cechami priorytetowymi), mają zdolność do generowania
wysokiego poziomu pobudzenia w obrębie mapy-przewodnika.
Proces przeszukiwania pola wzrokowego, polegajÄ…cy na integracji cech w poszukiwany
obiekt, jest uruchamiany wtedy, gdy suma pobudzenia w obrębie mapy aktywacyjnej przekroczy
pewien próg (Wolfe 1994). Im bardziej przekroczony zostaje próg  tym szybszy jest proces
przeszukiwania pola wzrokowego. To dlatego proces selekcji na podstawie prostych cech
priorytetowych jest uruchamiany i wykonywany szybko. Jednocześnie przebiega on wówczas w
większym stopniu intuicyjnie - analizie nie podlegają jedynie priorytetowe cechy stymulacji - co
prowadzi do zwiększonej liczby błędów. W sytuacji, gdy proces selekcji bazuje na kilka złożonych,
choć w mniejszym stopniu narzucających się cechach - prowadzących, każda z osobna, do
mniejszego wzbudzenia w obrębie mapy aktywacyjnej  przebiega wolniej, ale i bardziej
poprawnie. Dzieje się tak, gdyż w rozważanej sytuacji w procesie integracji cech w obiekt zostaje
uwzględnionych wiele różnych charakterystyk stymulacji, aby sumaryczny próg aktywacji mógł
być przekroczony, co jest przecież warunkiem rozpoczęcia procesu przeszukiwania.
Zgodnie z teorią detekcji sygnałów (Green i Swets 1966), w zadaniach na selekcję
informacji mogą pojawić się dwa rodzaje błędów. Błąd fałszywego alarmu (FA) polega na
wykonaniu reakcji odpowiedniej dla sygnału w sytuacji, gdy sygnał ten jest nieobecny. Błąd
ominięcia polega natomiast na braku takiej reakcji pomimo iż sygnał jest obecny. Ogólna liczba
błędów (D = FA + OM; Nęcka 1994), będąca sumą fałszywych alarmów i ominięć, jest globalnym
wskaznikiem poziomu poprawności przetwarzania. Jak się wydaje, koszty związane z
przyspieszeniem przebiegu procesów poznawczych, do jakiego dochodzi w sytuacji wykonywania
zadania pod presją czasu, znajdują swe odzwierciedlenie w zakresie sumarycznej liczby błędów (D;
Dickman i Meyer 1988; Larson i Saccuzzo 1986; Szymura i Nęcka 1998) oraz specyficznie w
zakresie błędu ominięcia (OM; Lobaugh, Cole i Rovet 1998; Zenger i Fahle 1997). Natomiast
kosztów w zakresie błędów fałszywych alarmów (FA) raczej się nie stwierdza, nawet jeśli analizy
dotyczą grup osób szczególnie impulsywnych, a więc skłonnych do nadmiernego reagowania
(Dickman i Meyer 1988 - osoby badane o podwyższonej impulsywności; Larson i Saccuzzo 1986
oraz Szymura i Nęcka 1998 - osoby badane o podwyższonym neurotyzmie).
Przytoczone rezultaty wydają się zgodne z przedstawionymi powyżej hipotetycznymi
wyjaśnieniami efektu przetargu pomiędzy szybkością a poprawnością wykonania zadania.
Przyspieszenie procesu selekcji prowadzi bądz to do płytkiej analizy sensorycznej (zgodnie z
modelem elastycznego filtru uwagi Johnstona 1978), bÄ…dz to do kierowania siÄ™ w procesie
integracji cech w obiekt jedynie cechami priotytetowymi (zgodnie z modelem przewodników
uwagi Wolfe 1994). W obu przypadkach, chociaż z zupełnie innych powodów, większość aspektów
stymulacji nie jest uwzględniania przy podejmowaniu decyzji selekcyjnej. Taka  ślepota uwagowa
występuje szczególnie w sytuacjach presji czasowej, znacznie ograniczając liczbę potencjalnie
odbieranych sygnałów. W efekcie osoby badane często wybierają wówczas strategię zgadywania.
Jak wykazali Chun i Wolfe (1996), takie zgadywanie w ponad 80% przypadków kończy się decyzją
negatywną (brak detekcji, potencjalne ominięcie), zaś tylko w niecałych 20% - decyzją pozytywną
(detekcja, potencjalny fałszywy alarm).
3. Metoda
3.1. Osoby badane
W eksperymencie uczestniczyło 129 osób: 101 studentek i 28 studentów I roku psychologii
na Uniwersytecie Jagiellońskim. Średni wiek osób badanych wyniósł 20,55 (SD = 2,91). Ponieważ
badanie przeprowadzono w ramach zajęć z przedmiotu psychologia procesów poznawczych,
uczestnictwo w nim było obligatoryjne.
3.2. Materiały i aparatura
Test Zegarków Moronia. W badaniu wykorzystano test selektywnej uwagi autorstwa
Marcjusza Moronia. Na arkuszu testowym (format A4) zamieszczonych było 400 bodzców  ikon
obrazujących tarczę zegarka wskazówkowego (20 rzędów po 20 bodzców w każdym rzędzie).
Tarcze przedstawiały tylko pełne godziny (np. 1.00, 2.00 itd.). Liczba tarcz obrazujących konkretne
godziny była zrównoważona. Sygnał stanowiła ikona reprezentująca określoną godzinę (np. 5.00).
Na arkuszu testowym znajdowało się 40 tego typu bodzców. Pozostałe ikony stanowiły szum
informacyjny.
Zadaniem osoby badanej było wykrycie i zaznaczenie w dowolny sposób (zakreślenie)
możliwie największej liczby sygnałów w przeciągu 2 minut (porządek analizy arkusza testowego -
od lewej do prawej strony, od pierwszego rzędu do ostatniego). Po upływie czasu przeznaczonego
na rozwiązanie testu osoba badana zaznaczała ostatnią przeanalizowaną przez siebie ikonę. Jeśli
test udało się zakończyć przed upływem dwóch minut, instrukcja zezwalała na przejrzenie arkusza
raz jeszcze (w dowolnym porzÄ…dku), celem dokonania ewentualnych poprawek. W takiej sytuacji
badany nie zaznaczał żadnej ikony testu jako tej, którą przeanalizował jako ostatnią.
Parametry poziomu wykonania testu. Rejestrowano trzy wskazniki poziomu wykonania
testu (nazewnictwo oparto na teorii detekcji sygnałów):
(1)SPEED  liczbę ikon przeanalizowanych w ciągu dwóch minut przeznaczonych na wykonanie
testu (w przypadku osób, które w tym czasie wykonały cały test SPEED=400);
(2)FA  liczbę fałszywych alarmów (błędnych oznaczeń ikon szumu jako sygnałów);
(3)OM  liczbę ominięć (braku oznaczeń sygnału).
Powyższe wskazniki poziomu wykonania stanowiły podstawę obliczenia trzech złożonych
parametrów wykonania:
(1)D  całkowitej liczby błędów (FA + OM);
(2)²  proporcji bÅ‚Ä™dów różnego rodzaju (FA/D);
(3)PROP  proporcji ogólnej liczby reakcji do sumarycznej liczby błędów (SPEED/D).
Przyjęte wskazniki poziomu wykonania testu pozwoliły na oszacowanie efektywności
mechanizmów selektywnej uwagi zarówno w aspekcie szybkości (SPEED), jak i poprawności
wykonania (FA, OM, D). Wskaznik ² posÅ‚użyÅ‚ dodatkowo do oceny strategii rozwiÄ…zywania testu:
od nadmiernej ostrożnoÅ›ci (OM>>FA; ²->0) do nadmiernej impulsywnoÅ›ci (FA>>OM; ²->1).
Ponadto wskaznik PROP umożliwił ocenę ogólnej efektywności mechanizmu selekcji, łącząc w
sobie zarówno szybkość, jak i poprawność przebiegu selekcji.
3.3. Procedura
Eksperyment przeprowadzano w kilkunastoosobowych grupach. Uczestnicy w pierwszej
kolejności trzykrotnie wypełniali Test Zegarków w wersji 5.0. W wersji tej sygnałem była ikona
przedstawiająca godzinę 5.00. Następnie osoby badane wypełniały raz Test Zegarków w wersji 4.0,
gdzie sygnał stanowiła ikona przedstawiająca godzinę 4.00. Kolejne wykonania testu przedzielone
były 60-sekundową przerwą przeznaczaną na odpoczynek. Instrukcja poprzedzająca eksperyment
informowała uczestników jedynie o konieczności trzykrotnego wykonania tego samego zadania.
Pojawienie się Testu Zegarków w wersji 4.0. było więc dla uczestników zaskoczeniem.
Przyjęte wskazniki automatyzacji wykonania testu. W celu sprawdzenia potencjalnych
korzyści i strat płynących z automatyzacji procesu detekcji sygnałów przyjęto cztery wskazniki
automatyzacji wykonania testu:
(1)AUTO SPEED 1  liczba ikon przeanalizowanych w drugim wykonaniu Testu Zegarków
(wskaznik SPEED dla drugiego wykonania Testu Zegarków);
(2)AUTO CORRECT 1  liczba błędów popełnionych w drugim wykonaniu Testu Zegarków
(wskaznik D dla drugiego wykonania Testu Zegarków);
(3)AUTO SPEED 2  różnica w szybkości selekcji pomiędzy drugim a pierwszym wykonaniem
Testu Zegarków (różnica we wskaznikach SPEED dla dwóch pierwszych wykonań Testu
Zegarków);
(4)AUTO CORRECT 2  różnica w poprawności selekcji pomiędzy drugim a pierwszym
wykonaniem Testu Zegarków (różnica we wskaznikach D dla dwóch pierwszych wykonań
Testu Zegarków).
3.4. Hipotezy
Zakładano, iż presja czasowa, narzucona instrukcją Testu Zegarków, prowadzić będzie do
efektu przetargu między szybkością a poprawnością wykonania zadania. Efekt ten powinien
ujawnić się na każdym etapie eksperymentu, niezależnie od aktualnie wykonywanej wersji zadania.
Pierwsza z zastosowanych manipulacji eksperymentalnych polegała na trzykrotnym
powtórzeniu tej samej wersji Testu Zegarków. Zakładano bowiem, iż trzykrotne wykonanie zadania
w identycznej postaci powinno prowadzić do zautomatyzowania procesu selekcji informacji.
Automatyzacja powinna znalezć odzwierciedlenie zarówno w skróceniu czasów wykonania, jak i
we wzroście poprawności w kolejnych próbach. Spodziewano się także, iż bezpośrednią korzyścią
wynikającą ze zautomatyzowania procesu selekcji będzie obniżanie się w kolejnych próbach efektu
przetargu między szybkością a poprawnością.
Druga manipulacja eksperymentalna polegała na zmianie sygnału na jeden z bodzców
szumowych w czwartym wykonaniu Testu Zegarków. Zakładano bowiem, iż w wyniku uprzedniej
automatyzacji procesu detekcji sygnałów  godzina 5.00 w próbach 1-3, w próbie czwartej  po tej
zmianie - dojdzie do znacznego pogorszenia wykonania Testu. Pogorszenie to będzie tym
wyrazniejsze, im silniejszy był uprzedni proces automatyzacji. Efektem zmiany sygnałów powinno
być zatem ponowne zwiększenie się siły przetargu pomiędzy szybkością a poprawnością.
4. Opis wyników
Analizę statystyczną przeprowadzono przy użyciu pakietu statystycznego Statistica, z
wykorzystaniem procedur statystyki opisowej oraz analizy wariancji (test F-Fischera). W pierwszej
kolejności analizie poddano efekty automatyzacji oraz przetargu, zaś w dalszej  wzajemne relacje
pomiędzy tymi dwoma efektami.
Efekt automatyzacji ujawnił się w zakresie wszystkich przyjętych wskazników poziomu
wykonania testu. Z próby na próbę wzrastała liczba bodzców analizowanych przez osoby badane
(SPEED; F[2,258] = 80,52; p < 0,0001). Jednocześnie obniżała się ogólna liczba błędów (D; F
[2,258] = 10,12; p < 0,0001) - w tym zarówno fałszywych alarmów (FA; F[2,258] = 11,76; p <
0,0001), w szczególności zaś ominięć (OM, F[2,258] = 5,77; p < 0,005). O silnej automatyzacji
świadczył także spadek częstotliwości błędów (PROP; F[2,258]=12,57; p<0,0001). Podczas gdy w
pierwszym wykonaniu testu osoby badane myliły się średnio co czwarty rząd ikon, w drugim - co
piąty, to w ostatniej, trzeciej próbie - zaledwie co około siódmy rząd bodzców. Z kolei różnice w
wartoÅ›ciach, jakie przyjmowaÅ‚ wskaznik ² w kolejnych wykonaniach testu, wydajÄ… siÄ™ Å›wiadczyć o
coraz większej ostrożności i precyzji, z jaką w kolejnych próbach testowych dokonywano selekcji
(², F[2,258] = 12,58; p < 0,0001). Warto podkreÅ›lić, iż wszystkie różnice odnoszÄ…ce siÄ™ do zmiany
poziomu wykonania zadania w kolejnych próbach okazały się istotne statystycznie co najmniej na
poziomie p < 0,005. Szczegółowe dane ilustrujące ten efekt można znalezć w tabeli 1.
Tabela. 1. Efekt automatyzacji dla wszystkich wskazników poziomu wykonania (* p < 0,0001; ** p < 0,005)
Próba SPEED* OM** FA* D * PROP*
²*
1 338,9 6,64 0,69 7,33 84,2 0,09
2 368,2 6,16 0,22 6,33 96,6 0,03
3 381,2 5,30 0,19 5,49 133,1 0,02
Spadek liczby fałszywych alarmów (FA) w trzeciej próbie, w porównaniu do wykonania
drugiego  mimo że zgodny z przewidywaniami - nie osiągnął jednak kryterium istotności
statystycznej. Brak tego efektu był prawdopodobnie spowodowany zbyt małą wariancją w zakresie
liczby popełnianych tego typu błędów. We wszystkich próbach średnia liczba fałszywych alarmów
utrzymywała się na poziomie poniżej jednego fałszywego alarmu na cały test, zaś automatyzacja
procesu selekcji dodatkowo zmniejszyła tę i tak nikłą wartość. Ze względu zatem na niewielką
wariancję fałszywych alarmów w ogóle, spadek liczby fałszywych alarmów w proporcji do
wszystkich popeÅ‚nionych bÅ‚Ä™dów byÅ‚ zbyt maÅ‚y. W efekcie wartoÅ›ci wskaznika ² - opartego na
proporcji błędów typu OM i FA - nie różniły się istotnie statystycznie pomiędzy drugim a trzecim
wykonaniem testu.
Równie powszechny jak efekt automatyzacji okazał się efekt przetargu między szybkością a
poprawnością wykonania zadania. Na podstawie mediany parametru SPEED, w każdej próbie
wyróżniono dwie grupy osób badanych: wolno i szybko dokonujących selekcji. We wszystkich
próbach osoby przetwarzające informacje wolniej, popełniały mniej błędów w ogóle (D; p co
najmniej 0,03), a w szczególności mniej ominięć (OM; p co najmniej 0,04). Innymi słowy, osoby
szybko przetwarzające informacje płaciły za tempo pracy szczególnie dużą liczbą ominięć
sygnałów. Natomiast ze względu na wspomnianą już niewielką wariancję błędów typu fałszywy
alarm, nie zaobserwowano zależności pomiędzy tempem dokonywania selekcji a liczbą tego typu
błędów. Szczegółowe dane ilustrujące efekt przetargu między szybkością a poprawnością w
poszczególnych próbach zostały zamieszczone w tabeli 2.
Tabela 2. Efekt przetargu między szybkością a poprawnością w kolejnych próbach
Próba SPEED SPEED F[1,128] P
Wskaznik
niski wysoki
OM 4,52 8,89 32,84 0,0001
1
D 5,29 9,49 27,88 0,0001
OM 5,19 7,04 8,31 0,005
2
D 5,48 7,18 6,65 0,01
OM 4,27 5,90 5,19 0,03
3
D 4,48 6,08 4,49 0,04
OM 4,63 6,66 9,54 0,003
4
D 5,14 6,85 6,55 0,02
Uzyskane wyniki wskazują zatem na ujawnienie się zarówno efektu automatyzacji procesu
selekcji (w zakresie szybkości i poprawności), jak i efektu przetargu pomiędzy szybkością a
poprawnością. W dalszej kolejności analizie poddano związki obu stwierdzonych efektów.
Zgodnie z oczekiwaniami, w trzech kolejnych próbach opartych na tej samej wersji Testu
Zegarków, proces automatyzacji czynności selekcji prowadził do redukcji wielkości efektu
przetargu. Redukcja efektu przetargu widoczna była w odniesieniu do ogólnej liczby błędów (D), a
zwłaszcza błędów typu ominięcie (OM). W kolejnych próbach zacierały się także różnice w
wielkości efektu przetargu, w przypadku uczestników wolniej i szybciej przetwarzających
informacje. Jednocześnie zmiana warunków zadania w czwartej próbie (zmiana wersji testu), która
uniemożliwiła wykorzystanie zautomatyzowanych już procedur selekcji, spowodowała ponowny
wzrost wielkości efektu przetargu w zakresie obu rozważanych wskazników poziomu wykonania
(D, OM). Wyniki świadczące o wyraznym związku efektów automatyzacji i przetargu prześledzić
można w tabeli 3.
Tabela 3. Wielkość przetargu pomiędzy szybkością a poprawnością jako zależna od automatyzacji na przykładzie
ogólnej liczby błędów D oraz błędów typu ominięcie (OM)
Próba SPEED SPEED F[1,128] P
Wskaznik Różnica
niski wysoki
D 5,29 9,49 4,20 27,88 0,0001
1
OM 4,52 8,89 4,37 32,84 0,0001
D 5,48 7,18 1,70 6,65 0,01
2
OM 5,19 7,04 1,85 8,31 0,005
D 4,48 6,08 1,60 4,49 0,04
3
OM 4,27 5,90 1,63 5,19 0,03
D 5,14 6,85 1,71 6,55 0,02
4
OM 4,63 6,66 2,03 9,54 0,003
Manipulacja polegająca na zmianie wersji testu doprowadziła do spadku efektywności
selekcji informacji w próbie czwartej. Badani popełniali błędy w tej ostatniej próbie znacznie
częściej niż w próbie trzeciej. Różnica ta wyniosła około 30 bodzców (PROP; F[1,128] = 7,89; p <
0,01). Jednocześnie nie zaobserwowano jednak istotnego statystycznie pogorszenia się badanych
zarówno w zakresie szybkości, jak i poprawności mechanizmów selekcji informacji, jeśli powyższe
wskazniki poziomu wykonania testu rozważane były osobno. Warto podkreślić, iż opisywana
manipulacja przyczyniła się także do zwiększenia udziału fałszywych alarmów w ogólnej liczbie
bÅ‚Ä™dów (²; F[1,128] = 5,91; p < 0,02). W próbie czwartej wykonanie testu przez badanych można
określić jako bardziej reaktywne w porównaniu do bardziej ostrożnego i wyważonego wykonania
w próbie trzeciej. Szczegółowe wyniki dotyczące manipulacji wersją testu zamieszczone są w
tabeli 4.
Tabela 4. Efekt manipulacji wersją Testu Zegarków (* p < 0,01;** p < 0,05;*** NS)
Próba  wersja testu SPEED*** OM*** FA*** D *** PROP*
²**
3  v5.0 381,2 5,30 0,19 5,49 133,1 0,02
4  v4.0 377,5 5,55 0,36 5,92 102,1 0,06
Ponadto, zgodnie z oczekiwaniami, silniejsza automatyzacja w początkowych próbach
wykonania testu prowadziła do wyrazniejszego pogorszenia wydajności procesu selekcji w
ostatniej próbie. W porównaniu do osób wolniej automatyzujących czynność selekcji, osoby
wykazujÄ…ce siÄ™ bardziej zautomatyzowanymi mechanizmami selektywnej uwagi w zakresie
szybkości już po drugiej próbie (AUTO SPEED), znacznie więcej traciły na zmianie warunków
zadania. Negatywny transfer wprawy ujawnił się w ich przypadku w zakresie sumarycznej liczby
błędów (D; F[1,128] = 10,59; p < 0,002). Ilustruje to ryc. 1.
Podobnie większą liczbę błędów po zmianie warunków zadania odnotowano u tych osób
badanych, u których obserwowano efektywniejszy proces automatyzacji w zakresie poprawności
pomiędzy pierwszą a drugą próbą testową (AUTO CORRECT 2; D; F[1,128] = 4,18; p < 0,04).
Podczas gdy osoby badane o mniej efektywnej automatyzacji potrafiły pomimo zmiany warunków
testu podnieść jeszcze nieco poprawność poziomu wykonania zadania, to u badanych o bardziej
efektywnej automatyzacji wystąpiło zdecydowane pogorszenie poprawności wykonania. Ilustruje
to ryc. 1.
7.5
7.0
6.5
6.0
5.5
5.0
4.5
4.0
próba 3 próba 4
AUTO SPPED niski
AUTO SPPED wysoki
AUTO CORRECT 2 niski
AUTO CORRECT 2 wysoki
Ryc. 1. Test Zegarków  wpływ zmiany warunków zadania (wersja 4.0 i 5.0) na poprawność wykonania zadania u osób
o słabszej i o silniejszej automatyzacji procesu selekcji
5. Dyskusja wyników
Wyniki eksperymentu potwierdziły niemal wcześniejsze oczekiwania. Uzyskano prawie
wszystkie zakładane efekty główne. Efekt automatyzacji wystąpił zarówno w zakresie
poprawności, jak i w zakresie szybkości. Był on obserwowany dla wszystkich przyjętych,
empirycznych wskazników poziomu wykonania testu. Pozytywne aspekty procesu nabywania
wprawy (Ackerman 1988) i automatyzacji czynności (Shiffrin i Schneider 1977) są więc w
prezentowanych badaniach dobrze udokumentowane.
Podobnie, na podstawie wyników eksperymentu, dobrze widoczne są koszty procesu
automatyzacji w postaci zjawiska transferu negatywnego. Na skutek manipulacji wersjÄ… testu, w
próbie czwartej - w porównaniu do próby trzeciej - istotnie statystycznie zmniejszyła się
efektywność funkcjonowania mechanizmów selekcyjnych. Pomimo niewielkiego spowolnienia
tempa analizy informacji, proces selekcji okazał się bardziej  impulsywny (mniejsza ostrożność
detekcji; większy udział fałszywych alarmów w liczbie popełnianych błędów), a osoby badane
zaczęły nieco częściej popełniać błędy. Analizy różnicowe wykazały z kolei, że osoby sprawniejsze
w zakresie automatyzacji procesów selekcyjnych rzeczywiście traciły więcej na poprawności
wykonania na skutek zmiany warunków selekcji. Brak niektórych efektów głównych wobec
uzyskanych efektów różnicowych nie pozwala więc odrzucić hipotezy o negatywnym transferze
wprawy. Jednakże, na podstawie uzyskanych wyników, hipotezę negatywnych kosztów
automatyzacji trzeba ograniczyć do zmian w zakresie poprawności i ogólnej efektywności
hipotetycznego systemu selekcjonującego, jako że sztywności w zakresie szybkości selekcji nie
udało się wykazać w analizie zarówno efektów głównych, jak i różnicowych.
Potwierdziła się również hipoteza wynikająca z badań Woltza, Gardnera i Bella (2000).
Negatywny transfer wprawy wydaje się mieć mniejszy wpływ na wykonywaną czynność
poznawczą niż sama wprawa. Osoby badane, doświadczając negatywnego transferu, mimo
wszystko wykonywały nową czynność lepiej niż osoby mające niewielką lub żadną wprawę w jej
wykonywaniu. Wprawdzie w próbie czwartej poziom wykonania testu obniżał się, ale i tak był on
wyższy niż poziom wykonania mierzony ogólną poprawnością i szybkością po próbie drugiej.
Zgodzić się więc wypada z Woltzem i jego współpracownikami, iż efekt transferu negatywnego
może często być maskowany przez dużą wprawę w zakresie czynności transferowanej. Tym
większą zaletą przeprowadzonych badań jest to, iż efekty wprawy i negatywnego transferu udało
się w nich wykazać łącznie.
Efekt przetargu między szybkością a poprawnością był widoczny w każdej próbie
wykonania testu. Osoby badane nie były w stanie jednocześnie uzyskiwać wysokich wyników
przetwarzania zarówno w zakresie szybkości, jak i poprawności reakcji. W rezultacie albo
pracowały szybko, ale wtedy popełniały wiele błędów, albo też poprawnie, ale kosztem znacznego
spowolnienia przebiegu procesów poznawczych. Efekt przetargu pomiędzy szybkością a
poprawnością został wywołany narzuceniem presji czasowej (Snodgrass, Luce i Galanter 1967).
Potwierdziły się również spostrzeżenia badaczy dotyczące rodzaju kosztów związanych z
przyspieszeniem przetwarzania informacji. Koszty te znajdowały odzwierciedlenie w zakresie
sumarycznej liczby błędów (D; podobnie jak: Dickman i Meyer 1988; Larson i Saccuzzo 1986;
Szymura i Nęcka 1998) oraz w zakresie błędów ominięcia (OM; podobnie jak: Chun i Wolfe 1996;
Lobaugh, Cole i Rovet 1998; Zenger i Fahle 1997). Natomiast specyficznych kosztów w zakresie
błędów typu  fałszywy alarm (FA) nie stwierdzono.
Zdecydowanie najważniejszym wynikiem przeprowadzonych badań jest jednak odkrycie
wzajemnego powiązania wszystkich trzech wyżej omówionych efektów. Bez wątpienia efekt
przetargu jest redukowany przez efekt automatyzacji. Na skutek nabywania wprawy różnice w
zakresie poprawności między osobami szybko i wolno przetwarzającymi informacje ulegają
zmniejszeniu. W przypadku ostatecznej automatyzacji wtórnej, nabytej dzięki wielokrotnemu
powtarzaniu czynności, efekt przetargu w ogóle nie ma szansy wystąpić. Definicję procesów
automatycznych i kontrolowanych Shiffrina i Schneidera (1977) można więc uzupełnić proponując
dodatkowym określeniem procesów kontrolowanych jako takich, w przypadku których stwierdza
się efekt przetargu pomiędzy szybkością a poprawnością, zaś procesów automatycznych  jako
takich, w przypadku których rozważanego efektu stwierdzić niepodobna. Zgodnie z Shiffrinem i
Schneiderem (1977), każdy proces można umieścić na dwubiegunowej dymensji procesy
automatyczne - procesy kontrolowane. Zgodnie z wynikami prezentowanych badań każdy proces
można umieścić na dwubiegunowej dymensji procesy podatne na efekt przetargu  procesy
niepodatne na ten efekt. Oba wymiary, jak się wydaje, są równoległe.
Z kolei sztywność mentalna wytworzona w wyniku automatyzacji wydaje się wzmacniać
efekt przetargu między szybkością a poprawnością. Efekt ten, zredukowany w trzech próbach
automatyzacyjnych, ujawnił się bowiem z nową siłą na skutek zmiany warunków zadania i
negatywnego transferu wprawy, jakiego doświadczyły osoby badane. Uzasadnione wydaje się więc
ostateczne twierdzenie teoretyczne tej pracy: automatyzacja redukuje efekt przetargu, podczas gdy
sztywność mentalna powstała na wskutek automatyzacji efekt ten wzmaga.
Na zakończenie warto jeszcze dodać, iż nowo skonstruowany Test Zegarków okazał się
dobrym narzędziem do pomiaru wybranych aspektów selektywnej uwagi. Możliwość pomiaru
zarówno szybkości, jak i poprawności procesów detekcji prostych bodzców w stosunkowo krótkim
czasie metodą papierową jest ważną zaletą skonstruowanego narzędzia. Wadą testu jest natomiast
niemal całkowity brak efektu dystrakcji  osoby badane nie popełniają w teście niemal w ogóle
fałszywych alarmów. Aktualnie prowadzone w różnych ośrodkach (SWPS, UJ) prace nad
modyfikacjÄ… testu zmierzajÄ… w stronÄ™ zmiany tej niekorzystnej charakterystyki. Przy zachowaniu
podstawowej idei konstruowanego narzędzia zmieniony zostanie materiał, tak aby bodzce ważne i
bodzce zakłócające podzielały znacznie większą liczbę cech wspólnych. Zgodnie z wynikami
badań Duncana i Humphreysa (1989), manipulacja taka powinna zdecydowanie utrudnić procesy
selekcji i wywołać znacznie większą liczbę fałszywych alarmów. Przykładem rozważanych
bodzców są znaki drogowe. Test Znaków Drogowych miałby dodatkowo zaletę związaną z
możliwością praktycznej aplikacji narzędzia do badania uwagi kierowców.
6. Bibliografia:
Ackerman P.L. (1988). Determinants of individual differences during skill acquisition:
Cognitive Abilities and information processing. Journal of Experimental Psychology: General, 117,
288-318.
Anderson J.R. (1982). Acquisition of Cognitive Skill. Psychological Review, 89(4),
369-408.
Chun M. i Wolfe J. (1996). Just Say No: How Are Visual Searches Terminated When
There Is No Target Present. Cognitive Psychology, 30, 39-78.
Craik F.I.M. i Lockhart R.S. (1972). Levels of processing: A framework for memory
research. Journal of Verbal Learning and Verbal Behavior, 11, 671-684.
Czyżewska M. (1991). Uwaga, [w:] Z. Roman (red.), Uwaga i pamięć (s. 22-65).
Warszawa: Wydawnictwo Uniwersytetu Warszawskiego.
D Zamura M. (1991). Color in visual search. Vision Res., 31(6), 951-966.
Dickman S.J. i Meyer D.E. (1988). Impulsivity and speed accuracy tradeoffs in
information processing. Journal of Personality and Social Psychology, 54, 274-290.
Duncan J. (1989). Boundary conditions on parallel processing in human vision.
Perception, 18, 457-469.
Duncan J. i Humphreys G.W. (1989). Visual search and stimulus similarity. Psychological
Review, 96(3), 433-458.
Green D. i Swets J. (1966). Signal detection theory and psychophysics. New York: Wiley.
Hasher L. i Zacks R. (1979). Automatic and efortfull processes in memory. Journal of
Experimental Psychology: General, 108, 356-388.
Johnston W.A. (1978). The intrusiveness of familiar nontarget information. Memory and
Cognition, 6, 38-42.
Johnston W.A. i Dark V.J. (1982). In defense of intraperceptual theories of attention.
Journal of Experimental Psychology. Human Perception and Performance, 8(3), 407-421.
Johnston W.A. i Heinz S.P. (1978). Flexibility and capacity demands of attention. Journal
of Experimental Psychology. General, 107(4), 420-435.
Kolańczyk A. (1992). Uwaga w procesie przetwarzania informacji, [w:] M. Materska, i W.
Tyszka (red.), Psychologia i poznanie (s. 78-98). Warszawa: Wydawnictwo naukowe PWN.
Kolańczyk A. (w druku). Kiedy automatyczne procesy afektywne tracą autonomię.
Aaskotanie świadomości.
Larson G.E. i Saccuzzo D.P. (1986). Gender, neuroticism and speed-accuracy tradeoffs on
choice reaction-time task. Personality and Individual Differences, 7, 919-921.
Lobaugh N.J., Cole S. i Rovet J.F. (1998). Visual Search for Features and Conjunctions in
Development. Canadian Journal of Experimental Psychology, 52, 4, 201-211.
Luchins A.S. (1942). Mechanization in problem solving: the effect of Einstellung.
Psychological Monographs, 54, (cały nr 248).
McElree B. i Dosher B.A. (1993). Serial Retrieval Processes in the Recovery of Order
Information. Journal of Experimental Psychology: General, 122, 3, 291-315.
McLeod P., Driver J. i Crisp J. (1988). Visual search for conjunction of movement and
form is parallel. Nature, 332, 154-155.
Meyer D.E., Irwin D.E., Osman A.M. i Koniuos J. (1988). The Dynamics of Cognition and
Action. Mental Processes Inferred from Speed-Accuracy Decomposition. Psychological Review,
95, 2, 183-237.
Nęcka E. (1987). Proces twórczy i jego ograniczenia. Kraków: Wydawnictwo UJ (wyd. 2.:
1995, Kraków: Impuls).
Nęcka E. (1994). Inteligencja i procesy poznawcze. Kraków: Impuls.
Posner M.I. i Mitchell R. (1967). Chronometric analysis of classification. Psychological
Review, 74, 392-409.
Posner M.I. (1982) Cumulative development of attentional theory. American Psychologist,
37, 2.
Raufaste E., Eyrolle H. i Martiné C. (1998). Pertinence generation in radiological
diagnosis: Spreading activation and the nature of expertise. Cognitive Science, 22, 517-546.
Schneider W. i Shiffrin R.M. (1977). Controlled and Automatic Human Information
Processing: I. Detection, Search, and Attention. Processing: I. Detection, Search, and Attention.
Psychological Review, 84, 1-67.
Schneider W., Dumais S.T. i Shiffrin R.M. (1984). Automatic and control processing and
attention. W Parasuraman, R., Davies, D.R. (red.). Varieties of attention. Orlando: Academic Press.
Shiffrin R.M. i Schneider W. (1977). Controlled and Automatic Human Information
Processing: II. Perceptual Learning, Automatic Attending, and a General theory. Psychological
Review, 84, 127-191.
Snodgrass J.G., Luce R.D. i Galanter E. (1967). Some experiments on simple and choice
reaction time. Journal of Experimental Psychology, 75, 1-17.
Szymura B. i Nęcka E. (1998). Visual selective attention and personality: An experimental
verification of three models of extraversion. Personality and Individual Differences, 24, 713-729.
Treisman A.M. (1988). Features and objects: The fourteenth Bartlett memorial lecture.
Quarterly Journal of Experimental Psychology, 40(2), 201-237.
Wolfe J. (1994). Guided Search 2.0: A revised model of visual search. Psychonomic
Bulletin and Review, 1, 202-238.
Woltz D.J., Bell B.G., Kyllonen P.C. i Gardner M.K. (1996). Memory for order of
operations in the acquisition and transfer of sequential cognitive skills. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 22, 438-457.
Woltz D.J., Gardner M.K. i Bell B.G. (2000). Negative Transfer Errors in Sequential
Cognitive Skills. Strong-but-Wrong Sequence Application. Journal of Experimental Psychology:
Learning, Memory and Cognition, 26, 3, 601-625.
Zenger B. i Fahle M.(1997). Missed Targets Are More Frequent Than False Alarms. A
Model for Error Rates in Visual Search. Journal of Experimental Psychology: Human Perception
and Performance, 23, 6, 1783-1791.


Wyszukiwarka

Podobne podstrony:
s Szymura Slabosz Uwaga selektywna 2
s Szymura SÅ‚abosz Uwaga selektywna
dziennik wielkosc i slabosc?wnej opozycji
Intuicja Jej siła i słabość
Wladza?z tyranii Jak kontrolowac ludzi pieniadze czas emocje i slabosci zdowla

więcej podobnych podstron