PROCESY AUTOMATYCZNE I KONTROLOWANE
Rozróżnienie na procesy automatyczne i kontrolowane wprowadzone zostało przez Posnera i Syndera (1975) oraz Schneidera i Shiffrina (1977)
AUTOMATYZACJA - polega na nabywaniu wprawy w zakresie wykonywania czynności na skutek treningu
Trening może być:
a. jednorodny - danemu układowi bodźców odpowiada dana reakcja
b. niejednorodny - kategorie bodźców często się zmieniają, a reakcja pozostaje ta sama.
Czynność automatyczna - powstaje w wyniku długotrwałego i systematycznego treningu; charakteryzuje ją szybki przebieg, mała kosztowność poznawcza. Realizacja czynności automatycznej dokonuje się bez namysłu i kontroli ze strony świadomości. Bardzo trudno ją zmodyfikować.
W kontekście czynności automatycznych mówi się o ich balistyczności. Oznacza to, że aby czynność automatyczna została przerwana, musi dojść do zaangażowania mechanizmu kontrolnego wyższego rzędu.
Czemu służy automatyzacja?
Uwolnieniu zasobów systemu poznawczego (związanych wcześniej z wykonywaniem tej czynności, które teraz mogą być wykorzystane do wykonywania jednocześnie innej czynności.
Automatyzacja ma sens ewolucyjny: ponieważ postęp cywilizacyjny dokonuje się przez zwiększenie liczby operacji, które można wykonywać bez konieczności myślenia o nich. W tym czasie system poznawczy może zająć się twórczym rozwiązywaniem problemów oraz podejmowaniem kluczowych decyzji.
Klasy procesów automatycznych:
1. procesy zautomatyzowane = słabo automatyczne (Nasher i Zaiks, 1979):
Ich istnienie wykryto w badaniach nad automatyzacją czynności i nabywaniem wprawy (skill acquisition). Są bezwysiłkowe, ale intencjonalne i celowe.
Przykładem: przeszukiwanie pola wzrokowego w fazie uwagowej ze względu na właściwości niepriorytetowe
2. procesy pierwotnie automatyczne = silnie automatyczne
Ich istnienie wykazano w badaniach dotyczących procesów przeduwagowych.
Są uruchamiane w sposób całkowicie niezależny od naszej woli i intencji (bez zamiaru ich wzbudzenia).
Przykładem: proces segregacji pola wzrokowego podczas przeszukiwania pola percepcyjnego w fazie przeduwagowej. (patrz: koncepcja przeszukiwania pola percepcyjnego Treisman, która mówi o tym, że jeżeli obiekty w polu wzrokowym charakteryzują się cechami priorytetowymi, to cechy te automatycznie, niezależnie od naszej woli i intencji, stają się podstawą do podziału pola wzrokowego na część zawierającą obiekty wyposażone w te cechy i część, która takich bodźców nie zawiera.
Na skutek dużej liczby powtórzeń w warunkach treningu jednorodnego (np. 36 serii po 106 powtórzeń) poszukiwanie koniunkcyjne ze względu na cechy kształtu i koloru staje się równie szybkie, jak poszukiwanie proste tylko ze względu na cechę kształtu
Podsumowując:
- automatyzm czynności poznawczych jest ich właściwością rozwiniętą w długim procesie ewolucji naszych sprawności poznawczych (Bargh)
- stanowi właściwość adaptacyjną, dzięki której możemy uwolnić część zasobów poznawczych przeznaczając je na inne, ważniejsze lub pilniejsze czynności
- niektóre procesy przetwarzania informacji ulegają automatyzacji w procesie nabywania wprawy (Shiffrin i Schneider)
- podczas gdy inne są automatyczne ze swej natury (Posner)
- cecha automatyczności przysługuje zarówno procesom elementarnym, jak np. segregacja pola wzrokowego podczas jego przeszukiwania (Treisman) jak i procesom złożonym, tj. spostrzeganie i komunikowanie emocji poprzez wyraz mimiczny (Zajonc).
KONCEPCJE PROCESÓW AUTOMATYCZNYCH
odnoszące się do elementarnych procesów przetwarzania informacji
a. Teoria Kontinuum Schneidera i Shiffrina (1977)
b. Teoria Rywalizacji Egzemplarzy Gordona Logana (1982)
aplikacja poglądów w nich zawartych do złożonych procesów afektywnych i społecznych (patrz: Alina Kolańczyk ze współpracownikami, 2004; oraz Rafał K. Ohme, 2003)
ad. 1.a. Model procesów automatycznych i kontrolowanych, czyli tzw. teoria kontinuum (1977) Schneidera i Shiffrina
Podstawowym założeniem jest ulokowanie procesów kontrolowanych i automatycznych na jednym kontinuum. Czyli przeciwstawiając je sobie.
Teoria odnosi się do procesów wtórnie automatycznych.
Celem badań, które doprowadziły do sformułowania koncepcji było wykazanie istnienia procesów nie wymagających kosztów poznawczych.
Badania opierały się na paradygmacie podążania i paradygmacie przeszukiwania pola wzrokowego (patrz dalej).
Wyniki:
1. jeśli badani mają wykonywać zadanie selekcyjne na płytkim, sensorycznym poziomie przetwarzania informacji, czynią to szybko i bezwysiłkowo; analizują równolegle duże porcje stymulacji i nie mają świadomości przebiegu tego procesu.
Ale: warunkiem skutecznego śledzenia kilku możliwych bodźców (zestawy liter lub kropek), pojawiających się w kilkudziesięciu możliwych lokalizacjach było:
- uprzedzenie badanych o możliwym położeniu bodźców
- niewielka liczba samych bodźców (do 4 liter)
2. badani byli też zdolni do reagowania na informacje pojawiające się w kanale ignorowanym, gdy reakcja na nie była w prosty sposób skojarzona z prezentowanym bodźcem i nie wymagała jego dalszego przetworzenia lub zapamiętywania
W ten sposób wykryto istnienie dwóch klas procesów poznawczych różnych pod względem przebiegu:
1. automatyczne detekcji
2. kontrolowanego przeszukiwania
Tym samym udało się wyróżnić wpływ procesów automatycznych i kontrolowanych w badaniach nad uwagową detekcją sygnałów.
Podstawowym czynnikiem umożliwiającym dokonanie tego rozróżnienia była głębokość procesów przetwarzania informacji.
Procesy automatyczne operowały bowiem na płytkich poziomach przetwarzania, podczas gdy konieczność elaboracji bodźca na głębszych poziomach przetwarzania zmuszały umysł do uruchomienia kontroli poznawczej i wzbudzenia procesów kontrolowanych.
Schneider i Shiffrin zaproponowali złożony model systemu poznawczego, w ramach którego możliwe są dwie ścieżki przetwarzania informacji.
W modelu tym procesy automatyczne charakteryzują się:
- automatyczną detekcją bodźców
- szybkim, pozbawionym kontroli uruchomieniem programów działania zakodowanych w pamięci długotrwałej
- zachodzą bez udziału świadomości i uwagi
- reakcja jest niepodatna na modyfikację za pomocą instrukcji werbalnych
Procesy kontrolowane charakteryzują się:
- kontrolą ze strony uwagi
- ujawniają się w przypadku pojawienia się nowych bodźców i braku adekwatnych strategii postępowania
- przetwarzanie informacji jest zależne od ograniczonych możliwości systemu poznawczego (ograniczonych zasobów uwagi i pojemności pamięci roboczej)
- przetwarzanie wymaga czasu i jest podatne na działanie zasady przetargu między przechowywaniem informacji a jej przetwarzaniem
Procesy kontrolowane mogą być dwojakiego rodzaju:
1. procesy jawne: dostępne świadomości, np. intencjonalne przypominanie na zasadzie przeszukiwania magazynu wiedzy według zadanego klucza; możliwa jest bieżąca modyfikacja; procesy te mają niewielką wydajność i wolny przebieg
Przykładem: podaj nazwy miesięcy według alfabetu
2. procesy zawoalowane - są niedostępne świadomości, ale podlegają zmianom na skutek instrukcji werbalnych lub nabywania wprawy, np. automatyzacja przeszukiwania pamięci świeżej; niewielkie możliwości w zakresie modyfikacji (ze względu na brak czasu); szybszy przebieg
Przykład: porównywanie elementów przechowywanych w pamięci świeżej.
Model ten ma charakter blokowy, tzn. wszystkie procesy kontrolowane nadzorują przepływ informacji między poszczególnymi blokami pamięci.
Procesy automatyczne są nieświadome i jednorodne, ale wymagają jakiejś ilości zasobów. Gdyby tak nie było, to moglibyśmy jednocześnie wykonywać nieskończoną liczbę automatycznych procesów przetwarzania informacji. Ograniczenia wynikają więc z interferencji strukturalnej (patrz dalej).
Automatyzacja pomaga natomiast ograniczyć rozmiar interferencji zasobowej (patrz dalej), gdyż czynności automatyczne, jak się wydaje, nie walczą o tę samą, ograniczoną pulę energii mentalnej (patrz: Kahneman)
Schneider i Shiffrin stwierdzili różnice w zakresie stopnia automatyzacji różnych procesów detekcji uwagowej:
OPIS BADAŃ SCHNEIDERA I SHIFFRINA:
Badanym prezentowano kolejno na ekranie monitora karty zawierające zestawy bodźców. O tym, jaki bodziec będzie sygnałem w kolejnej serii, badani byli informowani tuż przed jej rozpoczęciem.
Stosowano dwa warunki badań: spójny i niespójny.
W warunku spójnym badanym prezentowano na kartach bodźce tej samej kategorii, z której pochodził sygnał.
W warunku niespójnym bodźce pochodziły z innej kategorii niż sygnał.
Okazało się, że dla uzyskania wskaźnika poprawności detekcji na poziomie 95% potrzebne było tylko 80 ms (milisekund) prezentacji kart w warunku niespójnym i aż 400 ms w warunku spójnym. Na podstawie uzyskanych wyników Schneider i Shiffrin stwierdzili, że detekcja cyfry z tła liter jest procesem automatycznym, nie wymagającym kontroli kontrolowanego różnicowania bodźców i identyfikacji sygnału, bo sygnał był jedynym bodźcem należącym do swojej klasy w całym materiale bodźcowym.
Natomiast detekcja litery z tła utworzonego przez inne litery była procesem kontrolowanym, wymagającym identyfikacji poszczególnych bodźców i złożonej decyzji co do tego, czy zidentyfikowany bodziec spełnia kryterium selekcji.
Wyniki potwierdziły więc istnienie dwóch różnych procesów poznawczych: automatycznych i kontrolowanych.
Badacze stwierdzili, że nabywanie procesów automatycznych, czyli proces automatyzacji, wymaga długotrwałego, bardzo specyficznego treningu.
W tym celu osoby badane powtarzały zadanie i potrzebowały aż 2100 serii testowych w warunku spójnym, aby osiągnąć poziom wykonania od początku notowany w warunku niespójnym.
ad. 2. Konkurencyjnym modelem jest teoria rywalizacji egzemplarzy G. Logana (1982) zwana też teorią przypadków
Logan oraz Tzelgov wraz ze współpracownikami nie zgodzili się z tezą Schneidera i Shiffrina o balistyczności automatyzmów. Wskazali na możliwość kontroli procesów automatycznych, a przynajmniej modyfikowania ich w trakcie przebiegu.
Logan wykazał np., że osoby biegle piszące na maszynie (proces wtórnie automatyczny) są w stanie przerwać pisanie na skutek pojawienia się błędu lub też w odpowiedzi na specjalny sygnał (sygnał stopu).
Ponadto, Logan poddał w wątpliwość, że efekt Stroopa jest dowodem na balistyczność procesów automatycznych: zwrócił bowiem uwagę, że jeśli badanym prezentuje się listę wymieszanych bodźców spójnych (np. wyraz „czerwony” napisany czerwonym atramentem) i bodźców konfliktowych (np. wyraz „czerwony” napisany zielnoym atramentem), to wielkość efektu Stroopa zależy od proporcji tych bodźców. Gdy lista zawierała tylko 20% bodźców konfliktowych (czyli 80% bodźców spójnych), efekt Stroopa był istotnie większy niż wtedy, gdy na liście było aż 80 % bodźców konfliktowych. Wynika stą, że łatwiej nam zahamować narzucającą się, automatyczną reakcję, gdy jest ku temu stosunkowo wiele okazji. Czyli, że procesy automatyczne nie są całkowicie balistyczne, skoro siła automatyzmu zależy od proporcji bodźców odpowiedniego rodzaju.
Badacze ci sugerują, by automatyczność i kontrolę traktować jak dwa aspekty dobrze wyuczonego zachowania, wskazując ich różną funkcję w ramach systemu poznawczego, ale nie przeciwstawiając ich, tak jak czynili to Shiffrin i Schneider, na podstawie długości procesu nabywania wprawy.
Najważniejszym konstruktem koncepcji Logana jest pojęcie „egzemplarz”. Stanowi on jednostkową, trwałą reprezentację umysłową pojedynczego bodźca (S) i wymaganego sposobu reakcji (R). Logan (2002) wyraźnie odwołuje się więc w swojej koncepcji procesów automatycznych do egzemplarzowej teorii trwałych reprezentacji umysłowych, obowiązującej, jego zdaniem, zarówno w zakresie pamięci semantycznej (znaczenie S i R), jak i pamięci epizodycznej (przypadek stosowania R wobec S).
Egzemplarze są nabywane w toku doświadczenia. W ramach egzemplarzy gromadzona jest wiedza dotycząca sposobów reagowania, a nie kategorii bodźców. Świadczy o tym stwierdzony przez Logana brak transferu wprawy w warunkach całkowitej zmiany sposobów reagowania na uprzednio prezentowane bodźce.
Logan (1988) stwierdził, że problemy z wykonywaniem nowych zadań nie wynikają z braku zasobów (rzekomo zbyt duże wymagania), ale raczej z braku wiedzy (braku egzemplarzy).
W momencie pojawienia się bodźca system poznawczy ma do wyboru dwa sposoby przetwarzania informacji: zastosowanie ogólnego algorytmu reakcji dla bodźców podobnego typu lub odwołanie się do skutecznego, znanego z przeszłości sposobu radzenia sobie z bodźcem. Jest to wybór między kontrolowanym przywołaniem procedury reakcji z pamięci a kontrolowanym przetwarzaniem danych przez system uwagi. Detekcja bodźca, oprócz rywalizacji pomiędzy kontrolowanymi procesami uwagowymi a automatycznymi procesami pamięciowymi, prowokuje wyścig o pierwszeństwo między dostępnymi w pamięci egzemplarzami. Nagrodą jest uruchomienie sposobu postępowania z bodźcem zgodnie z zakodowaną w egzemplarzu procedurą. Każde udane współwystępowania bodźca i specyficznej reakcji zwiększa wagę egzemplarza reprezentującego to konkretne zachowanie. Nabywanie wprawy polega więc na zwiększeniu wagi dominującego egzemplarza. Model wyścigu egzemplarzy dobrze wyjaśnia szybkość procesów wtórnie automatycznych (tym większą, im większa jest wprawa w zakresie wykonywanych czynności), jak też podatność na błędy w przypadku bodźców konfliktowych (np. w zadaniu Stroopa). Bodźce te uruchamiają tyle rywalizujących ze sobą ścieżek, ile konfliktowych aspektów stymulacji zawierają. Ze względu na break jednego dominującego egzemplarza w reakcji na bodziec mogą pojawić się błędy. Reakcja może być wtedy korygowana przez instrukcję dla osoby badanej lub jej intencjonalną decyzję, ale nie bez ponoszenia kosztów czasowych, wynikających z uruchomienia uwagowych mechanizmów kontrolnych.
W badaniach Logan mierzył czas reakcji, który był wskaźnikiem automatyzacji.
Czynności automatyczne pojawiają się tylko w odpowiedzi na specyficzne bodźce wyzwalające. Wobec tego transfer wprawy w zakresie wykonywanej czynności z jednej grupy bodźców na inną nie powinien w ogóle zaistnieć.
Automatyczność i kontrolowalność nie są dwoma przeciwnymi biegunami kontinuum procesów, ale dwoma aspektami tego samego zjawiska nabywania wprawy.
Teoria rywalizacji egzemplarzy podkreśla, iż automatyzmy mogą wiązać się raczej z funkcjonowaniem pamięci (dostępnością egzemplarzy), a nie funkcjonowaniem uwagi (dostępność zasobów). Uwaga wiążę się z wtórną automatyzacją o tyle, o ile ułatwia proces nabywania egzemplarzy i zmiany ich relatywnych wag.
KONSEKWENCJE AUTOMATYZACJI CZYNNOŚCI
Pozytywne:
1. uwolnienie zasobów systemu
2. przyspieszenie i zwiększenie poprawności reagowania
3. redukcja efektu przetargu między szybkością a poprawnością
* przetarg między szybkością a poprawnością jest podstawową zasadą funkcjonowania elastycznego filtru uwagi Johnsona - im płytszy poziom analizy informacji tym szybszy i mniej poprawny proces selekcji informacji.
Negatywne:
1. trudność w zakresie deproceduralizacji wtórnie automatycznego procesu i związane z tym błędy „bezrefleksyjnego” wykonywania automatycznej procedury.
2. zjawisko transferu negatywnego polegające na tym, iż dobrze wyuczona czynność utrudnia wykonywanie czynności podobnej, ale nie tożsamej z uprzednio wyuczoną.
Przy czym efekty transferu są bardzo zależne od podobieństwa zestawów bodźców i odpowiadających im wymaganych reakcji.
3. Zaburzenia występujące w życiu codziennym wynikające z działania procesów automatycznych (Sternberg, 1996):
Przeciwstawianie automatyzacji procesom kontroli nie znajduje potwierdzenia w wynikach badań, które sugerują raczej, iż automatyzacja i kontrola są dwoma aspektami procesu nabywania wprawy.