1960), zwolennik dwuczynnikowej teorii uczenia się, odrzucił całkowicie pojęcie uczenia się jako utrwalenie czy osłabienie siły nawyku. W sformułowanej przez niego teorii uczenia się przyjmuje on, że nagroda i kara wywołują reakcje emocjonalne „nadziei” i „strachu”, które kojarzone są w pamięci z bodźcami pochodzącymi od działań prowadzących do nagrody lub kary. Kiedy organizm znajdzie się ponownie w sytuacji, w której występowało wzmocnienie, wtedy dokonuje przeglądu repertuaru swoich reakcji, hamując te, które wzbudzają negatywne emocje, i wybierając te, które wywołują emocje pozytywne.
Z kolei N. E. Miller (1963), wychodząc od jednoczynnikowej teorii uczenia się w wersji Hulla i opierając się na wynikach badań nad elektrycznym drażnieniem różnych okolic śródmózgowia, w których to badaniach wykryto odrębne mózgowe ośrodki „kary” i „nagrody”1, sformułował kolejną, dwuczynnikową teorię wzmocnienia. Dwuczynnikowość jego teorii polegała jednak na przyjęciu nie dwóch typów warunkowania — przez styczność w czasie i przez wzmocnienie, lecz dwóch typów, wzmocnienia — przez nagrodę i karę. Zdaniem Millera skutki nagrody polegają na tym, że aktywizują ośrodki „nagrody” w podwzgórzu, co wyzwala z kolei mechanizm facylitujący czy „włączający” reakcje organizmu. Sądzi on, że jest rzeczą niemożliwą, aby organizm dokonywał przeglądu wszystkich swoich potencjalnych zachowań, które ongiś prowadziły do nagrody, jak tego chce Mowrer. Mechanizm facylitujący intensyfikuje jedynie te reakcje, które występują aktualnie, lub ślady nerwowe tych, które występowały niedawno. Analogicznie — pobudzenie ośrodka „kary” hamuje występujące reakcje.
Połączeniem idei zawartych w koncepcjach Mowrera i Millera jest teoria W. K. Estesa (1969). Można by ją nazwać — w przeciwieństwie do teorii Mowrera postulującej wybór reakcji — teorią wyboru bodźca. Zakłada się w niej, że jeśli organizm znajduje się w sytuacji wyboru, dokonuje przeglądu nie swoich reakcji, lecz otaczających go bodźców. W rezultacie — przedstawienia czy wyobrażenia zdarzeń powiązanych uprzednio z tymi bodźcami są wprowadzone do czynnej pamięci2 organizmu i stanowią podstawę działania mechanizmu sprzężenia zwrotnego, który kieruje reagowaniem. Ten mechanizm sprzężenia zwrotnego jest analogiczny do mechanizmu „włączającego” Millera. Różnica w rozumieniu przez Estesa mechanizmu „włączającego” w porównaniu ze stanowiskiem Millera polega na tym, ze mechanizm sprzężenia zwrotnego — zdaniem Estesa — nie intensyfikuje reakcji prowa-
124
W roku 1954 James Olds dokonał odkrycia, że stymulacja elektryczna pewnych ośrodków w mózgu szczura może pełnić rolę wzmocnienia pozytywnego, zaś innych ośrodków wzmocnienia negatywnego. Zwierzę uczyło się reakcji naciskania klucza, który włączał słabą stymulację prądem elektrycznym ośrodków nazwanych przez Oldsa „ośrodkami nagrody" (szczury dochodziły do ok. 2000 reakcji na godzinę, trwających bez przerw przez 15 do 20 godzin, tzn. do wyczerpania fizycznego organizmu), i uczyło się unikania stymulacji tzw. „ośrodka kary".
Pojęcie pamięci czynnej odpowiada pamięci krótkotrwałej (por. rozdział pt. „Pamięć",
s. 7).