filozofia kognitywna


2.8. Filozofia Kognitywna

Metafory epoki:
Grecja - umys? jest jak katapulta, popatrzcie na dramatyczne napi?cia i katharsis.

Leibniz - umys? jest jak m?yn.
Babbage - umys? jest jak krosna tkackie.
Freud - umys? jest jak system hydrauliczny, ci?nienie psychiczne powoduje choroby.
Sherrington - umys? to telefoniczna centrala - czym innym móg?by by??

Wiek XX - umys? = komputer.
Podstawowe za?o?enie filozofii kognitywnej.
Wiek XXI - neurofilozofia?



2.8.1. Narodziny kognitywizmu

Koniec XIX wieku - psychologia oparta na introspekcji, nie da?a wiarygodnych rezultatów.
Psychofizyka: Fechner, Wundt, Mach, Helmholtz, fizycy do pocz?tku XX wieku.
Pocz?tek XX wieku - entuzjazm dla badania odruchów warunkowych przez Paw?owa.
Behawioryzm zrobi? z psychologii nauk? ?cis??.
Umys?, ?wiadomo??, czynno?ci poznawcze - nieobserwowalne = nienaukowe.
Spór o istnienie ?wiata przeszed? w spór o istnienie umys?u.

Uniwersalne i obiektywne prawa nauki - relacje pomi?dzy bod?cami a reakcjami.
John Watson, Brian Skinner, Edward Tolman, Clark Hull - nowy paradygmat bada? psychologicznych.
Zachowanie jest wynikiem uwarunkowania ?rodowiska.
Mo?na bada? tylko obiektywnie obserwowalne zachowania.

Niestety: brak jest obiektywnych praw dla z?o?onych form zachowania.
S?dy i przekonania nie da si? zredukowa? do dyspozycji organizmu.
Brak rezultatów dotycz?cych j?zyka, wypowiedzi nie wynikaj? z prostych skojarze?.
Bolesna lekcja automatycznego t?umaczenia i bada? nad analiz? tekstów w sztucznej inteligencji.
Jak mo?na zaprzeczy? realno?ci ?wiata wewn?trznego?

Procesy po?rednicz?ce pomi?dzy postrzeganiem a reakcjami s? ukryte.
Teorie zak?adaj?ce ukryte, nie?wiadome mechanizmy wywodzi?y si? z psychoanalizy Freuda.
Psychodynamika i ró?ne szko?y psychoterapii nigdy nie by?y naukowe, weryfikowalne.
Model przetwarzania informacji wnios?a informatyka.
Sztuczna Inteligencja

Idee kognitywistyczne stworzyli eksperci AI i psychologii poznawczej.
Inteligentne zachowanie systemów z?o?onych nie wymaga inteligencji elementów.
"Duch w maszynie" nie jest potrzebny.
Symbol reprezentuje co? innego ni? swoja fizykaln? form?.
Regu?y okre?laj? znaczenie symboli przez wzajemne relacje.
Stany umys?owe - my?li, przekonania, percepcja - to stany obliczeniowe maszynerii przetwarzaj?cej informacj?.

Funkcjonalizm: stan umys?owy mo?e by? zrealizowany w ró?ny sposób w ró?nych systemach fizycznych.
Fizyczna realizacja symboli jest drugorz?dna, wa?ne s? relacje i przetwarzanie informacji.
Krytyka "szowinizmu w?glowego": inteligencja pozaziemska nie musi
Emulacja jednego komputera przez drugi.
Przetwarzanie informacji wykracza poza asocjacjonizm.
Nie ma dualizmu substancji cia?a i umys?u, chocia? s? jako?ciowe róznice.

Umys? to funkcja procesów fizycznych przetwarzaj?cych informacj?.
Umys? = algorytm realizowany przez mózg lub komputer.
"Silne AI": odpowiednio zaprogramowany komputer jest równowa?ny umys?owi, ma stany poznawcze.

Symbole j?zykowe s? elementami dyskretnymi, procesy percepcji/dzia?ania s? ci?g?e.
Funkcjonalizm zajmuje si? wy?szymi czynno?ciami poznawczymi, j?zykiem i rozumowaniem.
Franz Brentano (1874) o?ywi? scholastyczne koncepcje intencjonalno?ci - odniesienia do tre?ci, sensu.
Intencjonalno?? systemu: symbole s? o czym?, bo istnieje izomorfizm relacji obiektów rzeczywistych i umys?owych.
Czy to wystarczy?

Odpowiednia zale?no?? przyczynowa stanów umys?u od stanów ?wiata jest warunkiem koniecznym.
Jak symbole mog? reprezentowa? co? poza samym sob??
Problem nabierania znaczenia przez symbole (symbol grounding problem), Harnad (1990, 1993).
Zagnie?d?enie znaczenia w reprezentacjach somatosensorycznych.

Umys? jako system przetwarzania informacji.
Sztuczny umys? wymaga ogromnych baz wiedzy, metod reprezentacji i korzystania z wiedzy.
System ekspertowy CYC jest prób? realizacji zdrowego rozs?dku w oparciu o miliony regu?.
Czy systemy komputerowe symuluj? jedynie inteligentne dzia?anie czy naprawd? maj? jakie? stany poznawcze?

2.8.2. Argumenty Turinga



Allan Turing (1912-1954)

Twórca teorii automatów, matematycznych podstaw teorii oblicze?, w pracy z 1936 roku poda? teoretyczny model komputera ("automatu Turinga"), prowadzi? rozwa?ania nad obliczalno?ci?, zaanga?owany w budow? maszyn licz?cych i szyfruj?cych.

W artykule "Computing Machinery and Intelligence" (1950) uzna? pytanie "czy maszyny mog? my?le??" za zbyt ma?o precyzyjne.

Test Turinga: bior? udzia? 3 osoby. A próbuje zmyli? pytaj?cego tak, by nie zgad? jego lub jej p?ci, B ma za zadanie mu pomoc.
Rol? A ma gra? maszyna - czy pytaj?cy b?dzie si? równie cz?sto myli??
Obecnie test Turinga to próba udawania przez program komputerowy w czasie konwersacji, ?e jest cz?owiekiem.
Od 1991 roku zawody tego typu o nagrod? Loebnera.

Czy test Turinga wystarczy by przypisa? maszynie umys??
Turing by? przekonany, ?e do 2000 r. b?d? my?l?ce maszyny.
Mo?liwo?ci stworzenia my?l?cych maszyn s? kontrowersyjne.
Turing omówi? szereg zarzutów przekonuj?c, ?e taki test wystarczy dla uznania, i? mamy do czynienia z rzeczywistym my?leniem.

1. Zarzut teologiczny: my?lenie jest funkcj? nie?miertelnej duszy a tej maszyna mie? nie mo?e.
Odp. teologa: kto wie, co maszyna mie? mo?e?
Odp. Turinga - nie mo?na tego zarzutu powa?nie traktowa?.
Wersja wspó?czesna
psychony wokó? dendronów, John Eccles.

2. Lepiej schowa? g?ow? w piasek bo konsekwencje s? straszne, przede wszystkim dla naszego antropocentryzmu.
Strach przed "terminatorem", w subtelniejszej formie cz?sto spotykany, odpowiedzialny za popularno?? pogl?dów anty-AI.
Efekt: racjonalizacje i emocje, przekonanie o beznadziejno?ci bada? nad umys?em, nadzieje na to, ?e problem nigdy nie zostanie zrozumiany (np. Turski 1996).
Szachi?ci te? wy?miewali programy komputerowe.

3. Zarzut matematyczny
twierdzenia Gödla, Churcha, Turinga o zdaniach nierozstrzygalnych.
Co jaki? czas zarzut ten powraca w innej formie (por. Lukas, Penrose).
Rezultat: poszukiwania nowej fizyki procesów nieobliczalnych, mikrotubule i kwantowa grawitacja - ca?kiem niepotrzebne.
Ograniczenia umys?u cz?owieka s? du?o silniejsze ni? maszyny Turinga!
Turing: cz?owiek te? si? myli, konkretna maszyna jak i konkretny cz?owiek nie odpowie na wszystkie pytania.
Umys? nie dzia?a w oparciu o ustalony algorytm gdy? si? uczy.
Argumenty matematyczne dotycz? jedynie systemów z logik? klasyczn?. Czasami pos?ugujemy si? wiedz? sprzeczn?, proceduraln? lub niepe?n?.
Wniosek: nie mo?na stworzy? maszyny wszechwiedz?cej.

4. ?wiadomo??, emocje, uczucia to rzeczy niedost?pne maszynom
trudny problem Chalmersa.
Po przegranej Kasparowa - Deep Blue nawet nie potrafi si? cieszy? z wygranej!
Turing - o umys?ach innych ludzi wiemy z obserwacji, wi?c je?li przejdzie test i nie uznamy, ?e my?li, pozostanie solipsyzm.

5. Argumenty dotycz?ce ró?nych niemo?liwo?ci.
Maszyny nie s? zdolne do: samodzielnej inicjatywy, humoru, zakochania si?, rozkoszowania lodami ...
Maszyna jest g?upia i zawsze taka by? musi?
S? to b??dne generalizacje do?wiadcze? z obecnie istniej?cymi maszynami.
Pami??, liczenie, rozumienie mowy, ekspertyza - kiedy? nie do wyobra?enia.

6. Maszyna sam nie mo?e nic stworzy?.
Teraz ju? mo?e! W szachach, matematyce, patenty na procesy przemys?owe, a nawet malowaniu obrazów czy komponowaniu muzyki.
Odkrywanie wiedzy (data mining), systemy ekspertowe odkrywaj?ce nowe rozwi?zania.
Einstein: cz?owiek nie widzi dopóki si? o odkrycie nie potknie.

7. Uk?ad nerwowy nie dzia?a w sposób dyskretny
Mo?liwe s? dowolnie dok?adne aproksymacje.
Analogowe komputery zast?pi?y cyfrowe.
Buduje si? analogowe neurony i neurokomputery.

8. Zachowanie cz?owieka nie da si? opisa? przy pomocy regu?
Wielu programów równie?!
Z?o?ony zbiór regu? nie da si? wykry?.
Algorytmy stochastyczne i probabilistyczne - rozwi?zuj? zagadnienia zbyt trudne dla algorytmów deterministycznych.

9. Argument zwi?zany z postrzeganiem pozazmys?owym.
Równie ma?o aktualny teraz jak i w 1950 roku.
Nawet je?li istnieje to nie ma wp?ywu na zwyk?e my?lenie.

Oddzielenie abstrakcyjnych mo?liwo?ci przetwarzania informacji od w?asno?ci sprz?tu realizuj?cego ten proces.
Analogia: umys? tak si? ma do mózgu jak program do komputera.
Czy umys? to rodzaj programu komputerowego?
Test Turinga: warunek konieczny, ale czy wystarczaj?cy by uzna? program za umys??

2.8.3. Funkcjonalizm

Funkcjonalizm - teoria filozoficzna.
Kognitywistyka - metoda badawcza, opieraj?ca si? pocz?tkowo na funkcjonalizmie.
Podstawy funkcjonalizmu stworzy? Allen Newell, Herbert Simon, Hilary Putnam, Jerry Fodor, Zenon Pylyshyn.

Umys? to system kontrolny okre?laj?cym zachowanie w oddzia?ywaniach ze ?rodowiskiem.
Zbiór funkcji okre?laj?cych odpowiedzi organizmu na sytuacje ?rodowiska.
Odpowiedzi ró?ni? si? zale?ne od stanu ?rodowiska i indywidualnej historii.
System kontrolny realizuje cele, to wymaga wiedzy.
Umys? = system kontrolny posiadaj?cy cele i wykorzystuj?cy wiedz?.

Cz?sta pomy?ka kategorialna to z?y poziom opisu systemu.
Komputer tylko liczy a mózg "wie".
Zachowanie: opisywane przez intencje, cele, wiedz?.
Poziom intencjonalny - opis systemu dzia?aj?cego w oparciu o wiedz?.

System sztuczny Cz?owiek
Poziom: Systemy przetwarzaj?ce wiedz? Umys?y
Substrat: Wiedza ?wiat wewn?trzny
Prawa: Zasady racjonalnego dzia?ania Prawa psychologii

Poziom: Systemy oprogramowania Zachowania wyuczone, obyczaje
Substrat: Struktury danych i programy Transformacje sensomotoryczne
Prawa: Interpretacja syntaktyczna instrukcji Dynamika z?o?onych uk?adów

Poziom: Uniwersalny komputer Mózg
Substrat: Ci?gi bitów Impulsy elektryczne
Prawa: Teoria oblicze? Wynikaj?ce z ewolucji

Poziom: Architektura sprz?towa Przetwarzanie sygna?ów
Substrat: Obwody logiczne Funkcjonalne grupy neuronów
Prawa: Logika Neurofizjologia

Poziom: Obwody elektryczne Neurony
Substrat: Napi?cia/pr?dy/zjawiska elektryczne Zjawiska elektryczne
Prawa: Prawa Ohma, Kirchoffa, Faradaya Prawa Ohma, Kirchoffa, Faradaya

Poziom: Obwody scalone Biochemiczny
Substrat: Atomy i elektrony pó?przewodników Neurocz?steczki
Prawa: Fizyka cia?a sta?ego Fizyka molekularna

SOW, Systemy Oparte na Wiedzy - aproksymacja systemami ekspertowymi.
O systemach ekspertowych mo?na powiedzie?: "ten program ju? to wie".
Metafora j?zykowa czy co? wi?cej?
John McCarthy: nawet termostaty maj? przekonania: za gor?co.
Wiedza SOW to przekonania, wierzenia, niekoniecznie prawdziwe.

Reprezentacja wiedzy: potrzebny odpowiedni substrat zachowuj?cy relacje reprezentacja-rzeczywisto??.
Reprezentacja - zakodowana informacja, kombinatorycznie sk?adana, cz?sto w postaci symbolicznej.

Symbol: klasa abstrakcji wszystkich znaków, które reprezentuj? to samo.
Wiedza zawarta w relacjach pomi?dzy symbolami.

System symboliczny: realizuje uniwersalny model oblicze?.
Zawiera: pami??, operacje dzia?aj?ce na strukturach symbolicznych i procesy interpretuj?ce (I/O).
Systemy symboliczne aproksymuj? mo?liwo?ci SOW.
Semantyka symboli: wynik oddzia?ywania systemu ze ?rodowiskiem.

SOW oddzia?uje ze ?rodowiskiem, akcje daj? opis jego zachowania.
Wiedza okre?la cele jego dzia?ania.
SOW podejmuje dzia?ania by spe?ni? swoje cele korzystaj?c z posiadanej wiedzy.
Komputery - umo?liwiaj? realizacj? modeli SOW.

System symboliczny:

1. Zbior fizycznych desygnatów symboli, które
2. podlegaj? manipulacjom za pomoc? wewn?trznych regu?,
3. b?d?cych ci?gami fizycznych desygnatów symboli.
4. Transformacje symboli zale?ne s? jedynie od ich formy, a nie tre?ci i
5. s? z?o?eniem kombinacji ró?nych regu?.
6. Symbole proste, "atomowe" i z?o?one, "molekularne"
7. plus regu?y ich rozpoznawania i ??czenia s? "semantycznie interpretowalne".

Semantyczna interpretowalno?? - w?asno?? ca?ego systemu.
Transformacje symboli da si? roz?o?y? na regu?y najprostsze (Fodor - "dekompozycyjno??").
Z?o?one regu?y powstaj? z najprostszych (Fodor - "kompozycyjno??").
Jedynie takie systemy s? semantycznie interpretowalne i "symboliczne".
Kombinatoryczna produktywno?? oznacza zdolno?? do tworzenia niesko?czenie wielu kombinacji elementów.

?a?cuchy symboli tworz? my?li, nastawienia.
Niezale?no?? od implementacji, autonomiczno?? poziomu symbolicznego.
Inne poziomy organizacji wida? tylko jako skutek b??dów w dzia?aniu (wynik uszkodze? mózgu lub b??dów programu).

Co to jest inteligencja?
IQ - kiepski wska?nik; teoria Gardnera - przynajmniej 7 ró?nych cech.
W sztucznej inteligencji: inteligencja to umiej?tno?? rozwi?zywania zada? efektywnie niealgorytmizowalnych.
Inteligencja: zdolno?? do wykorzystania wiedzy. Rola procesów poszukiwania rozwi?za? w przestrzeniach ró?nych mo?liwo?ci.
Rola reprezenatacji wiedzy.

Nieporozumienie: komputery przeszukuj? wszystkie mo?liwo?ci, ludzie dokonuj? ?wiadomych wyborów.
Komputer rozwa?a miliony wariantów a szachista tylko kilka.
Ró?ne ograniczenia konstrukcjyjne mózgów i komputerów.
Szybko?? - posiadana wiedza, razem daj? kompetencj?.

Cz?owiek - pami?? i szybko?? dzia?ania mózgu nadal 10.000 wieksze od komputerów.
Brak obszernych baz wiedzy, porównywalnych z podstawow? wiedz? ka?dego cz?owieka.
Pami??: uaktywnia jednocze?nie tysi?ce z?o?onych reprezentacji sytuacji.
Neurokomputery - bli?sze dzia?aniu mózgu.
Wiedza eksperta: 10-100 tysi?cy specjalistycznych regu?, p?ytkie lub proceduralne rozumowanie.
Zdrowy rozs?dek: miliony regu?.
Baza wiedzy systemu CYC przekracza milion regu?.

Hitech (program szachowy): 175.000 poz/sek i 10 regu?, si?a 1900 punktów.
100 regu? - si?a 2360 punktów.
Deep Blue - powy?ej 2800 punktów, wystarczy by wygra? z mistrzem ?wiata.
Perspektywy - za 1000 dolarów wi?cej ni? mózg!

Funkcjonalizm: technologia to sprawa drugorz?dna.
Neurobiologia i elektronika - inne umys?y, oba typy intencjonalne.
Warianty filozofii kognitywnych

Psychofunkcjonalizm: Jerry Fodor "The language of thought" (1975), "Psychosemantyka" (1987).
Stany psychologiczne to stany mózgu rozumiane jak stany obliczeniowe, realizowane przez stany fizyczne.
Model uniwersalnego komputera: maszyna Turinga.
Maszyny równowa?ne gdy ko?cowe stany obliczeniowe s? identyczne.
Realizacja fizyczna sposobu oblicze? jest niewa?na.
Poziom funkcjonalny: komputery "wierz?", ?e 2+2=4.
Poziom stanów neurofizjologicznych s?abo wp?ywa na nasze wierzenia.
Te same stany psychiczne - ró?ne stany mózgu.

Teoria identyczno?ci stanów centralnych (central state identity theory): stany umys?owe = stany neurofizjologiczne.
Z funkcjonalizmu wynika, ?e tylko ludzie o normalnych mózgach mog? mie? umys?y.
Stany psychologiczne zale?? od relacji pomi?dzy stanami sprz?towymi, ale nie s? z nimi to?same.
Stany umys?u daj? si? charakteryzowa? przez zale?no?ci typu bodziec-reakcja.
Teoria typów: typ stanu psychologicznego odpowiada typowi stanu fizycznego.

Indywidualizm: przekonania i s?dy = wewn?trznymi stanami przetwarzania informacji.
Naturalistyczny indywidualizm (Pylyshyn 1980): dzia?anie w ?rodowisku pozwala przypisa? znacznie semantyczne stanom informacyjnym.

Metodologiczny solipsyzm (Fodor 1980): tworz?c teori? umys?u istnienie ?wiata zewn?trznego mo?na pomin??.
Do ?wiata zewn?trznego dost?p mamy tylko przez wiedz? i przekonania.
Jednak przekonania to wynik oddzia?ywa? ze ?rodowiskiem.

Problem jako?ci wra?e?, "qualia" (?ac. "qualis", jakiego rodzaju).
Smak czekolady, zachód S?o?ca, czy s? to wra?enia niedost?pne sztucznym umys?om?
Przekonania to relacje, qualia to w?asno?ci wewn?trzne umys?u, nieobserwowalne.
Funkcjonalnie identyczne stany mog? si? ró?ni? jako?ciami wra?e?.
Czy nie istniej? ró?nice niefunkcjonalne stanów umys?owych, w których wyst?puj? jako?ci, i stanów ich pozbawionych? Jak to okre?li??


2.8.4. Chi?ski pokój

Rozwi?zanie problemu cia?a i umys?u - umys?, tak jak algorytm, jest niematerialny.
Czy nie jest to rodzaj dualizmu? Umys? mo?na umie?ci? w dostatecznie z?o?onym sprz?cie.
My?lenie = przetwarzanie informacji = manipulacja symbolami.
Czy mo?na stworzy? "dostatecznie z?o?ony" substrat w krzemie?
Problem z aproksymacj? stanów sprzetowych w przypadku mózgu jest powa?ny!
Ro?ne mózgi tworz? ró?ne umys?y, zarówno sztuczne jak i naturalne. Bez definicji umys?u nie wiemy, o czym mówimy!

Czy program mo?e rozwin?? prawdziw? intencjonalno???
John Searle (1980), eksperyment my?lowy, argument przeciwko mo?liwo?ci rozumienia przez maszyn? oparta na dyskretnych symbolach.
Searl rozró?ni? s?ab? i mocn? wersj? programu bada? AI.
Silne AI: odpowiednio zaprogramowany komputer my?li, ma stany poznawcze, umys?.

Przypisywanie maszynom rozumienia, intencji, odczuwania to metafora j?zykowa (ale Lakoff: wszystko jest metafor?).
Opis formalny, syntaktyczny, prowadzi do impotencji semantycznej.

Program prowadz?cy dialog po chi?sku, spe?niaj?cy test Turinga (Kloch 1969).
Czy taki program rozumie j?zyk chi?ski?
"Rozumie?" - intuicyjnie, np. rozumie? opowiadania po angielsku, polsku czy chi?sku.

Jeste?my zamkni?ci w pokoju wype?nionym koszami z napisami w j?zyku chi?skim.
Nie znamy chi?skiego, mamy szczegó?ow? instrukcj? post?powania z regu?ami, manipulujemy symbolami rozpoznaj?c kszta?ty.
Przez okienko dostajemy pytania w pisemnej formie.
Analizujemy symbole i pos?uguj?c si? regu?ami zestawiamy odpowiedzi.
Chi?czycy widz? w nich sens i my?l?, ?e w ?rodku kto? rozumie pytania.
Wiadomo?ci po polsku rozumiemy i udzielamy dobrych odpowiedzi.

Wykonywanie formalnego programu nie wystarczy nam do zrozumienia.
Maszyna wykonuj?ca program te? nie rozumie.
Syntaktyka nie wystarcza do semantyki.
Rozumienie znaczenia symboli przez cz?owieka i programy jest ca?kiem odmienne.

Artyku? Searle'a w "Behavioral and Brain Sciences", w sumie 34 komentarze, artyku? w encyklopedii MIT.
Sk?d mog?oby si? pojawi? rozumienie w systemie formalnym?

1. "Odpowied? systemowa": osoba + pokój = system, rozumie jako ca?o??.
Searle: osoba ma regu?y i symbole w pami?ci, a i tak nie rozumie.
Je?li zrozumienia = korelacja danych, to ?o??dek czy w?troba "poznaj?" tak jak komputerowe programy.
Panpsychizm - wszystko rozumie, ma przekonania, umys? jest wsz?dzie.

2. Robot poruszaj?cy si? po ?wiecie.
Searl: obserwator w g?owie robota.

3. Symulacja dzia?ania mózgu na poziomie neuronów i synaps.
Searle: nie wystarczy, konieczna symulacja "mocy b?d?cych przyczyn? powstania stanów umys?owych".
Demon kontroluj?cy neurony nadal nie rozumie.

Chi?ska "sala gimnastyczna" - pe?na demonów pobudzajacych sztuczne neurony.
Sztuczne systemy neuronowe mo?na w idealny sposób symulowa? za pomoc? zwyk?ego komputera, wi?c nie wnosz? nic nowego.
Zespó? ludzi nadal nie rozumie j?zyka chi?skiego.
Organizacja przetwarzania informacji wzorowana na dzia?aniu ludzkiego mózg nie gwarantuje intencjonalno?ci systemu.

Wnioski Searla: Test Turinga trzeba odrzuci?!
Podstawy kognitywistyki s? b?edne, dualistyczne.
Prawdziwe s? nast?puj?ce przes?anki:

A1. Mózgi s? przyczyn? umys?ów
A2. Syntaktyka nie wystarcza do semantyki
A3. Program komputerowy ca?kowicie okre?la syntaktyka (a intencje programisty?)
A4. Umys?y zawieraj? tre?ci semantyczne (psychiczne)
A5. Umys?y s? przyczyn? zachowania

St?d wyp?ywaj? nast?puj?ce wnioski:

W1. Programy nie wystarczaj? do powstania umys?u.
W2. Czynno?ci mózgu ograniczone do realizowania programów komputerowych nie wystarczaj? do powstania umys?u.
W3. Przyczyna powstania umys?u musi mie? porównywaln? moc oddzia?ywania przyczynowego z mo?liwo?ciami mózgu.
W4. Robot i program komputerowy nie mo?e mie? stanów umys?owych porównywalnych z ludzkimi. Stany umys?owe s? zjawiskiem biologicznym.
W5. Mózgi s? przyczyn? zachowania.

Procesy fizyczne opisa? mo?na tak, jakby przetwarza?y informacje (np. zasada minimalnego dzia?ania).
"Przetwarzanie informacji":" w komputerach - tylko metaforycznie, chocia? przyczyny i skutki takie same jak w mózgach.
Mózg "jakby przetwarza? informacj?", ale naprawd? s? tylko stany neurofizjologiczne.
Pomi?dzy stanami mózgu a stanami psychicznymi nie ma ?adnego po?redniego poziomu.

Krytyka Chi?skiego pokoju

P?odny punkt widzenia - wiele poziomów po?rednich.
Opis umys?u wymaga odpowiednich aproksymacji.
Argument Searla podobny do "ducha w maszynie" Ryle'a.
Jak cz?owiek móg?by wykona? prac? tak z?o?on??
Jak móg?by zapami?ta? miliony regu??
Pylyshin: zamieniaj?c kolejno neurony prawdziwego mózgu na krzemowe elementy stopniwo zniknie rozumienia, zostanie przetwarzanie symboli?
Krzemowa kora wzrokowa spowoduje brak zrozumienia wra?e? wzrokowych?
Tajemnicze "moce przyczynowe" mózgu - bezp?odna koncepcja.

Eksperyment z chi?skim pokojem kontrolowany pokr?t?ami zmieniaj?cymi (Hofstadter i Dennett, "Oko umys?u" 1981):

1. substrat fizyczny: neurony i cz?steczki chemiczne, papier i symbole, struktury danych i procedury
2. poziom dok?adno?ci symulacji: od zdarze? na poziomie atomowym, przez poziom komórkowy do reprezentacji procesów, koncepcji i symboli
3. zoom, czyli powi?kszenia procesów: od miniaturowego pokoju mieszcz?cego si? w czaszce do powi?kszonych cz?steczek chemicznych makroskopowej wielko?ci
4. rozmiary demonów kontroluj?cych procesy
5. szybko?? pracy demonów.

Ustawienia Searle'a:
1) papier i symbole 2) koncepcje, idee 3) rozmiary pokoju 4) demon wielko?ci cz?owieka 5) powolne operacje.

Neurony w mózgu kobiety nie dzia?aj? i nie ma ona umys?u.
Ma?y szybki demon dostarcza odpowiednie impulsy we w?a?ciwym czasie, przywracaj?c jej umys?.
Czy umys? ten jest prawdziwy, czy tylko symulowany? Searle - prawdziwy.
Searle zak?ada z góry, ?e wszystko, co nie jest biologicznej natury, nie wystarcza do osi?gni?cia intencjonalno?ci.
Powi?kszmy rozmiary: mózg wielko?ci Ziemi, demon cz?owieka, jedna operacja na sekund? - czy nadal umys? wydaje si? prawdziwy?

Searle nie rozumie idei reprezentacji.
W mózgu nie wida? obrazów, d?wi?ków, kolorów, prze?y? psychicznych.
Informacja wymaga architektury aktualizuj?cej, np. elektroniki DVD, membrany g?o?nika.
Symbole w mózgu = specyficzne wibracje sieci neuronów.
"Moc przyczynowa neuronów" nie ma nic do rzeczy.
Informacja nie zast?pi fizycznego substratu doznaj?cego odpowiednich stanów.

Dzia?anie systemów ucz?cych si? nie jest okre?lone przez syntaktyk? programu.
Obserwator w mózgu cz?owieka nie dostrze?e my?li.
Jakie s? warunki powstania zrozumienia w naszym umy?le?
Rezonans, empatia, zestrojenie mózgów pozwala wspó?-czu?, zrozumie?.
Demon-obserwator nie wystarczy, musi miec podobny mózg, dzia?a? z odpowiedni? szybko?ci? i by? zestrojony z obserwowanym mózgiem.
Program jest warunkiem koniecznym, ale nie wystarcza do wywo?ania intencjonalno?ci.
Program + odpowiednia architektura ca?ego systemu wystarcza.

"Intencje" termostatu - prymitywne, nie przypominaj? naszych.
Searle: intencje termostatu to absurdalny pogl?du, prowadzi do panpsychizmu.
Stopie? komplikacji wra?e? u normalnie rozwini?tego cz?owieka najwi?kszy.
Ci?g?o?? i skoki ewolucyjne aparatu poznawczego.
Nieci?g?o?ci: pojawienie si? autorefleksji, odró?nienie siebie od otoczenia.
Ci?g?o?? rozwoju umys?u: niedorozwój mózgu, mózgi zwierz?t, urz?dzenia sztuczne.
Osi?gni?cie intencjonalno?ci: subtelne wibracje fizycznego substratu odzwierciedlaj?ce tre?ci mentalne.

Test Turinga pozwala odrzuci? programy, które nie mo?na uzna? za umys?.
Eksperyment z chi?skim pokojem zawsze prowadzi do negatywnego wyniku, równie? dla mózgów!
Searle: wiemy sk?din?d, i? mózgi "rozumiej?" i "mózgi s? przyczyn? umys?ów".
W jaki sposób mo?emy si? o tym przekona?? Przez test Turinga.
Chi?ski pokój to nie test, tylko demagogicznie ustalony punkt widzenia!

Poczucie "rozumiem" i operacyjne rozumienie to dwie ró?ne sprawy.
Poczucie rozumiem to sygna? mózgu "O.K. mog? s?ucha? dalej, przetrawi?em porcj? informacji", takie jest jego sens ewolucyjny.
Brak poczucia "rozumiem" nie oznacza braku rozumienia - pytany na egzaminie mog? odpowiada? sensownie, chocia? boj? si?, ?e jeszcze nie rozumiem.
Odwrotnie, poczucie rozumienia nie oznacza, ?e si? rozumie (np. wszechwiedza po za?yciu ?rodków halucynogennych).
Searle chce mie? samo poczucie rozumienia, ale to nie wystarcza, nie mo?na pomija? sprawdzenia czy si? rozumie.

Czy "Chi?ski pokój" to system, który mo?e mie? wewn?trze poczucie rozumienia?
Przypomina on raczej zombi, nie ma w nim bowiem miejsca na ocen? w?asnych stanów wewn?trznych, nie potrafi sobie wmówi?, ?e co? wie.
Nie ma tu nawet pami?ci epizodycznej, która pozwala na budowanie modelu sytuacji na podstawie dialogu.
Nie jest to dobra aproksymacja systemu poznawczego.

Trudno b?dzie przybli?y? dzia?anie mózgu za pomoc? regu? - jest to problem aproksymacji mózgopodobnych struktur przez struktury sztuczne.
Ro?na struktura sprz?tu => ró?na struktura umys?u.
Zrozumienie mo?liwe tylko dla podobnego sprz?tu, potrzebna jest empatia, rezonans.

2.8.5. Nieobliczalno??

Roger Penrose, fizyk matematyczny z Oxfordu, "Nowy umys? cesarza" i "Cie? umys?u".
Popularno?? ksia?ki te zawdzi?czaj? ch?ci chowania g?owy w piasek (Turing).
Argument przeciwko "silnemu AI" oparty na twierdzeniu Gödla i Churcha-Turinga.
Filozof z Oxfordu, J.R. Lucas (1961), rozwa?a? ten argument, ale jest to rozumowanie b??dne.
250 stron dyskusji tw. Gödla by dowie??, ?e:

?aden program komputerowy, dzia?aj?cy w oparciu o zbiór niesprzecznych wewn?trznie aksjomatów, nie mo?e rozstrzygn?? pewnych pyta?, z którymi cz?owiek sobie poradzi.

Penrose s?dzi, ?e cz?owiek sobie radzi dzi?ki ?wiadomo?ci.
Nie potrafi jednak sprecyzowa?, o co mu chodzi: "?wiadomo?? bez w?tpienia jest czym?".

Penrose wyró?ni? 4 podej?cia do ?wiadomo?ci:

A) My?lenie jest po prostu obliczaniem a ?wiadomo?? wynikiem tych oblicze?.

B) ?wiadomo?? jest cech? fizycznych w?a?ciwo?ci mózgu. Mo?na je symulowa? rachunkowo ale samo obliczanie nie powoduje ?wiadomo?ci.

C) Fizyczne dzia?ania mózgu wywo?uj?ce ?wiadomo?? nie mog? by? symulowane rachunkowo.

D) ?wiadomo?ci nie mo?na wyja?ni? metodami naukowymi.

Wg. Penrose'a A) jest zgod? na test Turinga do oceny inteligencji i ?wiadomo?ci, ale sam Turing o ?wiadomo?ci celowo nic nie mówi?!
Krytyka AI przez Penrose'a nie wykazuje zrozumienia przedmiotu: wy?miewa si? z pomys?u "algorytmu umys?u", bo gdyby zapisa? algorytm w ksi??ce, to by umys? nie powsta? ...
Autor walczy z wiatrakami, poszukuj?c umys?u abstrakcyjnego, a nie realnego: nikt nie s?dzie, ?e sam algorytm to umys?.
Nie wynikaj? z tego ?adne ograniczenia dla mo?liwo?ci maszyn: twierdzenie, ?e nie da si? zrobi? dobrego programu do gry w go, nie jest niczym poparte.
Na go nie ma takich pieni?dzy jak na szachy; go jest trudne, bo trzeba skupi? si? na wzorcach a nie procesach szukania, ale ?wiadomo?? nic do tego nie ma.

Penrose pomija ca?kowicie mo?liwo?ci B) i D), a skupia si? na C).
Ma to wynika? z twierdzenia Gödla i Turinga, gdy? ?wiadomo?ci (to znaczy czego?) nie mo?na symulowa?.
Maszyny nie mog? rozwi?za? zagadnie? niealgorytmicznych, a ludzie mog?, dzi?ki "?wiadomemu my?leniu".

Po?owa ksi??ki to poszukiwanie ezoterycznej fizyki jakoby koniecznej do zrozumienia umys?u.
Trudno?ci w zrozumieniu ?wiadomo?ci prowadz? Penrose'a do ezoterycznej fizyki procesów nieobliczalnych.
Grawitacja kwantowa i p?tle czasowe maj? by? pomocne w zrozumieniu umys?u?
Procesy kwantowe w mikrotubulach, strukturach cytoszkieletalnych znajduj?cych si? we wszystkich komórkach, mia?yby gra? rol? w powstawaniu ?wiadomo?ci? Niestety czasy ich koherencji s? niezwykle krótkie.
W ksi??ce nie ma natomiast prawie nic o neuronach, neuropsychologii czy konkretnych funkcjach poznawczych, które nale?y wyja?ni?.
Zupe?ne manowce!

2.9. Suma sumarum

W dyskusjach o umy?le cz?sto brak jest rozró?nienia inteligencja - my?lenie - intencjonalno?? - ?wiadomo??.
Test Turinga dotyczy my?lenia, a nie intencjonalno?ci; chi?ski pokój dotyczy "rozumienia".
Czy do my?lenia konieczna jest ?wiadomo??? Tak si? nam wydaje, ale psycholodzy s? przeciwnego zdania (M. Velmans, Is human information processing conscious? BBS 1991).
Obserwujemy ci?g?y post?p w symulacjach dzia?a? inteligentnych.
Brak jest konkretnych ogranicze? mo?liwo?ci komputerów.

Searle: stany mózgu s? fizycznymi stanami, nie tylko przep?ywem informacji.
Symulacja wibracji membrany nie czyni z programu membrany, symulacja atmosfery nie da burzy.
Mapa to nie terytorium! Symulacja to nie rzeczywisto??.

Zasada "niezmienniczo?ci organizacyjnej" jest podstaw? wielu rozumowa? w filozofii umys?u:

Funkcje systemu nie ulegn? zmianie je?li tylko wzorce oddzia?ywa? determinuj?ce sposób przetwarzania informacji przez system nie ulegn? zmianie.

Jednak wra?enia przypisa? mo?na aktualizuj?cym informacj? mózgom (sprz?towi), a nie abstrakcyjnym procesom przetwarzania informacji.

Cz?ste eksperymenty my?lowe oparte na funkcjonali?mie: zamie?my cz??? mózgu stopniowo na kawa?ki krzemu.
Je?li elementy sztuczne odpowiednio oddzia?ywuj? z biologicznymi to niczego nie zauwa?ymy.
Jednak identyczno?? funkcjonalna na poziomie moleku? => identyczno?? atomów.
Bia?kowe receptory neuronów i neurotransmitery nie da zast?pi? si? krzemem.
Identyczno?? funkcji => identyczno?? budowy fizycznej!
Funkcjonalizm jest s?uszny tylko w sensie przybli?onym, a nie absolutnym.

W???ciwe pytanie to: czy aproksymacja dzia?ania umys?u prowadzi tylko do sztucznej inteligencji, czy do czego?, co sk?onni byliby?my nazwa? sztucznym umys?em?
Kwestia umowna, zale?y co uznamy za umys?, na ile ma by? podobny do ludzkiego.
Na ile podobne do mojego s? inne umys?y?
Projekcja naszej w?asnej intencjonalno?ci spowoduje, ?e wi?kszo?? ludzi zaakceptuje robota jako partnera.
Symulacja wra?e? to kwestia doskona?o?ci technicznej.
Z?a aproksymacja => karykatura; np. d?wi?k 100 kb/s doskona?y, ale 10 kb/s marny, obraz z du?? kompresj?.

Przekonanie, ?e kolory i d?wi?ki s? realnymi wra?eniami, mo?e powsta? w systemie sztucznym opartym na mózgopodobnych zasadach.
Wra?enia to realne stany mózgopodobnej materii.
Rozgraniczenie "prawdziwej" i "sztucznej" intencjonalno?ci nie da si? utrzyma?.

Teoria obliczalno?ci i rozwa?ania o mo?liwo?ciach komputerów opiera si? tylko na fizyce klasycznej.
Ka?dy system fizyczny to program obliczeniowy, a wynik eksperymentu to wynik oblicze?.
Przyk?ady: zasada minimalnego dzia?ania dla uk?adów mechanicznych, obliczenia wykonywane za pomoc? DNA.
Ewolucja w czasie uk?adu fizycznego to proces obliczeniowy.
Komputer kwantowy mo?e symulowa? ewolucj? prawdziwych systemów, komputer klasyczny tylko w przybli?eniu.
Zagadnienia "obliczalne" to te, które s? zgodne z prawami fizyki.

Wniosek: filozofia kognitywna powinna opiera? si? na fizyce, a nie automatach Turinga.
Klasyczne obliczenia daj? dobre przybli?enia na poziomie w?asno?ci bioelektrycznych neuronów.
Zbie?no?? modeli neuronów w ?rodowisku biochemicznym do w?a?ciwego zachowania jest w?tpliwa.
Nie dostrzegamy ruchu godzinnych wskazówek zegara, ale zmiany si? kumuluj?.
Wymiana cz??ci mózgu na krzemow? zmieni sposób odczuwania wra?e?.

Dopiero informacja + system aktualizuj?cy informacj? mo?e by? modelem umys?u!
Pora powi?za? filozofi? umys?u z neurobiologi?.

Nast?pny wyk?ad | Jak dzia?a mózg - spis tre?ci

Wyszukiwarka

Podobne podstrony:
elementy filozofii kognitywnej
Filozofia religii cwiczenia dokladne notatki z zajec (2012 2013) [od Agi]
Biedrzyński D , Pojęcie harmonii w filozofii Empedoklesa
Nahua filozofia
filozofia grecka
wykłady Filozofia społeczna
Poglądy starożytnych filozofów

więcej podobnych podstron