26 Podstawy filozoficzne sztucznej inteligencji


POLITECHNIKA WARSZAWSKA
MEL
MEL
WYDZIAA MECHANICZNY ENERGETYKI I LOTNICTWA
WPROWADZENIE
DO SZTUCZNEJ INTELIGENCJI
NS 586
Dr in\. Franciszek Dul
© F.A. Dul 2007
26. PODSTAWY FILOZOFICZNE
SZTUCZNEJ INTELIGENCJI
SZTUCZNEJ INTELIGENCJI
© F.A. Dul 2007
Podstawy filozoficzne sztucznej inteligencji
W tym rozdziale będziemy rozwa\ać
co to znaczy  myśleć ; czy obiekty
stworzone przez człowieka myśleć
stworzone przez człowieka myśleć
mogÄ… oraz czy powinny kiedykolwiek.
© F.A. Dul 2007
26. Wprowadzenie
Filozofowie próbują od dawna rozwiązać problemy które
dotyczÄ… tak\e sztucznej inteligencji:
Jak działa umysł?
Czy maszyny mogą działać inteligentnie, tak jak ludzie?
Je\eli tak, to czy mają umysł?
Jakie sÄ… implikacje etyczne sztucznej inteligencji?
Filozofowie u\ywają pojęcia słabej AI dla określenia
hipotezy mówiącej, \e maszyny mogą zachowywać się
hipotezy mówiącej, \e maszyny mogą zachowywać się
inteligentnie.
Pojęcie silnej AI określa hipotezę mówiącą, \e maszyny
mogą myśleć, a nie tylko symulować myślenie.
Badania AI opierają się głównie na hipotezie słabej AI.
W większości przypadków nie jest wa\ne czy system AI
symuluje inteligencję, czy jest rzeczywiście inteligentny.
Jednak wszyscy powinni brać pod uwagę implikacje
etyczne badań nad sztuczną inteligencją.
© F.A. Dul 2007
26. Wprowadzenie
Plan rozdziału
" Słaba Sztuczna Inteligencja: Czy maszyny mogą działać
inteligentnie?
" Silna Sztuczna Inteligencja: Czy maszyny mogą myśleć?
" Etyka i ryzyko rozwoju sztucznej inteligencji.
© F.A. Dul 2007
26.1. SÅ‚aba Sztuczna Inteligencja: Czy maszyny
mogą działać inteligentnie?
Niektórzy badacze próbują dowieść, \e sztuczna inteligencja
nie jest mo\liwa, a próby jej wykreowania biorą się z  kultu
obliczeniowości czyli wiary, \e wszystkie działania
inteligentne sÄ… w swej istocie procesami obliczeniowymi.
Mo\liwość stworzenia sztucznej inteligencji zale\y jednak
od tego, co się pod tym pojęciem rozumie.
Je\eli uzna siÄ™, \e sztuczna inteligencja to poszukiwanie
Je\eli uzna siÄ™, \e sztuczna inteligencja to poszukiwanie
najlepszego programu dla agenta o danej strukturze,
to stworzenie sztucznej inteligencji jest mo\liwe z definicji.
Dla ka\dej architektury cyfrowej składającej się z k bitów
pamięci istnieje dokładnie 2k programów dla agenta.
Nale\y tylko znalezć najlepszy, np. sprawdzając wszystkie.
Definicja informatyczna sztucznej inteligencji nie rozstrzyga
jednak fundamentalnej kwestii
 Czy maszyna mo\e myśleć?
© F.A. Dul 2007
26.1. Słaba Sztuczna Inteligencja: czy maszyny mogą działać inteligentnie?
Pytanie  Czy maszyna mo\e myśleć? jest jednak zle
postawione, przynajmniej w kontekście sztucznej inteligencji.
Okazuje się bowiem, \e rozwój sztucznej inteligencji
rozumianej jako dziedzina nauk technicznych nie zale\y
od odpowiedzi na to pytanie.
Alan Turing w słynnej pracy  Computing Machinery and
Intelligence (1950) zaproponował aby zamiast pytać czy
maszyna mo\e myśleć, sprawdzić czy mo\e przejść test
inteligentnego zachowania, zwany obecnie Testem Turinga.
inteligentnego zachowania, zwany obecnie Testem Turinga.
Turing przewidywał, \e do roku 2000 komputery spełnią
kryteria testu przekonanie 30% rozmówców w ciągu 5 minut
konwersacji z maszyną \e jest ona człowiekiem.
Kryteria testu Turinga nie zostały dotychczas spełnione przez
\adnÄ… maszynÄ™.
Test Turinga ma obecnie znaczenie historyczne i nie jest
traktowany jako kryterium wpływające na rozwój sztucznej
inteligencji.
© F.A. Dul 2007
26.1. Słaba Sztuczna Inteligencja: czy maszyny mogą działać inteligentnie?
Argumenty o niemo\ności
Turing sformułował szereg wątpliwości dotyczących mo\liwości
skonstruowania inteligentnych maszyn.
Argumenty Turinga o niemo\ności:  maszyna nigdy nie będzie :
" miła, zaradna, pomysłowa, przyjazna, piękna (?),
" wykazywać inicjatywy, mieć poczucia humoru,
" odró\niać dobra od zła,
" popełniać błędów (?),
" mogła zakochać się,
" mogła zakochać się,
" mogła rozkochać kogoś w sobie (?),
" smakować truskawek i lodów,
" rozkoszować się muzyką lub literaturą,
" sama uczyć się z doświadczeń,
" umieć prawidłowo dobierać słów,
" obiektem własnych myśli,
" przejawiać tak ró\nych zachowań jak człowiek,
" umiała zrobić coś rzeczywiście nowego, ...
© F.A. Dul 2007
26.1. Słaba Sztuczna Inteligencja: czy maszyny mogą działać inteligentnie?
Współczesne maszyny robią jednak wiele rzeczy, które dawniej
były wyłącznie domeną człowieka:
" wygrywajÄ… w szachy z arcymistrzami,
" grają (i wygrywają) równie\ w wiele innych gier,
" prowadzą i nadzorują monta\ produktów w fabrykach,
" sprawdzają pisownię dokumentów w edytorach,
" sterujÄ… samochodami, samolotami, statkami kosmicznymi,
" diagnozujÄ… choroby,
" dokonują odkryć w matematyce, biologii, astronomii, chemii.
Wszystkie te działania wymagają najwy\szej sprawności
Wszystkie te działania wymagają najwy\szej sprawności
lub kompetencji eksperta.
Maszyny mogą nie tylko wykonywać zadania o charakterze
kombinatorycznym (jak gra w szachy), ale równie\ takie które
wymagają zdolności uczenia się (systemy ekspertowe).
Chocia\ maszyny robią wiele rzeczy lepiej ni\ człowiek,
to jednak nie rozumieją sensu wykonywanych działań,
nie u\ywają więc inteligencji podczas ich wykonywania.
Wynika stąd, \e potoczne przekonanie i\ jakieś działanie
wymaga inteligencji mo\e być błędne.
© F.A. Dul 2007
26.1. Słaba Sztuczna Inteligencja: czy maszyny mogą działać inteligentnie?
Wnioski
Pytanie  Czy maszyna mo\e myśleć? nie jest
poprawnie postawione w kontekście badań nad
sztucznÄ… inteligencjÄ….
Chocia\ działania maszyn  inteligentnych cechują
się wysoką sprawnością i znacznymi kompetencjami,
to jednak nie mo\na uznać i\ są inteligentne.
to jednak nie mo\na uznać i\ są inteligentne.
Potoczne przekonanie o tym, \e do wykonania
pewnych działań konieczna jest inteligencja jest
często błędne.
© F.A. Dul 2007
26.1. Słaba Sztuczna Inteligencja: czy maszyny mogą działać inteligentnie?
Obiekcje matematyczne
Twierdznie Gödla (1931) mówi, \e dla ka\dego systemu
aksjomatycznego F wyposa\onego w arytmetykÄ™ mo\liwe jest
skonstruowanie zdania G(F) " F które:
" jest prawdziwe je\eli system F jest spójny,
" nie mo\e być dowiedzione w ramach systemu F.
Opierając się na tym twierdzeniu Lucas (1961) wyraził pogląd,
\e maszyny inteligentne, będąc systemami matematycznymi,
nie mogą  same się udowodnić , podczas gdy człowiek jako
nie mogą  same się udowodnić , podczas gdy człowiek jako
byt wy\szy mentalnie nie podlega temu ograniczeniu.
Wprawdzie maszyna Turinga jest nieskończonym systemem
formalnym, to jednak rzeczywiste systemy AI  jak dotÄ…d 
takimi systemami nie sÄ….
Nie jest te\ oczywiste, \e człowiek jako system nie podlega
twierdzeniu Gödla.
Człowiek jest niekonsekwentny, omylny, a jednak inteligentny.
Zatem ograniczenia formalne  nawet fundamentalne 
nie muszą być przeszkodą w osiągnięciu inteligencji.
© F.A. Dul 2007
26.1. Słaba Sztuczna Inteligencja: czy maszyny mogą działać inteligentnie?
Argument o nieformalności
Najbardziej stanowczą krytykę sztucznej inteligencji sformuło-
wał Turing w postaci  argumentu o nieformalizowalności
zachowania .
Zachowanie człowieka jest tak zło\one, \e nie mo\e być
opisane zbiorem prostych zasad.
Poniewa\ maszyna wykonuje tylko działania wynikające
z przyjętych zasad, to nie mo\e wykazywać zachowań
inteligentnych.
Jest to tzw. problem kwalifikacji w sztucznej inteligencji.
Jest to tzw. problem kwalifikacji w sztucznej inteligencji.
Głównymi rzecznikami tego argumentu są: Hubert Dreyfus,
 What Computers Can t Do (1972) oraz  What Computers
Still Can t Do (1992) oraz jego brat Stuart Dreyfus,  Mind
Over Machine (1986).
Poglądem krytykowanym przez Dreyfusów jest tzw. podejście
GOFAI ( Good Old-Fashioned AI ), wyra\one następująco:
Ka\de zachowanie inteligentne mo\e być zrealizowane
poprzez wnioskowanie logicznie z faktów oraz reguł
opisujÄ…cych danÄ… dziedzinÄ™.
© F.A. Dul 2007
26.1. Słaba Sztuczna Inteligencja: czy maszyny mogą działać inteligentnie?
Krytyka Dreyfusów sztucznej inteligencji dotyczyła właśnie
podejścia GOFAI, nie zaś komputerów jako obiektów sztucznej
inteligencji w ogóle.
Pogląd Dreyfusów odnośnie ró\nicy pomiędzy działaniem
inteligentnym człowieka a (nieinteligentnym) maszyny mo\na
opisać następująco
" Komputer grający w szachy wyznacza mo\liwe posunięcia
poprzez wielokrokową analizę ruchów wspieraną przykładami
partii rozegranych w przeszłości, bez anga\owania do tych
działań jakiejkolwiek inteligencji.
działań jakiejkolwiek inteligencji.
" Człowiek (arcymistrz) patrząc na szachownicę widzi potrzebę
wykonania konkretnego ruchu, bez konieczności
wielokrokowej analizy posunięć - to jest najwy\sza forma
inteligencji.
Innymi słowy: procesy myślowe ekspertów (arcymistrzów)
przebiegają na takim poziomie świadomości, który nie
poddaje siÄ™ nawet samoobserwacji (introspekcji), nie mo\e
więc być analizowany i wykorzystany do budowy maszyn
inteligentnych.
© F.A. Dul 2007
26.1. Słaba Sztuczna Inteligencja: czy maszyny mogą działać inteligentnie?
Mimo sceptycyzmu bracia Dreyfus zaproponowali jednak
(w 1986) pięciostopniowy proces przyswajania specjalistycznej
wiedzy i przetwarzania opartego na regułach logicznych (typu
GOFAI) zakończonego wyborem właściwych działań.
Odnotowali przy tym następujące problemy:
1. Właściwe uogólnianie przykładów wymaga zgromadzenia
przez agenta wiedzy wstępnej.
2. Sieci neuronowe uczone z nadzorowaniem wymagajÄ…
właściwego określenia wejść i wyjść, co mo\e zrobić tylko
właściwego określenia wejść i wyjść, co mo\e zrobić tylko
człowiek.
człowiek.
3. Algorytmy uczÄ…ce nie sÄ… wystarczajÄ…co efektywne w
przypadku wielu własności, trudno jest te\ dołączać nowe.
4. Mózg potrafi łatwo skoncentrować uwagę na istotnym
obszarze otoczenia, w przeciwieństwie do agenta.
Wszystkie te problemy zostały ju\ rozwiązane, z mniejszym
lub większym powodzeniem.
Uwzględnianie krytyki Dreyfusów świadczy raczej o ciągłym
rozwoju sztucznej inteligencji, nie zaś o niemo\ności jej
© F.A. Dul 2007
stworzenia.
26.1. Słaba Sztuczna Inteligencja: czy maszyny mogą działać inteligentnie?
Wnioski
Pytania fundamentalne dotyczące mo\liwości
kreowania sztucznych bytów inteligentnych są
w przewa\ającej części zbyt abstrakcyjne aby mogły
mieć wpływ na praktyczną stronę AI.
Rozwa\ania filozoficzne wskazują na niemo\ność
sformułowania precyzyjnych kryteriów inteligencji.
Argumenty filozoficzne dotyczÄ…ce sztucznej
Argumenty filozoficzne dotyczÄ…ce sztucznej
inteligencji w większości przypadków nie prowadzą
do konkluzji praktycznych.
Rozwój sztucznej inteligencji w sferze praktycznej
jest w du\ym stopniu niezale\ny od wniosków
natury filozoficznej; ( psy szczekajÄ…, a karawana idzie
dalej ...)
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: Czy maszyny
mogą myśleć?
Wśród filozofów panuje zgoda co do tego, \e maszyna która
spełniła test Turinga nie myśli, lecz tylko symuluje myślenie.
Argument Turinga o świadomości: maszyna rzeczywiście
myśląca musi być świadoma swoich stanów myślowych
oraz działań, które wykonuje.
Inne kryteria związane z myśleniem:
" fenomenologia, maszyna myśląca musi odczuwać emocje,
" intencjonalność, maszyna myśląca musi wierzyć, pragnąć.
" intencjonalność, maszyna myśląca musi wierzyć, pragnąć.
Turing zakwestionował pytanie o świadomość maszyn tak, jak
zakwestionował pytanie  Czy maszyna mo\e myśleć?
Argumentacja Turinga dotyczyła niemo\ności stwierdzenia
świadomości z powodu nieobserwowalności wewnętrznych
stanów umysłu człowieka.
Zaproponował on aby przyjąć, \e maszyna ma świadomość
tak, jak przyjmuje siÄ™ na zasadzie powszechnej zgody,
\e ka\dy człowiek ma świadomość.
Turing stwierdził, \e akceptacja świadomości maszyny jest
mo\liwa, je\eli wyka\e siÄ™ ona inteligencjÄ….
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Turing stwierdził te\, \e problem świadomości maszyny jest
trudny do rozstrzygnięcia, ale w rzeczywistości ma niewielki
wpływ na rozwój sztucznej inteligencji.
Pomiędzy filozofami a praktykami AI istnieje ró\nica poglądów
na temat znaczenia problemu świadomości maszyn.
Filozofowie sÄ… \ywotnie zainteresowani tÄ… kwestiÄ…, podczas
gdy praktycy uwa\ają, \e nie ma ona wpływu na rozwój AI.
Z filozoficznego punktu widzenia problem jest wa\ny, gdy\
dotyczy relacji pomiędzy obiektami rzeczywistymi a sztucznymi.
Przykłady
1. Synteza sztucznego mocznika (1848) pokazała, \e nie ma
\adnej ró\nicy (fizycznej i chemicznej) pomiędzy mocznikiem
sztucznym a naturalnym. Mocznik sztuczny jest mocznikiem.
Dotyczy to te\ innych substancji.
2. Jednak sztucznego wina Chateau Latour nie uznaje siÄ™ za
wino Chateau Latour mimo, \e ma takie same własności, gdy\
nie powstało we właściwym miejscu i czasie.
3. Podobnie, kopia obrazu Picassa nie jest obrazem Picassa,
niezale\nie od tego, jak jest namalowana.
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Konkluzja: czasem wyznacznikiem sztuczności jest zachowanie
siÄ™ obiektu, ale czasami samo sztuczne pochodzenie decyduje
o takiej jego kwalifikacji.
Problem jest trudny: burza symulowana komputerowo nie
zmoczy programisty, ale nie jest oczywiste, czy symulacjÄ™
procesów myślowych mo\na traktować analogicznie.
Kwalifikacja procesów myślowych zale\y od przyjętej teorii.
Teoria funkcjonalizmu stwierdza, \e stan umysłu jest
dowolnym przejściowym związkiem przyczynowym pomiędzy
dowolnym przejściowym związkiem przyczynowym pomiędzy
wejściem a wyjściem.
Wynika stąd, \e ka\de dwa układy z izomorficznymi procesami
przyczynowymi mają takie same stany umysłu.
Teoria naturalizmu biologicznego stwierdza, \e stan umysłu
jest własnością wysokiego poziomu spowodowaną procesami
neurologicznymi zachodzÄ…cymi w neuronach, oraz \e jest to
własność samych neuronów.
Wynika stąd, \e stany umysłu nie mogą być symulowane
w komputerze, gdy\ nie ma on takich własności, jak neurony.
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Problem ciała i umysłu
Problem ciała i umysłu dotyczy związku stanów myślowych
ze stanami fizjologicznymi ciała (mózgu).
W teorii dualności Kartezjusz twierdził, \e ciało i dusza są
dwoma ró\nymi bytami.
Teoria monistyczna (materializm) twierdzi natomiast, \e
dusza nie istnieje, zatem stany umysłu są stanami mózgu -
 mózg jest przyczyną myślenia (John Searle).
Materializm boryka siÄ™ z problemem wolnej woli - czy obiekt
rządzony ścisłymi prawami fizyki mo\e mieć wolną wolę?
rządzony ścisłymi prawami fizyki mo\e mieć wolną wolę?
Wa\nym problemem jest świadomość - w jaki sposób obiekt
czuje, \e jest tym obiektem a nie jakimÅ› innym?
Stany umysłu nie zale\ą przy tym od zmian fizjologicznych:
zastąpienie pewnej liczby atomów mózgu (co mam miejsce
w ramach metabolizmu) nie spowoduje zmiany myślenia.
Szczególnym rodzajem stanu umysłu jest postawa
propozycjonalna nazywana tak\e stanem intencjonalnym.
SÄ… to stany w rodzaju: wiary, wiedzy, po\Ä…dania, strachu, itp.,
odnoszące się do świata zewnętrznego.
© F.A. Dul 2007
Pytanie: czy maszyny mogą mieć stany intencjonalne?
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Eksperyment myślowy  Mózg w słoiku
Eksperyment ten ma na celu ustalenie, czy stany umysłu
są jednoznacznie określone percepcją otoczenia.
W eksperymencie tym zakłada się, \e mózg został oddzielony
od ciała i umieszczony w zapewniającym mu egzystencję
pojemniku.
Świat zewnętrzny jest symulowany, bodzce przekazywane
są do mózgu, zaś działania generowane przez mózg
są realizowane w symulowanym świecie.
Okazuje się, \e zawartość stanów umysłu zale\y od punktu
Okazuje się, \e zawartość stanów umysłu zale\y od punktu
widzenia.
W kontekście wąskim, z wewnętrznego punktu widzenia,
stan umysłu jest jednoznacznie zdefiniowany przez kontakt
z otoczeniem niezale\nie od tego, czy otoczenie jest
rzeczywiste, czy symulowane.
W kontekście szerokim, z punktu widzenia zewnętrznego
obserwatora wszechwiedzącego, stan umysłu zale\y od
ró\nic w świecie zewnętrznym nawet wtedy, gdy mózg nie ma
mo\liwości obserwacji tych ró\nic poprzez dostępną mu
percepcjÄ™.
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Eksperyment myślowy  Proteza mózgu
Eksperyment ten ma na celu ustalenie, czy świadomość
zale\y od budowy i fizjologii mózgu.
W eksperymencie tym kolejne neurony są zastępowane
idealnymi protezami, po czym naturalne neurony sÄ…
wstawiane z powrotem w kolejności odwrotnej.
Pytania dotyczą świadomości:
" czy mózg zachowa świadomość niezale\nie od liczby
wstawionych protez?
" czy nie nastąpi rozejście się świadomości i zachowania
" czy nie nastąpi rozejście się świadomości i zachowania
zewnętrznego mózgu?
" czy proces ponownego wstawiania neuronów naturalnych
przywróci mózgowi świadomość pierwotną?
Zwolennicy funkcjonalizmu (Moravec) twierdzą, \e świadomość
pozostanie nie zmieniona w trakcie i po eksperymencie.
Zwolennicy naturalizmu biologicznego (Searle) uwa\ajÄ…,
\e świadomość zmieni się w trakcie eksperymentu, a nawet
mo\e zaniknąć całkowicie i nieodwracalnie.
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Analiza wyników eksperymentu prowadzi do następujących
wniosków:
" Utrata świadomości, gdyby miała nastąpić, musiałaby być
nagła, co jest mało prawdopodobne przy stopniowym
wymienianiu pojedynczych neuronów.
" Mózg zło\ony z neuronów elektronicznych zachowa zatem
świadomość, co prowadzi do dwóch mo\liwych konkluzji:
1. Mechanizm świadomości w mózgu działa tak\e
w komputerze - komputer zatem ma świadomość.
w komputerze - komputer zatem ma świadomość.
2. Zdarzenia mentalne związane ze świadomością
mózgu nie mają związku z jego zachowaniem
zewnętrznym; nie mogą więc pojawić się
w komputerze - komputer nie ma świadomości.
Mo\liwość druga redukuje jednak świadomość do roli
epifenomenalnej - czyli takiej w której nie zostawia ona
\adnych śladów swojego istnienia; nie mo\na więc jej badać.
Eksperyment  proteza mózgu dopuszcza więc mo\liwość,
\e maszyna mo\e mieć świadomość.
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Jeśli zaakceptuje się pogląd, \e sztuczny mózg mo\e mieć
świadomość, to pojawia się mo\liwość, \e świadomością
obdarzona jest tak\e tablica związków wejścia-wyjścia mózgu.
Taka mo\liwość jest trudna do zaakceptowania (co zauwa\ył
ju\ Turing) - wyniki eksperymentu  proteza mózgu w którym
zamienia się od razu cały mózg nie są zgodne z intuicją.
Problemem wymykającym się badaniom nad umysłem jest
qualia - zdolność świadomości do subiektywnej oceny
wra\eń zmysłowych, np. smaku cukru, zapachu kawy, piękna
wra\eń zmysłowych, np. smaku cukru, zapachu kawy, piękna
muzyki Mozarta, itp.
muzyki Mozarta, itp.
Takie cechy stanu umysłu są wysoce subiektywne i nie wydaje
się, aby mo\na je było ująć za pomocą obiektywnych pojęć
fizycznych.
Qualia jest wa\ną częścią świadomości, ale nie mo\e być
obiektywnie badana.
Eksperyment  proteza mózgu pokazuje problemy filozoficzne
związane z istotą świadomości.
Świadomość pozostaje więc tajemnicą...
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Eksperyment myślowy  Chiński pokój
Eksperyment ten, wymyślony przez Searla w roku 1980 miał
pokazać, \e system wykonujący program i będący w stanie
zaliczyć test Turinga nie rozumie sensu wykonywanych działań.
Eksperyment  chiński pokój polega na umieszczeniu
w zamkniętym pomieszczeniu człowieka znającego tylko język
angielski, wyposa\eniu go w instrukcjÄ™ operowania na
symbolach języka chińskiego napisanej w języku angielskim
oraz du\y zasób kartek papieru.
Człowiek otrzymuje z zewnątrz kartki zapisane znakami
Człowiek otrzymuje z zewnątrz kartki zapisane znakami
chińskimi, przekształca je korzystając z instrukcji i zwraca
wyniki tych operacji na zewnÄ…trz.
Z zewnątrz widoczny jest system który otrzymuje zdania
chińskie i udziela odpowiedzi w języku chińskim.
System jest inteligentny, gdy\ mo\e zaliczyć test Turinga.
Jednak Searle twierdzi, \e system nie rozumie tego, co robi.
Zdaniem Searla, wykonanie właściwego programu nie oznacza
rozumienia.
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Na podstawie analizy eksperymentu  chiński pokój Searle
sformułował cztery aksjomaty myślenia:
1. Programy komputerowe sÄ… formalnymi bytami
syntaktycznymi.
2. Rozum posiada kontekst umysłowy, semantyczny.
3. Syntaktyka sama w sobie nie stanowi semantyki.
4. Mózg jest przyczyną myślenia.
Wniosek z aksjomatów 1 3: nie istnieje taki program który
sam w sobie stanowi myślenie.
sam w sobie stanowi myślenie.
Wniosek z aksjomatu 4: ka\dy system mogący myśleć musi
być (co najmniej) równowa\ny mózgowi.
Searle wyciąga stąd kolejny wniosek: ka\dy sztuczny mózg
musi naśladować myślenie mózgu, a nie wykonywać program
 realizujący myślenie.
Konkluzja Searla jest następująca: \aden program nie stanowi
myślenia.
Wnioski Searla miały stanowić argumenty za odrzuceniem
hipotezy silnej AI.
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Wnioski Searla sÄ… jednak kwestionowane ( M.S. Churchland,
S. Lem  Tajemnica chińskiego pokoju , i inni).
Krytyka rozumowania Searla dotyczy przede wszystkim tego,
\e słuszność wniosków zale\y od akceptacji Aksjomatu 3.
Aksjomat 3 ( Syntaktyka sama w sobie nie stanowi semantyki )
odwołuje się do intuicji, nie stanowi więc dowodu.
Searle posługuje się argumentem, \e nawet ewidentnie
inteligentny system (człowiek) wykonujący program
(tłumaczenie chińskiego) w sposób widoczny nie myśli.
Odwołanie się do intuicji ( w sposób widoczny nie myśli ) jest
Odwołanie się do intuicji ( w sposób widoczny nie myśli ) jest
uwa\ane przez krytyków za nieuprawnione.
Podobnie bowiem mo\na powiedzieć o mózgu:  w sposób
oczywisty zbiór komórek mózgowych działających ślepo
zgodnie z prawami fizyki nie mo\e myśleć .
Chocia\ Searle nie odrzuca całkowicie mo\liwości, \e system
sztuczny mo\e myśleć, to z jego rozumowania nie wynika
jakiego typu systemy (poza człowiekiem) mogłyby myśleć.
Krytyka argumentów Searla przeciwko silnej AI spowodowała
odrzucenie wniosku o niemo\ności myślenia przez maszyny.
© F.A. Dul 2007
26.2. Silna Sztuczna Inteligencja: czy maszyny mogą myśleć?
Wnioski
Pytanie o inteligencjÄ™ nieuchronnie prowadzi
do pytania o myślenie i świadomość.
Stany myślowe są identyfikowane ze stanami
fizjologicznymi mózgu.
Mo\na mierzyć związki pomiędzy aktywnościami
umysłowymi a stanami fizjologicznymi
umysłowymi a stanami fizjologicznymi
odpowiadających im obszarów mózgu.
Świadomość całkowicie wymyka się badaniom.
Wnioski filozoficzne wynikajÄ…ce z hipotezy silnej AI
nie mają wpływu na rozwój sztucznej inteligencji.
Nurty filozoficzny i praktyczny sztucznej inteligencji
rozwijajÄ… siÄ™ (prawie) niezale\nie.
© F.A. Dul 2007
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej
Inteligencji
Dotychczas zastanawialiśmy się czy rozwój sztucznej
inteligencji jest mo\liwy.
Kwestią moralną jest to, czy powinniśmy to robić.
Na badaczach AI cią\yć będzie moralna odpowiedzialność
za negatywne konsekwencje jej rozwoju.
Chocia\ rozwój ka\dej dziedziny wiedzy powoduje powstanie
problemów natury etycznej i moralnej, to sztuczna
problemów natury etycznej i moralnej, to sztuczna
inteligencja generuje zagro\enia i dylematy nowego rodzaju.
" Ludzie mogą tracić pracę z powodu automatyzacji.
" Ludzie mogą mieć za du\o (lub za mało) wolnego czasu.
" Ludzie mogą utracić poczucie swojej wyjątkowości.
" Ludzie mogą utracić część swobód obywatelskich.
" U\ywanie systemów sztucznej inteligencji mo\e
doprowadzić do rozmycia odpowiedzialności.
" Rozwój sztucznej inteligencji mo\e doprowadzić rodzaj
ludzki do zaniku.
© F.A. Dul 2007
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej Inteligencji
Ludzie mogą tracić pracę z powodu automatyzacji
Zagro\enie spowodowane automatyzacją wydawało się realne
w USA ju\ w latach 50. XX w., ale było mocno wyolbrzymione.
Nowoczesna gospodarka i ekonomia w coraz większym
stopniu zale\ą od komputerów i systemów AI.
Komputeryzacja zredukowała zatrudnienie w pewnych
zawodach, ale jednocześnie spowodowała wzrost liczby
miejsc pracy w zawodach wykorzystujÄ…cych informatykÄ™:
w bankowości, administracji, handlu (równie\ internetowym),
w bankowości, administracji, handlu (równie\ internetowym),
usługach, itp.
usługach, itp.
W efekcie komputeryzacja stworzyła więcej miejsc pracy
ni\ ich wyeliminowała.
Obecnie typowe programy AI mają charakter asystentów
człowieka, w przeciwieństwie do starszej ich generacji,
gdy przewa\ały programy typu systemu ekspertowego,
stworzone do zastępowania ludzi.
Zagro\enie zwiÄ…zane ze wzrostem bezrobocia z powodu
wprowadzenia AI wydaje się obecnie mało realne.
© F.A. Dul 2007
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej Inteligencji
Ludzie mogą mieć za du\o (lub za mało) wolnego czasu
W latach 70. XX wieku uwa\ano (A. Toffler, A. C. Clarke),
\e automatyzacja i komputeryzacja spowodujÄ… wzrost czasu
wolnego o 50%, a w wyniku powszechnÄ… nudÄ™ i zwiÄ…zane
z tym zagro\enia.
Jednak okazało się, \e gospodarka high-tech skłania ludzi
do coraz dłu\szej pracy, gdy\ bardzo często wzrostowi
długości czasu pracy towarzyszy du\y wzrost dochodów
(np. wzrost czasu pracy o 10% powoduje wzrost dochodów
nawet o 100%).
nawet o 100%).
Nowe technologie, internet oraz łatwość wymiany informacji
w skali światowej powodują zmianę stylu pracy.
Globalne firmy wymuszają pracę całodobową ze względu
na ró\nice stref czasowych.
W efekcie czas pracy w krajach rozwiniętych wydłu\a się
raczej a nie skraca.
Jest to w du\ej mierze spowodowane wprowadzaniem
zaawansowanych technologii, w tym  sztucznej inteligencji.
© F.A. Dul 2007
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej Inteligencji
Ludzie mogą utracić poczucie swojej wyjątkowości
W pracy  Computer Power and Human Reason (1976)
Weizenbaum przedstawił zagro\enie wynikające z przyjęcia
na podstawie badań AI tezy, \e człowiek jest w istocie
automatem.
W wyniku tego człowiek, zdaniem Weizbauma, utraci poczucie
swojej wyjątkowości.
Teza taka sięga korzeniami do idei Le Metriego ( L Homme
Machine , 1748) i jest przejawem mechanicyzmu.
Machine , 1748) i jest przejawem mechanicyzmu.
Przeciwnicy tezy o szoku związanym z utratą wyjątkowości
twierdzą jednak, \e ludzkość przetrwała ju\ wiele rewizji
przekonania o swojej szczególnej pozycji: rewolucję
kopernikańską (Kopernik, 1543) czy te\ teorię ewolucji
(Darwin,1871).
Gdyby AI osiągnęła swoje najambitniejsze cele, to ludzkość
musiałaby przewartościować swoje poglądy tak, jak zrobiła
to po rewolucjach kopernikańskiej czy darwinowskiej.
Większość filozofów uwa\a, \e ludzkość sobie z tym poradzi.
© F.A. Dul 2007
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej Inteligencji
Ludzie mogą utracić część swobód obywatelskich
Weizenbaum przedstawił tak\e zagro\enia wynikające
z rozwoju technologii rejestracji i identyfikacji, polegajÄ…ce
na ograniczeniu praw i swobód obywatelskich.
W istocie, w dobie wszechobecnych systemów nadzoru,
telefonii komórkowej, elektronicznie rejestrowanych transakcji,
systemów rozpoznawania obrazu, systemów analizujących
komunikację (Echelon), prywatność człowieka została ju\
w znacznym stopniu ograniczona.
Jest to wymuszone w du\ej mierze wzrostem zagro\eń
terrorystycznych w skali światowej.
Wielu filozofów i socjologów zgadza się z tezą, \e komputery-
zacja doprowadziła do częściowej utraty prywatności.
Prywatność jest te\ uwa\ana przez wielu za jeden
z podstawowych wyznaczników osobowości człowieka,
zatem jej utrata mo\e być traktowana jako du\e zagro\enie.
© F.A. Dul 2007
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej Inteligencji
U\ywanie systemów sztucznej inteligencji mo\e
doprowadzić do rozmycia odpowiedzialności
U\ycie systemów AI rodzi zagro\enia związane z utratą
odpowiedzialności za prowadzone działania.
Systemy bankowe i handlowe opierają się w coraz większym
stopniu na komputerach u\ywających systemów AI
do prowadzenia transakcji, często w imieniu klientów.
Systemy ekspertowe formułują diagnozy medyczne,
które mogą decydować o \yciu pacjenta.
Od właściwego działania systemów nadzorujących
i sterujących zale\y bezpieczeństwo komunikacji lotniczej,
morskiej i lÄ…dowej.
Agenci internetowi mogą nieumyślnie (lub umyślnie) zniszczyć
zasoby w komputerach przyłączonych do sieci.
Istnieje te\ potencjalna mo\liwość działania superinteligentnych
systemów AI we własnym imieniu.
Powstaje więc kwestia odpowiedzialności prawnej
oraz materialnej za szkody mogące być wynikiem u\ywania
systemów AI.
© F.A. Dul 2007
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej Inteligencji
Medyczne systemy ekspertowe sÄ… tylko doradcami lekarza,
ale pojawia się problem odpowiedzialności lekarza
za niewykorzystanie wyników diagnozy systemu.
Panuje zgoda, \e działanie systemów AI powinno podlegać
ograniczeniom narzuconym przez projektantów i producentów.
Istniejące systemy prawne nie poświęcają jak dotychczas
nale\ytej uwagi kwestii odpowiedzialności za działania
systemów AI.
Zaistniałe przypadki rozpatrywane są najczęściej w ramach
Zaistniałe przypadki rozpatrywane są najczęściej w ramach
istniejÄ…cego prawa, co jednak nie zawsze jest rozwiÄ…zaniem
właściwym.
Mo\na jednak sądzić, \e w niedługim czasie powstaną
odpowiednie uregulowania prawne, wymuszone przez
praktykę świata u\ywającego powszechnie systemów AI.
© F.A. Dul 2007
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej Inteligencji
Rozwój sztucznej inteligencji mo\e doprowadzić rodzaj
ludzki do zaniku
Ka\da technologia w niewłaściwych rękach mo\e wyrządzać
szkody (broń, technologie jądrowe, internet,...).
Jednak AI i robotyka mogą same być autorami destrukcji.
Literatura sf od dawna opisuje siejÄ…ce zniszczenie roboty
lub istoty człekopodobne: Frankenstein (Mary Shelley, 1818),
R.U.R. ( apek, 1921); filmy: Odyseja Kosmiczna 2001
(1968), Terminator (1984), Matrix (1999) i wiele innych.
Roboty i androidy są współczesną wersją dawnych wiedzm
Roboty i androidy są współczesną wersją dawnych wiedzm
i duchów; odzwierciedlają strach człowieka przed nieznanymi
bytami.
Uwa\a siÄ™ jednak, \e maszyny zbudowane dla realizacji
celów człowieka będą słu\yć człowiekowi i nie będą stanowić
realnego zagro\enia (pomijajÄ…c wypadki).
Maszyny same w sobie nie są agresywne, ale mogą być takie
je\eli zostaną odpowiednio zaprojektowane przez człowieka.
Maszyny mogą stać się w pewnym sensie  zdobywcami
świata , je\eli będą niezastąpione (tak, jak np. samochody).
© F.A. Dul 2007
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej Inteligencji
Mo\liwym scenariuszem  podboju świata przez inteligentne
maszyny jest eksplozja inteligencji (Good, 1965):
" człowiek buduje najinteligentniejsze
?
maszyny, jakie mo\e stworzyć przy
pomocy dostępnych mu technologii...
" ale maszyny te sÄ… tak inteligentne,
\e potrafią zbudować maszyny
jeszcze bardziej inteligentne,...
?
" te z kolei budujÄ… maszyny jeszcze
mÄ…drzejsze, itd...
mÄ…drzejsze, itd...
Taki lawinowy rozwój maszyn
koniec ery
inteligentnych prowadziłby do
czas
człowieka
osobliwości technologicznej.
Inteligencja człowieka pozostałaby więc szybko w tyle.
Filozofowie sÄ… raczej zgodni co do tego, \e maszyny
przewy\szające inteligencją człowieka kiedyś powstaną.
Ró\nią się w ocenie tempa rozwoju maszyn inteligentnych
oraz skutków ich pojawienia się twierdząc, \e nastąpi:
" kres ery człowieka (Good, Vinge 1993).
" konwergencja czÅ‚owieka i maszyny (Moravec 2000). © F.A. Dul 2007
inteligencja
26.3. Etyka i ryzyko zwiÄ…zane z rozwojem Sztucznej Inteligencji
A jak wyglądałby świat z punktu widzenia inteligentnych
maszyn?
Maszyny inteligentne, ale nieświadome, są dalej tylko
maszynami.
Jednak pojawienie się maszyn świadomych stworzy całkiem
nowe problemy natury moralnej i etycznej.
Świadome maszyny będą musiały być zaprojektowane tak,
aby odró\niały dobro od zła.
Maszyny będą musiały przestrzegać praw ludzkich.
Maszyny będą musiały przestrzegać praw ludzkich.
Część etyków uwa\a, \e świadomych maszyn nie wolno
będzie traktować inaczej ni\ ludzi - nale\ne im będą prawa.
Czy zatem roboty będą mogły za\ądać np. wolnych sobót,
prawa do strajku czy praw chroniÄ…cych ich reprodukcjÄ™?
Czy będą zakładały związki zawodowe lub partie polityczne?
Czy w końcu będą mogły rządzić ludzmi?
Na te (i inne) pytania nie ma dzisiaj odpowiedzi, ale problem
nieobcy jest literaturze sf, np. Asimov (1942), film Spielberga
A.I. (2001).
© F.A. Dul 2007
Podsumowanie
" Filozofowie u\ywają pojęcia słabej AI dla określenia hipotezy
mówiącej, \e maszyny mogą zachowywać się inteligentnie.
" Pojęcie silnej AI określa hipotezę mówiącą, \e maszyny
rzeczywiście mogą myśleć, a nie tylko symulować myślenie.
" Alan Turing odrzucił kwestię  Czy maszyny myślą?
zastępując ją testem inteligentnego zachowania maszyny.
Turing sformułował wiele obiekcji w stosunku do idei maszyn
myślących.
myślących.
" Niewielu badaczy AI przywiÄ…zuje obecnie wagÄ™ do testu
Turinga i imitacji człowieka, skupiając się raczej
na doskonaleniu mo\liwości systemów AI.
" Argumenty za i przeciw silnej AI nie prowadzÄ… do konkluzji.
Istnieje przekonanie, \e badania AI w niewielkim stopniu
zale\ą od wyników debaty na ten temat.
© F.A. Dul 2007
Podsumowanie (c.d.)
" Panuje zgoda co do tego, \e stany umysłu są stanami
fizjologicznymi mózgu.
" Świadomość pozostaje jednak wielką tajemnicą...
" Potencjalne zagro\enia społeczne związane ze sztuczną
inteligencją i technologiami pokrewnymi są w większości
mało prawdopodobne lub występują równie\ w innych
dziedzinach, nie zwiÄ…zanych ze sztucznÄ… inteligencjÄ….
" Zagro\eniem realnym wartym uwagi jest wpływ
superinteligentnych maszyn na kształt świata w przyszłości.
To mo\e być zupełnie inny świat - mo\na go będzie lubić
lub nie, ale nie będzie się miało na to wpływu.
" Takie rozwa\ania prowadzÄ… nieuchronnie do wniosku,
\e ju\ teraz nale\y starannie rozwa\ać mo\liwe
konsekwencje badań nad AI dla przyszłości rodzaju
ludzkiego.
© F.A. Dul 2007


Wyszukiwarka