background image

WPROWADZENIE 

DO SZTUCZNEJ INTELIGENCJI

POLITECHNIKA WARSZAWSKA

WYDZIAŁ MECHANICZNY ENERGETYKI I LOTNICTWA

MEL

MEL

NS 586

Dr in

Ŝ

. Franciszek Dul

©  F.A. Dul 2007

background image

26. PODSTAWY FILOZOFICZNE 

SZTUCZNEJ INTELIGENCJI

©  F.A. Dul 2007

SZTUCZNEJ INTELIGENCJI

background image

Podstawy filozoficzne sztucznej inteligencji 

W tym rozdziale b

ę

dziemy rozwa

Ŝ

a

ć

 

co to znaczy „my

ś

le

ć

”; czy obiekty 

stworzone przez człowieka my

ś

le

ć

 

©  F.A. Dul 2007

stworzone przez człowieka my

ś

le

ć

 

mog

ą

oraz czy powinny kiedykolwiek

background image

26. Wprowadzenie

Filozofowie u

Ŝ

ywaj

ą

 poj

ę

cia słabej AI dla okre

ś

lenia 

hipotezy mówi

ą

cej, 

Ŝ

e maszyny mog

ą

 

zachowywa

ć

 si

ę

Filozofowie próbuj

ą

 od dawna rozwi

ą

za

ć

 problemy które 

dotycz

ą

 tak

Ŝ

e sztucznej inteligencji:



Jak działa umysł?



Czy maszyny mog

ą

 działa

ć

 inteligentnie, tak jak ludzie?



Je

Ŝ

eli tak, to czy maj

ą

 umysł?



Jakie s

ą

 implikacje etyczne sztucznej inteligencji?

©  F.A. Dul 2007

hipotezy mówi

ą

cej, 

Ŝ

e maszyny mog

ą

 

zachowywa

ć

 si

ę

inteligentnie.
Poj

ę

cie silnej AI okre

ś

la hipotez

ę

 mówi

ą

c

ą

Ŝ

e maszyny 

mog

ą

 my

ś

le

ć

, a nie tylko symulowa

ć

 my

ś

lenie.

Badania AI opieraj

ą

 si

ę

 głównie na hipotezie słabej AI.

W wi

ę

kszo

ś

ci przypadków nie jest wa

Ŝ

ne czy system AI

symuluje inteligencj

ę

, czy jest rzeczywi

ś

cie inteligentny.

Jednak wszyscy powinni bra

ć

 pod uwag

ę

 implikacje 

etyczne bada

ń

 nad sztuczn

ą

 inteligencj

ą

.

background image

26.  Wprowadzenie

• Słaba Sztuczna Inteligencja: Czy maszyny mog

ą

 działa

ć

 

inteligentnie?

• Silna Sztuczna Inteligencja: Czy maszyny mog

ą

 my

ś

le

ć

?

• Etyka i ryzyko rozwoju sztucznej inteligencji.

Plan rozdziału

©  F.A. Dul 2007

background image

26.1. 

Słaba Sztuczna Inteligencja:

Czy maszyny 

mog

ą

 działa

ć

 inteligentnie?

Niektórzy badacze próbuj

ą

 dowie

ść

Ŝ

e sztuczna inteligencja 

nie jest mo

Ŝ

liwa, a próby jej wykreowania bior

ą

 si

ę

 z „kultu 

obliczeniowo

ś

ci” czyli wiary, 

Ŝ

e wszystkie działania 

inteligentne s

ą

 w swej istocie procesami obliczeniowymi.

Mo

Ŝ

liwo

ść

 stworzenia sztucznej inteligencji zale

Ŝ

y jednak    

od tego, co si

ę

 pod tym poj

ę

ciem rozumie.

Je

Ŝ

eli uzna si

ę

Ŝ

e sztuczna inteligencja to poszukiwanie 

©  F.A. Dul 2007

Je

Ŝ

eli uzna si

ę

Ŝ

e sztuczna inteligencja to poszukiwanie 

najlepszego programu dla agenta o danej strukturze,                
to stworzenie sztucznej inteligencji jest mo

Ŝ

liwe z definicji.

Dla ka

Ŝ

dej architektury cyfrowej składaj

ą

cej si

ę

 z 

k

bitów 

pami

ę

ci istnieje dokładnie 

2

k

programów dla agenta.

Nale

Ŝ

y tylko znale

źć

 najlepszy, np. sprawdzaj

ą

c wszystkie.

Definicja informatyczna sztucznej inteligencji nie rozstrzyga 
jednak  fundamentalnej kwestii

Czy maszyna mo

Ŝ

e my

ś

le

ć

?

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

 działa

ć

 inteligentnie?

Pytanie „Czy maszyna mo

Ŝ

e my

ś

le

ć

?” jest jednak 

ź

le 

postawione, przynajmniej w kontek

ś

cie sztucznej inteligencji.

Okazuje si

ę

 bowiem, 

Ŝ

e rozwój sztucznej inteligencji 

rozumianej jako dziedzina nauk technicznych 

nie zale

Ŝ

y        

od odpowiedzi na to pytanie

.  

Alan Turing w słynnej pracy „Computing Machinery and 
Intelligence
” (1950) zaproponował aby zamiast pyta

ć

 czy 

maszyna mo

Ŝ

e my

ś

le

ć

, sprawdzi

ć

 czy mo

Ŝ

e przej

ść

 test 

inteligentnego zachowania, zwany obecnie 

Testem Turinga

.  

©  F.A. Dul 2007

inteligentnego zachowania, zwany obecnie 

Testem Turinga

.  

Turing przewidywał, 

Ŝ

e do roku 2000 komputery spełni

ą

 

kryteria testu–przekonanie 30% rozmówców w ci

ą

gu 5 minut 

konwersacji z maszyn

ą

 

Ŝ

e jest ona człowiekiem.

Test Turinga ma obecnie znaczenie historyczne i nie jest  
traktowany jako kryterium wpływaj

ą

ce na rozwój sztucznej 

inteligencji.

Kryteria testu Turinga nie zostały dotychczas spełnione przez 

Ŝ

adn

ą

 maszyn

ę

.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

 działa

ć

 inteligentnie?

Argumenty o niemo

Ŝ

no

ś

ci 

• miła, zaradna, pomysłowa, przyjazna, pi

ę

kna (?), 

• wykazywa

ć

 inicjatywy, mie

ć

 poczucia humoru,

• odró

Ŝ

nia

ć

 dobra od zła,

• popełnia

ć

 bł

ę

dów (?),

• mogła zakocha

ć

 si

ę

,

Turing sformułował szereg w

ą

tpliwo

ś

ci dotycz

ą

cych mo

Ŝ

liwo

ś

ci 

skonstruowania inteligentnych maszyn. 
Argumenty Turinga o niemo

Ŝ

no

ś

ci: „

maszyna nigdy nie b

ę

dzie

”:

©  F.A. Dul 2007

• mogła zakocha

ć

 si

ę

,

• mogła rozkocha

ć

 kogo

ś

 w sobie (?),

• smakowa

ć

 truskawek i lodów,

• rozkoszowa

ć

 si

ę

 muzyk

ą

 lub literatur

ą

,

• sama uczy

ć

 si

ę

 z do

ś

wiadcze

ń

,

• umie

ć

 prawidłowo dobiera

ć

 słów,

• obiektem własnych my

ś

li,

• przejawia

ć

 tak ró

Ŝ

nych zachowa

ń

 jak człowiek,

• umiała zrobi

ć

 co

ś

 rzeczywi

ś

cie nowego, ...

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

 działa

ć

 inteligentnie?

Wszystkie te działania wymagaj

ą

 najwy

Ŝ

szej sprawno

ś

ci     

• wygrywaj

ą

 w szachy z arcymistrzami, 

• graj

ą

 (i wygrywaj

ą

) równie

Ŝ

 w wiele innych gier,

• prowadz

ą

 i nadzoruj

ą

 monta

Ŝ

 produktów w fabrykach,

• sprawdzaj

ą

 pisowni

ę

 dokumentów w edytorach,

• steruj

ą

 samochodami, samolotami, statkami kosmicznymi,

• diagnozuj

ą

 choroby,

• dokonuj

ą

  odkry

ć

 w matematyce, biologii, astronomii, chemii. 

Współczesne maszyny robi

ą

 jednak wiele rzeczy, które dawniej 

były wył

ą

cznie domen

ą

 człowieka: 

©  F.A. Dul 2007

Wszystkie te działania wymagaj

ą

 najwy

Ŝ

szej sprawno

ś

ci     

lub kompetencji eksperta.
Maszyny mog

ą

 nie tylko wykonywa

ć

 zadania o charakterze 

kombinatorycznym (jak gra w szachy), ale równie

Ŝ

 takie które 

wymagaj

ą

 zdolno

ś

ci uczenia si

ę

 (systemy ekspertowe).

Chocia

Ŝ

 maszyny robi

ą

 wiele rzeczy lepiej ni

Ŝ

 człowiek,         

to jednak 

nie rozumiej

ą

sensu wykonywanych działa

ń

,          

nie u

Ŝ

ywaj

ą

 wi

ę

c inteligencji podczas ich wykonywania.

Wynika st

ą

d, 

Ŝ

potoczne przekonanie i

Ŝ

 jakie

ś

 działanie 

wymaga inteligencji mo

Ŝ

e by

ć

 bł

ę

dne

.

background image

Wnioski

Pytanie 

Czy maszyna mo

Ŝ

e my

ś

le

ć

?

nie jest 

poprawnie postawione w kontek

ś

cie bada

ń

 nad 

sztuczn

ą

 inteligencj

ą

.

Chocia

Ŝ

 działania maszyn „inteligentnych” cechuj

ą

 

si

ę

 wysok

ą

 sprawno

ś

ci

ą

 i znacznymi kompetencjami, 

to jednak nie mo

Ŝ

na uzna

ć

 i

Ŝ

 s

ą

 inteligentne. 

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

 działa

ć

 inteligentnie?

©  F.A. Dul 2007

to jednak nie mo

Ŝ

na uzna

ć

 i

Ŝ

 s

ą

 inteligentne. 

Potoczne przekonanie o tym, 

Ŝ

e do wykonania 

pewnych działa

ń

 konieczna jest inteligencja jest 

cz

ę

sto bł

ę

dne.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

 działa

ć

 inteligentnie?

Obiekcje matematyczne 

• jest prawdziwe je

Ŝ

eli system 

F

jest spójny,

• nie mo

Ŝ

e by

ć

 dowiedzione

w ramach systemu 

F.

Opieraj

ą

c si

ę

 na tym twierdzeniu Lucas (1961) wyraził pogl

ą

d, 

Ŝ

e maszyny inteligentne, b

ę

d

ą

c systemami matematycznymi, 

nie mog

ą

 „same si

ę

 udowodni

ć

”, podczas gdy człowiek jako 

Twierdznie Gödla 

(1931) mówi, 

Ŝ

e dla ka

Ŝ

dego systemu 

aksjomatycznego 

F

wyposa

Ŝ

onego w arytmetyk

ę

 mo

Ŝ

liwe jest 

skonstruowanie zdania 

G(F

F

które:

©  F.A. Dul 2007

nie mog

ą

 „same si

ę

 udowodni

ć

”, podczas gdy człowiek jako 

byt wy

Ŝ

szy mentalnie nie podlega temu ograniczeniu. 

Wprawdzie maszyna Turinga jest niesko

ń

czonym systemem 

formalnym, to jednak rzeczywiste systemy AI – jak dot

ą

d –

takimi systemami nie s

ą

.

Nie jest te

Ŝ

 oczywiste, 

Ŝ

e człowiek jako system nie podlega 

twierdzeniu Gödla.
Człowiek jest niekonsekwentny, omylny, 

a jednak inteligentny

.

Zatem ograniczenia formalne – nawet fundamentalne –
nie musz

ą

 by

ć

 przeszkod

ą

 w osi

ą

gni

ę

ciu inteligencji.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

 działa

ć

 inteligentnie?

Argument o nieformalno

ś

ci

Najbardziej stanowcz

ą

 krytyk

ę

 sztucznej inteligencji sformuło-

wał Turing w postaci 

„argumentu o nieformalizowalno

ś

ci  

zachowania”

.

Zachowanie człowieka jest tak zło

Ŝ

one, 

Ŝ

e nie mo

Ŝ

e by

ć

 

opisane zbiorem prostych zasad.
Poniewa

Ŝ

 maszyna wykonuje tylko działania wynikaj

ą

ce 

z przyj

ę

tych zasad, to nie mo

Ŝ

e wykazywa

ć

 zachowa

ń

 

inteligentnych.

Jest to tzw. 

problem kwalifikacji

w sztucznej inteligencji.

©  F.A. Dul 2007

Jest to tzw. 

problem kwalifikacji

w sztucznej inteligencji.

Głównymi rzecznikami tego argumentu s

ą

: Hubert Dreyfus, 

What Computers Can’t Do” (1972) oraz „What Computers  
Still Can’t Do
” (1992) oraz jego brat Stuart Dreyfus, „Mind 
Over Machine
” (1986).
Pogl

ą

dem krytykowanym przez Dreyfusów jest tzw. podej

ś

cie  

GOFAI („Good Old-Fashioned AI”), wyra

Ŝ

one nast

ę

puj

ą

co:

Ka

Ŝ

de zachowanie inteligentne mo

Ŝ

e by

ć

 zrealizowane 

poprzez wnioskowanie logicznie z faktów oraz reguł 
opisuj

ą

cych dan

ą

 dziedzin

ę

.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

 działa

ć

 inteligentnie?

Krytyka Dreyfusów sztucznej inteligencji dotyczyła wła

ś

nie 

podej

ś

cia GOFAI, nie za

ś

 komputerów jako obiektów sztucznej 

inteligencji w ogóle.

• Komputer graj

ą

cy w szachy 

wyznacza mo

Ŝ

liwe posuni

ę

cia  

poprzez wielokrokow

ą

 analiz

ę

 ruchów

wspieran

ą

 przykładami 

partii rozegranych w przeszło

ś

ci, bez anga

Ŝ

owania do tych 

działa

ń

 jakiejkolwiek inteligencji.

Pogl

ą

d Dreyfusów odno

ś

nie ró

Ŝ

nicy pomi

ę

dzy działaniem 

inteligentnym człowieka a (nieinteligentnym) maszyny mo

Ŝ

na 

opisa

ć

 nast

ę

puj

ą

co

©  F.A. Dul 2007

działa

ń

 jakiejkolwiek inteligencji.

• Człowiek (arcymistrz) patrz

ą

c na szachownic

ę

 

widzi potrzeb

ę

 

wykonania konkretnego ruchu

, bez konieczno

ś

ci 

wielokrokowej analizy posuni

ęć

 - to jest najwy

Ŝ

sza forma 

inteligencji.

Innymi słowy: procesy my

ś

lowe ekspertów (arcymistrzów) 

przebiegaj

ą

 na takim poziomie 

ś

wiadomo

ś

ci, który nie 

poddaje si

ę

 nawet samoobserwacji (introspekcji), nie mo

Ŝ

wi

ę

c by

ć

 analizowany i wykorzystany do budowy maszyn 

inteligentnych.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

 działa

ć

 inteligentnie?

Mimo sceptycyzmu bracia Dreyfus zaproponowali jednak          
(w 1986) pi

ę

ciostopniowy proces przyswajania specjalistycznej 

wiedzy i przetwarzania opartego na regułach logicznych (typu 
GOFAI) zako

ń

czonego wyborem wła

ś

ciwych działa

ń

.  

Odnotowali przy tym nast

ę

puj

ą

ce problemy:

1. Wła

ś

ciwe uogólnianie przykładów wymaga zgromadzenia 

przez agenta wiedzy wst

ę

pnej.

2. Sieci neuronowe uczone z nadzorowaniem wymagaj

ą

 

wła

ś

ciwego okre

ś

lenia wej

ść

 i wyj

ść

, co mo

Ŝ

e zrobi

ć

 tylko 

człowiek.

©  F.A. Dul 2007

wła

ś

ciwego okre

ś

lenia wej

ść

 i wyj

ść

, co mo

Ŝ

e zrobi

ć

 tylko 

człowiek.

3. Algorytmy ucz

ą

ce nie s

ą

 wystarczaj

ą

co efektywne w 

przypadku wielu własno

ś

ci, trudno jest te

Ŝ

 doł

ą

cza

ć

 nowe.

4. Mózg potrafi łatwo skoncentrowa

ć

 uwag

ę

 na istotnym 

obszarze otoczenia, w przeciwie

ń

stwie do agenta. 

Wszystkie te problemy zostały ju

Ŝ

 rozwi

ą

zane, z mniejszym 

lub wi

ę

kszym powodzeniem.

Uwzgl

ę

dnianie krytyki Dreyfusów 

ś

wiadczy raczej o ci

ą

głym 

rozwoju sztucznej inteligencji, nie za

ś

 o niemo

Ŝ

no

ś

ci jej 

stworzenia.

background image

Wnioski

Pytania fundamentalne dotycz

ą

ce mo

Ŝ

liwo

ś

ci 

kreowania sztucznych bytów inteligentnych s

ą

        

w przewa

Ŝ

aj

ą

cej cz

ęś

ci zbyt abstrakcyjne aby mogły 

mie

ć

 wpływ na praktyczn

ą

 stron

ę

 AI.

Rozwa

Ŝ

ania filozoficzne wskazuj

ą

 na niemo

Ŝ

no

ść

 

sformułowania precyzyjnych kryteriów inteligencji.

Argumenty filozoficzne dotycz

ą

ce sztucznej 

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

 działa

ć

 inteligentnie?

©  F.A. Dul 2007

Argumenty filozoficzne dotycz

ą

ce sztucznej 

inteligencji w wi

ę

kszo

ś

ci przypadków nie prowadz

ą

  

do konkluzji praktycznych.

Rozwój sztucznej inteligencji w sferze praktycznej 
jest w du

Ŝ

ym stopniu niezale

Ŝ

ny od wniosków 

natury filozoficznej; (

„psy szczekaj

ą

, a karawana idzie 

dalej”...)

background image

26.2.

Silna Sztuczna Inteligencja:

Czy maszyny 

mog

ą

 my

ś

le

ć

?

W

ś

ród filozofów panuje zgoda co do tego, 

Ŝ

e maszyna która 

spełniła test Turinga nie my

ś

li, lecz tylko 

symuluje my

ś

lenie

.

Argument Turinga

o

ś

wiadomo

ś

ci

: maszyna rzeczywi

ś

cie 

my

ś

l

ą

ca musi by

ć

 

ś

wiadoma swoich stanów my

ś

lowych     

oraz działa

ń

, które wykonuje.

Inne kryteria zwi

ą

zane z my

ś

leniem:

• fenomenologia

, maszyna my

ś

l

ą

ca musi odczuwa

ć

 emocje,

• intencjonalno

ść

, maszyna my

ś

l

ą

ca musi wierzy

ć

, pragn

ąć

©  F.A. Dul 2007

• intencjonalno

ść

, maszyna my

ś

l

ą

ca musi wierzy

ć

, pragn

ąć

Turing zakwestionował pytanie o 

ś

wiadomo

ść

 maszyn tak, jak 

zakwestionował pytanie „Czy maszyna mo

Ŝ

e my

ś

le

ć

?” 

Argumentacja Turinga dotyczyła niemo

Ŝ

no

ś

ci stwierdzenia 

ś

wiadomo

ś

ci z powodu nieobserwowalno

ś

ci wewn

ę

trznych 

stanów umysłu człowieka.
Zaproponował on aby 

przyj

ąć

Ŝ

e maszyna ma 

ś

wiadomo

ść

 

tak, jak przyjmuje si

ę

 na zasadzie powszechnej zgody,           

Ŝ

ka

Ŝ

dy

człowiek ma 

ś

wiadomo

ść

.

Turing stwierdził, 

Ŝ

e akceptacja 

ś

wiadomo

ś

ci maszyny jest 

mo

Ŝ

liwa, je

Ŝ

eli wyka

Ŝ

e si

ę

 ona inteligencj

ą

.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Turing stwierdził te

Ŝ

Ŝ

e problem 

ś

wiadomo

ś

ci maszyny jest 

trudny do rozstrzygni

ę

cia, ale w rzeczywisto

ś

ci ma niewielki 

wpływ na rozwój sztucznej inteligencji.
Pomi

ę

dzy filozofami a praktykami AI istnieje ró

Ŝ

nica pogl

ą

dów 

na temat znaczenia problemu 

ś

wiadomo

ś

ci maszyn.

Filozofowie s

ą

 

Ŝ

ywotnie zainteresowani t

ą

 kwesti

ą

, podczas 

gdy praktycy uwa

Ŝ

aj

ą

Ŝ

nie ma ona wpływu na rozwój AI

.

Z filozoficznego punktu widzenia problem jest wa

Ŝ

ny, gdy

Ŝ

  

dotyczy relacji pomi

ę

dzy obiektami rzeczywistymi a sztucznymi.

©  F.A. Dul 2007

Przykłady
1. Synteza sztucznego mocznika (1848) pokazała, 

Ŝ

nie ma 

Ŝ

adnej ró

Ŝ

nicy

(fizycznej i chemicznej) pomi

ę

dzy mocznikiem 

sztucznym a naturalnym. Mocznik sztuczny 

jest

mocznikiem. 

Dotyczy to te

Ŝ

 innych substancji.

2. Jednak sztucznego wina Chateau Latour

nie uznaje si

ę

za 

wino Chateau Latour mimo, 

Ŝ

e ma takie same własno

ś

ci, gdy

Ŝ

 

nie powstało we wła

ś

ciwym miejscu i czasie.

3. Podobnie, kopia obrazu Picassa nie jest obrazem Picassa, 
niezale

Ŝ

nie od tego, jak jest namalowana.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Konkluzja: czasem wyznacznikiem sztuczno

ś

ci jest zachowanie 

si

ę

 obiektu, ale czasami samo sztuczne pochodzenie decyduje 

o takiej jego kwalifikacji.
Problem jest trudny: burza symulowana komputerowo nie 
zmoczy programisty, ale nie jest oczywiste, czy symulacj

ę

 

procesów my

ś

lowych mo

Ŝ

na traktowa

ć

 analogicznie. 

Kwalifikacja procesów my

ś

lowych zale

Ŝ

y od przyj

ę

tej teorii. 

Teoria funkcjonalizmu 

stwierdza, 

Ŝ

e stan umysłu jest 

dowolnym przej

ś

ciowym zwi

ą

zkiem przyczynowym pomi

ę

dzy 

©  F.A. Dul 2007

dowolnym przej

ś

ciowym zwi

ą

zkiem przyczynowym pomi

ę

dzy 

wej

ś

ciem a wyj

ś

ciem.

Wynika st

ą

d, 

Ŝ

e ka

Ŝ

de dwa układy z izomorficznymi procesami 

przyczynowymi maj

ą

 takie same stany umysłu.

Teoria naturalizmu biologicznego 

stwierdza, 

Ŝ

e stan umysłu 

jest własno

ś

ci

ą

 wysokiego poziomu spowodowan

ą

 procesami 

neurologicznymi zachodz

ą

cymi w neuronach, oraz 

Ŝ

e jest to 

własno

ść

 samych neuronów.

Wynika st

ą

d, 

Ŝ

e stany umysłu nie mog

ą

 by

ć

 symulowane       

w komputerze, gdy

Ŝ

 nie ma on takich własno

ś

ci, jak neurony.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Problem ciała i umysłu

Problem ciała i umysłu dotyczy zwi

ą

zku stanów my

ś

lowych  

ze stanami fizjologicznymi ciała (mózgu).
W teorii 

dualno

ś

ci

Kartezjusz twierdził, 

Ŝ

e ciało i dusza s

ą

 

dwoma ró

Ŝ

nymi bytami.

Teoria 

monistyczna

(

materializm

) twierdzi natomiast, 

Ŝ

dusza nie istnieje, zatem stany umysłu s

ą

 stanami mózgu -

mózg jest przyczyn

ą

 my

ś

lenia

(John Searle).

Materializm boryka si

ę

 z problemem 

wolnej woli

- czy obiekt 

rz

ą

dzony 

ś

cisłymi prawami fizyki mo

Ŝ

e mie

ć

 woln

ą

 wol

ę

?

©  F.A. Dul 2007

rz

ą

dzony 

ś

cisłymi prawami fizyki mo

Ŝ

e mie

ć

 woln

ą

 wol

ę

?

Wa

Ŝ

nym problemem jest 

ś

wiadomo

ść

- w jaki sposób obiekt 

czuje

Ŝ

e jest 

tym

obiektem a nie jakim

ś

 innym?

Stany umysłu nie zale

Ŝą

 przy tym od zmian fizjologicznych: 

zast

ą

pienie pewnej liczby atomów mózgu (co mam miejsce  

w ramach metabolizmu) nie spowoduje zmiany my

ś

lenia.

Szczególnym rodzajem stanu umysłu jest 

postawa 

propozycjonalna

nazywana tak

Ŝ

stanem intencjonalnym

.

S

ą

 to stany w rodzaju: wiary, wiedzy, po

Ŝą

dania, strachu, itp., 

odnosz

ą

ce si

ę

 do 

ś

wiata zewn

ę

trznego.

Pytanie: czy maszyny mog

ą

 mie

ć

 stany intencjonalne? 

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Eksperyment my

ś

lowy „Mózg w słoiku”

Eksperyment ten ma na celu ustalenie, czy stany umysłu      
s

ą

 jednoznacznie okre

ś

lone percepcj

ą

 otoczenia. 

W eksperymencie tym zakłada si

ę

Ŝ

e mózg został oddzielony 

od ciała i umieszczony w zapewniaj

ą

cym mu egzystencj

ę

 

pojemniku.

Ś

wiat zewn

ę

trzny jest symulowany, bod

ź

ce przekazywane    

s

ą

 do mózgu, za

ś

 działania generowane przez mózg                

s

ą

 realizowane w symulowanym 

ś

wiecie.  

Okazuje si

ę

Ŝ

e zawarto

ść

 stanów umysłu zale

Ŝ

y od punktu 

©  F.A. Dul 2007

Okazuje si

ę

Ŝ

e zawarto

ść

 stanów umysłu zale

Ŝ

y od punktu 

widzenia.

W kontek

ś

cie w

ą

skim

, z wewn

ę

trznego punktu widzenia, 

stan umysłu jest jednoznacznie zdefiniowany przez kontakt    
z otoczeniem niezale

Ŝ

nie od tego, czy otoczenie jest 

rzeczywiste, czy symulowane.

W kontek

ś

cie szerokim

, z punktu widzenia zewn

ę

trznego 

obserwatora wszechwiedz

ą

cego, stan umysłu zale

Ŝ

y od 

Ŝ

nic w 

ś

wiecie zewn

ę

trznym nawet wtedy, gdy mózg nie ma 

mo

Ŝ

liwo

ś

ci obserwacji tych ró

Ŝ

nic poprzez dost

ę

pn

ą

 mu 

percepcj

ę

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Eksperyment my

ś

lowy „Proteza mózgu”

Eksperyment ten ma na celu ustalenie, czy 

ś

wiadomo

ść

 

zale

Ŝ

y od budowy i fizjologii mózgu. 

W eksperymencie tym kolejne neurony s

ą

 zast

ę

powane 

idealnymi protezami, po czym naturalne neurony s

ą

 

wstawiane z powrotem w kolejno

ś

ci odwrotnej. 

Pytania dotycz

ą

 

ś

wiadomo

ś

ci:

• czy mózg zachowa 

ś

wiadomo

ść

 niezale

Ŝ

nie od liczby 

wstawionych protez?

• czy nie nast

ą

pi rozej

ś

cie si

ę

 

ś

wiadomo

ś

ci i zachowania 

©  F.A. Dul 2007

• czy nie nast

ą

pi rozej

ś

cie si

ę

 

ś

wiadomo

ś

ci i zachowania 

zewn

ę

trznego mózgu?

• czy proces ponownego wstawiania neuronów naturalnych 

przywróci mózgowi 

ś

wiadomo

ść

 pierwotn

ą

?  

Zwolennicy funkcjonalizmu (Moravec) twierdz

ą

Ŝ

ś

wiadomo

ść

 

pozostanie nie zmieniona w trakcie i po eksperymencie.
Zwolennicy naturalizmu biologicznego (Searle) uwa

Ŝ

aj

ą

,       

Ŝ

e  

ś

wiadomo

ść

 zmieni si

ę

 w trakcie eksperymentu, a nawet 

mo

Ŝ

e zanikn

ąć

 całkowicie i nieodwracalnie.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Analiza wyników eksperymentu prowadzi do nast

ę

puj

ą

cych 

wniosków:

1. Mechanizm 

ś

wiadomo

ś

ci w mózgu działa tak

Ŝ

e           

w komputerze - komputer zatem 

ma

ś

wiadomo

ść

.

• Utrata 

ś

wiadomo

ś

ci, gdyby miała nast

ą

pi

ć

, musiałaby by

ć

 

nagła, co jest mało prawdopodobne przy stopniowym 
wymienianiu pojedynczych neuronów.

• Mózg zło

Ŝ

ony z neuronów elektronicznych zachowa zatem 

ś

wiadomo

ść

, co prowadzi do dwóch mo

Ŝ

liwych konkluzji:

©  F.A. Dul 2007

w komputerze - komputer zatem 

ma

ś

wiadomo

ść

.

2. Zdarzenia mentalne zwi

ą

zane ze 

ś

wiadomo

ś

ci

ą

 

mózgu nie maj

ą

 zwi

ą

zku z jego zachowaniem 

zewn

ę

trznym; nie mog

ą

 wi

ę

c pojawi

ć

 si

ę

                     

w komputerze - komputer 

nie ma

ś

wiadomo

ś

ci.

Mo

Ŝ

liwo

ść

 druga redukuje jednak 

ś

wiadomo

ść

 do roli 

epifenomenalnej

- czyli takiej w której nie zostawia ona 

Ŝ

adnych 

ś

ladów swojego istnienia; nie mo

Ŝ

na wi

ę

c jej bada

ć

.  

Eksperyment „proteza mózgu” 

dopuszcza wi

ę

mo

Ŝ

liwo

ść

Ŝ

e maszyna mo

Ŝ

e mie

ć

 

ś

wiadomo

ść

.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Problemem wymykaj

ą

cym si

ę

 badaniom nad umysłem jest 

qualia

- zdolno

ść

 

ś

wiadomo

ś

ci do subiektywnej oceny 

wra

Ŝ

e

ń

 zmysłowych, np. smaku cukru, zapachu kawy, pi

ę

kna 

muzyki Mozarta, itp. 

Taka mo

Ŝ

liwo

ść

 jest trudna do zaakceptowania (co zauwa

Ŝ

ył 

ju

Ŝ

 Turing) - wyniki eksperymentu „proteza mózgu” w którym 

zamienia si

ę

 od razu cały mózg nie s

ą

 zgodne z intuicj

ą

.

Je

ś

li zaakceptuje si

ę

 pogl

ą

d, 

Ŝ

e sztuczny mózg mo

Ŝ

e mie

ć

 

ś

wiadomo

ść

, to pojawia si

ę

 mo

Ŝ

liwo

ść

Ŝ

ś

wiadomo

ś

ci

ą

 

obdarzona jest tak

Ŝ

e tablica zwi

ą

zków wej

ś

cia-wyj

ś

cia mózgu.

©  F.A. Dul 2007

Eksperyment „proteza mózgu” pokazuje problemy filozoficzne  
zwi

ą

zane z istot

ą

 

ś

wiadomo

ś

ci.

Ś

wiadomo

ść

 pozostaje wi

ę

tajemnic

ą

...

wra

Ŝ

e

ń

 zmysłowych, np. smaku cukru, zapachu kawy, pi

ę

kna 

muzyki Mozarta, itp. 
Takie cechy stanu umysłu s

ą

 wysoce subiektywne i nie wydaje 

si

ę

, aby mo

Ŝ

na je było uj

ąć

 za pomoc

ą

 obiektywnych poj

ęć

 

fizycznych. 
Qualia jest wa

Ŝ

n

ą

 cz

ęś

ci

ą

 

ś

wiadomo

ś

ci, 

ale nie mo

Ŝ

e by

ć

 

obiektywnie badana

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Eksperyment my

ś

lowy „Chi

ń

ski pokój”

Eksperyment ten, wymy

ś

lony przez Searla w roku 1980 miał 

pokaza

ć

Ŝ

e system wykonuj

ą

cy program i b

ę

d

ą

cy w stanie 

zaliczy

ć

 test Turinga nie rozumie sensu wykonywanych działa

ń

.

Eksperyment „chi

ń

ski pokój” polega na umieszczeniu             

w zamkni

ę

tym pomieszczeniu człowieka znaj

ą

cego tylko j

ę

zyk 

angielski, wyposa

Ŝ

eniu go w instrukcj

ę

 operowania na 

symbolach j

ę

zyka chi

ń

skiego napisanej w j

ę

zyku angielskim 

oraz du

Ŝ

y zasób kartek papieru.

Człowiek otrzymuje z zewn

ą

trz kartki zapisane znakami 

©  F.A. Dul 2007

Człowiek otrzymuje z zewn

ą

trz kartki zapisane znakami 

chi

ń

skimi, przekształca je korzystaj

ą

c z instrukcji i zwraca 

wyniki tych operacji na zewn

ą

trz. 

Z zewn

ą

trz widoczny jest system który otrzymuje zdania 

chi

ń

skie i udziela odpowiedzi w j

ę

zyku chi

ń

skim.   

System jest inteligentny, gdy

Ŝ

 mo

Ŝ

e zaliczy

ć

 test Turinga.   

Jednak Searle twierdzi, 

Ŝ

system nie rozumie tego, co robi

.   

Zdaniem Searla, 

wykonanie wła

ś

ciwego programu nie oznacza  

rozumienia.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Na podstawie analizy eksperymentu „chi

ń

ski pokój” Searle 

sformułował cztery aksjomaty my

ś

lenia:

1. Programy komputerowe s

ą

 formalnymi bytami 

syntaktycznymi.

2. Rozum posiada kontekst umysłowy, semantyczny.
3. Syntaktyka sama w sobie nie stanowi semantyki.
4. Mózg jest przyczyn

ą

 my

ś

lenia. 

Wniosek z aksjomatów 1–3

nie istnieje taki program który 

sam w sobie stanowi my

ś

lenie.

©  F.A. Dul 2007

sam w sobie stanowi my

ś

lenie.

Konkluzja Searla jest nast

ę

puj

ą

ca: 

Ŝ

aden program nie stanowi 

my

ś

lenia.

Wniosek z aksjomatu 4

ka

Ŝ

dy system mog

ą

cy my

ś

le

ć

 musi 

by

ć

 (co najmniej) równowa

Ŝ

ny mózgowi.

Searle wyci

ą

ga st

ą

d kolejny wniosek: ka

Ŝ

dy sztuczny mózg 

musi na

ś

ladowa

ć

 my

ś

lenie mózgu, a nie wykonywa

ć

 program 

„realizuj

ą

cy” my

ś

lenie. 

Wnioski Searla miały stanowi

ć

 argumenty 

za odrzuceniem

hipotezy silnej AI.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Aksjomat („Syntaktyka sama w sobie nie stanowi semantyki”) 
odwołuje si

ę

 do intuicji, nie stanowi wi

ę

c dowodu.

Wnioski Searla s

ą

 jednak kwestionowane ( M.S. Churchland

S. Lem „Tajemnica chi

ń

skiego pokoju”, i inni).

Searle posługuje si

ę

 argumentem, 

Ŝ

e nawet ewidentnie  

inteligentny system (człowiek) wykonuj

ą

cy program 

(tłumaczenie chi

ń

skiego) 

w sposób widoczny

nie my

ś

li. 

Odwołanie si

ę

 do intuicji („w sposób widoczny nie my

ś

li”) jest 

Krytyka rozumowania Searla dotyczy przede wszystkim tego, 

Ŝ

e słuszno

ść

 wniosków zale

Ŝ

y od 

akceptacji

Aksjomatu 3. 

©  F.A. Dul 2007

Odwołanie si

ę

 do intuicji („w sposób widoczny nie my

ś

li”) jest 

uwa

Ŝ

ane przez krytyków za nieuprawnione.

Podobnie bowiem mo

Ŝ

na powiedzie

ć

 o mózgu: „w sposób 

oczywisty zbiór komórek mózgowych działaj

ą

cych 

ś

lepo 

zgodnie z prawami fizyki nie mo

Ŝ

e my

ś

le

ć

”.

Chocia

Ŝ

 Searle nie odrzuca całkowicie mo

Ŝ

liwo

ś

ci, 

Ŝ

e system 

sztuczny mo

Ŝ

e my

ś

le

ć

, to z jego rozumowania nie wynika 

jakiego typu 

systemy (poza człowiekiem) mogłyby my

ś

le

ć

.

Krytyka argumentów Searla przeciwko silnej AI spowodowała 
odrzucenie wniosku o niemo

Ŝ

no

ś

ci my

ś

lenia przez maszyny.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

 my

ś

le

ć

?

Wnioski

Pytanie o inteligencj

ę

 nieuchronnie prowadzi         

do pytania o my

ś

lenie i 

ś

wiadomo

ść

.

Stany my

ś

lowe s

ą

 identyfikowane ze stanami 

fizjologicznymi mózgu.

Mo

Ŝ

na mierzy

ć

 zwi

ą

zki pomi

ę

dzy aktywno

ś

ciami 

umysłowymi a stanami fizjologicznymi 

©  F.A. Dul 2007

umysłowymi a stanami fizjologicznymi 
odpowiadaj

ą

cych im obszarów mózgu. 

Ś

wiadomo

ść

 całkowicie wymyka si

ę

 badaniom.

Wnioski filozoficzne wynikaj

ą

ce z hipotezy silnej AI 

nie maj

ą

 wpływu na rozwój sztucznej inteligencji.

Nurty filozoficzny i praktyczny sztucznej inteligencji  
rozwijaj

ą

 si

ę

 (prawie) niezale

Ŝ

nie.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej 

Inteligencji

Dotychczas zastanawiali

ś

my si

ę

 czy rozwój sztucznej 

inteligencji 

jest mo

Ŝ

liwy

.

Kwesti

ą

 moraln

ą

 jest to, 

czy powinni

ś

my

to robi

ć

.

Na badaczach AI ci

ąŜ

y

ć

 b

ę

dzie moralna odpowiedzialno

ść

  

za negatywne konsekwencje jej rozwoju.
Chocia

Ŝ

 rozwój ka

Ŝ

dej dziedziny wiedzy powoduje powstanie 

problemów natury etycznej i moralnej, to sztuczna 

©  F.A. Dul 2007

• Ludzie mog

ą

 traci

ć

 prac

ę

 z powodu automatyzacji.

• Ludzie mog

ą

 mie

ć

 za du

Ŝ

o (lub za mało) wolnego czasu.

• Ludzie mog

ą

 utraci

ć

 poczucie swojej wyj

ą

tkowo

ś

ci.

• Ludzie mog

ą

 utraci

ć

 cz

ęść

 swobód obywatelskich.  

• U

Ŝ

ywanie systemów sztucznej inteligencji mo

Ŝ

doprowadzi

ć

 do rozmycia odpowiedzialno

ś

ci.

• Rozwój sztucznej inteligencji mo

Ŝ

e doprowadzi

ć

 rodzaj 

ludzki do zaniku.

problemów natury etycznej i moralnej, to sztuczna 
inteligencja generuje zagro

Ŝ

enia i dylematy nowego rodzaju. 

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Ludzie mog

ą

 traci

ć

 prac

ę

 z powodu automatyzacji

Zagro

Ŝ

enie spowodowane automatyzacj

ą

 wydawało si

ę

 realne 

w USA ju

Ŝ

 w latach 50. XX w., ale było mocno wyolbrzymione.

Nowoczesna gospodarka i ekonomia w coraz wi

ę

kszym 

stopniu zale

Ŝą

 od komputerów i systemów AI.

Komputeryzacja zredukowała zatrudnienie w pewnych 
zawodach, ale jednocze

ś

nie spowodowała wzrost liczby 

miejsc pracy w zawodach wykorzystuj

ą

cych informatyk

ę

:       

w bankowo

ś

ci, administracji, handlu (równie

Ŝ

 internetowym), 

usługach, itp. 

©  F.A. Dul 2007

w bankowo

ś

ci, administracji, handlu (równie

Ŝ

 internetowym), 

usługach, itp. 
W efekcie komputeryzacja stworzyła wi

ę

cej miejsc pracy        

ni

Ŝ

 ich wyeliminowała.

Obecnie typowe programy AI maj

ą

 charakter asystentów 

człowieka, w przeciwie

ń

stwie do starszej ich generacji,       

gdy przewa

Ŝ

ały programy typu systemu ekspertowego, 

stworzone do zast

ę

powania ludzi.

Zagro

Ŝ

enie zwi

ą

zane ze wzrostem bezrobocia z powodu 

wprowadzenia AI wydaje si

ę

 obecnie mało realne.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Ludzie mog

ą

 mie

ć

 za du

Ŝ

o (lub za mało) wolnego czasu

W latach 70. XX wieku uwa

Ŝ

ano (A. Toffler, A. C. Clarke),       

Ŝ

e automatyzacja i komputeryzacja spowoduj

ą

 wzrost czasu 

wolnego o 50%, a w wyniku powszechn

ą

 nud

ę

 i zwi

ą

zane       

z tym zagro

Ŝ

enia.

Jednak okazało si

ę

Ŝ

e gospodarka high-tech skłania ludzi      

do coraz dłu

Ŝ

szej pracy, gdy

Ŝ

 bardzo cz

ę

sto wzrostowi 

długo

ś

ci czasu pracy towarzyszy du

Ŝ

y wzrost dochodów       

(np. wzrost czasu pracy o 10% powoduje wzrost dochodów 
nawet o 100%).

©  F.A. Dul 2007

nawet o 100%).

W efekcie czas pracy w krajach rozwini

ę

tych wydłu

Ŝ

a si

ę

 

raczej a nie skraca.
Jest to w du

Ŝ

ej mierze spowodowane wprowadzaniem 

zaawansowanych technologii, w tym – sztucznej inteligencji.

Nowe technologie, internet oraz łatwo

ść

 wymiany informacji  

w skali 

ś

wiatowej powoduj

ą

 zmian

ę

 stylu pracy.

Globalne firmy wymuszaj

ą

 prac

ę

 całodobow

ą

 ze wzgl

ę

du     

na ró

Ŝ

nice stref czasowych.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Ludzie mog

ą

 utraci

ć

 poczucie swojej wyj

ą

tkowo

ś

ci

W pracy „Computer Power and Human Reason” (1976) 
Weizenbaum przedstawił zagro

Ŝ

enie wynikaj

ą

ce z przyj

ę

cia 

na podstawie bada

ń

 AI tezy, 

Ŝ

e człowiek jest w istocie 

automatem.
W wyniku tego człowiek, zdaniem Weizbauma, 

utraci poczucie 

swojej wyj

ą

tkowo

ś

ci

.

Teza taka si

ę

ga korzeniami do idei Le Metriego („L’Homme 

Machine”, 1748) i jest przejawem 

mechanicyzmu

.

©  F.A. Dul 2007

Machine”, 1748) i jest przejawem 

mechanicyzmu

.

Przeciwnicy tezy o szoku zwi

ą

zanym z utrat

ą

 wyj

ą

tkowo

ś

ci 

twierdz

ą

 jednak, 

Ŝ

e ludzko

ść

 przetrwała ju

Ŝ

 wiele rewizji 

przekonania o swojej szczególnej pozycji: rewolucj

ę

 

kopernika

ń

sk

ą

 (Kopernik, 1543) czy te

Ŝ

 teori

ę

 ewolucji 

(Darwin,1871). 
Gdyby AI osi

ą

gn

ę

ła swoje najambitniejsze cele, to ludzko

ść

 

musiałaby przewarto

ś

ciowa

ć

 swoje pogl

ą

dy tak, jak zrobiła   

to po rewolucjach kopernika

ń

skiej czy darwinowskiej. 

Wi

ę

kszo

ść

 filozofów uwa

Ŝ

a, 

Ŝ

e ludzko

ść

 sobie z tym poradzi.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Ludzie mog

ą

 utraci

ć

 cz

ęść

 swobód obywatelskich  

Weizenbaum przedstawił tak

Ŝ

e zagro

Ŝ

enia wynikaj

ą

ce              

z rozwoju technologii rejestracji i identyfikacji, polegaj

ą

ce              

na 

ograniczeniu praw i swobód obywatelskich

.

W istocie, w dobie wszechobecnych systemów nadzoru, 
telefonii komórkowej, elektronicznie rejestrowanych transakcji, 
systemów rozpoznawania obrazu, systemów analizuj

ą

cych 

komunikacj

ę

 (Echelon), prywatno

ść

 człowieka została ju

Ŝ

      

w znacznym stopniu ograniczona.

©  F.A. Dul 2007

Jest to wymuszone w du

Ŝ

ej mierze wzrostem zagro

Ŝ

e

ń

 

terrorystycznych w skali 

ś

wiatowej.

Wielu filozofów i socjologów zgadza si

ę

 z tez

ą

Ŝ

e komputery-

zacja doprowadziła do cz

ęś

ciowej utraty prywatno

ś

ci.

Prywatno

ść

 jest te

Ŝ

 uwa

Ŝ

ana przez wielu za jeden                       

z podstawowych wyznaczników osobowo

ś

ci człowieka,     

zatem jej utrata mo

Ŝ

e by

ć

 traktowana jako du

Ŝ

e zagro

Ŝ

enie.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

U

Ŝ

ywanie systemów sztucznej inteligencji mo

Ŝ

doprowadzi

ć

 do rozmycia odpowiedzialno

ś

ci

U

Ŝ

ycie systemów AI rodzi zagro

Ŝ

enia zwi

ą

zane z utrat

ą

 

odpowiedzialno

ś

ci za prowadzone działania.

Systemy bankowe i handlowe opieraj

ą

 si

ę

 w coraz wi

ę

kszym 

stopniu na komputerach u

Ŝ

ywaj

ą

cych systemów AI               

do prowadzenia transakcji, cz

ę

sto w imieniu klientów.

Systemy ekspertowe formułuj

ą

 diagnozy medyczne,                 

które mog

ą

 decydowa

ć

 o 

Ŝ

yciu pacjenta.  

©  F.A. Dul 2007

Od wła

ś

ciwego działania systemów nadzoruj

ą

cych                         

i steruj

ą

cych zale

Ŝ

y bezpiecze

ń

stwo komunikacji lotniczej, 

morskiej i l

ą

dowej.

Agenci internetowi mog

ą

 nieumy

ś

lnie (lub umy

ś

lnie) zniszczy

ć

 

zasoby w komputerach przył

ą

czonych do sieci. 

Powstaje wi

ę

c kwestia odpowiedzialno

ś

ci prawnej           

oraz materialnej za szkody mog

ą

ce by

ć

 wynikiem u

Ŝ

ywania 

systemów AI.

Istnieje te

Ŝ

 potencjalna mo

Ŝ

liwo

ść

 działania superinteligentnych 

systemów AI we własnym imieniu.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Medyczne systemy ekspertowe s

ą

 tylko doradcami lekarza, 

ale pojawia si

ę

 problem odpowiedzialno

ś

ci lekarza               

za niewykorzystanie wyników diagnozy systemu. 

Panuje zgoda, 

Ŝ

e działanie systemów AI powinno podlega

ć

 

ograniczeniom narzuconym przez projektantów i producentów.

Istniej

ą

ce systemy prawne nie po

ś

wi

ę

caj

ą

 jak dotychczas 

nale

Ŝ

ytej uwagi kwestii odpowiedzialno

ś

ci za działania 

systemów AI.

Zaistniałe przypadki rozpatrywane s

ą

 najcz

ęś

ciej w ramach 

©  F.A. Dul 2007

Mo

Ŝ

na jednak s

ą

dzi

ć

Ŝ

e w niedługim czasie powstan

ą

 

odpowiednie uregulowania prawne, wymuszone przez 
praktyk

ę

 

ś

wiata u

Ŝ

ywaj

ą

cego powszechnie systemów AI.

Zaistniałe przypadki rozpatrywane s

ą

 najcz

ęś

ciej w ramach 

istniej

ą

cego prawa, co jednak nie zawsze jest rozwi

ą

zaniem 

wła

ś

ciwym.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Rozwój sztucznej inteligencji mo

Ŝ

e doprowadzi

ć

 rodzaj 

ludzki do zaniku
Ka

Ŝ

da technologia w niewła

ś

ciwych r

ę

kach mo

Ŝ

e wyrz

ą

dza

ć

 

szkody (bro

ń

, technologie j

ą

drowe, internet,...). 

Jednak AI i robotyka mog

ą

 same by

ć

 autorami destrukcji.

Literatura sf od dawna opisuje siej

ą

ce zniszczenie roboty      

lub istoty człekopodobne: Frankenstein (Mary Shelley, 1818), 
R.U.R. (

Č

apek, 1921); filmy: Odyseja Kosmiczna 2001

(1968), Terminator (1984), Matrix (1999)  i wiele innych.
Roboty i androidy s

ą

 współczesn

ą

 wersj

ą

 dawnych wied

ź

m     

©  F.A. Dul 2007

Roboty i androidy s

ą

 współczesn

ą

 wersj

ą

 dawnych wied

ź

m     

i duchów; odzwierciedlaj

ą

 strach człowieka przed nieznanymi 

bytami.
Uwa

Ŝ

a si

ę

 jednak, 

Ŝ

e maszyny zbudowane dla realizacji 

celów człowieka b

ę

d

ą

 słu

Ŝ

y

ć

 człowiekowi i nie b

ę

d

ą

 stanowi

ć

 

realnego zagro

Ŝ

enia (pomijaj

ą

c wypadki).

Maszyny same w sobie nie s

ą

 agresywne, ale mog

ą

 by

ć

 takie 

je

Ŝ

eli zostan

ą

 odpowiednio zaprojektowane przez człowieka.

Maszyny mog

ą

 sta

ć

 si

ę

 w pewnym sensie „zdobywcami 

ś

wiata”, je

Ŝ

eli b

ę

d

ą

 niezast

ą

pione (tak, jak np. samochody). 

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Mo

Ŝ

liwym scenariuszem „podboju” 

ś

wiata przez inteligentne 

maszyny jest 

eksplozja inteligencji

(Good, 1965):

• człowiek buduje najinteligentniejsze 

maszyny, jakie mo

Ŝ

e stworzy

ć

 przy 

pomocy dost

ę

pnych mu technologii...

• ale maszyny te s

ą

 tak inteligentne, 

Ŝ

e potrafi

ą

 zbudowa

ć

 maszyny 

jeszcze bardziej inteligentne,...

• te z kolei buduj

ą

 maszyny jeszcze 

m

ą

drzejsze, itd...

?

in

te

lig

e

n

c

ja

?

©  F.A. Dul 2007

Inteligencja człowieka pozostałaby wi

ę

c szybko w tyle.

m

ą

drzejsze, itd...

Taki lawinowy rozwój maszyn 
inteligentnych prowadziłby do 

osobliwo

ś

ci technologicznej

.

Filozofowie s

ą

 raczej zgodni co do tego, 

Ŝ

e maszyny  

przewy

Ŝ

szaj

ą

ce inteligencj

ą

 człowieka kiedy

ś

 powstan

ą

.

Ŝ

ni

ą

 si

ę

 w ocenie tempa rozwoju maszyn inteligentnych 

oraz skutków ich pojawienia si

ę

 twierdz

ą

c, 

Ŝ

e nast

ą

pi:  

• kres ery człowieka

(Good, Vinge 1993).

• konwergencja człowieka i maszyny

(Moravec 2000).

czas

koniec ery 

człowieka

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

A jak wygl

ą

dałby 

ś

wiat z punktu widzenia inteligentnych 

maszyn?

Jednak pojawienie si

ę

 

maszyn 

ś

wiadomych 

stworzy całkiem 

nowe problemy natury moralnej i etycznej.

Maszyny b

ę

d

ą

 musiały przestrzega

ć

 praw ludzkich.

Maszyny inteligentne, ale nie

ś

wiadome, s

ą

 dalej tylko 

maszynami.

Ś

wiadome maszyny b

ę

d

ą

 musiały by

ć

 zaprojektowane tak, 

aby odró

Ŝ

niały dobro od zła.

©  F.A. Dul 2007

Cz

ęść

 etyków uwa

Ŝ

a, 

Ŝ

ś

wiadomych maszyn nie wolno 

b

ę

dzie traktowa

ć

 inaczej ni

Ŝ

 ludzi -

nale

Ŝ

ne im b

ę

d

ą

 prawa

.

Czy zatem roboty b

ę

d

ą

 mogły za

Ŝą

da

ć

 np. wolnych sobót, 

prawa do strajku czy praw chroni

ą

cych ich reprodukcj

ę

?

Maszyny b

ę

d

ą

 musiały przestrzega

ć

 praw ludzkich.

Czy b

ę

d

ą

 zakładały zwi

ą

zki zawodowe lub partie polityczne? 

Czy w ko

ń

cu b

ę

d

ą

 mogły rz

ą

dzi

ć

 lud

ź

mi?

Na te (i inne) pytania nie ma dzisiaj odpowiedzi, ale problem 
nieobcy jest literaturze sf, np. Asimov (1942), film Spielberga
A.I. 
(2001).

background image

Podsumowanie

• Filozofowie u

Ŝ

ywaj

ą

 poj

ę

cia 

słabej AI

dla okre

ś

lenia hipotezy 

mówi

ą

cej, 

Ŝ

e maszyny mog

ą

 zachowywa

ć

 si

ę

 inteligentnie.

• Poj

ę

cie 

silnej AI

okre

ś

la hipotez

ę

 mówi

ą

c

ą

Ŝ

e maszyny 

rzeczywi

ś

cie mog

ą

 my

ś

le

ć

, a nie tylko symulowa

ć

 my

ś

lenie.

• Alan Turing odrzucił kwesti

ę

 „Czy maszyny my

ś

l

ą

?”  

zast

ę

puj

ą

c j

ą

 testem inteligentnego zachowania maszyny.

Turing sformułował wiele obiekcji w stosunku do idei maszyn 
my

ś

l

ą

cych.

©  F.A. Dul 2007

my

ś

l

ą

cych.

• Niewielu badaczy AI przywi

ą

zuje obecnie wag

ę

 do testu 

Turinga i imitacji człowieka, skupiaj

ą

c si

ę

 raczej                    

na doskonaleniu mo

Ŝ

liwo

ś

ci systemów AI.

• Argumenty za i przeciw silnej AI nie prowadz

ą

 do konkluzji.

Istnieje przekonanie, 

Ŝ

e badania AI w niewielkim stopniu  

zale

Ŝą

 od wyników debaty na ten temat.

background image

Podsumowanie (c.d.)

• Panuje zgoda co do tego, 

Ŝ

e stany umysłu s

ą

 stanami 

fizjologicznymi mózgu.

Ś

wiadomo

ść

 pozostaje jednak wielk

ą

 tajemnic

ą

...

• Potencjalne zagro

Ŝ

enia społeczne zwi

ą

zane ze sztuczn

ą

 

inteligencj

ą

 i technologiami pokrewnymi s

ą

 w wi

ę

kszo

ś

ci   

mało prawdopodobne lub wyst

ę

puj

ą

 równie

Ŝ

 w innych 

dziedzinach, nie zwi

ą

zanych ze sztuczn

ą

 inteligencj

ą

.

©  F.A. Dul 2007

• Zagro

Ŝ

eniem realnym wartym uwagi jest wpływ  

superinteligentnych maszyn na kształt 

ś

wiata w przyszło

ś

ci.

To mo

Ŝ

e by

ć

 zupełnie inny 

ś

wiat - mo

Ŝ

na go b

ę

dzie lubi

ć

        

lub nie, ale nie b

ę

dzie si

ę

 miało na to wpływu.

• Takie rozwa

Ŝ

ania prowadz

ą

 nieuchronnie do wniosku,         

Ŝ

e ju

Ŝ

 teraz nale

Ŝ

y starannie rozwa

Ŝ

a

ć

 mo

Ŝ

liwe 

konsekwencje bada

ń

 nad AI dla przyszło

ś

ci rodzaju 

ludzkiego.

background image