WPROWADZENIE
DO SZTUCZNEJ INTELIGENCJI
POLITECHNIKA WARSZAWSKA
WYDZIAŁ MECHANICZNY ENERGETYKI I LOTNICTWA
MEL
MEL
NS 586
Dr in
ż
. Franciszek Dul
© F.A. Dul 2007
26. PODSTAWY FILOZOFICZNE
SZTUCZNEJ INTELIGENCJI
© F.A. Dul 2007
SZTUCZNEJ INTELIGENCJI
Podstawy filozoficzne sztucznej inteligencji
W tym rozdziale b
ę
dziemy rozwa
ż
a
ć
co to znaczy „my
ś
le
ć
”; czy obiekty
stworzone przez człowieka my
ś
le
ć
© F.A. Dul 2007
stworzone przez człowieka my
ś
le
ć
mog
ą
oraz czy powinny kiedykolwiek.
26. Wprowadzenie
Filozofowie u
ż
ywaj
ą
poj
ę
cia słabej AI dla okre
ś
lenia
hipotezy mówi
ą
cej,
ż
e maszyny mog
ą
zachowywa
ć
si
ę
Filozofowie próbuj
ą
od dawna rozwi
ą
za
ć
problemy które
dotycz
ą
tak
ż
e sztucznej inteligencji:
Jak działa umysł?
Czy maszyny mog
ą
działa
ć
inteligentnie, tak jak ludzie?
Je
ż
eli tak, to czy maj
ą
umysł?
Jakie s
ą
implikacje etyczne sztucznej inteligencji?
© F.A. Dul 2007
hipotezy mówi
ą
cej,
ż
e maszyny mog
ą
zachowywa
ć
si
ę
inteligentnie.
Poj
ę
cie silnej AI okre
ś
la hipotez
ę
mówi
ą
c
ą
,
ż
e maszyny
mog
ą
my
ś
le
ć
, a nie tylko symulowa
ć
my
ś
lenie.
Badania AI opieraj
ą
si
ę
głównie na hipotezie słabej AI.
W wi
ę
kszo
ś
ci przypadków nie jest wa
ż
ne czy system AI
symuluje inteligencj
ę
, czy jest rzeczywi
ś
cie inteligentny.
Jednak wszyscy powinni bra
ć
pod uwag
ę
implikacje
etyczne bada
ń
nad sztuczn
ą
inteligencj
ą
.
26. Wprowadzenie
• Słaba Sztuczna Inteligencja: Czy maszyny mog
ą
działa
ć
inteligentnie?
• Silna Sztuczna Inteligencja: Czy maszyny mog
ą
my
ś
le
ć
?
• Etyka i ryzyko rozwoju sztucznej inteligencji.
Plan rozdziału
© F.A. Dul 2007
26.1.
Słaba Sztuczna Inteligencja:
Czy maszyny
mog
ą
działa
ć
inteligentnie?
Niektórzy badacze próbuj
ą
dowie
ść
,
ż
e sztuczna inteligencja
nie jest mo
ż
liwa, a próby jej wykreowania bior
ą
si
ę
z „kultu
obliczeniowo
ś
ci” czyli wiary,
ż
e wszystkie działania
inteligentne s
ą
w swej istocie procesami obliczeniowymi.
Mo
ż
liwo
ść
stworzenia sztucznej inteligencji zale
ż
y jednak
od tego, co si
ę
pod tym poj
ę
ciem rozumie.
Je
ż
eli uzna si
ę
,
ż
e sztuczna inteligencja to poszukiwanie
© F.A. Dul 2007
Je
ż
eli uzna si
ę
,
ż
e sztuczna inteligencja to poszukiwanie
najlepszego programu dla agenta o danej strukturze,
to stworzenie sztucznej inteligencji jest mo
ż
liwe z definicji.
Dla ka
ż
dej architektury cyfrowej składaj
ą
cej si
ę
z
k
bitów
pami
ę
ci istnieje dokładnie
2
k
programów dla agenta.
Nale
ż
y tylko znale
źć
najlepszy, np. sprawdzaj
ą
c wszystkie.
Definicja informatyczna sztucznej inteligencji nie rozstrzyga
jednak fundamentalnej kwestii
„Czy maszyna mo
ż
e my
ś
le
ć
?”
26.1. Słaba Sztuczna Inteligencja: czy maszyny mog
ą
działa
ć
inteligentnie?
Pytanie „Czy maszyna mo
ż
e my
ś
le
ć
?” jest jednak
ź
le
postawione, przynajmniej w kontek
ś
cie sztucznej inteligencji.
Okazuje si
ę
bowiem,
ż
e rozwój sztucznej inteligencji
rozumianej jako dziedzina nauk technicznych
nie zale
ż
y
od odpowiedzi na to pytanie
.
Alan Turing w słynnej pracy „Computing Machinery and
Intelligence” (1950) zaproponował aby zamiast pyta
ć
czy
maszyna mo
ż
e my
ś
le
ć
, sprawdzi
ć
czy mo
ż
e przej
ść
test
inteligentnego zachowania, zwany obecnie
Testem Turinga
.
© F.A. Dul 2007
inteligentnego zachowania, zwany obecnie
Testem Turinga
.
Turing przewidywał,
ż
e do roku 2000 komputery spełni
ą
kryteria testu–przekonanie 30% rozmówców w ci
ą
gu 5 minut
konwersacji z maszyn
ą
ż
e jest ona człowiekiem.
Test Turinga ma obecnie znaczenie historyczne i nie jest
traktowany jako kryterium wpływaj
ą
ce na rozwój sztucznej
inteligencji.
Kryteria testu Turinga nie zostały dotychczas spełnione przez
ż
adn
ą
maszyn
ę
.
26.1. Słaba Sztuczna Inteligencja: czy maszyny mog
ą
działa
ć
inteligentnie?
Argumenty o niemo
ż
no
ś
ci
• miła, zaradna, pomysłowa, przyjazna, pi
ę
kna (?),
• wykazywa
ć
inicjatywy, mie
ć
poczucia humoru,
• odró
ż
nia
ć
dobra od zła,
• popełnia
ć
bł
ę
dów (?),
• mogła zakocha
ć
si
ę
,
Turing sformułował szereg w
ą
tpliwo
ś
ci dotycz
ą
cych mo
ż
liwo
ś
ci
skonstruowania inteligentnych maszyn.
Argumenty Turinga o niemo
ż
no
ś
ci: „
maszyna nigdy nie b
ę
dzie
”:
© F.A. Dul 2007
• mogła zakocha
ć
si
ę
,
• mogła rozkocha
ć
kogo
ś
w sobie (?),
• smakowa
ć
truskawek i lodów,
• rozkoszowa
ć
si
ę
muzyk
ą
lub literatur
ą
,
• sama uczy
ć
si
ę
z do
ś
wiadcze
ń
,
• umie
ć
prawidłowo dobiera
ć
słów,
• obiektem własnych my
ś
li,
• przejawia
ć
tak ró
ż
nych zachowa
ń
jak człowiek,
• umiała zrobi
ć
co
ś
rzeczywi
ś
cie nowego, ...
26.1. Słaba Sztuczna Inteligencja: czy maszyny mog
ą
działa
ć
inteligentnie?
Wszystkie te działania wymagaj
ą
najwy
ż
szej sprawno
ś
ci
• wygrywaj
ą
w szachy z arcymistrzami,
• graj
ą
(i wygrywaj
ą
) równie
ż
w wiele innych gier,
• prowadz
ą
i nadzoruj
ą
monta
ż
produktów w fabrykach,
• sprawdzaj
ą
pisowni
ę
dokumentów w edytorach,
• steruj
ą
samochodami, samolotami, statkami kosmicznymi,
• diagnozuj
ą
choroby,
• dokonuj
ą
odkry
ć
w matematyce, biologii, astronomii, chemii.
Współczesne maszyny robi
ą
jednak wiele rzeczy, które dawniej
były wył
ą
cznie domen
ą
człowieka:
© F.A. Dul 2007
Wszystkie te działania wymagaj
ą
najwy
ż
szej sprawno
ś
ci
lub kompetencji eksperta.
Maszyny mog
ą
nie tylko wykonywa
ć
zadania o charakterze
kombinatorycznym (jak gra w szachy), ale równie
ż
takie które
wymagaj
ą
zdolno
ś
ci uczenia si
ę
(systemy ekspertowe).
Chocia
ż
maszyny robi
ą
wiele rzeczy lepiej ni
ż
człowiek,
to jednak
nie rozumiej
ą
sensu wykonywanych działa
ń
,
nie u
ż
ywaj
ą
wi
ę
c inteligencji podczas ich wykonywania.
Wynika st
ą
d,
ż
e
potoczne przekonanie i
ż
jakie
ś
działanie
wymaga inteligencji mo
ż
e by
ć
bł
ę
dne
.
Wnioski
Pytanie
„Czy maszyna mo
ż
e my
ś
le
ć
?”
nie jest
poprawnie postawione w kontek
ś
cie bada
ń
nad
sztuczn
ą
inteligencj
ą
.
Chocia
ż
działania maszyn „inteligentnych” cechuj
ą
si
ę
wysok
ą
sprawno
ś
ci
ą
i znacznymi kompetencjami,
to jednak nie mo
ż
na uzna
ć
i
ż
s
ą
inteligentne.
26.1. Słaba Sztuczna Inteligencja: czy maszyny mog
ą
działa
ć
inteligentnie?
© F.A. Dul 2007
to jednak nie mo
ż
na uzna
ć
i
ż
s
ą
inteligentne.
Potoczne przekonanie o tym,
ż
e do wykonania
pewnych działa
ń
konieczna jest inteligencja jest
cz
ę
sto bł
ę
dne.
26.1. Słaba Sztuczna Inteligencja: czy maszyny mog
ą
działa
ć
inteligentnie?
Obiekcje matematyczne
• jest prawdziwe je
ż
eli system
F
jest spójny,
• nie mo
ż
e by
ć
dowiedzione
w ramach systemu
F.
Opieraj
ą
c si
ę
na tym twierdzeniu Lucas (1961) wyraził pogl
ą
d,
ż
e maszyny inteligentne, b
ę
d
ą
c systemami matematycznymi,
nie mog
ą
„same si
ę
udowodni
ć
”, podczas gdy człowiek jako
Twierdznie Gödla
(1931) mówi,
ż
e dla ka
ż
dego systemu
aksjomatycznego
F
wyposa
ż
onego w arytmetyk
ę
mo
ż
liwe jest
skonstruowanie zdania
G(F)
∈
F
które:
© F.A. Dul 2007
nie mog
ą
„same si
ę
udowodni
ć
”, podczas gdy człowiek jako
byt wy
ż
szy mentalnie nie podlega temu ograniczeniu.
Wprawdzie maszyna Turinga jest niesko
ń
czonym systemem
formalnym, to jednak rzeczywiste systemy AI – jak dot
ą
d –
takimi systemami nie s
ą
.
Nie jest te
ż
oczywiste,
ż
e człowiek jako system nie podlega
twierdzeniu Gödla.
Człowiek jest niekonsekwentny, omylny,
a jednak inteligentny
.
Zatem ograniczenia formalne – nawet fundamentalne –
nie musz
ą
by
ć
przeszkod
ą
w osi
ą
gni
ę
ciu inteligencji.
26.1. Słaba Sztuczna Inteligencja: czy maszyny mog
ą
działa
ć
inteligentnie?
Argument o nieformalno
ś
ci
Najbardziej stanowcz
ą
krytyk
ę
sztucznej inteligencji sformuło-
wał Turing w postaci
„argumentu o nieformalizowalno
ś
ci
zachowania”
.
Zachowanie człowieka jest tak zło
ż
one,
ż
e nie mo
ż
e by
ć
opisane zbiorem prostych zasad.
Poniewa
ż
maszyna wykonuje tylko działania wynikaj
ą
ce
z przyj
ę
tych zasad, to nie mo
ż
e wykazywa
ć
zachowa
ń
inteligentnych.
Jest to tzw.
problem kwalifikacji
w sztucznej inteligencji.
© F.A. Dul 2007
Jest to tzw.
problem kwalifikacji
w sztucznej inteligencji.
Głównymi rzecznikami tego argumentu s
ą
: Hubert Dreyfus,
„What Computers Can’t Do” (1972) oraz „What Computers
Still Can’t Do” (1992) oraz jego brat Stuart Dreyfus, „Mind
Over Machine” (1986).
Pogl
ą
dem krytykowanym przez Dreyfusów jest tzw. podej
ś
cie
GOFAI („Good Old-Fashioned AI”), wyra
ż
one nast
ę
puj
ą
co:
Ka
ż
de zachowanie inteligentne mo
ż
e by
ć
zrealizowane
poprzez wnioskowanie logicznie z faktów oraz reguł
opisuj
ą
cych dan
ą
dziedzin
ę
.
26.1. Słaba Sztuczna Inteligencja: czy maszyny mog
ą
działa
ć
inteligentnie?
Krytyka Dreyfusów sztucznej inteligencji dotyczyła wła
ś
nie
podej
ś
cia GOFAI, nie za
ś
komputerów jako obiektów sztucznej
inteligencji w ogóle.
• Komputer graj
ą
cy w szachy
wyznacza mo
ż
liwe posuni
ę
cia
poprzez wielokrokow
ą
analiz
ę
ruchów
wspieran
ą
przykładami
partii rozegranych w przeszło
ś
ci, bez anga
ż
owania do tych
działa
ń
jakiejkolwiek inteligencji.
Pogl
ą
d Dreyfusów odno
ś
nie ró
ż
nicy pomi
ę
dzy działaniem
inteligentnym człowieka a (nieinteligentnym) maszyny mo
ż
na
opisa
ć
nast
ę
puj
ą
co
© F.A. Dul 2007
działa
ń
jakiejkolwiek inteligencji.
• Człowiek (arcymistrz) patrz
ą
c na szachownic
ę
widzi potrzeb
ę
wykonania konkretnego ruchu
, bez konieczno
ś
ci
wielokrokowej analizy posuni
ęć
- to jest najwy
ż
sza forma
inteligencji.
Innymi słowy: procesy my
ś
lowe ekspertów (arcymistrzów)
przebiegaj
ą
na takim poziomie
ś
wiadomo
ś
ci, który nie
poddaje si
ę
nawet samoobserwacji (introspekcji), nie mo
ż
e
wi
ę
c by
ć
analizowany i wykorzystany do budowy maszyn
inteligentnych.
26.1. Słaba Sztuczna Inteligencja: czy maszyny mog
ą
działa
ć
inteligentnie?
Mimo sceptycyzmu bracia Dreyfus zaproponowali jednak
(w 1986) pi
ę
ciostopniowy proces przyswajania specjalistycznej
wiedzy i przetwarzania opartego na regułach logicznych (typu
GOFAI) zako
ń
czonego wyborem wła
ś
ciwych działa
ń
.
Odnotowali przy tym nast
ę
puj
ą
ce problemy:
1. Wła
ś
ciwe uogólnianie przykładów wymaga zgromadzenia
przez agenta wiedzy wst
ę
pnej.
2. Sieci neuronowe uczone z nadzorowaniem wymagaj
ą
wła
ś
ciwego okre
ś
lenia wej
ść
i wyj
ść
, co mo
ż
e zrobi
ć
tylko
człowiek.
© F.A. Dul 2007
wła
ś
ciwego okre
ś
lenia wej
ść
i wyj
ść
, co mo
ż
e zrobi
ć
tylko
człowiek.
3. Algorytmy ucz
ą
ce nie s
ą
wystarczaj
ą
co efektywne w
przypadku wielu własno
ś
ci, trudno jest te
ż
doł
ą
cza
ć
nowe.
4. Mózg potrafi łatwo skoncentrowa
ć
uwag
ę
na istotnym
obszarze otoczenia, w przeciwie
ń
stwie do agenta.
Wszystkie te problemy zostały ju
ż
rozwi
ą
zane, z mniejszym
lub wi
ę
kszym powodzeniem.
Uwzgl
ę
dnianie krytyki Dreyfusów
ś
wiadczy raczej o ci
ą
głym
rozwoju sztucznej inteligencji, nie za
ś
o niemo
ż
no
ś
ci jej
stworzenia.
Wnioski
Pytania fundamentalne dotycz
ą
ce mo
ż
liwo
ś
ci
kreowania sztucznych bytów inteligentnych s
ą
w przewa
ż
aj
ą
cej cz
ęś
ci zbyt abstrakcyjne aby mogły
mie
ć
wpływ na praktyczn
ą
stron
ę
AI.
Rozwa
ż
ania filozoficzne wskazuj
ą
na niemo
ż
no
ść
sformułowania precyzyjnych kryteriów inteligencji.
Argumenty filozoficzne dotycz
ą
ce sztucznej
26.1. Słaba Sztuczna Inteligencja: czy maszyny mog
ą
działa
ć
inteligentnie?
© F.A. Dul 2007
Argumenty filozoficzne dotycz
ą
ce sztucznej
inteligencji w wi
ę
kszo
ś
ci przypadków nie prowadz
ą
do konkluzji praktycznych.
Rozwój sztucznej inteligencji w sferze praktycznej
jest w du
ż
ym stopniu niezale
ż
ny od wniosków
natury filozoficznej; (
„psy szczekaj
ą
, a karawana idzie
dalej”...)
26.2.
Silna Sztuczna Inteligencja:
Czy maszyny
mog
ą
my
ś
le
ć
?
W
ś
ród filozofów panuje zgoda co do tego,
ż
e maszyna która
spełniła test Turinga nie my
ś
li, lecz tylko
symuluje my
ś
lenie
.
Argument Turinga
o
ś
wiadomo
ś
ci
: maszyna rzeczywi
ś
cie
my
ś
l
ą
ca musi by
ć
ś
wiadoma swoich stanów my
ś
lowych
oraz działa
ń
, które wykonuje.
Inne kryteria zwi
ą
zane z my
ś
leniem:
• fenomenologia
, maszyna my
ś
l
ą
ca musi odczuwa
ć
emocje,
• intencjonalno
ść
, maszyna my
ś
l
ą
ca musi wierzy
ć
, pragn
ąć
.
© F.A. Dul 2007
• intencjonalno
ść
, maszyna my
ś
l
ą
ca musi wierzy
ć
, pragn
ąć
.
Turing zakwestionował pytanie o
ś
wiadomo
ść
maszyn tak, jak
zakwestionował pytanie „Czy maszyna mo
ż
e my
ś
le
ć
?”
Argumentacja Turinga dotyczyła niemo
ż
no
ś
ci stwierdzenia
ś
wiadomo
ś
ci z powodu nieobserwowalno
ś
ci wewn
ę
trznych
stanów umysłu człowieka.
Zaproponował on aby
przyj
ąć
,
ż
e maszyna ma
ś
wiadomo
ść
tak, jak przyjmuje si
ę
na zasadzie powszechnej zgody,
ż
e
ka
ż
dy
człowiek ma
ś
wiadomo
ść
.
Turing stwierdził,
ż
e akceptacja
ś
wiadomo
ś
ci maszyny jest
mo
ż
liwa, je
ż
eli wyka
ż
e si
ę
ona inteligencj
ą
.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Turing stwierdził te
ż
,
ż
e problem
ś
wiadomo
ś
ci maszyny jest
trudny do rozstrzygni
ę
cia, ale w rzeczywisto
ś
ci ma niewielki
wpływ na rozwój sztucznej inteligencji.
Pomi
ę
dzy filozofami a praktykami AI istnieje ró
ż
nica pogl
ą
dów
na temat znaczenia problemu
ś
wiadomo
ś
ci maszyn.
Filozofowie s
ą
ż
ywotnie zainteresowani t
ą
kwesti
ą
, podczas
gdy praktycy uwa
ż
aj
ą
,
ż
e
nie ma ona wpływu na rozwój AI
.
Z filozoficznego punktu widzenia problem jest wa
ż
ny, gdy
ż
dotyczy relacji pomi
ę
dzy obiektami rzeczywistymi a sztucznymi.
© F.A. Dul 2007
Przykłady
1. Synteza sztucznego mocznika (1848) pokazała,
ż
e
nie ma
ż
adnej ró
ż
nicy
(fizycznej i chemicznej) pomi
ę
dzy mocznikiem
sztucznym a naturalnym. Mocznik sztuczny
jest
mocznikiem.
Dotyczy to te
ż
innych substancji.
2. Jednak sztucznego wina Chateau Latour
nie uznaje si
ę
za
wino Chateau Latour mimo,
ż
e ma takie same własno
ś
ci, gdy
ż
nie powstało we wła
ś
ciwym miejscu i czasie.
3. Podobnie, kopia obrazu Picassa nie jest obrazem Picassa,
niezale
ż
nie od tego, jak jest namalowana.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Konkluzja: czasem wyznacznikiem sztuczno
ś
ci jest zachowanie
si
ę
obiektu, ale czasami samo sztuczne pochodzenie decyduje
o takiej jego kwalifikacji.
Problem jest trudny: burza symulowana komputerowo nie
zmoczy programisty, ale nie jest oczywiste, czy symulacj
ę
procesów my
ś
lowych mo
ż
na traktowa
ć
analogicznie.
Kwalifikacja procesów my
ś
lowych zale
ż
y od przyj
ę
tej teorii.
Teoria funkcjonalizmu
stwierdza,
ż
e stan umysłu jest
dowolnym przej
ś
ciowym zwi
ą
zkiem przyczynowym pomi
ę
dzy
© F.A. Dul 2007
dowolnym przej
ś
ciowym zwi
ą
zkiem przyczynowym pomi
ę
dzy
wej
ś
ciem a wyj
ś
ciem.
Wynika st
ą
d,
ż
e ka
ż
de dwa układy z izomorficznymi procesami
przyczynowymi maj
ą
takie same stany umysłu.
Teoria naturalizmu biologicznego
stwierdza,
ż
e stan umysłu
jest własno
ś
ci
ą
wysokiego poziomu spowodowan
ą
procesami
neurologicznymi zachodz
ą
cymi w neuronach, oraz
ż
e jest to
własno
ść
samych neuronów.
Wynika st
ą
d,
ż
e stany umysłu nie mog
ą
by
ć
symulowane
w komputerze, gdy
ż
nie ma on takich własno
ś
ci, jak neurony.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Problem ciała i umysłu
Problem ciała i umysłu dotyczy zwi
ą
zku stanów my
ś
lowych
ze stanami fizjologicznymi ciała (mózgu).
W teorii
dualno
ś
ci
Kartezjusz twierdził,
ż
e ciało i dusza s
ą
dwoma ró
ż
nymi bytami.
Teoria
monistyczna
(
materializm
) twierdzi natomiast,
ż
e
dusza nie istnieje, zatem stany umysłu s
ą
stanami mózgu -
„mózg jest przyczyn
ą
my
ś
lenia”
(John Searle).
Materializm boryka si
ę
z problemem
wolnej woli
- czy obiekt
rz
ą
dzony
ś
cisłymi prawami fizyki mo
ż
e mie
ć
woln
ą
wol
ę
?
© F.A. Dul 2007
rz
ą
dzony
ś
cisłymi prawami fizyki mo
ż
e mie
ć
woln
ą
wol
ę
?
Wa
ż
nym problemem jest
ś
wiadomo
ść
- w jaki sposób obiekt
czuje
,
ż
e jest
tym
obiektem a nie jakim
ś
innym?
Stany umysłu nie zale
żą
przy tym od zmian fizjologicznych:
zast
ą
pienie pewnej liczby atomów mózgu (co mam miejsce
w ramach metabolizmu) nie spowoduje zmiany my
ś
lenia.
Szczególnym rodzajem stanu umysłu jest
postawa
propozycjonalna
nazywana tak
ż
e
stanem intencjonalnym
.
S
ą
to stany w rodzaju: wiary, wiedzy, po
żą
dania, strachu, itp.,
odnosz
ą
ce si
ę
do
ś
wiata zewn
ę
trznego.
Pytanie: czy maszyny mog
ą
mie
ć
stany intencjonalne?
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Eksperyment my
ś
lowy „Mózg w słoiku”
Eksperyment ten ma na celu ustalenie, czy stany umysłu
s
ą
jednoznacznie okre
ś
lone percepcj
ą
otoczenia.
W eksperymencie tym zakłada si
ę
,
ż
e mózg został oddzielony
od ciała i umieszczony w zapewniaj
ą
cym mu egzystencj
ę
pojemniku.
Ś
wiat zewn
ę
trzny jest symulowany, bod
ź
ce przekazywane
s
ą
do mózgu, za
ś
działania generowane przez mózg
s
ą
realizowane w symulowanym
ś
wiecie.
Okazuje si
ę
,
ż
e zawarto
ść
stanów umysłu zale
ż
y od punktu
© F.A. Dul 2007
Okazuje si
ę
,
ż
e zawarto
ść
stanów umysłu zale
ż
y od punktu
widzenia.
W kontek
ś
cie w
ą
skim
, z wewn
ę
trznego punktu widzenia,
stan umysłu jest jednoznacznie zdefiniowany przez kontakt
z otoczeniem niezale
ż
nie od tego, czy otoczenie jest
rzeczywiste, czy symulowane.
W kontek
ś
cie szerokim
, z punktu widzenia zewn
ę
trznego
obserwatora wszechwiedz
ą
cego, stan umysłu zale
ż
y od
ró
ż
nic w
ś
wiecie zewn
ę
trznym nawet wtedy, gdy mózg nie ma
mo
ż
liwo
ś
ci obserwacji tych ró
ż
nic poprzez dost
ę
pn
ą
mu
percepcj
ę
.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Eksperyment my
ś
lowy „Proteza mózgu”
Eksperyment ten ma na celu ustalenie, czy
ś
wiadomo
ść
zale
ż
y od budowy i fizjologii mózgu.
W eksperymencie tym kolejne neurony s
ą
zast
ę
powane
idealnymi protezami, po czym naturalne neurony s
ą
wstawiane z powrotem w kolejno
ś
ci odwrotnej.
Pytania dotycz
ą
ś
wiadomo
ś
ci:
• czy mózg zachowa
ś
wiadomo
ść
niezale
ż
nie od liczby
wstawionych protez?
• czy nie nast
ą
pi rozej
ś
cie si
ę
ś
wiadomo
ś
ci i zachowania
© F.A. Dul 2007
• czy nie nast
ą
pi rozej
ś
cie si
ę
ś
wiadomo
ś
ci i zachowania
zewn
ę
trznego mózgu?
• czy proces ponownego wstawiania neuronów naturalnych
przywróci mózgowi
ś
wiadomo
ść
pierwotn
ą
?
Zwolennicy funkcjonalizmu (Moravec) twierdz
ą
,
ż
e
ś
wiadomo
ść
pozostanie nie zmieniona w trakcie i po eksperymencie.
Zwolennicy naturalizmu biologicznego (Searle) uwa
ż
aj
ą
,
ż
e
ś
wiadomo
ść
zmieni si
ę
w trakcie eksperymentu, a nawet
mo
ż
e zanikn
ąć
całkowicie i nieodwracalnie.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Analiza wyników eksperymentu prowadzi do nast
ę
puj
ą
cych
wniosków:
1. Mechanizm
ś
wiadomo
ś
ci w mózgu działa tak
ż
e
w komputerze - komputer zatem
ma
ś
wiadomo
ść
.
• Utrata
ś
wiadomo
ś
ci, gdyby miała nast
ą
pi
ć
, musiałaby by
ć
nagła, co jest mało prawdopodobne przy stopniowym
wymienianiu pojedynczych neuronów.
• Mózg zło
ż
ony z neuronów elektronicznych zachowa zatem
ś
wiadomo
ść
, co prowadzi do dwóch mo
ż
liwych konkluzji:
© F.A. Dul 2007
w komputerze - komputer zatem
ma
ś
wiadomo
ść
.
2. Zdarzenia mentalne zwi
ą
zane ze
ś
wiadomo
ś
ci
ą
mózgu nie maj
ą
zwi
ą
zku z jego zachowaniem
zewn
ę
trznym; nie mog
ą
wi
ę
c pojawi
ć
si
ę
w komputerze - komputer
nie ma
ś
wiadomo
ś
ci.
Mo
ż
liwo
ść
druga redukuje jednak
ś
wiadomo
ść
do roli
epifenomenalnej
- czyli takiej w której nie zostawia ona
ż
adnych
ś
ladów swojego istnienia; nie mo
ż
na wi
ę
c jej bada
ć
.
Eksperyment „proteza mózgu”
dopuszcza wi
ę
c
mo
ż
liwo
ść
,
ż
e maszyna mo
ż
e mie
ć
ś
wiadomo
ść
.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Problemem wymykaj
ą
cym si
ę
badaniom nad umysłem jest
qualia
- zdolno
ść
ś
wiadomo
ś
ci do subiektywnej oceny
wra
ż
e
ń
zmysłowych, np. smaku cukru, zapachu kawy, pi
ę
kna
muzyki Mozarta, itp.
Taka mo
ż
liwo
ść
jest trudna do zaakceptowania (co zauwa
ż
ył
ju
ż
Turing) - wyniki eksperymentu „proteza mózgu” w którym
zamienia si
ę
od razu cały mózg nie s
ą
zgodne z intuicj
ą
.
Je
ś
li zaakceptuje si
ę
pogl
ą
d,
ż
e sztuczny mózg mo
ż
e mie
ć
ś
wiadomo
ść
, to pojawia si
ę
mo
ż
liwo
ść
,
ż
e
ś
wiadomo
ś
ci
ą
obdarzona jest tak
ż
e tablica zwi
ą
zków wej
ś
cia-wyj
ś
cia mózgu.
© F.A. Dul 2007
Eksperyment „proteza mózgu” pokazuje problemy filozoficzne
zwi
ą
zane z istot
ą
ś
wiadomo
ś
ci.
Ś
wiadomo
ść
pozostaje wi
ę
c
tajemnic
ą
...
wra
ż
e
ń
zmysłowych, np. smaku cukru, zapachu kawy, pi
ę
kna
muzyki Mozarta, itp.
Takie cechy stanu umysłu s
ą
wysoce subiektywne i nie wydaje
si
ę
, aby mo
ż
na je było uj
ąć
za pomoc
ą
obiektywnych poj
ęć
fizycznych.
Qualia jest wa
ż
n
ą
cz
ęś
ci
ą
ś
wiadomo
ś
ci,
ale nie mo
ż
e by
ć
obiektywnie badana
.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Eksperyment my
ś
lowy „Chi
ń
ski pokój”
Eksperyment ten, wymy
ś
lony przez Searla w roku 1980 miał
pokaza
ć
,
ż
e system wykonuj
ą
cy program i b
ę
d
ą
cy w stanie
zaliczy
ć
test Turinga nie rozumie sensu wykonywanych działa
ń
.
Eksperyment „chi
ń
ski pokój” polega na umieszczeniu
w zamkni
ę
tym pomieszczeniu człowieka znaj
ą
cego tylko j
ę
zyk
angielski, wyposa
ż
eniu go w instrukcj
ę
operowania na
symbolach j
ę
zyka chi
ń
skiego napisanej w j
ę
zyku angielskim
oraz du
ż
y zasób kartek papieru.
Człowiek otrzymuje z zewn
ą
trz kartki zapisane znakami
© F.A. Dul 2007
Człowiek otrzymuje z zewn
ą
trz kartki zapisane znakami
chi
ń
skimi, przekształca je korzystaj
ą
c z instrukcji i zwraca
wyniki tych operacji na zewn
ą
trz.
Z zewn
ą
trz widoczny jest system który otrzymuje zdania
chi
ń
skie i udziela odpowiedzi w j
ę
zyku chi
ń
skim.
System jest inteligentny, gdy
ż
mo
ż
e zaliczy
ć
test Turinga.
Jednak Searle twierdzi,
ż
e
system nie rozumie tego, co robi
.
Zdaniem Searla,
wykonanie wła
ś
ciwego programu nie oznacza
rozumienia.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Na podstawie analizy eksperymentu „chi
ń
ski pokój” Searle
sformułował cztery aksjomaty my
ś
lenia:
1. Programy komputerowe s
ą
formalnymi bytami
syntaktycznymi.
2. Rozum posiada kontekst umysłowy, semantyczny.
3. Syntaktyka sama w sobie nie stanowi semantyki.
4. Mózg jest przyczyn
ą
my
ś
lenia.
Wniosek z aksjomatów 1–3:
nie istnieje taki program który
sam w sobie stanowi my
ś
lenie.
© F.A. Dul 2007
sam w sobie stanowi my
ś
lenie.
Konkluzja Searla jest nast
ę
puj
ą
ca:
ż
aden program nie stanowi
my
ś
lenia.
Wniosek z aksjomatu 4:
ka
ż
dy system mog
ą
cy my
ś
le
ć
musi
by
ć
(co najmniej) równowa
ż
ny mózgowi.
Searle wyci
ą
ga st
ą
d kolejny wniosek: ka
ż
dy sztuczny mózg
musi na
ś
ladowa
ć
my
ś
lenie mózgu, a nie wykonywa
ć
program
„realizuj
ą
cy” my
ś
lenie.
Wnioski Searla miały stanowi
ć
argumenty
za odrzuceniem
hipotezy silnej AI.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Aksjomat 3 („Syntaktyka sama w sobie nie stanowi semantyki”)
odwołuje si
ę
do intuicji, nie stanowi wi
ę
c dowodu.
Wnioski Searla s
ą
jednak kwestionowane ( M.S. Churchland,
S. Lem „Tajemnica chi
ń
skiego pokoju”, i inni).
Searle posługuje si
ę
argumentem,
ż
e nawet ewidentnie
inteligentny system (człowiek) wykonuj
ą
cy program
(tłumaczenie chi
ń
skiego)
w sposób widoczny
nie my
ś
li.
Odwołanie si
ę
do intuicji („w sposób widoczny nie my
ś
li”) jest
Krytyka rozumowania Searla dotyczy przede wszystkim tego,
ż
e słuszno
ść
wniosków zale
ż
y od
akceptacji
Aksjomatu 3.
© F.A. Dul 2007
Odwołanie si
ę
do intuicji („w sposób widoczny nie my
ś
li”) jest
uwa
ż
ane przez krytyków za nieuprawnione.
Podobnie bowiem mo
ż
na powiedzie
ć
o mózgu: „w sposób
oczywisty zbiór komórek mózgowych działaj
ą
cych
ś
lepo
zgodnie z prawami fizyki nie mo
ż
e my
ś
le
ć
”.
Chocia
ż
Searle nie odrzuca całkowicie mo
ż
liwo
ś
ci,
ż
e system
sztuczny mo
ż
e my
ś
le
ć
, to z jego rozumowania nie wynika
jakiego typu
systemy (poza człowiekiem) mogłyby my
ś
le
ć
.
Krytyka argumentów Searla przeciwko silnej AI spowodowała
odrzucenie wniosku o niemo
ż
no
ś
ci my
ś
lenia przez maszyny.
26.2. Silna Sztuczna Inteligencja: czy maszyny mog
ą
my
ś
le
ć
?
Wnioski
Pytanie o inteligencj
ę
nieuchronnie prowadzi
do pytania o my
ś
lenie i
ś
wiadomo
ść
.
Stany my
ś
lowe s
ą
identyfikowane ze stanami
fizjologicznymi mózgu.
Mo
ż
na mierzy
ć
zwi
ą
zki pomi
ę
dzy aktywno
ś
ciami
umysłowymi a stanami fizjologicznymi
© F.A. Dul 2007
umysłowymi a stanami fizjologicznymi
odpowiadaj
ą
cych im obszarów mózgu.
Ś
wiadomo
ść
całkowicie wymyka si
ę
badaniom.
Wnioski filozoficzne wynikaj
ą
ce z hipotezy silnej AI
nie maj
ą
wpływu na rozwój sztucznej inteligencji.
Nurty filozoficzny i praktyczny sztucznej inteligencji
rozwijaj
ą
si
ę
(prawie) niezale
ż
nie.
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej
Inteligencji
Dotychczas zastanawiali
ś
my si
ę
czy rozwój sztucznej
inteligencji
jest mo
ż
liwy
.
Kwesti
ą
moraln
ą
jest to,
czy powinni
ś
my
to robi
ć
.
Na badaczach AI ci
ąż
y
ć
b
ę
dzie moralna odpowiedzialno
ść
za negatywne konsekwencje jej rozwoju.
Chocia
ż
rozwój ka
ż
dej dziedziny wiedzy powoduje powstanie
problemów natury etycznej i moralnej, to sztuczna
© F.A. Dul 2007
• Ludzie mog
ą
traci
ć
prac
ę
z powodu automatyzacji.
• Ludzie mog
ą
mie
ć
za du
ż
o (lub za mało) wolnego czasu.
• Ludzie mog
ą
utraci
ć
poczucie swojej wyj
ą
tkowo
ś
ci.
• Ludzie mog
ą
utraci
ć
cz
ęść
swobód obywatelskich.
• U
ż
ywanie systemów sztucznej inteligencji mo
ż
e
doprowadzi
ć
do rozmycia odpowiedzialno
ś
ci.
• Rozwój sztucznej inteligencji mo
ż
e doprowadzi
ć
rodzaj
ludzki do zaniku.
problemów natury etycznej i moralnej, to sztuczna
inteligencja generuje zagro
ż
enia i dylematy nowego rodzaju.
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej Inteligencji
Ludzie mog
ą
traci
ć
prac
ę
z powodu automatyzacji
Zagro
ż
enie spowodowane automatyzacj
ą
wydawało si
ę
realne
w USA ju
ż
w latach 50. XX w., ale było mocno wyolbrzymione.
Nowoczesna gospodarka i ekonomia w coraz wi
ę
kszym
stopniu zale
żą
od komputerów i systemów AI.
Komputeryzacja zredukowała zatrudnienie w pewnych
zawodach, ale jednocze
ś
nie spowodowała wzrost liczby
miejsc pracy w zawodach wykorzystuj
ą
cych informatyk
ę
:
w bankowo
ś
ci, administracji, handlu (równie
ż
internetowym),
usługach, itp.
© F.A. Dul 2007
w bankowo
ś
ci, administracji, handlu (równie
ż
internetowym),
usługach, itp.
W efekcie komputeryzacja stworzyła wi
ę
cej miejsc pracy
ni
ż
ich wyeliminowała.
Obecnie typowe programy AI maj
ą
charakter asystentów
człowieka, w przeciwie
ń
stwie do starszej ich generacji,
gdy przewa
ż
ały programy typu systemu ekspertowego,
stworzone do zast
ę
powania ludzi.
Zagro
ż
enie zwi
ą
zane ze wzrostem bezrobocia z powodu
wprowadzenia AI wydaje si
ę
obecnie mało realne.
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej Inteligencji
Ludzie mog
ą
mie
ć
za du
ż
o (lub za mało) wolnego czasu
W latach 70. XX wieku uwa
ż
ano (A. Toffler, A. C. Clarke),
ż
e automatyzacja i komputeryzacja spowoduj
ą
wzrost czasu
wolnego o 50%, a w wyniku powszechn
ą
nud
ę
i zwi
ą
zane
z tym zagro
ż
enia.
Jednak okazało si
ę
,
ż
e gospodarka high-tech skłania ludzi
do coraz dłu
ż
szej pracy, gdy
ż
bardzo cz
ę
sto wzrostowi
długo
ś
ci czasu pracy towarzyszy du
ż
y wzrost dochodów
(np. wzrost czasu pracy o 10% powoduje wzrost dochodów
nawet o 100%).
© F.A. Dul 2007
nawet o 100%).
W efekcie czas pracy w krajach rozwini
ę
tych wydłu
ż
a si
ę
raczej a nie skraca.
Jest to w du
ż
ej mierze spowodowane wprowadzaniem
zaawansowanych technologii, w tym – sztucznej inteligencji.
Nowe technologie, internet oraz łatwo
ść
wymiany informacji
w skali
ś
wiatowej powoduj
ą
zmian
ę
stylu pracy.
Globalne firmy wymuszaj
ą
prac
ę
całodobow
ą
ze wzgl
ę
du
na ró
ż
nice stref czasowych.
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej Inteligencji
Ludzie mog
ą
utraci
ć
poczucie swojej wyj
ą
tkowo
ś
ci
W pracy „Computer Power and Human Reason” (1976)
Weizenbaum przedstawił zagro
ż
enie wynikaj
ą
ce z przyj
ę
cia
na podstawie bada
ń
AI tezy,
ż
e człowiek jest w istocie
automatem.
W wyniku tego człowiek, zdaniem Weizbauma,
utraci poczucie
swojej wyj
ą
tkowo
ś
ci
.
Teza taka si
ę
ga korzeniami do idei Le Metriego („L’Homme
Machine”, 1748) i jest przejawem
mechanicyzmu
.
© F.A. Dul 2007
Machine”, 1748) i jest przejawem
mechanicyzmu
.
Przeciwnicy tezy o szoku zwi
ą
zanym z utrat
ą
wyj
ą
tkowo
ś
ci
twierdz
ą
jednak,
ż
e ludzko
ść
przetrwała ju
ż
wiele rewizji
przekonania o swojej szczególnej pozycji: rewolucj
ę
kopernika
ń
sk
ą
(Kopernik, 1543) czy te
ż
teori
ę
ewolucji
(Darwin,1871).
Gdyby AI osi
ą
gn
ę
ła swoje najambitniejsze cele, to ludzko
ść
musiałaby przewarto
ś
ciowa
ć
swoje pogl
ą
dy tak, jak zrobiła
to po rewolucjach kopernika
ń
skiej czy darwinowskiej.
Wi
ę
kszo
ść
filozofów uwa
ż
a,
ż
e ludzko
ść
sobie z tym poradzi.
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej Inteligencji
Ludzie mog
ą
utraci
ć
cz
ęść
swobód obywatelskich
Weizenbaum przedstawił tak
ż
e zagro
ż
enia wynikaj
ą
ce
z rozwoju technologii rejestracji i identyfikacji, polegaj
ą
ce
na
ograniczeniu praw i swobód obywatelskich
.
W istocie, w dobie wszechobecnych systemów nadzoru,
telefonii komórkowej, elektronicznie rejestrowanych transakcji,
systemów rozpoznawania obrazu, systemów analizuj
ą
cych
komunikacj
ę
(Echelon), prywatno
ść
człowieka została ju
ż
w znacznym stopniu ograniczona.
© F.A. Dul 2007
Jest to wymuszone w du
ż
ej mierze wzrostem zagro
ż
e
ń
terrorystycznych w skali
ś
wiatowej.
Wielu filozofów i socjologów zgadza si
ę
z tez
ą
,
ż
e komputery-
zacja doprowadziła do cz
ęś
ciowej utraty prywatno
ś
ci.
Prywatno
ść
jest te
ż
uwa
ż
ana przez wielu za jeden
z podstawowych wyznaczników osobowo
ś
ci człowieka,
zatem jej utrata mo
ż
e by
ć
traktowana jako du
ż
e zagro
ż
enie.
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej Inteligencji
U
ż
ywanie systemów sztucznej inteligencji mo
ż
e
doprowadzi
ć
do rozmycia odpowiedzialno
ś
ci
U
ż
ycie systemów AI rodzi zagro
ż
enia zwi
ą
zane z utrat
ą
odpowiedzialno
ś
ci za prowadzone działania.
Systemy bankowe i handlowe opieraj
ą
si
ę
w coraz wi
ę
kszym
stopniu na komputerach u
ż
ywaj
ą
cych systemów AI
do prowadzenia transakcji, cz
ę
sto w imieniu klientów.
Systemy ekspertowe formułuj
ą
diagnozy medyczne,
które mog
ą
decydowa
ć
o
ż
yciu pacjenta.
© F.A. Dul 2007
Od wła
ś
ciwego działania systemów nadzoruj
ą
cych
i steruj
ą
cych zale
ż
y bezpiecze
ń
stwo komunikacji lotniczej,
morskiej i l
ą
dowej.
Agenci internetowi mog
ą
nieumy
ś
lnie (lub umy
ś
lnie) zniszczy
ć
zasoby w komputerach przył
ą
czonych do sieci.
Powstaje wi
ę
c kwestia odpowiedzialno
ś
ci prawnej
oraz materialnej za szkody mog
ą
ce by
ć
wynikiem u
ż
ywania
systemów AI.
Istnieje te
ż
potencjalna mo
ż
liwo
ść
działania superinteligentnych
systemów AI we własnym imieniu.
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej Inteligencji
Medyczne systemy ekspertowe s
ą
tylko doradcami lekarza,
ale pojawia si
ę
problem odpowiedzialno
ś
ci lekarza
za niewykorzystanie wyników diagnozy systemu.
Panuje zgoda,
ż
e działanie systemów AI powinno podlega
ć
ograniczeniom narzuconym przez projektantów i producentów.
Istniej
ą
ce systemy prawne nie po
ś
wi
ę
caj
ą
jak dotychczas
nale
ż
ytej uwagi kwestii odpowiedzialno
ś
ci za działania
systemów AI.
Zaistniałe przypadki rozpatrywane s
ą
najcz
ęś
ciej w ramach
© F.A. Dul 2007
Mo
ż
na jednak s
ą
dzi
ć
,
ż
e w niedługim czasie powstan
ą
odpowiednie uregulowania prawne, wymuszone przez
praktyk
ę
ś
wiata u
ż
ywaj
ą
cego powszechnie systemów AI.
Zaistniałe przypadki rozpatrywane s
ą
najcz
ęś
ciej w ramach
istniej
ą
cego prawa, co jednak nie zawsze jest rozwi
ą
zaniem
wła
ś
ciwym.
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej Inteligencji
Rozwój sztucznej inteligencji mo
ż
e doprowadzi
ć
rodzaj
ludzki do zaniku
Ka
ż
da technologia w niewła
ś
ciwych r
ę
kach mo
ż
e wyrz
ą
dza
ć
szkody (bro
ń
, technologie j
ą
drowe, internet,...).
Jednak AI i robotyka mog
ą
same by
ć
autorami destrukcji.
Literatura sf od dawna opisuje siej
ą
ce zniszczenie roboty
lub istoty człekopodobne: Frankenstein (Mary Shelley, 1818),
R.U.R. (
Č
apek, 1921); filmy: Odyseja Kosmiczna 2001
(1968), Terminator (1984), Matrix (1999) i wiele innych.
Roboty i androidy s
ą
współczesn
ą
wersj
ą
dawnych wied
ź
m
© F.A. Dul 2007
Roboty i androidy s
ą
współczesn
ą
wersj
ą
dawnych wied
ź
m
i duchów; odzwierciedlaj
ą
strach człowieka przed nieznanymi
bytami.
Uwa
ż
a si
ę
jednak,
ż
e maszyny zbudowane dla realizacji
celów człowieka b
ę
d
ą
słu
ż
y
ć
człowiekowi i nie b
ę
d
ą
stanowi
ć
realnego zagro
ż
enia (pomijaj
ą
c wypadki).
Maszyny same w sobie nie s
ą
agresywne, ale mog
ą
by
ć
takie
je
ż
eli zostan
ą
odpowiednio zaprojektowane przez człowieka.
Maszyny mog
ą
sta
ć
si
ę
w pewnym sensie „zdobywcami
ś
wiata”, je
ż
eli b
ę
d
ą
niezast
ą
pione (tak, jak np. samochody).
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej Inteligencji
Mo
ż
liwym scenariuszem „podboju”
ś
wiata przez inteligentne
maszyny jest
eksplozja inteligencji
(Good, 1965):
• człowiek buduje najinteligentniejsze
maszyny, jakie mo
ż
e stworzy
ć
przy
pomocy dost
ę
pnych mu technologii...
• ale maszyny te s
ą
tak inteligentne,
ż
e potrafi
ą
zbudowa
ć
maszyny
jeszcze bardziej inteligentne,...
• te z kolei buduj
ą
maszyny jeszcze
m
ą
drzejsze, itd...
?
in
te
lig
e
n
c
ja
?
© F.A. Dul 2007
Inteligencja człowieka pozostałaby wi
ę
c szybko w tyle.
m
ą
drzejsze, itd...
Taki lawinowy rozwój maszyn
inteligentnych prowadziłby do
osobliwo
ś
ci technologicznej
.
Filozofowie s
ą
raczej zgodni co do tego,
ż
e maszyny
przewy
ż
szaj
ą
ce inteligencj
ą
człowieka kiedy
ś
powstan
ą
.
Ró
ż
ni
ą
si
ę
w ocenie tempa rozwoju maszyn inteligentnych
oraz skutków ich pojawienia si
ę
twierdz
ą
c,
ż
e nast
ą
pi:
• kres ery człowieka
(Good, Vinge 1993).
• konwergencja człowieka i maszyny
(Moravec 2000).
czas
koniec ery
człowieka
26.3. Etyka i ryzyko zwi
ą
zane z rozwojem Sztucznej Inteligencji
A jak wygl
ą
dałby
ś
wiat z punktu widzenia inteligentnych
maszyn?
Jednak pojawienie si
ę
maszyn
ś
wiadomych
stworzy całkiem
nowe problemy natury moralnej i etycznej.
Maszyny b
ę
d
ą
musiały przestrzega
ć
praw ludzkich.
Maszyny inteligentne, ale nie
ś
wiadome, s
ą
dalej tylko
maszynami.
Ś
wiadome maszyny b
ę
d
ą
musiały by
ć
zaprojektowane tak,
aby odró
ż
niały dobro od zła.
© F.A. Dul 2007
Cz
ęść
etyków uwa
ż
a,
ż
e
ś
wiadomych maszyn nie wolno
b
ę
dzie traktowa
ć
inaczej ni
ż
ludzi -
nale
ż
ne im b
ę
d
ą
prawa
.
Czy zatem roboty b
ę
d
ą
mogły za
żą
da
ć
np. wolnych sobót,
prawa do strajku czy praw chroni
ą
cych ich reprodukcj
ę
?
Maszyny b
ę
d
ą
musiały przestrzega
ć
praw ludzkich.
Czy b
ę
d
ą
zakładały zwi
ą
zki zawodowe lub partie polityczne?
Czy w ko
ń
cu b
ę
d
ą
mogły rz
ą
dzi
ć
lud
ź
mi?
Na te (i inne) pytania nie ma dzisiaj odpowiedzi, ale problem
nieobcy jest literaturze sf, np. Asimov (1942), film Spielberga
A.I. (2001).
Podsumowanie
• Filozofowie u
ż
ywaj
ą
poj
ę
cia
słabej AI
dla okre
ś
lenia hipotezy
mówi
ą
cej,
ż
e maszyny mog
ą
zachowywa
ć
si
ę
inteligentnie.
• Poj
ę
cie
silnej AI
okre
ś
la hipotez
ę
mówi
ą
c
ą
,
ż
e maszyny
rzeczywi
ś
cie mog
ą
my
ś
le
ć
, a nie tylko symulowa
ć
my
ś
lenie.
• Alan Turing odrzucił kwesti
ę
„Czy maszyny my
ś
l
ą
?”
zast
ę
puj
ą
c j
ą
testem inteligentnego zachowania maszyny.
Turing sformułował wiele obiekcji w stosunku do idei maszyn
my
ś
l
ą
cych.
© F.A. Dul 2007
my
ś
l
ą
cych.
• Niewielu badaczy AI przywi
ą
zuje obecnie wag
ę
do testu
Turinga i imitacji człowieka, skupiaj
ą
c si
ę
raczej
na doskonaleniu mo
ż
liwo
ś
ci systemów AI.
• Argumenty za i przeciw silnej AI nie prowadz
ą
do konkluzji.
Istnieje przekonanie,
ż
e badania AI w niewielkim stopniu
zale
żą
od wyników debaty na ten temat.
Podsumowanie (c.d.)
• Panuje zgoda co do tego,
ż
e stany umysłu s
ą
stanami
fizjologicznymi mózgu.
•
Ś
wiadomo
ść
pozostaje jednak wielk
ą
tajemnic
ą
...
• Potencjalne zagro
ż
enia społeczne zwi
ą
zane ze sztuczn
ą
inteligencj
ą
i technologiami pokrewnymi s
ą
w wi
ę
kszo
ś
ci
mało prawdopodobne lub wyst
ę
puj
ą
równie
ż
w innych
dziedzinach, nie zwi
ą
zanych ze sztuczn
ą
inteligencj
ą
.
© F.A. Dul 2007
• Zagro
ż
eniem realnym wartym uwagi jest wpływ
superinteligentnych maszyn na kształt
ś
wiata w przyszło
ś
ci.
To mo
ż
e by
ć
zupełnie inny
ś
wiat - mo
ż
na go b
ę
dzie lubi
ć
lub nie, ale nie b
ę
dzie si
ę
miało na to wpływu.
• Takie rozwa
ż
ania prowadz
ą
nieuchronnie do wniosku,
ż
e ju
ż
teraz nale
ż
y starannie rozwa
ż
a
ć
mo
ż
liwe
konsekwencje bada
ń
nad AI dla przyszło
ś
ci rodzaju
ludzkiego.