26 Podstawy filozoficzne sztucznej inteligencji

background image

WPROWADZENIE

DO SZTUCZNEJ INTELIGENCJI

POLITECHNIKA WARSZAWSKA

WYDZIAŁ MECHANICZNY ENERGETYKI I LOTNICTWA

MEL

MEL

NS 586

Dr in

ż

. Franciszek Dul

© F.A. Dul 2007

background image

26. PODSTAWY FILOZOFICZNE

SZTUCZNEJ INTELIGENCJI

© F.A. Dul 2007

SZTUCZNEJ INTELIGENCJI

background image

Podstawy filozoficzne sztucznej inteligencji

W tym rozdziale b

ę

dziemy rozwa

ż

a

ć

co to znaczy „my

ś

le

ć

”; czy obiekty

stworzone przez człowieka my

ś

le

ć

© F.A. Dul 2007

stworzone przez człowieka my

ś

le

ć

mog

ą

oraz czy powinny kiedykolwiek.

background image

26. Wprowadzenie

Filozofowie u

ż

ywaj

ą

poj

ę

cia słabej AI dla okre

ś

lenia

hipotezy mówi

ą

cej,

ż

e maszyny mog

ą

zachowywa

ć

si

ę

Filozofowie próbuj

ą

od dawna rozwi

ą

za

ć

problemy które

dotycz

ą

tak

ż

e sztucznej inteligencji:



Jak działa umysł?



Czy maszyny mog

ą

działa

ć

inteligentnie, tak jak ludzie?



Je

ż

eli tak, to czy maj

ą

umysł?



Jakie s

ą

implikacje etyczne sztucznej inteligencji?

© F.A. Dul 2007

hipotezy mówi

ą

cej,

ż

e maszyny mog

ą

zachowywa

ć

si

ę

inteligentnie.
Poj

ę

cie silnej AI okre

ś

la hipotez

ę

mówi

ą

c

ą

,

ż

e maszyny

mog

ą

my

ś

le

ć

, a nie tylko symulowa

ć

my

ś

lenie.

Badania AI opieraj

ą

si

ę

głównie na hipotezie słabej AI.

W wi

ę

kszo

ś

ci przypadków nie jest wa

ż

ne czy system AI

symuluje inteligencj

ę

, czy jest rzeczywi

ś

cie inteligentny.

Jednak wszyscy powinni bra

ć

pod uwag

ę

implikacje

etyczne bada

ń

nad sztuczn

ą

inteligencj

ą

.

background image

26. Wprowadzenie

• Słaba Sztuczna Inteligencja: Czy maszyny mog

ą

działa

ć

inteligentnie?

• Silna Sztuczna Inteligencja: Czy maszyny mog

ą

my

ś

le

ć

?

• Etyka i ryzyko rozwoju sztucznej inteligencji.

Plan rozdziału

© F.A. Dul 2007

background image

26.1.

Słaba Sztuczna Inteligencja:

Czy maszyny

mog

ą

działa

ć

inteligentnie?

Niektórzy badacze próbuj

ą

dowie

ść

,

ż

e sztuczna inteligencja

nie jest mo

ż

liwa, a próby jej wykreowania bior

ą

si

ę

z „kultu

obliczeniowo

ś

ci” czyli wiary,

ż

e wszystkie działania

inteligentne s

ą

w swej istocie procesami obliczeniowymi.

Mo

ż

liwo

ść

stworzenia sztucznej inteligencji zale

ż

y jednak

od tego, co si

ę

pod tym poj

ę

ciem rozumie.

Je

ż

eli uzna si

ę

,

ż

e sztuczna inteligencja to poszukiwanie

© F.A. Dul 2007

Je

ż

eli uzna si

ę

,

ż

e sztuczna inteligencja to poszukiwanie

najlepszego programu dla agenta o danej strukturze,
to stworzenie sztucznej inteligencji jest mo

ż

liwe z definicji.

Dla ka

ż

dej architektury cyfrowej składaj

ą

cej si

ę

z

k

bitów

pami

ę

ci istnieje dokładnie

2

k

programów dla agenta.

Nale

ż

y tylko znale

źć

najlepszy, np. sprawdzaj

ą

c wszystkie.

Definicja informatyczna sztucznej inteligencji nie rozstrzyga
jednak fundamentalnej kwestii

Czy maszyna mo

ż

e my

ś

le

ć

?

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

działa

ć

inteligentnie?

Pytanie „Czy maszyna mo

ż

e my

ś

le

ć

?” jest jednak

ź

le

postawione, przynajmniej w kontek

ś

cie sztucznej inteligencji.

Okazuje si

ę

bowiem,

ż

e rozwój sztucznej inteligencji

rozumianej jako dziedzina nauk technicznych

nie zale

ż

y

od odpowiedzi na to pytanie

.

Alan Turing w słynnej pracy „Computing Machinery and
Intelligence
” (1950) zaproponował aby zamiast pyta

ć

czy

maszyna mo

ż

e my

ś

le

ć

, sprawdzi

ć

czy mo

ż

e przej

ść

test

inteligentnego zachowania, zwany obecnie

Testem Turinga

.

© F.A. Dul 2007

inteligentnego zachowania, zwany obecnie

Testem Turinga

.

Turing przewidywał,

ż

e do roku 2000 komputery spełni

ą

kryteria testu–przekonanie 30% rozmówców w ci

ą

gu 5 minut

konwersacji z maszyn

ą

ż

e jest ona człowiekiem.

Test Turinga ma obecnie znaczenie historyczne i nie jest
traktowany jako kryterium wpływaj

ą

ce na rozwój sztucznej

inteligencji.

Kryteria testu Turinga nie zostały dotychczas spełnione przez

ż

adn

ą

maszyn

ę

.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

działa

ć

inteligentnie?

Argumenty o niemo

ż

no

ś

ci

• miła, zaradna, pomysłowa, przyjazna, pi

ę

kna (?),

• wykazywa

ć

inicjatywy, mie

ć

poczucia humoru,

• odró

ż

nia

ć

dobra od zła,

• popełnia

ć

ę

dów (?),

• mogła zakocha

ć

si

ę

,

Turing sformułował szereg w

ą

tpliwo

ś

ci dotycz

ą

cych mo

ż

liwo

ś

ci

skonstruowania inteligentnych maszyn.
Argumenty Turinga o niemo

ż

no

ś

ci: „

maszyna nigdy nie b

ę

dzie

”:

© F.A. Dul 2007

• mogła zakocha

ć

si

ę

,

• mogła rozkocha

ć

kogo

ś

w sobie (?),

• smakowa

ć

truskawek i lodów,

• rozkoszowa

ć

si

ę

muzyk

ą

lub literatur

ą

,

• sama uczy

ć

si

ę

z do

ś

wiadcze

ń

,

• umie

ć

prawidłowo dobiera

ć

słów,

• obiektem własnych my

ś

li,

• przejawia

ć

tak ró

ż

nych zachowa

ń

jak człowiek,

• umiała zrobi

ć

co

ś

rzeczywi

ś

cie nowego, ...

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

działa

ć

inteligentnie?

Wszystkie te działania wymagaj

ą

najwy

ż

szej sprawno

ś

ci

• wygrywaj

ą

w szachy z arcymistrzami,

• graj

ą

(i wygrywaj

ą

) równie

ż

w wiele innych gier,

• prowadz

ą

i nadzoruj

ą

monta

ż

produktów w fabrykach,

• sprawdzaj

ą

pisowni

ę

dokumentów w edytorach,

• steruj

ą

samochodami, samolotami, statkami kosmicznymi,

• diagnozuj

ą

choroby,

• dokonuj

ą

odkry

ć

w matematyce, biologii, astronomii, chemii.

Współczesne maszyny robi

ą

jednak wiele rzeczy, które dawniej

były wył

ą

cznie domen

ą

człowieka:

© F.A. Dul 2007

Wszystkie te działania wymagaj

ą

najwy

ż

szej sprawno

ś

ci

lub kompetencji eksperta.
Maszyny mog

ą

nie tylko wykonywa

ć

zadania o charakterze

kombinatorycznym (jak gra w szachy), ale równie

ż

takie które

wymagaj

ą

zdolno

ś

ci uczenia si

ę

(systemy ekspertowe).

Chocia

ż

maszyny robi

ą

wiele rzeczy lepiej ni

ż

człowiek,

to jednak

nie rozumiej

ą

sensu wykonywanych działa

ń

,

nie u

ż

ywaj

ą

wi

ę

c inteligencji podczas ich wykonywania.

Wynika st

ą

d,

ż

e

potoczne przekonanie i

ż

jakie

ś

działanie

wymaga inteligencji mo

ż

e by

ć

ę

dne

.

background image

Wnioski

Pytanie

Czy maszyna mo

ż

e my

ś

le

ć

?

nie jest

poprawnie postawione w kontek

ś

cie bada

ń

nad

sztuczn

ą

inteligencj

ą

.

Chocia

ż

działania maszyn „inteligentnych” cechuj

ą

si

ę

wysok

ą

sprawno

ś

ci

ą

i znacznymi kompetencjami,

to jednak nie mo

ż

na uzna

ć

i

ż

s

ą

inteligentne.

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

działa

ć

inteligentnie?

© F.A. Dul 2007

to jednak nie mo

ż

na uzna

ć

i

ż

s

ą

inteligentne.

Potoczne przekonanie o tym,

ż

e do wykonania

pewnych działa

ń

konieczna jest inteligencja jest

cz

ę

sto bł

ę

dne.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

działa

ć

inteligentnie?

Obiekcje matematyczne

• jest prawdziwe je

ż

eli system

F

jest spójny,

• nie mo

ż

e by

ć

dowiedzione

w ramach systemu

F.

Opieraj

ą

c si

ę

na tym twierdzeniu Lucas (1961) wyraził pogl

ą

d,

ż

e maszyny inteligentne, b

ę

d

ą

c systemami matematycznymi,

nie mog

ą

„same si

ę

udowodni

ć

”, podczas gdy człowiek jako

Twierdznie Gödla

(1931) mówi,

ż

e dla ka

ż

dego systemu

aksjomatycznego

F

wyposa

ż

onego w arytmetyk

ę

mo

ż

liwe jest

skonstruowanie zdania

G(F)

F

które:

© F.A. Dul 2007

nie mog

ą

„same si

ę

udowodni

ć

”, podczas gdy człowiek jako

byt wy

ż

szy mentalnie nie podlega temu ograniczeniu.

Wprawdzie maszyna Turinga jest niesko

ń

czonym systemem

formalnym, to jednak rzeczywiste systemy AI – jak dot

ą

d –

takimi systemami nie s

ą

.

Nie jest te

ż

oczywiste,

ż

e człowiek jako system nie podlega

twierdzeniu Gödla.
Człowiek jest niekonsekwentny, omylny,

a jednak inteligentny

.

Zatem ograniczenia formalne – nawet fundamentalne –
nie musz

ą

by

ć

przeszkod

ą

w osi

ą

gni

ę

ciu inteligencji.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

działa

ć

inteligentnie?

Argument o nieformalno

ś

ci

Najbardziej stanowcz

ą

krytyk

ę

sztucznej inteligencji sformuło-

wał Turing w postaci

„argumentu o nieformalizowalno

ś

ci

zachowania”

.

Zachowanie człowieka jest tak zło

ż

one,

ż

e nie mo

ż

e by

ć

opisane zbiorem prostych zasad.
Poniewa

ż

maszyna wykonuje tylko działania wynikaj

ą

ce

z przyj

ę

tych zasad, to nie mo

ż

e wykazywa

ć

zachowa

ń

inteligentnych.

Jest to tzw.

problem kwalifikacji

w sztucznej inteligencji.

© F.A. Dul 2007

Jest to tzw.

problem kwalifikacji

w sztucznej inteligencji.

Głównymi rzecznikami tego argumentu s

ą

: Hubert Dreyfus,

What Computers Can’t Do” (1972) oraz „What Computers
Still Can’t Do
” (1992) oraz jego brat Stuart Dreyfus, „Mind
Over Machine
” (1986).
Pogl

ą

dem krytykowanym przez Dreyfusów jest tzw. podej

ś

cie

GOFAI („Good Old-Fashioned AI”), wyra

ż

one nast

ę

puj

ą

co:

Ka

ż

de zachowanie inteligentne mo

ż

e by

ć

zrealizowane

poprzez wnioskowanie logicznie z faktów oraz reguł
opisuj

ą

cych dan

ą

dziedzin

ę

.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

działa

ć

inteligentnie?

Krytyka Dreyfusów sztucznej inteligencji dotyczyła wła

ś

nie

podej

ś

cia GOFAI, nie za

ś

komputerów jako obiektów sztucznej

inteligencji w ogóle.

• Komputer graj

ą

cy w szachy

wyznacza mo

ż

liwe posuni

ę

cia

poprzez wielokrokow

ą

analiz

ę

ruchów

wspieran

ą

przykładami

partii rozegranych w przeszło

ś

ci, bez anga

ż

owania do tych

działa

ń

jakiejkolwiek inteligencji.

Pogl

ą

d Dreyfusów odno

ś

nie ró

ż

nicy pomi

ę

dzy działaniem

inteligentnym człowieka a (nieinteligentnym) maszyny mo

ż

na

opisa

ć

nast

ę

puj

ą

co

© F.A. Dul 2007

działa

ń

jakiejkolwiek inteligencji.

• Człowiek (arcymistrz) patrz

ą

c na szachownic

ę

widzi potrzeb

ę

wykonania konkretnego ruchu

, bez konieczno

ś

ci

wielokrokowej analizy posuni

ęć

- to jest najwy

ż

sza forma

inteligencji.

Innymi słowy: procesy my

ś

lowe ekspertów (arcymistrzów)

przebiegaj

ą

na takim poziomie

ś

wiadomo

ś

ci, który nie

poddaje si

ę

nawet samoobserwacji (introspekcji), nie mo

ż

e

wi

ę

c by

ć

analizowany i wykorzystany do budowy maszyn

inteligentnych.

background image

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

działa

ć

inteligentnie?

Mimo sceptycyzmu bracia Dreyfus zaproponowali jednak
(w 1986) pi

ę

ciostopniowy proces przyswajania specjalistycznej

wiedzy i przetwarzania opartego na regułach logicznych (typu
GOFAI) zako

ń

czonego wyborem wła

ś

ciwych działa

ń

.

Odnotowali przy tym nast

ę

puj

ą

ce problemy:

1. Wła

ś

ciwe uogólnianie przykładów wymaga zgromadzenia

przez agenta wiedzy wst

ę

pnej.

2. Sieci neuronowe uczone z nadzorowaniem wymagaj

ą

wła

ś

ciwego okre

ś

lenia wej

ść

i wyj

ść

, co mo

ż

e zrobi

ć

tylko

człowiek.

© F.A. Dul 2007

wła

ś

ciwego okre

ś

lenia wej

ść

i wyj

ść

, co mo

ż

e zrobi

ć

tylko

człowiek.

3. Algorytmy ucz

ą

ce nie s

ą

wystarczaj

ą

co efektywne w

przypadku wielu własno

ś

ci, trudno jest te

ż

doł

ą

cza

ć

nowe.

4. Mózg potrafi łatwo skoncentrowa

ć

uwag

ę

na istotnym

obszarze otoczenia, w przeciwie

ń

stwie do agenta.

Wszystkie te problemy zostały ju

ż

rozwi

ą

zane, z mniejszym

lub wi

ę

kszym powodzeniem.

Uwzgl

ę

dnianie krytyki Dreyfusów

ś

wiadczy raczej o ci

ą

głym

rozwoju sztucznej inteligencji, nie za

ś

o niemo

ż

no

ś

ci jej

stworzenia.

background image

Wnioski

Pytania fundamentalne dotycz

ą

ce mo

ż

liwo

ś

ci

kreowania sztucznych bytów inteligentnych s

ą

w przewa

ż

aj

ą

cej cz

ęś

ci zbyt abstrakcyjne aby mogły

mie

ć

wpływ na praktyczn

ą

stron

ę

AI.

Rozwa

ż

ania filozoficzne wskazuj

ą

na niemo

ż

no

ść

sformułowania precyzyjnych kryteriów inteligencji.

Argumenty filozoficzne dotycz

ą

ce sztucznej

26.1. Słaba Sztuczna Inteligencja: czy maszyny mog

ą

działa

ć

inteligentnie?

© F.A. Dul 2007

Argumenty filozoficzne dotycz

ą

ce sztucznej

inteligencji w wi

ę

kszo

ś

ci przypadków nie prowadz

ą

do konkluzji praktycznych.

Rozwój sztucznej inteligencji w sferze praktycznej
jest w du

ż

ym stopniu niezale

ż

ny od wniosków

natury filozoficznej; (

„psy szczekaj

ą

, a karawana idzie

dalej”...)

background image

26.2.

Silna Sztuczna Inteligencja:

Czy maszyny

mog

ą

my

ś

le

ć

?

W

ś

ród filozofów panuje zgoda co do tego,

ż

e maszyna która

spełniła test Turinga nie my

ś

li, lecz tylko

symuluje my

ś

lenie

.

Argument Turinga

o

ś

wiadomo

ś

ci

: maszyna rzeczywi

ś

cie

my

ś

l

ą

ca musi by

ć

ś

wiadoma swoich stanów my

ś

lowych

oraz działa

ń

, które wykonuje.

Inne kryteria zwi

ą

zane z my

ś

leniem:

fenomenologia

, maszyna my

ś

l

ą

ca musi odczuwa

ć

emocje,

intencjonalno

ść

, maszyna my

ś

l

ą

ca musi wierzy

ć

, pragn

ąć

.

© F.A. Dul 2007

intencjonalno

ść

, maszyna my

ś

l

ą

ca musi wierzy

ć

, pragn

ąć

.

Turing zakwestionował pytanie o

ś

wiadomo

ść

maszyn tak, jak

zakwestionował pytanie „Czy maszyna mo

ż

e my

ś

le

ć

?”

Argumentacja Turinga dotyczyła niemo

ż

no

ś

ci stwierdzenia

ś

wiadomo

ś

ci z powodu nieobserwowalno

ś

ci wewn

ę

trznych

stanów umysłu człowieka.
Zaproponował on aby

przyj

ąć

,

ż

e maszyna ma

ś

wiadomo

ść

tak, jak przyjmuje si

ę

na zasadzie powszechnej zgody,

ż

e

ka

ż

dy

człowiek ma

ś

wiadomo

ść

.

Turing stwierdził,

ż

e akceptacja

ś

wiadomo

ś

ci maszyny jest

mo

ż

liwa, je

ż

eli wyka

ż

e si

ę

ona inteligencj

ą

.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Turing stwierdził te

ż

,

ż

e problem

ś

wiadomo

ś

ci maszyny jest

trudny do rozstrzygni

ę

cia, ale w rzeczywisto

ś

ci ma niewielki

wpływ na rozwój sztucznej inteligencji.
Pomi

ę

dzy filozofami a praktykami AI istnieje ró

ż

nica pogl

ą

dów

na temat znaczenia problemu

ś

wiadomo

ś

ci maszyn.

Filozofowie s

ą

ż

ywotnie zainteresowani t

ą

kwesti

ą

, podczas

gdy praktycy uwa

ż

aj

ą

,

ż

e

nie ma ona wpływu na rozwój AI

.

Z filozoficznego punktu widzenia problem jest wa

ż

ny, gdy

ż

dotyczy relacji pomi

ę

dzy obiektami rzeczywistymi a sztucznymi.

© F.A. Dul 2007

Przykłady
1. Synteza sztucznego mocznika (1848) pokazała,

ż

e

nie ma

ż

adnej ró

ż

nicy

(fizycznej i chemicznej) pomi

ę

dzy mocznikiem

sztucznym a naturalnym. Mocznik sztuczny

jest

mocznikiem.

Dotyczy to te

ż

innych substancji.

2. Jednak sztucznego wina Chateau Latour

nie uznaje si

ę

za

wino Chateau Latour mimo,

ż

e ma takie same własno

ś

ci, gdy

ż

nie powstało we wła

ś

ciwym miejscu i czasie.

3. Podobnie, kopia obrazu Picassa nie jest obrazem Picassa,
niezale

ż

nie od tego, jak jest namalowana.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Konkluzja: czasem wyznacznikiem sztuczno

ś

ci jest zachowanie

si

ę

obiektu, ale czasami samo sztuczne pochodzenie decyduje

o takiej jego kwalifikacji.
Problem jest trudny: burza symulowana komputerowo nie
zmoczy programisty, ale nie jest oczywiste, czy symulacj

ę

procesów my

ś

lowych mo

ż

na traktowa

ć

analogicznie.

Kwalifikacja procesów my

ś

lowych zale

ż

y od przyj

ę

tej teorii.

Teoria funkcjonalizmu

stwierdza,

ż

e stan umysłu jest

dowolnym przej

ś

ciowym zwi

ą

zkiem przyczynowym pomi

ę

dzy

© F.A. Dul 2007

dowolnym przej

ś

ciowym zwi

ą

zkiem przyczynowym pomi

ę

dzy

wej

ś

ciem a wyj

ś

ciem.

Wynika st

ą

d,

ż

e ka

ż

de dwa układy z izomorficznymi procesami

przyczynowymi maj

ą

takie same stany umysłu.

Teoria naturalizmu biologicznego

stwierdza,

ż

e stan umysłu

jest własno

ś

ci

ą

wysokiego poziomu spowodowan

ą

procesami

neurologicznymi zachodz

ą

cymi w neuronach, oraz

ż

e jest to

własno

ść

samych neuronów.

Wynika st

ą

d,

ż

e stany umysłu nie mog

ą

by

ć

symulowane

w komputerze, gdy

ż

nie ma on takich własno

ś

ci, jak neurony.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Problem ciała i umysłu

Problem ciała i umysłu dotyczy zwi

ą

zku stanów my

ś

lowych

ze stanami fizjologicznymi ciała (mózgu).
W teorii

dualno

ś

ci

Kartezjusz twierdził,

ż

e ciało i dusza s

ą

dwoma ró

ż

nymi bytami.

Teoria

monistyczna

(

materializm

) twierdzi natomiast,

ż

e

dusza nie istnieje, zatem stany umysłu s

ą

stanami mózgu -

mózg jest przyczyn

ą

my

ś

lenia

(John Searle).

Materializm boryka si

ę

z problemem

wolnej woli

- czy obiekt

rz

ą

dzony

ś

cisłymi prawami fizyki mo

ż

e mie

ć

woln

ą

wol

ę

?

© F.A. Dul 2007

rz

ą

dzony

ś

cisłymi prawami fizyki mo

ż

e mie

ć

woln

ą

wol

ę

?

Wa

ż

nym problemem jest

ś

wiadomo

ść

- w jaki sposób obiekt

czuje

,

ż

e jest

tym

obiektem a nie jakim

ś

innym?

Stany umysłu nie zale

żą

przy tym od zmian fizjologicznych:

zast

ą

pienie pewnej liczby atomów mózgu (co mam miejsce

w ramach metabolizmu) nie spowoduje zmiany my

ś

lenia.

Szczególnym rodzajem stanu umysłu jest

postawa

propozycjonalna

nazywana tak

ż

e

stanem intencjonalnym

.

S

ą

to stany w rodzaju: wiary, wiedzy, po

żą

dania, strachu, itp.,

odnosz

ą

ce si

ę

do

ś

wiata zewn

ę

trznego.

Pytanie: czy maszyny mog

ą

mie

ć

stany intencjonalne?

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Eksperyment my

ś

lowy „Mózg w słoiku”

Eksperyment ten ma na celu ustalenie, czy stany umysłu
s

ą

jednoznacznie okre

ś

lone percepcj

ą

otoczenia.

W eksperymencie tym zakłada si

ę

,

ż

e mózg został oddzielony

od ciała i umieszczony w zapewniaj

ą

cym mu egzystencj

ę

pojemniku.

Ś

wiat zewn

ę

trzny jest symulowany, bod

ź

ce przekazywane

s

ą

do mózgu, za

ś

działania generowane przez mózg

s

ą

realizowane w symulowanym

ś

wiecie.

Okazuje si

ę

,

ż

e zawarto

ść

stanów umysłu zale

ż

y od punktu

© F.A. Dul 2007

Okazuje si

ę

,

ż

e zawarto

ść

stanów umysłu zale

ż

y od punktu

widzenia.

W kontek

ś

cie w

ą

skim

, z wewn

ę

trznego punktu widzenia,

stan umysłu jest jednoznacznie zdefiniowany przez kontakt
z otoczeniem niezale

ż

nie od tego, czy otoczenie jest

rzeczywiste, czy symulowane.

W kontek

ś

cie szerokim

, z punktu widzenia zewn

ę

trznego

obserwatora wszechwiedz

ą

cego, stan umysłu zale

ż

y od

ż

nic w

ś

wiecie zewn

ę

trznym nawet wtedy, gdy mózg nie ma

mo

ż

liwo

ś

ci obserwacji tych ró

ż

nic poprzez dost

ę

pn

ą

mu

percepcj

ę

.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Eksperyment my

ś

lowy „Proteza mózgu”

Eksperyment ten ma na celu ustalenie, czy

ś

wiadomo

ść

zale

ż

y od budowy i fizjologii mózgu.

W eksperymencie tym kolejne neurony s

ą

zast

ę

powane

idealnymi protezami, po czym naturalne neurony s

ą

wstawiane z powrotem w kolejno

ś

ci odwrotnej.

Pytania dotycz

ą

ś

wiadomo

ś

ci:

• czy mózg zachowa

ś

wiadomo

ść

niezale

ż

nie od liczby

wstawionych protez?

• czy nie nast

ą

pi rozej

ś

cie si

ę

ś

wiadomo

ś

ci i zachowania

© F.A. Dul 2007

• czy nie nast

ą

pi rozej

ś

cie si

ę

ś

wiadomo

ś

ci i zachowania

zewn

ę

trznego mózgu?

• czy proces ponownego wstawiania neuronów naturalnych

przywróci mózgowi

ś

wiadomo

ść

pierwotn

ą

?

Zwolennicy funkcjonalizmu (Moravec) twierdz

ą

,

ż

e

ś

wiadomo

ść

pozostanie nie zmieniona w trakcie i po eksperymencie.
Zwolennicy naturalizmu biologicznego (Searle) uwa

ż

aj

ą

,

ż

e

ś

wiadomo

ść

zmieni si

ę

w trakcie eksperymentu, a nawet

mo

ż

e zanikn

ąć

całkowicie i nieodwracalnie.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Analiza wyników eksperymentu prowadzi do nast

ę

puj

ą

cych

wniosków:

1. Mechanizm

ś

wiadomo

ś

ci w mózgu działa tak

ż

e

w komputerze - komputer zatem

ma

ś

wiadomo

ść

.

• Utrata

ś

wiadomo

ś

ci, gdyby miała nast

ą

pi

ć

, musiałaby by

ć

nagła, co jest mało prawdopodobne przy stopniowym
wymienianiu pojedynczych neuronów.

• Mózg zło

ż

ony z neuronów elektronicznych zachowa zatem

ś

wiadomo

ść

, co prowadzi do dwóch mo

ż

liwych konkluzji:

© F.A. Dul 2007

w komputerze - komputer zatem

ma

ś

wiadomo

ść

.

2. Zdarzenia mentalne zwi

ą

zane ze

ś

wiadomo

ś

ci

ą

mózgu nie maj

ą

zwi

ą

zku z jego zachowaniem

zewn

ę

trznym; nie mog

ą

wi

ę

c pojawi

ć

si

ę

w komputerze - komputer

nie ma

ś

wiadomo

ś

ci.

Mo

ż

liwo

ść

druga redukuje jednak

ś

wiadomo

ść

do roli

epifenomenalnej

- czyli takiej w której nie zostawia ona

ż

adnych

ś

ladów swojego istnienia; nie mo

ż

na wi

ę

c jej bada

ć

.

Eksperyment „proteza mózgu”

dopuszcza wi

ę

c

mo

ż

liwo

ść

,

ż

e maszyna mo

ż

e mie

ć

ś

wiadomo

ść

.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Problemem wymykaj

ą

cym si

ę

badaniom nad umysłem jest

qualia

- zdolno

ść

ś

wiadomo

ś

ci do subiektywnej oceny

wra

ż

e

ń

zmysłowych, np. smaku cukru, zapachu kawy, pi

ę

kna

muzyki Mozarta, itp.

Taka mo

ż

liwo

ść

jest trudna do zaakceptowania (co zauwa

ż

ju

ż

Turing) - wyniki eksperymentu „proteza mózgu” w którym

zamienia si

ę

od razu cały mózg nie s

ą

zgodne z intuicj

ą

.

Je

ś

li zaakceptuje si

ę

pogl

ą

d,

ż

e sztuczny mózg mo

ż

e mie

ć

ś

wiadomo

ść

, to pojawia si

ę

mo

ż

liwo

ść

,

ż

e

ś

wiadomo

ś

ci

ą

obdarzona jest tak

ż

e tablica zwi

ą

zków wej

ś

cia-wyj

ś

cia mózgu.

© F.A. Dul 2007

Eksperyment „proteza mózgu” pokazuje problemy filozoficzne
zwi

ą

zane z istot

ą

ś

wiadomo

ś

ci.

Ś

wiadomo

ść

pozostaje wi

ę

c

tajemnic

ą

...

wra

ż

e

ń

zmysłowych, np. smaku cukru, zapachu kawy, pi

ę

kna

muzyki Mozarta, itp.
Takie cechy stanu umysłu s

ą

wysoce subiektywne i nie wydaje

si

ę

, aby mo

ż

na je było uj

ąć

za pomoc

ą

obiektywnych poj

ęć

fizycznych.
Qualia jest wa

ż

n

ą

cz

ęś

ci

ą

ś

wiadomo

ś

ci,

ale nie mo

ż

e by

ć

obiektywnie badana

.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Eksperyment my

ś

lowy „Chi

ń

ski pokój”

Eksperyment ten, wymy

ś

lony przez Searla w roku 1980 miał

pokaza

ć

,

ż

e system wykonuj

ą

cy program i b

ę

d

ą

cy w stanie

zaliczy

ć

test Turinga nie rozumie sensu wykonywanych działa

ń

.

Eksperyment „chi

ń

ski pokój” polega na umieszczeniu

w zamkni

ę

tym pomieszczeniu człowieka znaj

ą

cego tylko j

ę

zyk

angielski, wyposa

ż

eniu go w instrukcj

ę

operowania na

symbolach j

ę

zyka chi

ń

skiego napisanej w j

ę

zyku angielskim

oraz du

ż

y zasób kartek papieru.

Człowiek otrzymuje z zewn

ą

trz kartki zapisane znakami

© F.A. Dul 2007

Człowiek otrzymuje z zewn

ą

trz kartki zapisane znakami

chi

ń

skimi, przekształca je korzystaj

ą

c z instrukcji i zwraca

wyniki tych operacji na zewn

ą

trz.

Z zewn

ą

trz widoczny jest system który otrzymuje zdania

chi

ń

skie i udziela odpowiedzi w j

ę

zyku chi

ń

skim.

System jest inteligentny, gdy

ż

mo

ż

e zaliczy

ć

test Turinga.

Jednak Searle twierdzi,

ż

e

system nie rozumie tego, co robi

.

Zdaniem Searla,

wykonanie wła

ś

ciwego programu nie oznacza

rozumienia.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Na podstawie analizy eksperymentu „chi

ń

ski pokój” Searle

sformułował cztery aksjomaty my

ś

lenia:

1. Programy komputerowe s

ą

formalnymi bytami

syntaktycznymi.

2. Rozum posiada kontekst umysłowy, semantyczny.
3. Syntaktyka sama w sobie nie stanowi semantyki.
4. Mózg jest przyczyn

ą

my

ś

lenia.

Wniosek z aksjomatów 1–3:

nie istnieje taki program który

sam w sobie stanowi my

ś

lenie.

© F.A. Dul 2007

sam w sobie stanowi my

ś

lenie.

Konkluzja Searla jest nast

ę

puj

ą

ca:

ż

aden program nie stanowi

my

ś

lenia.

Wniosek z aksjomatu 4:

ka

ż

dy system mog

ą

cy my

ś

le

ć

musi

by

ć

(co najmniej) równowa

ż

ny mózgowi.

Searle wyci

ą

ga st

ą

d kolejny wniosek: ka

ż

dy sztuczny mózg

musi na

ś

ladowa

ć

my

ś

lenie mózgu, a nie wykonywa

ć

program

„realizuj

ą

cy” my

ś

lenie.

Wnioski Searla miały stanowi

ć

argumenty

za odrzuceniem

hipotezy silnej AI.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Aksjomat 3 („Syntaktyka sama w sobie nie stanowi semantyki”)
odwołuje si

ę

do intuicji, nie stanowi wi

ę

c dowodu.

Wnioski Searla s

ą

jednak kwestionowane ( M.S. Churchland,

S. Lem „Tajemnica chi

ń

skiego pokoju”, i inni).

Searle posługuje si

ę

argumentem,

ż

e nawet ewidentnie

inteligentny system (człowiek) wykonuj

ą

cy program

(tłumaczenie chi

ń

skiego)

w sposób widoczny

nie my

ś

li.

Odwołanie si

ę

do intuicji („w sposób widoczny nie my

ś

li”) jest

Krytyka rozumowania Searla dotyczy przede wszystkim tego,

ż

e słuszno

ść

wniosków zale

ż

y od

akceptacji

Aksjomatu 3.

© F.A. Dul 2007

Odwołanie si

ę

do intuicji („w sposób widoczny nie my

ś

li”) jest

uwa

ż

ane przez krytyków za nieuprawnione.

Podobnie bowiem mo

ż

na powiedzie

ć

o mózgu: „w sposób

oczywisty zbiór komórek mózgowych działaj

ą

cych

ś

lepo

zgodnie z prawami fizyki nie mo

ż

e my

ś

le

ć

”.

Chocia

ż

Searle nie odrzuca całkowicie mo

ż

liwo

ś

ci,

ż

e system

sztuczny mo

ż

e my

ś

le

ć

, to z jego rozumowania nie wynika

jakiego typu

systemy (poza człowiekiem) mogłyby my

ś

le

ć

.

Krytyka argumentów Searla przeciwko silnej AI spowodowała
odrzucenie wniosku o niemo

ż

no

ś

ci my

ś

lenia przez maszyny.

background image

26.2. Silna Sztuczna Inteligencja: czy maszyny mog

ą

my

ś

le

ć

?

Wnioski

Pytanie o inteligencj

ę

nieuchronnie prowadzi

do pytania o my

ś

lenie i

ś

wiadomo

ść

.

Stany my

ś

lowe s

ą

identyfikowane ze stanami

fizjologicznymi mózgu.

Mo

ż

na mierzy

ć

zwi

ą

zki pomi

ę

dzy aktywno

ś

ciami

umysłowymi a stanami fizjologicznymi

© F.A. Dul 2007

umysłowymi a stanami fizjologicznymi
odpowiadaj

ą

cych im obszarów mózgu.

Ś

wiadomo

ść

całkowicie wymyka si

ę

badaniom.

Wnioski filozoficzne wynikaj

ą

ce z hipotezy silnej AI

nie maj

ą

wpływu na rozwój sztucznej inteligencji.

Nurty filozoficzny i praktyczny sztucznej inteligencji
rozwijaj

ą

si

ę

(prawie) niezale

ż

nie.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej

Inteligencji

Dotychczas zastanawiali

ś

my si

ę

czy rozwój sztucznej

inteligencji

jest mo

ż

liwy

.

Kwesti

ą

moraln

ą

jest to,

czy powinni

ś

my

to robi

ć

.

Na badaczach AI ci

ąż

y

ć

b

ę

dzie moralna odpowiedzialno

ść

za negatywne konsekwencje jej rozwoju.
Chocia

ż

rozwój ka

ż

dej dziedziny wiedzy powoduje powstanie

problemów natury etycznej i moralnej, to sztuczna

© F.A. Dul 2007

• Ludzie mog

ą

traci

ć

prac

ę

z powodu automatyzacji.

• Ludzie mog

ą

mie

ć

za du

ż

o (lub za mało) wolnego czasu.

• Ludzie mog

ą

utraci

ć

poczucie swojej wyj

ą

tkowo

ś

ci.

• Ludzie mog

ą

utraci

ć

cz

ęść

swobód obywatelskich.

• U

ż

ywanie systemów sztucznej inteligencji mo

ż

e

doprowadzi

ć

do rozmycia odpowiedzialno

ś

ci.

• Rozwój sztucznej inteligencji mo

ż

e doprowadzi

ć

rodzaj

ludzki do zaniku.

problemów natury etycznej i moralnej, to sztuczna
inteligencja generuje zagro

ż

enia i dylematy nowego rodzaju.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Ludzie mog

ą

traci

ć

prac

ę

z powodu automatyzacji

Zagro

ż

enie spowodowane automatyzacj

ą

wydawało si

ę

realne

w USA ju

ż

w latach 50. XX w., ale było mocno wyolbrzymione.

Nowoczesna gospodarka i ekonomia w coraz wi

ę

kszym

stopniu zale

żą

od komputerów i systemów AI.

Komputeryzacja zredukowała zatrudnienie w pewnych
zawodach, ale jednocze

ś

nie spowodowała wzrost liczby

miejsc pracy w zawodach wykorzystuj

ą

cych informatyk

ę

:

w bankowo

ś

ci, administracji, handlu (równie

ż

internetowym),

usługach, itp.

© F.A. Dul 2007

w bankowo

ś

ci, administracji, handlu (równie

ż

internetowym),

usługach, itp.
W efekcie komputeryzacja stworzyła wi

ę

cej miejsc pracy

ni

ż

ich wyeliminowała.

Obecnie typowe programy AI maj

ą

charakter asystentów

człowieka, w przeciwie

ń

stwie do starszej ich generacji,

gdy przewa

ż

ały programy typu systemu ekspertowego,

stworzone do zast

ę

powania ludzi.

Zagro

ż

enie zwi

ą

zane ze wzrostem bezrobocia z powodu

wprowadzenia AI wydaje si

ę

obecnie mało realne.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Ludzie mog

ą

mie

ć

za du

ż

o (lub za mało) wolnego czasu

W latach 70. XX wieku uwa

ż

ano (A. Toffler, A. C. Clarke),

ż

e automatyzacja i komputeryzacja spowoduj

ą

wzrost czasu

wolnego o 50%, a w wyniku powszechn

ą

nud

ę

i zwi

ą

zane

z tym zagro

ż

enia.

Jednak okazało si

ę

,

ż

e gospodarka high-tech skłania ludzi

do coraz dłu

ż

szej pracy, gdy

ż

bardzo cz

ę

sto wzrostowi

długo

ś

ci czasu pracy towarzyszy du

ż

y wzrost dochodów

(np. wzrost czasu pracy o 10% powoduje wzrost dochodów
nawet o 100%).

© F.A. Dul 2007

nawet o 100%).

W efekcie czas pracy w krajach rozwini

ę

tych wydłu

ż

a si

ę

raczej a nie skraca.
Jest to w du

ż

ej mierze spowodowane wprowadzaniem

zaawansowanych technologii, w tym sztucznej inteligencji.

Nowe technologie, internet oraz łatwo

ść

wymiany informacji

w skali

ś

wiatowej powoduj

ą

zmian

ę

stylu pracy.

Globalne firmy wymuszaj

ą

prac

ę

całodobow

ą

ze wzgl

ę

du

na ró

ż

nice stref czasowych.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Ludzie mog

ą

utraci

ć

poczucie swojej wyj

ą

tkowo

ś

ci

W pracy „Computer Power and Human Reason” (1976)
Weizenbaum przedstawił zagro

ż

enie wynikaj

ą

ce z przyj

ę

cia

na podstawie bada

ń

AI tezy,

ż

e człowiek jest w istocie

automatem.
W wyniku tego człowiek, zdaniem Weizbauma,

utraci poczucie

swojej wyj

ą

tkowo

ś

ci

.

Teza taka si

ę

ga korzeniami do idei Le Metriego („L’Homme

Machine”, 1748) i jest przejawem

mechanicyzmu

.

© F.A. Dul 2007

Machine”, 1748) i jest przejawem

mechanicyzmu

.

Przeciwnicy tezy o szoku zwi

ą

zanym z utrat

ą

wyj

ą

tkowo

ś

ci

twierdz

ą

jednak,

ż

e ludzko

ść

przetrwała ju

ż

wiele rewizji

przekonania o swojej szczególnej pozycji: rewolucj

ę

kopernika

ń

sk

ą

(Kopernik, 1543) czy te

ż

teori

ę

ewolucji

(Darwin,1871).
Gdyby AI osi

ą

gn

ę

ła swoje najambitniejsze cele, to ludzko

ść

musiałaby przewarto

ś

ciowa

ć

swoje pogl

ą

dy tak, jak zrobiła

to po rewolucjach kopernika

ń

skiej czy darwinowskiej.

Wi

ę

kszo

ść

filozofów uwa

ż

a,

ż

e ludzko

ść

sobie z tym poradzi.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Ludzie mog

ą

utraci

ć

cz

ęść

swobód obywatelskich

Weizenbaum przedstawił tak

ż

e zagro

ż

enia wynikaj

ą

ce

z rozwoju technologii rejestracji i identyfikacji, polegaj

ą

ce

na

ograniczeniu praw i swobód obywatelskich

.

W istocie, w dobie wszechobecnych systemów nadzoru,
telefonii komórkowej, elektronicznie rejestrowanych transakcji,
systemów rozpoznawania obrazu, systemów analizuj

ą

cych

komunikacj

ę

(Echelon), prywatno

ść

człowieka została ju

ż

w znacznym stopniu ograniczona.

© F.A. Dul 2007

Jest to wymuszone w du

ż

ej mierze wzrostem zagro

ż

e

ń

terrorystycznych w skali

ś

wiatowej.

Wielu filozofów i socjologów zgadza si

ę

z tez

ą

,

ż

e komputery-

zacja doprowadziła do cz

ęś

ciowej utraty prywatno

ś

ci.

Prywatno

ść

jest te

ż

uwa

ż

ana przez wielu za jeden

z podstawowych wyznaczników osobowo

ś

ci człowieka,

zatem jej utrata mo

ż

e by

ć

traktowana jako du

ż

e zagro

ż

enie.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

U

ż

ywanie systemów sztucznej inteligencji mo

ż

e

doprowadzi

ć

do rozmycia odpowiedzialno

ś

ci

U

ż

ycie systemów AI rodzi zagro

ż

enia zwi

ą

zane z utrat

ą

odpowiedzialno

ś

ci za prowadzone działania.

Systemy bankowe i handlowe opieraj

ą

si

ę

w coraz wi

ę

kszym

stopniu na komputerach u

ż

ywaj

ą

cych systemów AI

do prowadzenia transakcji, cz

ę

sto w imieniu klientów.

Systemy ekspertowe formułuj

ą

diagnozy medyczne,

które mog

ą

decydowa

ć

o

ż

yciu pacjenta.

© F.A. Dul 2007

Od wła

ś

ciwego działania systemów nadzoruj

ą

cych

i steruj

ą

cych zale

ż

y bezpiecze

ń

stwo komunikacji lotniczej,

morskiej i l

ą

dowej.

Agenci internetowi mog

ą

nieumy

ś

lnie (lub umy

ś

lnie) zniszczy

ć

zasoby w komputerach przył

ą

czonych do sieci.

Powstaje wi

ę

c kwestia odpowiedzialno

ś

ci prawnej

oraz materialnej za szkody mog

ą

ce by

ć

wynikiem u

ż

ywania

systemów AI.

Istnieje te

ż

potencjalna mo

ż

liwo

ść

działania superinteligentnych

systemów AI we własnym imieniu.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Medyczne systemy ekspertowe s

ą

tylko doradcami lekarza,

ale pojawia si

ę

problem odpowiedzialno

ś

ci lekarza

za niewykorzystanie wyników diagnozy systemu.

Panuje zgoda,

ż

e działanie systemów AI powinno podlega

ć

ograniczeniom narzuconym przez projektantów i producentów.

Istniej

ą

ce systemy prawne nie po

ś

wi

ę

caj

ą

jak dotychczas

nale

ż

ytej uwagi kwestii odpowiedzialno

ś

ci za działania

systemów AI.

Zaistniałe przypadki rozpatrywane s

ą

najcz

ęś

ciej w ramach

© F.A. Dul 2007

Mo

ż

na jednak s

ą

dzi

ć

,

ż

e w niedługim czasie powstan

ą

odpowiednie uregulowania prawne, wymuszone przez
praktyk

ę

ś

wiata u

ż

ywaj

ą

cego powszechnie systemów AI.

Zaistniałe przypadki rozpatrywane s

ą

najcz

ęś

ciej w ramach

istniej

ą

cego prawa, co jednak nie zawsze jest rozwi

ą

zaniem

wła

ś

ciwym.

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Rozwój sztucznej inteligencji mo

ż

e doprowadzi

ć

rodzaj

ludzki do zaniku
Ka

ż

da technologia w niewła

ś

ciwych r

ę

kach mo

ż

e wyrz

ą

dza

ć

szkody (bro

ń

, technologie j

ą

drowe, internet,...).

Jednak AI i robotyka mog

ą

same by

ć

autorami destrukcji.

Literatura sf od dawna opisuje siej

ą

ce zniszczenie roboty

lub istoty człekopodobne: Frankenstein (Mary Shelley, 1818),
R.U.R. (

Č

apek, 1921); filmy: Odyseja Kosmiczna 2001

(1968), Terminator (1984), Matrix (1999) i wiele innych.
Roboty i androidy s

ą

współczesn

ą

wersj

ą

dawnych wied

ź

m

© F.A. Dul 2007

Roboty i androidy s

ą

współczesn

ą

wersj

ą

dawnych wied

ź

m

i duchów; odzwierciedlaj

ą

strach człowieka przed nieznanymi

bytami.
Uwa

ż

a si

ę

jednak,

ż

e maszyny zbudowane dla realizacji

celów człowieka b

ę

d

ą

słu

ż

y

ć

człowiekowi i nie b

ę

d

ą

stanowi

ć

realnego zagro

ż

enia (pomijaj

ą

c wypadki).

Maszyny same w sobie nie s

ą

agresywne, ale mog

ą

by

ć

takie

je

ż

eli zostan

ą

odpowiednio zaprojektowane przez człowieka.

Maszyny mog

ą

sta

ć

si

ę

w pewnym sensie „zdobywcami

ś

wiata”, je

ż

eli b

ę

d

ą

niezast

ą

pione (tak, jak np. samochody).

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

Mo

ż

liwym scenariuszem „podboju”

ś

wiata przez inteligentne

maszyny jest

eksplozja inteligencji

(Good, 1965):

• człowiek buduje najinteligentniejsze

maszyny, jakie mo

ż

e stworzy

ć

przy

pomocy dost

ę

pnych mu technologii...

• ale maszyny te s

ą

tak inteligentne,

ż

e potrafi

ą

zbudowa

ć

maszyny

jeszcze bardziej inteligentne,...

• te z kolei buduj

ą

maszyny jeszcze

m

ą

drzejsze, itd...

?

in

te

lig

e

n

c

ja

?

© F.A. Dul 2007

Inteligencja człowieka pozostałaby wi

ę

c szybko w tyle.

m

ą

drzejsze, itd...

Taki lawinowy rozwój maszyn
inteligentnych prowadziłby do

osobliwo

ś

ci technologicznej

.

Filozofowie s

ą

raczej zgodni co do tego,

ż

e maszyny

przewy

ż

szaj

ą

ce inteligencj

ą

człowieka kiedy

ś

powstan

ą

.

ż

ni

ą

si

ę

w ocenie tempa rozwoju maszyn inteligentnych

oraz skutków ich pojawienia si

ę

twierdz

ą

c,

ż

e nast

ą

pi:

• kres ery człowieka

(Good, Vinge 1993).

• konwergencja człowieka i maszyny

(Moravec 2000).

czas

koniec ery

człowieka

background image

26.3. Etyka i ryzyko zwi

ą

zane z rozwojem Sztucznej Inteligencji

A jak wygl

ą

dałby

ś

wiat z punktu widzenia inteligentnych

maszyn?

Jednak pojawienie si

ę

maszyn

ś

wiadomych

stworzy całkiem

nowe problemy natury moralnej i etycznej.

Maszyny b

ę

d

ą

musiały przestrzega

ć

praw ludzkich.

Maszyny inteligentne, ale nie

ś

wiadome, s

ą

dalej tylko

maszynami.

Ś

wiadome maszyny b

ę

d

ą

musiały by

ć

zaprojektowane tak,

aby odró

ż

niały dobro od zła.

© F.A. Dul 2007

Cz

ęść

etyków uwa

ż

a,

ż

e

ś

wiadomych maszyn nie wolno

b

ę

dzie traktowa

ć

inaczej ni

ż

ludzi -

nale

ż

ne im b

ę

d

ą

prawa

.

Czy zatem roboty b

ę

d

ą

mogły za

żą

da

ć

np. wolnych sobót,

prawa do strajku czy praw chroni

ą

cych ich reprodukcj

ę

?

Maszyny b

ę

d

ą

musiały przestrzega

ć

praw ludzkich.

Czy b

ę

d

ą

zakładały zwi

ą

zki zawodowe lub partie polityczne?

Czy w ko

ń

cu b

ę

d

ą

mogły rz

ą

dzi

ć

lud

ź

mi?

Na te (i inne) pytania nie ma dzisiaj odpowiedzi, ale problem
nieobcy jest literaturze sf, np. Asimov (1942), film Spielberga
A.I.
(2001).

background image

Podsumowanie

• Filozofowie u

ż

ywaj

ą

poj

ę

cia

słabej AI

dla okre

ś

lenia hipotezy

mówi

ą

cej,

ż

e maszyny mog

ą

zachowywa

ć

si

ę

inteligentnie.

• Poj

ę

cie

silnej AI

okre

ś

la hipotez

ę

mówi

ą

c

ą

,

ż

e maszyny

rzeczywi

ś

cie mog

ą

my

ś

le

ć

, a nie tylko symulowa

ć

my

ś

lenie.

• Alan Turing odrzucił kwesti

ę

„Czy maszyny my

ś

l

ą

?”

zast

ę

puj

ą

c j

ą

testem inteligentnego zachowania maszyny.

Turing sformułował wiele obiekcji w stosunku do idei maszyn
my

ś

l

ą

cych.

© F.A. Dul 2007

my

ś

l

ą

cych.

• Niewielu badaczy AI przywi

ą

zuje obecnie wag

ę

do testu

Turinga i imitacji człowieka, skupiaj

ą

c si

ę

raczej

na doskonaleniu mo

ż

liwo

ś

ci systemów AI.

• Argumenty za i przeciw silnej AI nie prowadz

ą

do konkluzji.

Istnieje przekonanie,

ż

e badania AI w niewielkim stopniu

zale

żą

od wyników debaty na ten temat.

background image

Podsumowanie (c.d.)

• Panuje zgoda co do tego,

ż

e stany umysłu s

ą

stanami

fizjologicznymi mózgu.

Ś

wiadomo

ść

pozostaje jednak wielk

ą

tajemnic

ą

...

• Potencjalne zagro

ż

enia społeczne zwi

ą

zane ze sztuczn

ą

inteligencj

ą

i technologiami pokrewnymi s

ą

w wi

ę

kszo

ś

ci

mało prawdopodobne lub wyst

ę

puj

ą

równie

ż

w innych

dziedzinach, nie zwi

ą

zanych ze sztuczn

ą

inteligencj

ą

.

© F.A. Dul 2007

• Zagro

ż

eniem realnym wartym uwagi jest wpływ

superinteligentnych maszyn na kształt

ś

wiata w przyszło

ś

ci.

To mo

ż

e by

ć

zupełnie inny

ś

wiat - mo

ż

na go b

ę

dzie lubi

ć

lub nie, ale nie b

ę

dzie si

ę

miało na to wpływu.

• Takie rozwa

ż

ania prowadz

ą

nieuchronnie do wniosku,

ż

e ju

ż

teraz nale

ż

y starannie rozwa

ż

a

ć

mo

ż

liwe

konsekwencje bada

ń

nad AI dla przyszło

ś

ci rodzaju

ludzkiego.

background image

Wyszukiwarka

Podobne podstrony:
Podstawy Sztucznej Intelignecji
Podstawy sztucznej inteligencji (2)
Pytania Podstawy sztucznej inteligencji
Projektowanie SI - podstawowe zagadnienia (2), dokumenty, Sztuczna inteligencja
Podstawy Sztucznej Intelignecji
Podstawy Sztucznej Inteligencji
Elementy Sztucznej Inteligencji
TEORETYCZNE PODSTAWY FILOZOFII I ETYKI?ŁY SEMESTR
Podstawy filozofii S id 367109
MSI-program-stacjonarne-15h-2011, logistyka, semestr IV, sieci neuronowe w log (metody sztucznej int
Podstawy Filozofii prezentacja 2
Ściąga ze sztucznej inteligencji(1), uczenie maszynowe, AI
wprowadzenie do sztucznej inteligencji-wyk łady (10 str), Administracja, Administracja, Administracj
system ekspercki i sztuczna inteligencja word 07
TEORETYCZNE PODSTAWY FILOZOFII I ETYKI OPRACOWANE
Podstawy Filozofii
TEORETYCZNE PODSTAWY FILOZOFII I ETYKI

więcej podobnych podstron