implementacja jest niedoskonała. Czasem nie jesteśmy w stanie przewidzieć wszystkich stanów, jakie może przyjąć nasz algorytm, innym znów razem możemy przewidzieć, ale nie jesteśmy sobie w stanie wyobrazić, że „coś takiego może się stać”.
Czas na anegdotę. Może to miejska legenda? Nie wiem, czytałem ją gdzieś-kiedyś i nie weryfikowałem faktów, ale sama przypowiastka ilustruje pewien sposób, w jaki nieustannie strzelamy sobie w stopę.
Izraelczycy kupili sobie samoloty. Piękne, nowe samoloty, które strzelają. Pif-paf i w ogóle. Niestety, podczas testów wyszło na jaw, że samoloty te lubią sobie spaść z nieba. Ot tak, „pierdolę, nie lecę". Inspekcja oprogramowania wykazała, że autorzy programu przyjęli sobie bazową na podstawie wysokości nad poziomem morza. Część Izraela znajduje się poniżej poziomu morza, komputer się pogubił i katastrofa gotowa.
Nie wydaje mi się, że historyjka jest prawdziwa, ale nadal ładnie nadaje się jako ilustracja naszej zdolności przewidywania. Zwykle nasze przewidywania zdolności przewidywania są błędne. Błędnie błędne.
Gdzie w tym wszystkim etyka, gdzie moralność? Jeszcze nigdzie. Wprawdzie błędnie zaprojektowany program, który zsyła z nieba tony żelastwa mogące uderzyć w obiekty cywilne, nie jest powodem do dumy, ale ilość przepisów i kontroli powodują, że „wina” się rozmywa.
Wspominałem na początku książkę „Roboty i Imperium”. Jest to powieść spinająca dwie serie kluczowe w twórczości Isaaca Asimova: „Roboty” i „Fundacja". Seria książek o robotach wniosła do literatury i kultury popularnej ideę „Trzech Praw Robotyki", które stanowiły moralne wzorce dla robotów zasiedlających wszechświat Asimova.
1. Robot nie może skrzywdzić człowieka lub przez zaniechanie doprowadzić do jego krzywdy