66 68 komputery kwantowe

background image

11/2009

66

Warsztaty

Komputery kwantowe – przyszłość informatyki?

www.sdjournal.org

67

W

1947 roku, jeden z amerykań-
skich pionierów informatyki,
Howard Aiken, przewidywał,

że sześć standardowych komputerów cyfro-
wych powinno zaspokoić potrzeby oblicze-
niowe całych Stanów Zjednoczonych. Oczy-
wiście, z naszego punktu widzenia prognoza
ta jest rażąco nierealistyczna, musimy jednak
brać pod uwagę zastosowanie komputerów w
tamtych czasach – były one bowiem budo-
wane głównie na użytek wojskowy oraz aka-
demicki. Howard Aiken, podobnie jak inni
twórcy komputerów z tego okresu, nie mógł
przewidzieć, że ich pomysły, chociaż w nie-
znacznie zmodyfikowanej formie, zrewolu-
cjonizują oblicze świata.

Wraz z postępem technologii budowy

komputerów, następował rozwój informa-
tyki teoretycznej, a w szczególności algoryt-
miki. Bardzo szybko okazało się, że sama me-
todologia przetwarzania danych wykorzy-
stywana w klasycznych komputerach cyfro-
wych, budowanych w oparciu o podzespo-
ły elektroniczne, powoduje duże trudności
w rozwiązywaniu pewnych klas problemów.
Chodzi tu nie tylko o zagadnienia, w których
nie udaje się skonstruować algorytmu, jak np.

w problemie komiwojażera, lecz o problemy,
których rozwiązanie wymaga ogromnej mocy
obliczeniowej. Rozwiązanie dużej liczby po-
zornie banalnych zadań na standardowych
komputerach jest praktycznie niemożliwe.

Część genialnych naukowców, zajmują-

cych się budową pierwszych komputerów,
pracowało również nad powstałą w XX wie-
ku nową dziedziną fizyki – fizyką kwanto-
wą. Jednym z nich był John von Neumann,
znany głównie jako twórca architektury von
Neumanna – komputera mogącego wykony-
wać wiele różnych programów, bez potrzeby
zmiany jego budowy. W architekturze von
Neumanna, dane i instrukcje, przechowywa-
ne w jednym typie pamięci, przetwarzane są
przez jednostkę arytmetyczno-logiczną, zaś
wyniki operacji i polecenia operatora prze-
kazywane są przy użyciu urządzeń wejścia/
wyjścia. Pomimo faktu, że John von Neu-
mann sformalizował cały aparat matema-
tyczny wykorzystywany w fizyce kwantowej
oraz był zaangażowany w rozwój wczesnych
technologii komputerowych, nie wpadł na
pomysł połączenia ze sobą tych dwóch dzie-
dzin. Dokonali tego inni naukowcy niemal
30 lat później.

Wróćmy jednak do czasów współczesnych.

Obecnie nad rozwojem teorii informaty-
ki kwantowej oraz praktycznej realizacji za-
dań obliczeniowych na komputerach kwanto-
wych zajmują się duże grupy naukowców. Roz-
wojem tej dziedziny zainteresowane są nie tyl-
ko wielkie firmy, takie jak IBM, lecz również

agencje wojskowe oraz uniwersytety. Pomimo
dość znacznych postępów, jakich udało się do-
konać na przestrzeni ostatnich kilkunastu lat,
wciąż jesteśmy daleko od zbudowania kompu-
tera kwantowego, który mógłby zostać efek-
tywnie zastosowany do rozwiązywania kon-
kretnych problemów.

Pewnie zadajesz sobie teraz pytanie: dlacze-

go zbudowanie komputera kwantowego jest ta-
kie trudne?
Otóż okazuje się, że problemy nie
wynikają w głównej mierze z niedoskonałości
technologii. Te same zjawiska, które powodu-
ją, że wizja kwantowego przetwarzania infor-
macji wydaje się tak atrakcyjna, są również
odpowiedzialne za problemy przy budowie
urządzeń je realizujących. Aby zrozumieć tę
poniekąd paradoksalną sytuację, musimy po-
znać podstawy fizyki kwantowej. Nie martw
się jednak – pomimo iż zachęcam Cię, abyś
zapoznał się z aparatem matematycznym wy-
korzystywanym w tej dziedzinie, zrozumie-
nie tego artykułu nie będzie wymagało jego
znajomości.

Naszą podróż do świata komputerów

kwantowych rozpoczniemy od zapoznania
się z podstawami fizyki kwantowej. Omó-
wimy najważniejsze zjawiska, których od-
krycie na zawsze zmieniło myślenie o bu-
dowie materii, a które znajdują ogrom-
ne zastosowanie w dziedzinie kwantowe-
go przetwarzania informacji. Następnie
przyjrzymy się klasycznej architekturze
komputerów oraz algorytmom determini-
stycznym – poznamy również sposób ich
realizacji we współczesnych urządzeniach.
Po zapoznaniu się z tymi informacjami bę-
dziemy już mogli skupić się na właściwym
temacie artykułu – komputerach kwanto-
wych.

Fizyka kwantowa

Fizyka kwantowa to dwa słowa, na których
dźwięk cierpnie skóra każdego, komu fizy-

Komputery kwantowe

Każdy z nas z pewnością słyszał o komputerach kwantowych, próbach

ich zbudowania oraz niemalże nieograniczonych możliwościach, jakie

miałoby dać ich wykorzystanie. W tym artykule zapoznasz się z podstawami

technologii przetwarzania informacji przy użyciu komputerów kwantowych.

Zapraszam do lektury!

Dowiesz się:

• Czym są komputery kwantowe;
• W jaki sposób przebiegał rozwój tej dziedziny;
• Czym różni się budowa komputera kwanto-

wego od komputera klasycznego;

• Czym są i jak działają algorytmy kwantowe

Poziom

trudności

przyszłość informatyki?

oraz poznasz najważniejsze z nich;

• Dlaczego zbudowanie komputera kwanto-

wego jest tak trudne.

background image

11/2009

66

Warsztaty

Komputery kwantowe – przyszłość informatyki?

www.sdjournal.org

67

ka kojarzy się jedynie ze spadającymi jabłka-
mi oraz rzędami niezrozumiałych równań,
służących do opisu bardzo prostych zjawisk.
Na fizyce kwantowej opiera się jednak cała
współczesna chemia, elektronika oraz bar-
dzo wiele innych dziedzin. Co ciekawe, jest
to bardzo młoda gałąź wiedzy – jej początki
datujemy na początek wieku XX.

Krótka historia fizyki kwantowej
Pod koniec XIX wieku fizycy byli bardzo
dumni ze stopnia rozwoju tejże dziedziny na-
uki. Większość problemów, które frapowały
już starożytnych filozofów przyrody, została
dawno rozwiązana i potwierdzona odpowied-
nimi eksperymentami. Nikt nie przejmował
się kilkoma doświadczeniami, które dawa-
ły zaskakujące, niezgodne z przewidywania-
mi wyniki – prawdopodobnie uważano, że z
pewnością znajdzie się ktoś, kto zinterpretu-
je je w odpowiedni sposób na gruncie istnieją-
cej teorii. Paradoksalnie, wyjaśnienie tych zja-
wisk stało się przyczyną obalenia większości
ówczesnych poglądów na temat funkcjono-
wania przyrody.

Za pioniera fizyki kwantowej uznaje się

Maxa Plancka – to on pierwszy zapostulo-
wał, że energia fali elektromagnetycznej (kon-
kretnie światła) jest skwantowana, tzn. może
przyjmować lub zmieniać się jedynie o cał-
kowite wielokrotności pewnej elementarnej
porcji, zwanej kwantem.

Badania Plancka zostały następnie wyko-

rzystane przez Alberta Einsteina w celu wyja-
śnienia zjawiska fotoelektrycznego, polegają-
cego na emisji elektronów z powierzchni me-
talu pod wpływem padającego światła. Ein-
stein wytłumaczył je w następujący sposób:
wiązka światła niesie ze sobą dyskretne war-
tości energii w postaci cząstek zwanych fo-
tonami, które przy zderzeniu z elektronami
sieci krystalicznej danej substancji powodu-
ją ich wybicie. Należy mieć na uwadze, że je-
den foton przekazuje całą swą energię jedne-
mu elektronowi, a następnie znika. Elektro-
ny uzyskują przy tym energię równą różnicy
energii fotonu i pracy wyjścia elektronu z me-
talu. Zjawisko fotoelektryczne nie zachodzi
dla częstości fali elektromagnetycznej niższej
od pewnej granicy, niezależnie od natężenia
promieniowania padającego na płytkę. Dowo-
dzi to jednoznacznie, że energia przenoszona
przez falę elektromagnetyczną jest skwanto-
wana i zależy jedynie od długości fali.

W 1913 roku Niels Bohr ogłosił swoje po-

stulaty dotyczące budowy atomu wodoru.
Oprócz wyjaśnienia paradoksu związane-
go ze stabilnością jądra atomowego (według
praw mechaniki klasycznej, elektrony krą-
żące wokół jądra powinny wypromieniowy-
wać energię, wskutek czego po krótkim cza-
sie musiałyby spaść na jądro), model Bohra
zakładał, że elektrony poruszają się po ści-

śle określonych orbitach, a przejścia pomię-
dzy nimi mogą zachodzić jedynie wskutek
absorbcji lub emisji odpowiednich kwantów
energii (równych różnicy energii pomiędzy
powłokami).

Skoro fala elektromagnetyczna może

być interpretowana jako strumień cząstek
o określonym pędzie, to strumień cząstek
powinien posiadać właściwości falowe – do
takiego wniosku doszedł Louis de Broglie
w swojej pracy opublikowanej w 1924 ro-
ku. Jego hipoteza została potwierdzona do-
świadczalnie przez Davissona i Germera w
1927 roku, gdy po skierowaniu wiązki elek-
tronów na strukturę krystaliczną (działają-
cą jako trójwymiarowa siatka dyfrakcyjna)
zaobserwowali oni zjawisko dyfrakcji, cha-
rakterystyczne dla fal elektromagnetycz-
nych. Cechę fal elektromagnetycznych, po-
legającą na jednoczesnej obecności własno-
ści korpuskularnych (cząsteczkowych) i fa-
lowych, nazywamy dualizmem korpusku-
larno-falowym.

Jednym z najważniejszych kroków na dro-

dze do opracowania kompletnej teorii fizyki
kwantowej było opublikowanie przez Erwina
Schrödingera równania Schrödingera. Przy je-
go wykorzystaniu stało się możliwe opisanie
ewolucji stanu układu kwantowego wraz z
upływem czasu.

Bardzo ważna, z punktu widzenia kon-

strukcji komputerów kwantowych, jest zasa-
da nieoznaczoności Heisenberga. Mówi ona,
że nie można jednocześnie i z dowolną do-
kładnością dokonać pomiaru dwóch wiel-
kości, takich jak pęd i położenie lub czas i
energia. W świecie kwantowym nigdy nie
poznamy wszystkich parametrów cząstecz-
ki – możemy mówić jedynie o prawdopodo-
bieństwie, że cząstka w danej chwili znajduje
się w określonym stanie.

Następne lata przyniosły duże postępy w

zakresie formułowania formalizmu mate-
matycznego, niezbędnego do pełnego opisu
praw fizyki kwantowej. W 1927 roku Paul
Dirac połączył prawa mechaniki kwanto-
wej ze szczególną teorią względności Einste-
ina oraz wprowadził notację stanów układów
kwantowych. W 1932 roku wspominany już
John von Neumann zaproponował komplet-
ny sposób opisu mechaniki kwantowej w ję-
zyku matematyki.

Od tego czasu rozwój fizyki kwantowej

przebiegał już bardzo szybko – wielu na-
ukowców zaangażowanych w jej rozwój pra-
cowało przy projektach zbrojeniowych pro-
wadzonych przez Stany Zjednoczone, mię-
dzy innymi w projekcie Manhattan (mającym
na celu budowę bomby atomowej). Jednym z
najważniejszych, późniejszych dokonań, było
opracowanie teorii elektrodynamiki kwanto-
wej (ang. QED – Quantum Electrodynamics)
przez Richarda Feynmanna.

Pomimo ogromnej drogi, jaką przebyła fi-

zyka kwantowa od momentu jej powstania,
dalej mamy do czynienia z wieloma nie-
wiadomymi. Duże wysiłki ukierunkowa-
ne są również na opracowanie tzw. Teorii
Wszystkiego – wyrażającej wszystkie pra-
wa przyrody i łączącej cztery oddziaływa-
nia podstawowe (grawitację, elektromagne-
tyzm, oddziaływanie silne oraz oddziały-
wanie słabe).

Zastosowanie fizyki kwantowej
Większości osób niezainteresowanych na-
ukami przyrodniczymi i pewnymi dzie-
dzinami techniki fizyka kwantowa kojarzy
się z naukami znacznie bardziej abstrakcyj-
nymi i niemającymi praktycznych zastoso-
wań, np. kosmologią. Rzeczywistość jest
jednak zupełnie inna – bez rozwoju fizy-

Rysunek 1. Przedstawienie maszyny Turinga

Tabela 1. Tabele funktorów logicznych

p

q

p AND q

p OR q

NOT p

p XOR q

1

1

1

1

0

0

1

0

0

1

0

1

0

1

0

1

1

1

0

0

0

0

1

0

background image

11/2009

68

Warsztaty

Komputery kwantowe – przyszłość informatyki?

www.sdjournal.org

69

ki kwantowej nie można mówić o rozwoju
wielu dziedzin chemii oraz – co powinno
być dla nas szczególnie interesujące – elek-
troniki. Okazuje się bowiem, że większość
podzespołów używanych we współcze-
snych komputerach korzysta ze zjawisk
wytłumaczalnych za pomocą mechaniki
kwantowej.

Bez znajomości praw fizyki kwantowej

niemożliwa byłaby produkcja podstawo-
wych podzespołów półprzewodnikowych,
takich jak diody i tranzystory, nie wspomi-
nając o nawet najprostszych układach sca-
lonych. Jeżeli weźmiemy pod uwagę, jak
ogromną rolę odgrywa technologia półprze-
wodnikowa w rozwoju informatyki, oraz jak
duży popyt na nowe technologie elektro-
niczne generuje informatyka, to nie będzie-
my mogli zignorować roli odkryć z dziedzi-
ny fizyki kwantowej dla kształtu wspołcze-
snego świata.

Zastanawiasz się teraz zapewne nad nastę-

pującym problemem – skoro współczesne
komputery w tak dużym stopniu korzystają z
odkryć fizyki kwantowej, to dlaczego nie na-
zywamy ich komputerami kwantowymi? Jest
to bardzo dobre pytanie – aby jednak na nie
odpowiedzieć, przypomnimy najpierw budo-
wę i zasadę działania współczesnych kompu-
terów i algorytmów.

Architektura

współczesnych komputerów

Pełne zrozumienie zasady działania współ-
czesnych komputerów i programów przez nie
przetwarzanych wymaga poznania podstawo-
wych paradygmatów leżących u podstaw in-
formatyki. Zajmiemy się teraz teoretycznymi
i praktycznymi podstawami działania współ-
czesnych komputerów.

Maszyna Turinga
a współczesne komputery
Jednym z podstawowych, abstrakcyjnych mo-
deli komputera jest maszyna Turinga, stwo-
rzona przez matematyka Alana Turinga. Jak
zaraz się przekonasz, jest ona modelem ściśle
teoretycznym – nie do końca oddaje zasadę
działania rzeczywistych komputerów cyfro-
wych. Nie będziemy zajmowali się nią zbyt
długo – matematyczne szczegóły jej działa-
nia są dość skomplikowane, nie mówiąc już o
jej zastosowaniu w celu określania złożoności
obliczeniowej lub rozwiązywalności konkret-
nych problemów.

Maszyna Turinga składa się z nieskoń-

czenie długiej taśmy podzielonej na pola,
służącej jako pamięć (Rysunek 1). Każde z
pól taśmy może znajdować się w jednym z
określonej liczby stanów. W trakcie realiza-
cji procesu obliczeniowego, maszyna Tu-
ringa znajduje się w jednym ze skończonej
liczby stanów, z głowicą ustawioną nad jed-
nym z pól taśmy. Po wykonaniu instrukcji
(polegającej na zmianie wartości pola) gło-
wica przesuwana jest o jedno pole w prawo
lub w lewo.

Z pewnością dostrzegasz już główną ide-

alizację w budowie maszyny Turinga, doty-
czącą nieskończoności taśmy – żaden kom-
puter nie dysponuje nieskończoną pamię-
cią. Maszyna Turinga jest więc jedynie mo-
delem, który z zasadą działania współcze-
snych komputerów ma jedynie kilka wspól-
nych cech charakterystycznych. Najważniej-
szymi z nich są determinizm oraz operowa-
nie na wartościach dyskretnych.

Determinizm jest jedną z podstawowych

cech współczesnych komputerów. Zakłada-
jąc, że maszyna działa poprawnie oraz zna-
jąc kod programu i dane wejściowe, jesteśmy

w stanie dokładnie przewidzieć tok jej dzia-
łania oraz wynik końcowy. Na działanie kom-
putera deterministycznego nie ma wpływu
przypadek, lecz jest ono ściśle zdefiniowa-
ne poprzez jego budowę, przetwarzany kod
oraz dane.

Kolejną ważną cechą komputerów cyfro-

wych jest jest działanie na wartościach dys-
kretnych – czyli należących do skończone-
go zbioru. Elementarną jednostką infor-
macji przechowywanej w komputerze jest
bit (0 albo 1), zaś wszystkie bardziej zło-
żone typy danych są ciągami bitów. Wi-
dać więc, że niezależnie od długości takie-
go ciągu (oznaczmy ją przez n) może on
przyjmować jedynie 2n wartości. Każdy sy-
gnał przed przetworzeniem przez kompu-
ter musi zostać zamieniony na postać cy-
frową – reprezentowaną poprzez skończo-
ną ilość bitów.

Realizacja sprzętowa
Wiemy już, jakie są podstawowe cechy współ-
czesnych komputerów cyfrowych. Zastanów-
my się jednak bliżej nad tym, w jaki sposób
realizowane są w nich wszystkie podstawowe
funkcje związane z przetwarzaniem danych.
Nie będziemy oczywiście opisywali żadnej
konkretnej architektury – posiadają one bar-
dzo wiele cech wspólnych, które nie zmienia-
ją się wraz z coraz to nowszymi i bardziej wy-
dajnymi modelami.

Produkowane obecnie komputery korzy-

stają z podzespołów zbudowanych przy uży-
ciu układów scalonych. Układy scalone za-
wierają (w zależności od skali integracji) od
kilkudziesięciu do setek milionów elemen-
tarnych podzespołów elektronicznych, ta-
kich jak tranzystory, diody, rezystory i kon-
densatory. Dzięki postępowi technologicz-
nemu w elektronice, możliwe jest budowa-
nie układów, w których elementy te mają co-
raz to mniejsze rozmiary, co z kolei prowadzi
do zmniejszenia zużycia energii i zwiększe-
nia mocy obliczeniowej (przynajmniej teo-
retycznie).

Budowa współczesnych układów scalo-

nych jest niezwykle skomplikowana, ma jed-
nak bardzo wiele cech wspólnych z prostymi
układami scalonymi realizującymi funkcje lo-
giczne. Jedną z nich jest wykorzystanie dys-
kretnych poziomów napięć w celu reprezen-
tacji stanów logicznych, np. 1 – 5V, 0 – 0V
(w układach TTL – Transistor-to-Transistor-Lo-
gic
). Napięcie podane na dane wejście może
mieć oczywiście dowolną wartość – istnieje
jednak pewien próg, powyżej którego napię-
cie interpretowane jest jako logiczna 1.

Więcej do przeczytania w papierowym wyda-
niu Software Developer’s Journal.

Rysunek 2. Algorytm faktoryzacji Shora w symulatorze QCL


Wyszukiwarka

Podobne podstrony:
komputery kwantowe
66 68
Komputery kwantowe brudnopis notatek do wykladu id
66 68
66 68
Komputery Kwantowe, komputery
08 1993 66 68
KOMPUTERY KWANTOWE
komputery kwantowe
Kubity i kot Schrödingera Od maszyny Turinga do komputerów kwantowych
Zbudowanie komputera kwantowego zrewolucjonizuje współczesną informatykę, Fizyka XX wieku
66 68
66 68
66 68
komputery kwantowe
66 68
06 1995 66 68

więcej podobnych podstron