Podstawy techniki 1i2


PÓŁPRZEWODNIKI

0x08 graphic
Nazwa tych materiałów wynika z pośredniej - w porównaniu z dobrymi przewodnikami i dobrymi izolatorami - oporności właściwej. Dla najlepszych przewodników (miedź, srebro) wynosi ona ok. 1,6÷1,7·10-8 Ω·m, podczas gdy dla najlepszych izolatorów przekracza nawet 1016 Ω·m. Do półprzewodników zalicza się materiały o oporności właściwej od 10-6 Ω·m do 10+8 Ω·m, bardziej jednak istotny jest inny niż w metalach mechanizm przewodnictwa. W przewodnikach jest dużo swobodnych elektronów (w metalach 1-2 na każdy atom), w izolatorach nie ma ich w ogóle - tzn. są silnie związane w swoich macierzystych atomach; natomiast w półprzewodnikach elektrony są słabo związane ze swoimi atomami i pod wpływem odpowiedniego pobudzenia mogą się uwolnić. W uproszczeniu: cokolwiek zrobimy z metalem, i tak przewodzi; cokolwiek zrobimy z izolatorem, i tak nie przewodzi; półprzewodniki przewodzą zaś lub nie przewodzą zależnie od słabych bodźców, można je włączać i wyłączać, i stąd wynika ich ogromna rola w elektronice.

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
Aby objaśnić dokładniej mechanizm przewodnictwa elektrycznego w ciałach stałych, musimy powołać się na teorię pasm energetycznych. Jak wiadomo z fizyki szkolnej (por. model Bohra atomu wodoru), elektron w pojedynczym atomie może występować tylko w jednym z dozwolonych stanów związanych (na jednej z dozwolonych orbit). Jeśli odłożymy energię na osi pionowej, to każdemu takiemu stanowi odpowiada linia pozioma - stąd mówimy o poziomach energetycznych. Swobodny (nie związany z jądrem atomu) elektron może natomiast mieć dowolną energię kinetyczną E = mv2/2. Właściwości elektronu w krysztale są pośrednie między dwoma tymi przypadkami, gdyż może się on poruszać w całej objętości kryształu, pozostając jednak pod wpływem przyciągającego oddziaływania jąder. Dlatego i struktura poziomów energetycznych wykazuje cechy pośrednie: każdy z poziomów energetycznych występujących dla pojedynczego atomu ulega poszerzeniu, przechodząc w pasmo, składające się z ogromnej liczby bardzo blisko leżących poziomów; stany należące do danego pasma różnią się wartością prędkości elektronu i kierunkiem jego ruchu.

Tak jak w pojedynczym atomie, w krysztale również kolejne elektrony zapełniają stany od najniższej energii w górę. Pasma całkowicie wypełnione nie dają przy tym wkładu do przewodnictwa, gdyż mamy w nich tyle samo elektronów poruszających się z dodatnim, co z ujemnym zwrotem wzdłuż dowolnej osi, tak że „netto” nie następuje przepływ ładunku. Aby nastąpił przepływ prądu, więcej elektronów musi zajmować stany odpowiadającego ruchowi w pewnym wyróżnionym kierunku, podczas gdy inne stany pozostaną nieobsadzone. Taka sytuacja jest możliwa np. gdy pasmo jest częściowo zapełnione, gdyż wtedy wiele stanów nieobsadzonych ma energię bardzo nieznacznie przewyższającą energię niektórych stanów zajętych i wystarczy przyłożyć do kryształu napięcie, aby niektóre elektrony uległy wzbudzeniu i zaczęły się poruszać w wybranym kierunku. Kryształ, w którym najwyższe pasmo energetyczne jest częściowo wypełnione, jest więc dobrym przewodnikiem w każdej temperaturze. Takie kryształy zaliczamy do metali.

0x08 graphic
Jeśli ostatnie obsadzone pasmo energetyczne (pasmo walencyjne) jest całkowicie wypełnione, a następne pasmo (pasmo przewodnictwa) - całkowicie wolne, to kluczową rolę odgrywa szerokość przerwy wzbronionej oddzielającej te pasma od siebie. Kryształy, w których ta szerokość przekracza 2-3 eV, są izolatorami, gdyż elektrony nie mogąc uzyskać tak dużej energii pozostają w paśmie walencyjnym i zgodnie z mechanizmem opisanym wyżej przewodnictwo nie występuje. W półprzewodnikach przerwa ta jest węższa - poniżej ok. 1 eV, co można porównać np. ze średnią energią ruchów cieplnych w temperaturze pokojowej, równą 0,025 eV. Część elektronów osiąga jednak energie większe od średniej - np. 10-krotnie większą energię (0,25 eV) osiąga jeden na 22 tysiące (zob. tekst w ramce, e-10 = 1/22026), co często może być uważane za znaczący ułamek. Jeśli energia elektronu okaże się większa od przerwy wzbronionej, to może on przejść do pasma przewodnictwa i zająć dowolnie wybrany stan tego pasma, wnosząc wkład do przewodnictwa materiału. Im wyższa jest temperatura, tym większa jest liczba tych elektronów (znów por. tekst w ramce) - można zatem z półprzewodników wytwarzać czujniki (termistory) reagujące zmianą oporu na zmiany temperatury. Dość podobna jest zasada działania fotooporników, służących do pomiaru natężenia światła: jeśli energia światła (lub np. promieniowania nadfioletowego) jest przekazywana w „porcjach” (kwantach) przekraczających szerokość przerwy wzbronionej, to pochłanianie kwantów promieniowania spowoduje wzbudzenie elektronów z pasma walencyjnego do pasma przewodnictwa i spadek oporu.

0x08 graphic
Po elektronach, które uległy wzbudzeniu do pasma przewodnictwa, pozostaje w paśmie walencyjnym niezapełnione miejsce - „dziura”, którą można traktować jako swego rodzaju cząstkę o ładunku przeciwnym do elektronu - czyli dodatnim. Może ona zająć dowolne miejsce w paśmie walencyjnym (np. odpowiadające ruchowi w wybranym kierunku) i w ten sposób dziury wnoszą swój wkład do przewodnictwa. W półprzewodnikach samoistnych (nie zawierających domieszek) udział przewodnictwa elektronowego i dziurowego jest zbliżony, ale sytuacja ta bardzo się zmienia pod wpływem domieszek, zwłaszcza gdy ich atomy zawierają inną od pierwiastka podstawowego liczbę elektronów na ostatniej powłoce (należą do innej grupy układu okresowego). Dla krzemu (IV grupa) przykładem takiej domieszki może być fosfor (V grupa), nazywany w tych okolicznościach donorem (dawcą). Dodatkowy elektron dostarczony przez atom fosforu po dostarczeniu niewielkiej energii (rzędu 0,05 eV) przechodzi do pasma przewodnictwa, a domieszkowany fosforem krzem nazywamy ze względu na ujemny znak nośników ładunku łprzewodnikiem typu n. W analogiczny sposób atom glinu (III grupa) pełni rolę akceptora („odbiorcy”), gdyż brak jednego elektronu powoduje powstanie dziury w paśmie walencyjnym, a domieszkowany nim krzem jest półprzewodnikiem typu p. Wielki wpływ domieszek (nawet niewielkiej ich liczby) na właściwości półprzewodników jest przyczyną wysokich wymagań co do czystości stosowanych materiałów (przy produkcji „kości” komputerowych - nawet rzędu 10-10, tzn. 1 atom na 10 miliardów).

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
Dwie warstwy półprzewodnika przeciwnie domieszkowanego tworzą diodę warstwową (albo złączową), oznaczaną symbolem p n albo . Prąd może płynąć przez diodę tylko ze zwrotem w prawo - od obszaru p do obszaru n. Przeciwny zwrot prądu musiałby bowiem wynikać albo z ruchu ładunków dodatnich z prawa na lewo, albo z ruchu ładunków ujemnych z lewa na prawo. Jest to jednak niemożliwe, gdyż po lewej nie ma swobodnych ładunków ujemnych, ani po prawej - dodatnich. Diody znajdują zastosowanie w prostownikach, przetwarzających prąd zmienny w stały (np. zasilacze sieciowe do odbiorników telewizyjnych, komputerów...), a także w procesie demodulacji sygnałów. Powszechnie znaną odmianą diody półprzewodnikowej jest dioda elektroluminescencyjna (angielski skrót LED, potocznie „dioda świecąca”). Jej działanie opiera się na tym, że przy przepływie prądu przez diodę w kierunku przewodzenia elektrony są wprowadzane do obszaru p, gdzie szybko ulegają rekombinacji z liczniejszymi w tym obszarze dziurami, tzn. elektron spada do pasma walencyjnego „wypełniając” dziurę; podobnie dziury wprowadzone do obszaru n ulegają rekombinacji z elektronami. W czasie rekombinacji energia elektronu się zmniejsza, czyli powstała nadwyżka może być przekształcona w energię wyemitowanego kwantu światła. Odnotujmy jeszcze, że w złączu p-n może zachodzić także przeciwna przemiana energii, tzn. pochłonięty kwant światła może wytworzyć parę elektron-dziura, które na granicy obszarów p i n ulegną rozdzieleniu i mogą spowodować przepływ prądu w zewnętrznym obwodzie dołączonym do złącza. W ten sposób złącze pełni funkcję źródła prądu, czyli fotoogniwa.

Z diod możemy zbudować obwody spełniające funkcje logiczne, tzw. bramki. Na rysunkach powyżej przedstawione są dwa takie obwody, przedstawiające bramki OR i AND. Wejścia tych bramek oznaczone zostały symbolami x i y, wyjście - symbolem z, a wartość 0 lub 1 oznacza wysoki lub niski potencjał względem ziemi (dolnego przewodu). (Należy przeanalizować działanie bramek i sprawdzić jego zgodność z tabelkami.) Łatwo wyobrazić sobie zastosowania bramek - np. alarm włącza się wtedy, gdy przerwany zostaje obwód okna 1 LUB (OR) obwód okna 2. Wadą układów diodowych jest brak wzmocnienia, czyli prąd czerpany z wyjścia może zakłócać działanie obwodów wejściowych (wejście i wyjście mogą się zamieniać rolami), a także np. dwa obwody sterowane przez jedną bramkę mogą wzajemnie zakłócać swoje funkcje.

WZMACNIANIE SYGNAŁÓW ELEKTRYCZNYCH

0x08 graphic
Ogólny symbol wzmacniacza i schemat jego działania widzimy na rysunku obok. Ważną cechą dobrego wzmacniacza jest możliwie dokładna proporcjonalność sygnału wyjściowego (którego przebieg czasowy przedstawiono po prawej stronie) do wejściowego (po lewej), czyli brak zniekształceń. Cecha ta nazywa się liniowością. Oczywiście, podany schemat jest skrajnie uproszczony, pominięte zostało np. zasilanie (skoro sygnał wyjściowy niesie większą energię, to konieczne jest jej dostarczenie) i szczegóły zależne od zasady działania i typu wzmacniacza. Zanim omówimy wzmacniacze stosowane we współczesnej elektronice, dokonajmy krótkiego przeglądu historycznego.

0x08 graphic
0x08 graphic
Pierwszym urządzeniem wzmacniającym impulsy elektryczne był przekaźnik elektromechaniczny, stosowany na liniach telegraficznych od ok. połowy XIX wieku. Przepływ prądu przez cewkę (zwojnicę) powoduje w przekaźniku przyciągnięcie żelaznej kotwiczki do rdzenia cewki, a w rezultacie zamknięcie lub otwarcie wtórnego obwodu elektrycznego, w którym może płynąć prąd większy od prądu sterującego przekaźnikiem. Przekaźnik jest wzmacniaczem binarnym (może znajdować się tylko w jednym z dwóch stanów), więc o wspomnianej wyżej liniowości w tym przypadku nie może być mowy. Łatwo jest zbudować z przekaźników bramki logiczne - zob. rysunek obok, gdzie zaznaczono tylko sposób zestawienia ruchomych styków (bez cewek i innych elementów). Obwód przedstawiony wyżej jest w istocie bramką NOT (inwerterem), a tabelkę dla tej bramki mamy po lewej stronie (Jeśli styki oznaczone strzałkami byłyby dołączone od lewej strony ruchomej dźwigni, mielibyśmy zamiast inwertera „powtarzacz” o trywialnej tabelce).

0x08 graphic
0x08 graphic
W 1906 r. Lee De Forest (USA) wynalazł triodę, próżniową lampę elektronową, która na kilkadziesiąt lat stała się podstawą konstrukcji wzmacniaczy. Katoda K w lampach elektronowych jest wykonana z metalu (lub tlenków metali), a w czasie pracy urządzenia jest podgrzewana (żarzona) wskutek przepływu prądu przez grzejnik (cienki drucik, nie zaznaczony na schemacie). Dzięki wysokiej temperaturze zachodzi zjawisko termoemisji elektronów, a jeśli anoda A ma potencjał dodatni względem katody, to wyemitowane elektrony mogą przepływać z katody do anody. Natężenie tego prądu jest sterowane potencjałem siatki S, tzn. ujemny potencjał siatki powoduje odpychanie elektronów i zmniejszenie natężenia prądu anodowego. Przy okazji wspomnijmy o diodzie próżniowej - lampie nie posiadającej siatki, a spełniającej taką samą funkcję, jak dioda półprzewodnikowa (elektrony mogą przepływać z katody do anody, lecz nie na odwrót).

W porównaniu z lampami elektronowymi urządzenia półprzewodnikowe mają znaczną przewagę, jeśli chodzi o możliwość ich miniaturyzacji, mały pobór mocy, trwałość i odporność na wstrząsy. Wymagają też niewielkiego napięcia zasilania - kilka woltów, w porównaniu do co najmniej 100 V w lampach. Dlatego w większości zastosowań triody zostały dzisiaj wyparte przez tranzystory. Pierwszym znanym rodzajem tranzystora był bipolarny tranzystor warstwowy (albo złączowy), wynaleziony w 1948 r. przez Brattaina, Bardeena i Shockleya (USA). Składa się on z trzech warstw półprzewodnika o naprzemiennych znakach domieszek (np. n-p-n), noszących nazwy kolektor, baza i emiter. Do złącza baza-kolektor przykłada się napięcie w kierunku zaporowym (por. opisane na poprzedniej stronie działanie diody półprzewodnikowej), tak że natężenie prądu płynącego przez to złącze jest równe zeru. Stan ten ulegnie jednak zmianie, jeśli przyłożymy napięcie w kierunku przewodzenia złącza emiter-baza, gdyż wtedy do bazy są wstrzykiwane nośniki mniejszościowe (w obszarze p - elektrony), które po dotarciu do blisko położonego złącza baza-kolektor przedostają się bez przeszkód do kolektora. Ponieważ tylko niewielka część tych elektronów ulega rekombinacji w bazie, a większa część w kolektorze (obszar bazy jest cienki i stosunkowo słabo domieszkowany), więc nieduży prąd bazowy steruje w tranzystorze wielokrotnie silniejszym prądem kolektorowym.

0x08 graphic
W obwodach scalonych (np. pamięci i procesory komputerowe) występuje inny typ tranzystorów - tranzystor polowy (angielski skrót FET lub MOSFET; inaczej tranzystor unipolarny). Mamy tu dwa obszary silnie domieszkowane donorami - źródło i dren - na podłożu samoistnym lub słabo domieszkowanym akceptorami. Oddzielenie źródła od drenu sprawia, że mimo włączenia napięcia między tymi obszarami w zasadzie prąd nie powinien płynąć, gdyż na jednym ze złączy napięcie będzie miało kierunek zaporowy. Gdy jednak na trzecią elektrodę - bramkę, wykonaną z metalu i oddzieloną warstwą izolatora od powierzchni półprzewodnika - przyłożymy potencjał dodatni, pole elektryczne bramki spowoduje wciąganie elektronów ze źródła do obszaru półprzewodnika bezpośrednio sąsiadującego z bramką. W powstałym w ten sposób kanale przewodnictwa popłynie prąd między źródłem a drenem, sterowany wartością potencjału bramki.

0x08 graphic
Nie wyczerpaliśmy bynajmniej wszystkich zasad fizycznych, które mogłyby być wykorzystane do konstrukcji urządzeń wzmacniających sygnały różnego rodzaju. W Encyklopedii Fizyki z 1974 r. wymienione są wzmacniacze: dielektryczny, elektromaszynowy, magnetyczny, oporowy - prawdopodobnie są to rozwiązania dzisiaj już przestarzałe (?). Nowszym pomysłem jest wzmacniacz optyczny, którego zastosowanie umożliwia podtrzymywanie sygnału biegnącego światłowodem bez kłopotliwego przekształcania go w sygnał elektryczny, wzmacniania w tej postaci i ponownego przekształcania w optyczny. W ostatnich latach dużo pisze się o nieprzekraczalnych granicach miniaturyzacji obwodów scalonych, wynikających z praw rządzącej mikroświatem fizyki kwantowej (chodzi tu zwłaszcza o tzw. „tunelowanie” - przeskakiwanie elektronów między sąsiadującymi ze sobą ścieżkami przewodnictwa, jeśli rozdzielająca je warstwa izolatora jest zbyt cienka). Dalszy rozwój elektroniki miałby być w tej sytuacji oparty np. na wykorzystaniu falowych cech elektronu („komputery kwantowe”). Jest to jednak dość odległą perspektywą, a podstawowym urządzeniem elektroniki pozostaje wciąż tranzystor.

Z tranzystorów możemy zbudować bramki logiczne pozbawione wad wspomnianych wcześniej w odniesieniu do bramek diodowych. Przedstawiony obok obwód pełni funkcję bramki NOR (nie-OR), a zasadniczym jego elementem jest tranzystor warstwowy n-p-n. Jeśli w tej bramce wykorzystamy tylko jedno z wejść x i y, otrzymujemy bramkę NOT. W celu analizy działania bardziej skomplikowanych układów logicznych warto zestawić stosowane w elektronice symbole bramek:

0x08 graphic
NOT OR AND NOR NAND

0x08 graphic
ĆWICZENIE: Napisać tabelkę zależności wartości wyjściowej z od wejściowych x i y dla poniższych układów bramek:

0x08 graphic
Jednym z najważniejszych układów elektronicznych jest przerzutnik dwustabilny, który można zbudować np. z dwóch bramek NOR (rys. obok). Aby zbadać jego działanie, załóżmy że np. na wyjściu lewej bramki mamy 0. Wtedy na wyjściu prawej otrzymamy 1 - zob. tabelka bramki NOR powyżej. Ponieważ ten wysoki potencjał jest przekazywany z powrotem na dolne wejście lewej bramki, więc w analogiczny sposób przekonujemy się, że na jej wyjściu jest 0 - tak, jak założyliśmy na początku. Obie bramki „podtrzymują się” zatem wzajemnie, a wartości potencjału nie będą się zmieniać. Gdy jednak na drugie wejście prawej bramki (gdzie dotąd potencjał miał wartość 0) wprowadzimy na chwilę wysoki potencjał, spowodujemy przeskok obu bramek do przeciwnego stanu, który również będzie samoczynnie podtrzymywany dowolnie długo. Układ ten „pamięta” swój stan, który jest jednym z dwóch możliwych - taka elementarna ilość informacji nosi nazwę 1 bit. Pamięć komputerów (dokładniej - pamięć RAM, która działa po włączeniu zasilania) konstruuje się właśnie z ogromnej liczby przerzutników.

ĆWICZENIE. Zaprojektować przerzutnik zbudowany z dwóch przekaźników elektromechanicznych.

W działaniu przerzutnika widzimy sprzężenie zwrotne, polegające na przekazywaniu sygnału z wyjścia wzmacniacza z powrotem na wejście (ang. feedback). Pojęcie to ma bardzo szeroki zakres stosowalności, nie ograniczony bynajmniej do elektroniki. W omawianym wyżej przykładzie sprzężenie zwrotne jest dodatnie („skutek wzmacnia przyczynę”), ale może także być ujemne („skutek osłabia przyczynę”). Ujemne sprzężenie zwrotne jest podstawą wszelkich układów automatycznej regulacji i sterowania, czego przykładem jest przedstawiony obok schemat sterowania położeniem ciężaru wiszącego na linie. Sygnał sterujący został na nim oznaczony jako Xwe; jak widzimy, następuje porównanie go (odjęcie) z sygnałem Xwy pochodzącym od czujnika położenia ciężaru. Sygnał różnicowy Xwe-Xwy po wzmocnieniu zasila silnik podnoszący lub opuszczający ciężar, przy czym zwrot jego przesunięcia jest dobrany tak, aby wartość Xwe-Xwy uległa zmniejszeniu. Licznych przykładów dodatniego i ujemnego sprzężenia zwrotnego dostarcza obserwacja zjawisk ekonomicznych i społecznych, np.:

0x08 graphic
- spirala inflacyjna: wzrost cen powoduje żądania wzrostu płac i strajki, wzrost płac z kolei podwyższa koszty produkcji i zmusza producentów do podwyżek cen swoich towarów (dodatnie sprzężenie zwrotne),

- rynkowy mechanizm stabilizacji cen: gdy cena towaru wzrasta, produkcja staje się bardziej opłacalna, co skłania przedsiębiorców do inwestycji dających jej wzrost, do odpowiedniej zmiany profilu produkcji lub do importu. Zwiększona podaż jest czynnikiem hamującym wzrost cen (ujemne sprzężenie zwrotne).

0x08 graphic
0x08 graphic
Aby ujemne sprzężenie zwrotne dobrze spełniało zadanie automatycznej regulacji skali zjawiska, powinno działać bez opóźnienia. W przeciwnym wypadku może nastąpić wzbudzenie drgań (oscylacji). W dziedzinie ekonomii przykładem tego zjawiska w Polsce jest (był?) tzw. cykl świński - następujące co kilka lat wahania produkcji wieprzowiny i cen mięsa (po 1989 roku) lub jego dostępności na rynku (w okresie wcześniejszym). Niższa podaż mięsa pociąga za sobą wzrost ceny lub reakcję władz (w formie podwyżki cen skupu, kredytów na zakup paszy itd.), co zachęca rolników do zwiększenia hodowli; jednak na efekty tych decyzji przychodzą dopiero po upływie kilkunastu miesięcy, kiedy ceny spadają, a to z kolei skłania hodowców lub władze do decyzji odwrotnych. Prostym przykładem elektromechanicznym tego samego zjawiska jest działanie przerywacza dzwonkowego na prąd stały: przepływ prądu przez cewkę powoduje przyciągnęcie kotwiczki i przerwanie obwodu, a po ustaniu przepływu prądu kotwiczka powraca, z opóźnieniem wywołanym przez jej bezwładność (Taki przerywacz wywołuje duże zakłócenia odbioru fal elektromagnetycznych, dlatego domowe dzwonki działają na innej zasadzie). W elektronice analogiczny układ określa się jako astabilny, a przykładem jest multiwibrator astabilny na schemacie z lewej strony. Obok elementów wprowadzonych już wcześniej widzimy tu kondensatory, których funkcja polega na gromadzeniu ładunku elektrycznego (dodatniego na jednej z okładek kondensatora, a ujemnego na drugiej). Aby zrozumieć działanie multiwibratora załóżmy, że na wejściu lewej bramki NOT mamy potencjał 1, na jej wyjściu 0, a prawy kondensator jest nienaładowany. Dla nienaładowanego kondensatora nie ma różnicy potencjałów między jego okładkami, zatem na wejściu prawej bramki mamy 0, czyli na jej wyjściu 1, a ponieważ ten wysoki potencjał wraca na wejście pierwszej bramki, więc stwierdzamy zgodność z początkowym założeniem (jak w przerzutniku). Stan ten będzie się jednak utrzymywał tylko przez pewien czas, gdyż wejście prawej bramki jest także podłączone przez opornik do wysokiego potencjału. Prąd płynący przez opornik będzie stopniowo ładował ten kondensator, co oznacza wzrost potencjału jego prawej okładki (tzn. wejścia bramki). W pewnym momencie prawa bramka przeskoczy do przeciwnego stanu, co pociągnie za sobą zmianę stanu lewej, a ten odwrócony stan utrzyma się tak długo, dopóki lewy kondensator pozostanie nienaładowany itd. Częstość drgań generowanych przez multiwibrator zależy od oporu oporników i pojemności kondensatorów (zob. tekst w ramce) - zależnie od nich obwód może sterować np. miganiem lampek lub dźwiękiem wysyłanym przez głośnik. Opisana tu funkcja kondensatorów dotyczy także obwodów scalonych, gdzie rządzą one znacznie szybciej przebiegającymi przebiegami czasowymi.

0x08 graphic
0x08 graphic
Na zakończenie tego rozdziału powróćmy jeszcze do pojęcia liniowości, wspomnianego wcześniej w odniesieniu do wzmacniaczy. Ujmując to zagadnienie ogólniej powiemy, że liniowość polega na „proporcjonalności skutku do przyczyny”, co można zilustrować przykładami i kontrprzykładami z najróżniejszych dziedzin nauki. Bramki logiczne są, oczywiście, układami nieliniowymi, gdyż słaby impuls nie powoduje w ogóle zmiany ich stanu, a po przekroczeniu progu czułości przeskok również nie zależy od wielkości impulsu (por. uwagi o przekaźniku na s.3). Realne wzmacniacze (np. akustyczne) są zwykle liniowe w pewnych granicach, po przekroczeniu których pojawiają się efekty nieliniowe, np. dla sygnałów o dużej amplitudzie - obcinanie ich maksimów (tzw. przesterowanie, zob. rys.). Prawa fizyki mają często charakter liniowy, np. prawo Ohma oznacza proporcjonalność natężenia prądu (skutku) do napięcia (przyczyny), podobną zależność Q od U mamy dla kondensatorów - warto jednak zauważyć, że realne oporniki i kondensatory wykazują czasem pewne odstępstwa od liniowości. Dioda jest elementem zdecydowanie nieliniowym, gdyż odwrócenie znaku napięcia nie spowoduje odwrócenia kierunku prądu - jeśli napięcie zmieni kierunek z przewodzącego na zaporowy, prąd spadnie do zera! Nakładanie się dwóch fal dźwiękowych lub świetlnych można uznać za zjawisko liniowe, gdyż w większości ośrodków obowiązuje zasada superpozycji (składania) fal, według której jedna z nich nie wpływa na bieg drugiej. Suma przyczyn (wzbudzenie jednej i drugiej fali) powoduje zatem sumę skutków. Nie jest to jednak prawdą dla wysokich fal wodnych, gdyż podwojenie wysokości może pociągnąć za sobą załamanie wysokiego grzbietu fali, a więc efekt jakościowo odmienny!

Sięgnijmy jeszcze do przykładów spoza fizyki czy techniki. Katastrofa w Czarnobylu naraziła stosunkowo niewielką grupę ludzi na duże dawki promieniowania (których szkodliwe skutki są dobrze znane) oraz znacznie większą liczbę ludności na dawki małe, których następstwa są trudne do ustalenia. Oceniając skutki katastrofy przyjęto hipotezę liniową, według której dana dawka promieniowania powoduje stałą liczbę przypadków raka niezależnie od tego, czy ta dawka rozkłada się na większą, czy mniejszą liczbę osób - inaczej mówiąc, prawdopodobieństwo zachorowania jest ściśle proporcjonalne do wielkości dawki, zarówno dla dawek dużych, jak i bardzo małych. Ostatnio ta hipoteza jest poważnie kwestionowana - bardzo możliwe, że niewielkie uszkodzenia tkanek łatwo ulegają naprawie, tak że małe dawki przestają być szkodliwe (a nawet mogą mieć korzystny wpływ na zdrowie!). Zjawiska społeczne i ekonomiczne są na ogół tak skomplikowane, że zależności liniowe (np. między ceną a popytem) można rozpatrywać tylko jako pierwsze, najgrubsze przybliżenie.

ĆWICZENIE. Podatkiem liniowym nazywa się podatek o stałej skali, niezależnej od wysokości dochodów. Czy w razie jego obowiązywania wspólne opodatkowanie małżonków może przynieść podatnikom korzyści?

ĆWICZENIE. Ocenić orientacyjnie minimalną liczbę bitów, niezbędną do: a) wyboru jednej osoby spośród mieszkańców Polski, b) ustalenia terminu i miejsca spotkania z kolegą, c) przesłania podpisu (rysunku) z dokładnością umożliwiającą jego weryfikację, d) przesłania strony książki (tylko tekst, bez danych graficznych).

TECHNIKA ANALOGOWA A TECHNIKA CYFROWA

Sygnał elektryczny otrzymywany z mikrofonu jest sygnałem analogowym, czyli przybierającym dowolną wartość, zależnie od natężenia dźwięku. Pomiar tej wielkości (w celu wzmocnienia lub zapisu) jest obarczony, oczywiście, większym lub mniejszym błędem wynikającym z dokładności urządzeń. Jeśli sygnał taki będzie wielokrotnie zapisywany, kopiowany i odtwarzany, to błędy będą się kumulowały - będziemy słyszeli coraz więcej szumów. Sygnał cyfrowy jest to ciąg zer i jedynek, który można odczytywać i zapisywać bez błędu, jeśli tylko na żadnym etapie zakłócenia nie staną się tak duże, że uniemożliwią odróżnienie zera od jedynki. Aby poglądowo zilustrować różnicę między jedną a drugą techniką, porównajmy obliczenia wykonywane na suwaku logarytmicznym („technika analogowa”) z rachunkami na liczydle („technika cyfrowa”). Na suwaku wykonujemy obliczenia z dokładnością 2-3 cyfr wartościowych, nieco dokładniej przy bardzo starannym ustawieniu suwaka, a nieco mniej dokładnie dla długiego ciągu działań. Na liczydle wykonujemy obliczenia dokładne (wyłączając pomyłki). Ale proste działanie na suwaku wymaga często długich i skomplikowanych operacji na liczydle.

Techniką analogową posługuje się radio, część stacji telewizyjnych, „zwykła” telefonia i niektóre sieci telefonii komórkowej. W technice cyfrowej działają komputery i sieci komputerowe, odtwarzacze kompaktowe i nowoczesne systemy łączności. Aby przekazać lub zapisać w technice cyfrowej np. dźwięk (ogólniej - dowolny sygnał, który „na początku” był analogowy), niezbędne jest użycie przetwornika analogowo-cyfrowego. Odwrotny przetwornik cyfrowo-analogowy jest niezbędny przy odtworzeniu dźwięku, gdyż głośnik wymaga sygnału analogowego (również sygnał sterujący jasnością danego punktu ekranu w kineskopach telewizyjnych jest analogowy). W przetwarzaniu sygnału z postaci analogowej w cyfrową można wyróżnić następujące etapy:

0x08 graphic
a) kwantyzacja - zaokrąglenie wyniku pomiaru do całkowitej wielokrotności pewnej zadanej jednostki (np. zaokrąglenie 8,12 do 8,10, a 8,13 do 8,15). Oczywiście, kwantyzacja jest źródłem pewnego błędu, ale błąd ten jest kontrolowany, w razie potrzeby można go zmniejszyć, a przede wszystkim nie ulega dalej zwiększeniu przy przesyłaniu i przekształcaniu sygnału,

b) kodowanie - wyrażenie otrzymanej liczby w układzie dwójkowym,

c) dla sygnałów zależnych od czasu (np. sygnału akustycznego) - próbkowanie (ang. sampling), czyli odpowiednio częste powtarzanie pomiaru. Dla przykładu, dźwięk na płytach kompaktowych jest próbkowany z częstotliwością 44 kHz (44 tysiące razy na sekundę), a każdorazowy pomiar ma dokładność 16 bitów, co oznacza 216 = 65536 poziomów kwantyzacji. Telefonia komórkowa (GSM) stosuje próbkowanie z częstotliwością 8 kHz i dokładnością 8 bitów.

Szeroko znane są zalety techniki cyfrowej. Po pierwsze, przekaz sygnału jest odporny na szumy i zakłócenia, o ile nie przekroczą one pewnego założonego poziomu. W przypadku silnych zakłóceń technika cyfrowa oferuje zresztą skuteczne metody korekty błędów („bity kontrolne” dołączane do przekazu). Po drugie, przekształcanie ciągu danych cyfrowych jest łatwe i może spełniać bardzo wyrafinowane funkcje, m.in.:

a) szyfrowanie,

b) multipleksowanie - łączenie kilku sygnałów z różnych źródeł w jednym przekazie (np. przesyłanie kilku rozmów telefonicznych jednym kablem),

c) kompresja danych - usuwanie z przekazu „zbędnych bitów” (np. dla dźwięku - zapisanie ciszy w postaci umownego skrótu),

d) w fotografii i w filmie - bardzo szerokie możliwości przetwarzania obrazu (np. fotomontaż),

e) w radiu - możliwość wybrania przez odbiorcę serwisu informacyjnego (takie radio - DAB - działa już w Polsce, wymaga zakupu specjalnego odbiornika, niestety dość drogiego),

f) w telewizji - możliwość wprowadzenia podwyższonego standardu jakości obrazu (np. szeroki ekran z rozdzielczością 1080 linii zamiast obecnych 625); także połączenie funkcji telewizora i monitora komputerowego.

ĆWICZENIE. Dlaczego rozpowszechnienie techniki cyfrowej niepokoi producentów nagrań muzycznych?

0x08 graphic
Różnicę między techniką cyfrową a techniką analogową wyraźnie widać przy porównaniu sposobu wykonywania dzia­łań matematycznych. Obok widzimy schemat sumatora dwójkowego, służącego do dodania w układzie dwójkowym dwóch liczb jednocyfro­wych x i y, w wyniku czego otrzymamy liczbę dwucyfrową o cyfrach u i v (tzn. u+2v). Łącząc takie sumatory można dodawać liczby dwucyfrowe („sumator czwórkowy”) itd. Dodawanie sygnałów analogowych mogłoby w zasadzie polegać na zestawieniu dwóch źródeł szeregowo (dodawanie napięć) lub równolegle (dodawanie natężeń prądu) - jednak brak wzmocnienia powodowałby wady wspomniane wcześniej w związku z bramkami diodowymi. Najczęściej wykonuje się działania matematyczne na sygnałach analogowych przy użyciu wzmacniacza operacyjnego - wzmacniacza o bardzo dużym współczynniku wzmocnienia napięciowego i pobierającego bardzo niewielki prąd, przeznaczonego do pracy w układzie z ujemnym sprzężeniem zwrotnym. Wzmacniacz operacyjny ma zwykle dwa wejścia oznaczane na schemacie symbolami + i -, a jeśli odpowiednie napięcia wejściowe oznaczymy symbolami U+ i U, to napięcie wyjściowe równa się różnicy U+-U pomnożonej przez bardzo duży współczynnik. Takie wzmacniacze produkuje się jako obwody scalone składające się z ok. 30 tranzystorów. Najprostsze wykorzystanie właściwości wzmacniacza operacyjnego widzimy na schemacie obok. Dolny przewód podłączony do wejścia + jest „masą” - poziomem zerowym, względem którego liczy się wszystkie napięcia. Analizując działanie obwodu można by sądzić, że ze względu na bardzo silne wzmocnienie otrzymujemy na wyjściu wielką wartość Uwy; jednak gdyby tak było, to przez opornik R2 popłynąłby bardzo duży prąd w lewo podnosząc wartość U- , co z kolei - dzięki wzmocnieniu - silnie obniżyłoby napięcie wyjściowe (zasada ujemnego sprzężenia zwrotnego). Należy więc wyciągnąć wniosek, że Uwy jest „rozsądnie nieduże”, a U- - bardzo bliskie zera. Dalej zauważmy, że skoro wzmacniacz nie pobiera prądu, to przez oba oporniki płynie ten sam prąd I. Napięcie wejściowe jest zatem równe Uwe = IR1, wyjściowe - Uwy = -IR2, czyli

0x08 graphic
0x08 graphic
Wzmocnienie uzyskiwane w tym obwodzie zależy więc od oporności R1 i R2, ale nie od parametrów samego wzmacniacza.

Niewielka modyfikacja przedstawionego wyżej obwodu pozwoli zrealizować zadanie dodania sygnałów analogowych, np. U1, U2 i U3 na schemacie obok. Widzimy, że natężenie prądu płynącego przez opornik Rwy jest równe sumie natężeń prądów przez R1, R2 i R3, a stąd

0x08 graphic
W szczególnym przypadku, gdy R1 = R2 = R3 = Rwy, otrzymujemy Uwy = -(U1 + U2 + U3). Włączenie do obwodu kondensatora pozwala zrealizować bardziej skomplikowane operacje matematyczne, np. całkowanie lub różniczkowanie.

Wadą obliczeń analogowych jest ich niedokładność (błąd rzędu 1%), co wyklucza ich użycie np. w bankowości. W pewnych okolicznościach nie musi to być jednak istotną przeszkodą - np. w niektórych obliczeniach inżynierskich lub w prognozowaniu pogody występują bardzo długie i skomplikowane obliczenia opierające się na niezupełnie dokładnych danych, a wyniki także wystarczą przybliżone. Fakt, że całe obliczenie jest wykonywane „na jednym wzmacniaczu”, może być zaletą - mniej trzeba tranzystorów i urządzenie może działać szybciej. Do lat 70-tych komputery analogowe lub hybrydowe (łączące obwody cyfrowe i analogowe) w pewnych specjalistycznych zastosowaniach wygrywały z cyfrowymi. Techniki cyfrowe są jednak bardziej uniwersalne, zmiana metody obliczeniowej oznacza w nich tylko zmianę programu, natomiast w obliczeniach analogowych trzeba „zbudować komputer od początku”. W prostych urządzeniach automatycznych („gdy jest zimno, włączyć ogrzewanie... gdy bardzo zimno, ogrzewać na maksimum...”) wzmacniacze operacyjne zachowały wciąż mocną pozycję.

TECHNOLOGIA PRODUKCJI OBWODÓW SCALONYCH

0x08 graphic
Miniaturyzacja obwodów scalonych pozwala zwiększać liczbę elementów (np. tranzystorów) w jednej kości (ang. chip), dzięki czemu procesory mogą wykonywać bardziej skomplikowane funkcje, a pamięć jest pojemniejsza. Zwiększa się także szybkość działania urządzeń, bo prędkość rozchodzenia się impulsów elektrycznych jest skończona - równa prędkości światła. Obecna technologia sięga ok. 20 milionów tranzystorów i innych elementów w jednej kości, szybkość działania jest rzędu miliarda elementarnych operacji na sekundę (taktowanie mikroprocesorów zegarem 1 GHz), a rozmiary najmniejszych struktur wynoszą ok. 0,14 m.

Działające w dzisiejszych komputerach kości są układami scalonymi opartymi na krzemie. Obok wysokiej czystości (jak już wcześniej wspomniano, rzędu 10-10) wymagana jest doskonale regularna struktura krystaliczna krzemu, jaka występuje w monokrysztale - pojedynczym dużym krysz­tale, w przeciwieństwie do struktury polikrystalicznej, w której pozlepiane drobne kryształki mają przypadkowe kierunki osi. Pionierem technologii produkcji monokryształów był w latach 20-tych i 30-tych XX wieku polski inżynier Czochralski - jego metoda polega na bardzo powolnej krystalizacji ciekłego krzemu, a powstający monokryształ ma kształt pręta, który w miarę narastania jest wyciągany z cieczy w górę. Taki pręt ma (wg dzisiejszej techniki) ok. pół metra długości i średnicę 20 cm, a do produkcji obwodów scalonych tnie się go na plasterki grubości 20 m. Poszczególne elementy obwodu (obszary domieszkowane, ścieżki, elektrody) są wytwarzane na takim plasterku dzięki technice noszącej nazwę fotolitografii. Polega ona na przenoszeniu odpowiedniego wzoru z maski (gdzie obraz jest 4-5 krotnie powiększony) na powierzchnię płytki krzemowej za pośrednictwem układu optycznego, działającego w zakresie nadfioletu (długość fali od 0,193 m do 0,365 m). Powierzchnię płytki pokrywa się uprzednio warstwą polimeru fotoczułego, a po naświetleniu przemywa chemikaliami, które zmywają to, co zostało naświetlone (albo co zostało nienaświetlone). W kolejnej fazie inne chemikalia powodują trawienie nieosłoniętych elementów powierzchni i np. wprowadzanie domieszek... Cały proces powtarza się ok. 20 razy z różnymi maskami - tak powstają kolejne warstwy obwodu. Wielkie wymagania co do precyzji naniesienia poszczególnych elementów sprawiają, że urządzenia są niesłychanie kosztowne, a produkcja jest opłacalna tylko w masowej skali.

Wielkość wytworzonych tą metodą elementów jest ograniczona od dołu przez efekty dyfrakcji (inaczej ugięcia, zob. wstawka na s. 16), czyli nie-prostoliniowego rozchodzenia się światła, co pociąga za sobą rozmycie obrazu. Prawa optyki narzucają tu warunek, że rozdzielczość obrazu (wielkość rozróżnialnych elementów) nie może być mniejsza od długości fali światła. Dlatego miniaturyzacja obwodów scalonych szła dotąd w parze ze zmniejszaniem długości fali promieniowania stosowanego przy ich produkcji. Dalej jednak taka ewolucja może napotkać na barierę polegającą na tym, że dla dalekiego nadfioletu i dla promieni Röntgena (których długość fali jest jeszcze mniejsza) nie istnieją dobre soczewki. Inna bariera polega na tunelowaniu - przeskakiwaniu elektronów między sąsiadującymi ze sobą ścieżkami przewodnictwa, jeśli rozdzielająca je warstwa izolatora jest zbyt cienka. Z tego powodu wielkość elementów tranzystora MOS nigdy nie zejdzie poniżej ok. 0,03 m. Technologie przyszłości mogłyby w tej sytuacji polegać na:

a) wykorzystaniu zwierciadeł (układów odbijających) zamiast soczewek (ale dla promieni Röntgena dobre zwierciadła także niełatwo wyprodukować),

b) zastosowaniu litografii elektronowej zamiast optycznej, tzn. tworzeniu obrazu za pośrednictwem wiązki elektronów (ale jak dotąd, wiązki elektronów działają zbyt wolno, gdyż rysują kolejno jedną linię po drugiej, zamiast jednym błyskiem),

c) zamiast trawienia - osadzaniu warstw atomowych poprzez kierowanie na płytkę wiązek atomów lub cząsteczek,

d) zmianie półprzewodnika - już dzisiaj stosuje się czasem kości z arsenku galu GaAs zamiast krzemu (są szybciej działające, ale droższe),

e) zastąpieniu tranzystorów wzmacniaczami optycznymi (sygnałem jest wiązka światła, a nie prąd),

f) w dalszej przyszłości - oparciu zasady działania komputera na prawach fizyki kwantowej („komputer kwantowy”?).

PODSTAWY TELEKOMUNIKACJI

Około 1840 r. wynaleziono telegraf elektromagnetyczny, a wkrótce potem alfabet Morse'a. Pierwszy kabel transatlantycki położono w roku 1858. Miał on jednak bardzo małą przepustowość - mniejszą od 1 bita na sekundę (oczywiście, wtedy bit jako jednostka ilości informacji nie był stosowany). Przyczyną tego był znaczny opór tak długiego przewodu (ok. 10 kΩ) w połączeniu z jego dużą pojemnością elektryczną (ok. 20 F). Jak wynika z teorii przedstawionej we wstawce na stronie 6, stała czasowa takiego obwodu wynosi ok. 0,2 s, co oznacza, że narastanie sygnału, a potem jego spadek do zera w sumie zajmują czas rzędu sekundy. Przesyłanie impulsów w szybszym tempie oznaczałoby stratę informacji zarówno wskutek ich tłumienia (słabnięcia), a także wskutek dyspersji - „rozmywania się”. Różnicę między tymi dwoma zjawiskami ilustruje poniższy rysunek.

0x08 graphic
W 1876 r. wynaleziony został telefon (A.G.Bell, USA). Przekaz dźwięku za pośrednictwem sygnałów elektrycznych wymaga, oczywiście, ograniczenia wspomnianych powyżej niepożądanych efektów. Pierwsza rozmowa telefoniczna poprzez kabel położony na dnie Atlantyku miała miejsce w 1956 r., a zrealizowano ją instalując na kablu co pewien odcinek wzmacniacze pośrednie - tzw. repetory („powtarzacze”). W przypadku omawianego kabla było ich 51, co ok. 60 km, a ich zadaniem jest kształtowanie od nowa sygnałów, zanim zdążą ostatecznie zaniknąć. Ta zasada postępowania obowiązuje także i dzisiaj, np. w telekomunikacji światłowodowej.

ĆWICZENIE. Ile razy zwiększy się szybkość transmisji kabla o danej długości, jeśli podwoimy ilość repetorów, czyli dwukrotnie skrócimy odległość między nimi? (Wskazówka: zob. informacje na temat stałej czasowej obwodu RC we wstawce na s. 6).

ĆWICZENIE. Ile razy zwiększy się szybkość transmisji kabla o danej długości, jeśli podwoimy ilość repetorów, czyli dwukrotnie skrócimy odległość między nimi? Zakładamy, że na ograniczenie szybkości transmisji wpływa jedynie dyspersja, a decydującym czynnikiem jest stała czasowa obwodu RC.

Przeliczmy przepustowość kanału informacji (liczbę bitów na sekundę), jaka jest niezbędna przy różnych rodzajach przekazu. Dźwięk słyszalny dla człowieka obejmuje częstotliwości do 20 kHz - jeśli chcemy to przeliczyć na liczbę bitów na sekundę, należy powołać się na warunek Nyquista, zgodnie z którym częstotliwość próbkowania powinna być co najmniej 2 razy większa od najwyższej częstotliwości przekazywanego sygnału. Jest to zgodne z podaną wcześniej częstotliwością próbkowania dźwięku na płytach CD (44 kHz). Przemnożenie (16 bitów)·(44000 pomiarów/s)·(2 ścieżki stereofoniczne) daje wynik równy 1,4 Mb/s, a w rzeczywistości szybkość transmisji danych dla płyt CD jest - jak się zdaje - nieco mniejsza i wynosi ok. 1,1 Mb/s (przyczyną rozbieżności może być fakt, że część informacji opisującej obie ścieżki stereofoniczne jest wspólna). Podobny rachunek dla dźwięku w standardzie telefonii komórkowej GSM daje wynik (8 bitów)·(8 kHz) = 64 kb/s - jednak w rzeczywistości dzięki kompresji danych przesyła się tylko 14,4 kb/s. Obraz telewizyjny składa się z 625 linii, z których każda zawiera ok. 800 punktów (pikseli), a całość jest przekazywana 25 razy na sekundę, a jeśli przyjmiemy, że każdy pomiar jasności ma dokładność np. 3 bitów, to otrzymujemy 625·800·25·3 = 37,5 Mb/s - w rzeczywistości wystarcza ok. 30 Mb/s. Plany rozwoju telefonii komórkowej przewidują wprowadzenie w najbliższych latach nowego standardu UMTS o przepustowości około 2 Mb/s, co wystarcza do przesłania obrazu telewizyjnego niższej jakości (mniejsza liczba pikseli, niższa częstotliwość odświeżania).

Powyższe wartości wymagają porównania z przepustowością kabli różnego rodzaju. Do zwykłej linii telefonicznej opartej na parze skręconych ze sobą miedzianych drutów możemy podłączyć modem o szybkości 56 kb/s. Tę wartość można znacznie zwiększyć pod warunkiem zainstalowania na końcach kabla specjalnych urządzeń komutacyjnych - w tzw. technologii ADSL osiąga się 3-4 Mb/s w kierunku do abonenta i mniej niż 1 Mb/s z powrotem (przydatne w łączeniu się z Internetem). Od początku 2001 roku taką usługę pod nazwą Neostrada (o nieco gorszych parametrach - od 256 kb/s do 2 Mb/s „w dół” i 64 kb/s „w górę”) oferuje TP SA. Należy jednak stwierdzić, że standardowe linie telefoniczne nie były projektowane pod kątem przesyłania tak dużych ilości informacji, a instalowane w nich układy służące poprawie jakości dźwięku faktycznie tłumią wysokie częstotliwości, tak że linie ADSL można zakładać tylko przy odległości abonenta od centrali nie przekraczającej kilku kilometrów. Kablami koncentrycznymi (TV kablowa) można przesyłać kilkaset Mb/s, natomiast największą przepustowością charakteryzują się światłowody - wynosi ona kilkadziesiąt do kilkuset Gb/s, co odpowiada ok. 1-10 tysięcy kanałów TV (na jedno włókno światłowodu!).

0x08 graphic
Aby zrozumieć czynniki wpływające na przepustowość różnych kanałów informacji, musimy wprowadzić pojęcie modulacji, niesłychanie istotne przy przekazie informacji za pośrednictwem fal (radiowych lub świetlnych). Fala czysto sinusoidalna - harmoniczna - nie niesie, oczywiście, żadnej informacji. Dopiero gdy będziemy np. włączali i wyłączali sygnał kluczem telegraficznym (kreski i kropki alfabetu Morse'a), otrzymujemy falę zawierającą informację - falę zmodulowaną. Widać, że w obrębie każdego przekazywanego impulsu musi być przynajmniej kilka maksimów fali, dlatego częstotliwość fali musi być przynajmniej kilka razy wyższa od częstotliwości przekazywanych sygnałów.

0x08 graphic
Przy okazji przypomnijmy kilka dat z historii rozwoju radia i telewizji. Pierwsze transmisje radiotelegraficzne miały miejsce w 1897 roku („telegraf bez drutu” Marconiego - przez kanał La Manche w 1899 r., przez Atlantyk w 1901 r.). Pierwszy przekaz radiofoniczny nastąpił w 1906 r., a publiczne stacje radiowe rozpoczęły działalność w latach 20-tych. Po raz pierwszy zademonstrowano publicznie telewizję w 1939 r., a w Polsce początki telewizji datują się na koniec lat 50-tych. Stosowany w radiofonii i telewizji system modulacji był jednak innego typu, niż w radiotelegrafii - nie była to modulacja impulsowa, lecz modulacja amplitudy lub modulacja częstotliwości (skróty AM i FM). Zasadę modulacji amplitudy przedstawia rysunek obok. Fala dźwiękowa pada na mikrofon M, z którego pochodzi wolnozmienny sygnał niosący informację. Skrótem GFN oznaczono generator fali nośnej o wysokiej częstotliwości, której amplituda zmieniana jest w modulatorze MOD według sygnału wolnozmiennego. Zmodulowana fala jest przekazywana na antenę, gdzie prąd elektryczny ulega przekształceniu w falę elektromagnetyczną. Aby fala zmodulowana wiernie oddawała przebieg sygnału, przyjmuje się, że częstotliwość fali nośnej powinna być od niego przynajmniej 10 razy wyższa. Zatem dla przekazu dźwięku o częstotliwości do 15 kHz częstotliwość fali nośnej powinna wynosić co najmniej 150 kHz, co odpowiada długości fali poniżej 2 km (por. następna strona, także wstawka na górze str. 2). Nieco dłuższe fale można wykorzystywać do nadawania dźwięku niskiej jakości, a znacznie dłuższe (10-100 km) już tylko do radiotelegrafii (są stosowane do łączności z okrętami podwodnymi pozostającymi w zanurzeniu). A oto analogiczny rachunek dla przekazu telewizyjnego: 625·800·25 = 12 mln sygnałów na sekundę, częstotliwość fali nośnej powinna więc wynosić co najmniej 120 MHz. Te obliczenia mają z natury rzeczy charakter raczej orientacyjny, encyklopedie podają, że minimalna częstotliwość fali radiowej dla potrzeb TV wynosi ok. 50 MHz, czyli maksymalna długość fali max = 6 m. Dla fal radiowych o wysokich częstotliwościach (np. UKF, telewizja) stosujemy zwykle modulację częstotliwości (rys. obok). Ten system modu0x08 graphic
lacji jest bardziej odporny na typowe zakłócenia, które silniej wpływają na amplitudę (zaniki, pulsacje).

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
Odtworzenie informacji zawartej w fali zmodulowanej nosi nazwę demodulacji (albo detekcji). W odbiorniku radiowym demodulację poprzedza wybranie danej częstotliwości fali nośnej, czyli dostrojenie do danej stacji nadawczej. Funkcję tę zwykle pełni obwód rezonansowy składający się z cewki i kondensatora; jeśli częstotliwość odbieranej fali pokrywa się z częstotliwością własną takiego obwodu, to wzbudzone w nim drgania są szczególnie silne (zasada rezonansu). Na ogół zmianę częstotliwości rezonansowej osiąga się poprzez zmianę pojemności kondensatora, dlatego pokrętło strojenia w radioodbiornikach steruje położeniem ruchomych okładek kondensatora. Właściwą demodulację dla przypadku modulacji amplitudy można osiągnąć dzięki zastosowaniu diody, która prostując „obcina” ujemną połówkę sygnału, a następnie „wygładzeniu” części dodatniej. (Pierwsze prymitywne odbiorniki radiowe z lat 20-tych nazywano „kryształkowymi”, gdyż zawierały one kryształek półprzewodnika przyciskany stalowym ostrzem - taki styk ma własności prostujące, jak dioda.) Na rysunku powyżej przedstawiono kolejne etapy przekształcania sygnału w odbiorniku - od anteny do głośnika, z pominięciem wzmocnienia.

0x08 graphic
Następstwem modulacji jest zmiana widma fali. Pojęcie widma jest najbardziej znane w optyce, gdzie opisuje rozkład światła na barwy w pryzmacie lub siatce dyfrakcyjnej. Ponieważ każda barwa monochromatyczna odpowiada innej długości fali lub częstotliwości, więc widmo jest równoważne wykresowi przedstawiającemu na osi pionowej amplitudę barw monochromatycznych będących składowymi danego światła, a na osi poziomej - ich długość fali lub częstotliwość. W tym sensie pojęcie widma stosuje się w odniesieniu do fal dźwiękowych lub radiowych - np. fala harmoniczna (niezmodulowana fala nośna) ma widmo składające się z jednej linii pionowej. Wzór matematyczny opisujący takie drganie ma postać x(t) = Asin(2f0t), gdzie A - amplituda, f0 - częstotliwość, a t - czas. Jeśli rozpatrujemy modulację amplitudy, to stała A staje się funkcją A(t); niech ta funkcja również będzie falą harmoniczną A(t) = sin(2f1t) o znacznie niższej częstotliwości f1 (raczej „nieciekawy” sygnał, ale pozwalający łatwo przeprowadzić analizę matematyczną). Elementarny wzór trygonometryczny daje przekształcenie

0x08 graphic
sin(2f1t)sin(2f0t) =

= (1/2)(cos(2(f0-f1)t) - cos(2(f0+f1)t))

Otrzymaliśmy dwie składowe o częstotliwościach f0-f1 oraz f0+f1 (widmo (b) na rysunku). Gdy sygnał modulujący nie jest prostą sinusoidą, zamiast pojedynczych linii w widmie pojawiają się wstęgi boczne (rysunek c), których szerokość zależy od częstotliwości sygnału modulującego. Im szybciej modulujemy falę nośną (im więcej informacji przekazujemy), tym większą zatem szerokość zajmuje widmo fali. Fakt ten pozostaje w mocy również dla modulacji innych typów niż amplitudowa, a jego praktyczne znaczenie w telekomunikacji jest ogromne. Oznacza on bowiem, że stacje nadawcze nie mogą korzystać z częstotliwości nadmiernie do siebie zbliżonych - widma ich sygnałów muszą pozostawać rozdzielone. W przeciwnym wypadku nawet użycie bardzo selektywnego odbiornika niewiele by pomogło (ewentualnie mógłby odbierać tylko sygnał z jednej wybranej stacji, ale zubożony pod względem jakości). Szerokość pasma częstotliwości zajmowanego przez jednego nadawcę można w pewnym stopniu ograniczyć usuwając z widma jedną wstęgę boczną oraz falę nośną (modulacja jednowstęgowa) - okazuje się, że w ten sposób nie gubimy treści sygnału.

Dokonajmy przeglądu szerokości pasma niezbędnej do przekazu różnych rodzajów informacji. Górna granica częstotliwości dźwięku słyszanych przez ucho ludzkie wynosi ok. 20 kHz - zatem stacja nadająca muzykę wysokiej jakości wymaga co najmniej podobnej szerokości pasma. Standard przekazu dźwięku towarzyszącego obrazowi telewizyjnemu to pasmo szerokości 185 kHz (mamy tu modulację częstotliwości, która stawia wyższe wymagania). Międzynarodowy standard telefoniczny to jedynie 3100 Hz. Szerokość pasma kanału telewizyjnego wynosi 6-7 MHz (por. obliczenia na poprzedniej stronie), zbliżona do tej wartości jest też odległość sąsiednich kanałów telewizji kablowej (8 MHz).

Jak widać z powyższego, szerokość pasma (w Hz; oznaczmy ją symbolem B) jest miarą ilości informacji możliwej do przesłania drogą modulacji fali. Z drugiej strony, wcześniej wprowadziliśmy inną miarę, odpowiednią szczególnie dla przekazów cyfrowych - przepustowość kanału informacji w bitach na sekundę (symbol C). Te dwie wielkości wiąże ze sobą prawo Shannona-Hartleya

C = B·log2(S/N + 1)

gdzie S/N jest stosunkiem natężenia sygnału do natężenia szumu. Sens tego wzoru jest dość łatwy do zrozumienia, gdyż ilość przesyłanej informacji zależy nie tylko od częstotliwości sygnałów modulujących (szerokości pasma), ale także od dokładności, z jaką jesteśmy w stanie zmierzyć natężenie każdego z nich. Gdy stosunek S/N jest równy 1, jesteśmy w stanie jedynie stwierdzić, czy sygnał został przesłany, czy też nie (1 bit), ale nie zmierzyć jego wartości; gdy stosunek ten wynosi 3, możemy wybrać jedną z czterech ewentualności (brak sygnału lub jeden z trzech poziomów), a to odpowiada 2 bitom itd. Zwykle 1 Hz szerokości pasma odpowiada 3-5 bitom na sekundę.

ĆWICZENIE. Technologia Bluetooth ma umożliwić bezprzewodową łączność na falach radiowych o częstotliwości 2,4 GHz między różnymi urządzeniami elektronicznymi w jednym pomieszczeniu lub budynku. Ocenić orientacyjnie maksymalną szybkość transmisji (w rzeczywistości przewiduje się szybkość ok. 1 Mb/s).

0x08 graphic
Głównym czynnikiem decydującym o przepustowości łączy radiowych jest częstotliwość fali. Na przykład, w przedziale od długości fali 1 m do 0,5 m mamy częstotliwości od 300 do 600 MHz, co odpowiada ok. 40 kanałom telewizyjnym - ale w przedziale od 1 cm do 0,5 cm częstotliwości są 100 razy wyższe, czyli można tu zmieścić 4000 kanałów! Dlatego rozwój radiotelekomunikacji jest „wyścigiem” w stronę fal coraz krótszych. Ten sam powód zadecydował o karierze światłowodów - jeśli przesyłamy nimi promienie podczerwone o długości fali 1,55 m (obecny standard), to ich częstotliwość f = c/ = (3·108 m/s)/(1,55·10-6 m) ≈ 2·1014 Hz. Gdy - zgodnie z poprzednimi założeniami - przyjmiemy szerokość pasma równą 1/10 tej liczby, czyli 2·1013 Hz, to w tym przedziale zmieściłoby się 3 miliony kanałów TV! Jest to, oczywiście, tylko teoretyczne wyliczenie, gdyż istniejące systemy łączności światłowodowej nie pozwalają na tak szybką modulację (por. wcześniej podana granica kilkuset Gb/s). Widać, że mamy tu pewien margines na dalszy rozwój techniki światłowodowej, podczas gdy w przypadku kabli telefonicznych natrafiamy na ograniczenia o bardziej fundamentalnym charakterze.

Zasada działania światłowodów polega na wykorzystaniu zjawiska całkowitego wewnętrznego odbicia (zob. wstawka obok). Światłowód jest włóknem szklanym o średnicy poniżej 0,1 mm (giętkim dzięki tak małej grubości), wzdłuż którego promień światła biegnie nie wydostając się na zewnątrz. (Należy zdawać sobie sprawę, że ilustrujący tę zasadę rysunek jest pojęciowym uproszczeniem, nowoczesne światłowody dopuszczają bieg promienia jedynie wzdłuż osi światłowodu). Poza wielką przepustowością informacyjną zaletą światłowodów jest niewielkie tłumienie sygnałów - obecnie repetory (wzmacniacze pośrednie) można instalować na nich co 100 km, a przewiduje się 150 km i więcej. Są też odporne na zakłócenia elektromagnetyczne i podsłuch. Wadą światłowodów jest to, że przy instalacji i naprawach wymagają użycia techniki trudniejszej od kabli miedzianych, a szczególnie duże kłopoty sprawiają złącza przełączalne („zwrotnice”). Poza telekomunikacją światłowody znajdują zastosowanie m.in. w medycynie, gdzie służą do obserwacji wnętrza ciała ludzkiego, a także np. do oświetlania jamy ustnej.

Jednostką tłumienia sygnałów w kablach i światłowodach jest dB/km (decybel/km). Decybel jest jednostką stosunku dwóch wartości tej samej wielkości: W2 jest większa od W1 o N decybeli, jeśli N =10log(W2/W1). Taka definicja stosuje się do mocy sygnału elektrycznego, optycznego lub dźwięku, a ponieważ moc jest proporcjonalna do kwadratu amplitudy, więc dla amplitud A1 i A2 wzór ma postać N = 20 log(A2/A1). Przykładowo: jeśli jeden sygnał jest dwa razy silniejszy od drugiego (2 razy większa moc), różnica wynosi 10 log 2 ≈ 3 dB, gdy jest cztery razy silniejszy - 4 dB, a gdy dziesięć razy - 10 dB. Tłumienie we współczesnych światłowodach wynosi tylko ok. 0,2 dB/km.

ĆWICZENIE. Ile wynosi maksymalna długość światłowodu o tłumienności 0,2 dB/km, jeśli sygnał ma przejść przez niego osłabiony nie więcej niż trzykrotnie?

Rozwój telewizji doprowadzi prędzej czy później do wprowadzenia nowego standardu obrazu telewizyjnego, zawierającego więcej niż 625 linii, ewentualnie także z większą niż 25 razy na sekundę częstotliwością jego odświeżania. Już pod koniec lat 60-tych opracowano w Japonii analogowy system MUSE, w którym ilość przesyłanej informacji była 5-krotnie większa od zwykłej telewizji. Niestety, wymagało to pasma szerokości aż 30 MHz, czyli jeden kanał MUSE zajmował prawie 5 kanałów zwykłej TV - ze względu na „ciasnotę w eterze” system ten nie przyjął się poza Japonią. Rozwiązaniem tego problemu będzie zastosowanie cyfrowego przekazu sygnału telewizyjnego, pozwalającego zapewnić wyższą jakość mimo niezmienionej szerokości pasma. Jest to możliwe dzięki kompresji danych - praktycznie zawsze duża część danych jest „zbędna”, np. niektóre części obrazu zawierają niewielką liczbę szczegółów lub w kolejnych klatkach występują elementy powtarzające się. Algorytmy kompresji (MPEG 2) wykorzystują to, przesyłając tylko informacje o zmianach (jak programy archiwizujące dane komputerowe). Wprowadzana w Polsce telewizja cyfrowa nie zmienia na razie standardu obrazu, więc wyższa jakość polega tylko na eliminacji zakłóceń.

0x08 graphic
Przekaz danych w postaci cyfrowej wymaga odpowiedniej do tego zasady modulacji. Najważniejszą rolę pełni tu mo­dulacja impulsowo-kodowa (pulse-code modulation - PCM), polegająca na przesyłaniu sygnału w postaci ciągu zer i jedy­nek, czyli czysto cyfrowej. Istnieją również systemy modulacji o charakterze pośrednim między analogową (FM lub AM) a cyfrową, np. modulacja impulsowo-amplitudowa (PAM), impulsowo-pozycyjna (PPM) lub pulse-duration modulation (PDM) [nie znam nazwy polskiej, chodzi o modulację opartą na długości impulsów]. Dwie spośród nich zostały zilustrowane na rysunku obok. Przesyłany tymi metodami sygnał jest próbkowany, ale nie kwantowany - nie zaokrąglany do całkowitej wielokrotności danej jednostki.

0x08 graphic
0x08 graphic
Aby przesłać jednym kablem np. kilka rozmów telefonicznych jednocześnie, stosujemy multipleksowanie. Multipleks. sygn. analogowych można zrealizować modulując nimi fale nośne o różnych częstotliwościach (zasada identyczna jak przy przesyłaniu fal radiowych). Sygnały poddane próbkowaniu (zob. np. wyżej) można przekazywać na przemian - nazywamy to podziałem czasu. Sygnały całkowicie cyfrowe możemy mieszać ze sobą na dowolne sposoby, albo tworzyć pakiety zaopatrzone w adres kierujący je do właściwego odbiorcy (np. Internet).

SIECI KOMÓRKOWE

Informacje na temat częstotliwości i szybkości transmisji w standardzie GSM zostały już podane wyżej, dlatego w tym ustępie ograniczymy się do samej struktury sieci. Obszar kraju został podzielony na sześciokątne komórki, przy czym każda ma swoją stację bazową, której przypisano pewną część kanałów radiowych. Stacja ta odbiera sygnały od telefonów znajdujących się w jej komórce i transmituje (na innym kanale) sygnały do nich. Co 15 minut stacja bazowa „wywołuje” wszystkie telefony włączone w obrębie komórki do zgłoszenia się - dzięki temu centralny komputer wie, dokąd należy skierować rozmowę z danym aparatem. Łączność między stacjami bazowymi jest oparta głównie na kablach światłowodowych. Grupa 8 sąsiednich komórek tworzy zespół, w którym kanały nie pokrywają się; ponieważ jednak zasięg nadawania jest niewielki, więc w bardziej odległych od siebie komórkach mogą być wykorzystywane te same częstotliwości. Aby obciążenie poszczególnych komórek było w przybliżeniu jednakowe, mają one różną wielkość: w centrach finansowych wielkich miast zaledwie 100 m średnicy, a na terenach o rzadkim zaludnieniu ok. ?? km.

Dość skomplikowany jest mechanizm zmiany częstotliwości uruchamiany wtedy, gdy abonent przekracza granicę komórki. Stacja bazowa, która początkowo obsługiwała rozmowę, stale ocenia siłę sygnału wysyłanego przez telefon. Jeśli spadnie ona poniżej pewnego poziomu, stacja bazowa wysyła komunikat do centrali głównej, która przekazuje sąsiednim stacjom bazowym polecenie śledzenia poziomu odbieranego przez nie sygnału. Jeśli któraś z nich odbiera sygnał silniejszy, do aparatu telefonicznego zostaje wysłane polecenie przestrojenia się na daną stację. Oczywiście, cała ta procedura przebiega w sposób niezauważalny dla użytkownika.

ŁĄCZNOŚĆ SATELITARNA

Pierwszy komercyjny satelita telekomunikacyjny został wystrzelony w 1965 r. i obsługiwał 240 kanałów telefonicznych. Dzisiaj przez satelity przechodzi 1/3 międzynarodowych rozmów telefonicznych (reszta głównie przez światłowody) i praktycznie wszystkie międzynarodowe transmisje telewizyjne.

0x08 graphic
Część satelitów telekomunikacyjnych okrąża Ziemię na takiej wysokości, że okres ich obiegu wokół Ziemi pokrywa się z okresem obrotu Ziemi wokół własnej osi (tzn. około 1 doby). Jeśli orbita takiego satelity leży w płaszczyźnie równika, to względem obserwatora ziemskiego „wisi” on w stałym punkcie na niebie. Taka orbita nazywa się geostacjonarną; jak można obliczyć na podstawie praw mechaniki (zob. wstawka), jej wysokość nad powierzchnią Ziemi wynosi ok. 36 tysięcy kilometrów. Zaletą satelity geostacjonarnego jest to, że skierowana w jego stronę antena pozostaje nieruchoma i niepotrzebny jest mechanizm jej obracania; ponadto duże jest pole widzenia i wystarczą 3 lub 4 satelity do pokrycia całej powierzchni Ziemi. Te plusy są szczególnie cenne w przypadku np. przekazu transmisji telewizyjnych, jednak w odniesieniu do bezpośredniej łączności z klientami telefonii komórkowej bardziej istotne okazują się wady tego rozwiązania. Przede wszystkim, do przekazu sygnałów na tak dużą odległość potrzebna jest albo duża moc nadawania (niewskazana ze względu na ryzyko negatywnego wpływu na zdrowie użytkownika telefonu; z tego powodu, a także dla oszczędności baterii przyjmuje się ograniczenie mocy do 1 W), albo antena wielkiej średnicy na satelicie. Po drugie, czas przejścia fali elektromagnetycznej tam i z powrotem jest wtedy równy ok. 1/4 s, co w rozmowie telefonicznej zaczyna być odczuwalne.

0x08 graphic
Dlatego coraz częściej planuje się systemy łączności oparte na satelitach krążących po orbitach niższych. Wykluczyć należy jedynie przedział wysokości od 2000 do 10000 km (tzw. pasy van Allena), w którym promieniowanie pochodzące od „schwytanych” przez pole magnetyczne Ziemi cząstek tzw. wiatru słonecznego może uszkadzać aparaturę. Ponieważ krótkie fale rozchodzą się praktycznie po liniach prostych, jak światło (nie ulegają ugięciu), więc satelita na niskiej orbicie może nawiązywać łączność tylko z niewielkim obszarem Ziemi. (Z tego samego powodu telewizja i „zwykła” telefonia komórkowa wymagają odpowiednio gęstej sieci przekaźników naziemnych). Potrzebna jest wtedy większa liczba satelitów - np. obejmujący całą Ziemię system Iridium składa się (a raczej składał, ostatnio zbankrutował) z 66 satelitów na wysokości 780 km, a system IPO to 10 satelitów na wysokości 9 tysięcy km. W sferze projektów pozostają bezzałogowe samoloty lub sterowce unoszące się na wysokości ok. 20 km nad największymi aglomeracjami. Dla telefonii komórkowej te satelity i samoloty (zbudowane i planowane) pełnią rolę podobną do naziemnych stacji bazowych, np. przełączenie z jednej stacji bazowej na inną i zmiana częstotliwości następuje automatycznie, w sposób niedostrzegalny dla użytkownika, gdy daje to zwiększenie natężenia odbieranego sygnału. Zaletą łączności satelitarnej jest mniejsze natężenie zakłóceń (np. odbić od budynków).

0x08 graphic
Bardzo ciekawa jest zasada działania anteny satelitów na niskich orbitach. Aby oszczędzić moc sygnału i nie „zaśmiecać eteru”, kierują one wiązkę w określone miejsce na powierzchni Ziemi (tam, gdzie znajduje się odbiorca). Ponieważ jednak satelita obsługuje jednocześnie setki lub tysiące połączeń, niemożliwe byłoby obracanie czaszy tradycyjnej anteny parabolicznej przy każdej zmianie kierunku. Rozwiązaniem tego problemu jest antena matrycowo-fazowa, pozwalająca błyskawicznie zmieniać kierunek wysyłanej wiązki bez zmiany położenia anteny i bez „przestawienia” jakichkolwiek części ruchomych. Anteny takie są produktem ubocznym „gwiezdnych wojen”, gdyż radary projektowane na wypadek masowego ataku nuklearnego również musiałyby jednocześnie śledzić tysiące nadlatujących pocisków. Przypomnijmy najpierw zasadę działania siatki dyfrakcyjnej: padająca fala świetlna ulega ugięciu na szczelinach (rysach) siatki, które w ten sposób stają się źródłami wtórnych fal kulistych. Interferencja tych fal powoduje ich wzmocnienie w tych kierunkach, w których ich fazy są ze sobą zgodne (grzbiet jednej fali pokrywa się z grzbietem innych, a dołek - z dołkiem), natomiast osłabienie w innych kierunkach. W antenie matrycowo-fazowej zamiast rys siatki mamy wiele nadajników tworzących pewien układ przestrzenny (matrycę), przy czym fazę wysyłanego przez nie sygnału można zmieniać - w efekcie mamy zmianę kierunku, w którym fala ulega wzmocnieniu. Takie zmiany mogą następować w czasie rzędu 1 s.

Żywiołowy rozwój telefonii komórkowej - naziemnej i satelitarnej - zmusza do przechodzenia na zakresy coraz krótszych fal elektromagn. Ostatnio obok standardowego dotychczas zakresu 900 MHz zaczęto wykorzystywać w Polsce także zakres 1800 MHz = 1,8 GHz, a na świecie intensywnie bada się możliwość wprowadzenia systemów łączności na częstotliwościach 20-50 GHz, co odpowiada długości fali od 6 do 15 mm. Podobne rozmiary mają zwykłe krople deszczu, co jest źródłem silnych zakłóceń. Konieczne jest więc podjęcie odpowiednich środków zaradczych: zwiększenie mocy nadajników, jednoczesne przesyłanie sygnału kilkoma różnymi drogami, użycie różnych metod korekty błędów, a także szybkie i częste zmienianie częstotliwości (tak że ewentualne zakłócenia dotykają tylko części przekazu). Ta ostatnia metoda - zwana techniką widma rozproszonego (ang. spread spectrum) jest też skuteczną ochroną przed podsłuchem. Metodę tę często stosuje się w połączeniu z kodowaniem bezpośrednim (ang. direct sequence), polegającym na zastępowaniu każdego bitu sekwencją bitów tak dobraną, aby były one jak najlepiej odróżnialne w razie wystąpienia przekłamań - np. 0 → 000100110101111, 1 → 111011001010000. Widoczna tu „nadmiarowość” informacji nazywana jest inaczej redundancją (powszechnie znanym przykładem zastosowania redundancji jest „literowanie” nazwisk, czyli zastępowanie każdej litery imieniem).

NAWIGACJA SATELITARNA

Najważniejszym systemem nawigacji satelitarnej jest obecnie GPS (Global Positioning System), składający się z 24 satelitów na wysokości nieco powyżej 20 tys. km (mniejszej niż geostacjonarna). Ustalenie położenia polega na pomiarze odległości do satelitów (w zasadzie wystarczyłyby 3 odległości do wyznaczenia trzech współrzędnych przestrzennych, w tym i wysokości nad ziemią). Pierwotnie stworzono GPS dla armii USA i z tego względu wykluczono wysyłanie przez użytkowników jakichkolwiek sygnałów (aby nie ujawniać swojej pozycji), tak więc jedynie odbierają oni sygnały wysyłane przez satelitę. Sygnały te są wysyłane bez przerwy i zawierają zakodowaną dokładną informację o czasie ich wysłania. Porównując go z czasem ich odebrania znajdujemy różnicę, która jest czasem przejścia drogi od satelity do odbiorcy, a mnożąc go przez prędkość światła wyznaczamy odległość.

Powyższy opis zawiera dwa uproszczenia. Po pierwsze, czas przejścia sygnału musi być znany z wielką dokładnością (w ciągu 1 s światło przebywa drogę 300 m), a tak dokładne zegary można zainstalować na satelicie, ale nie w każdym odbiorniku! Problem ten można rozwiązać, jeśli dokonamy pomiaru sygnałów wysyłanych przez 4 (a nie 3) satelity i stąd obliczymy 4 odległości, obarczone błędem wskutek niedokładności naszego zegara. Z powodu błędu te 4 wielkości będą ze sobą sprzeczne (4 sfery nie przecinają się na ogół w jednym punkcie), ale teraz możemy skorygować czas, zmieniając tym samym jednakowo wspomniane 4 odległości. Istnieje tylko jedna wartość takiej korekty, która sprawi, że te 4 odległości staną się zgodne, pozwalając obliczyć 3 współrzędne położenia odbiornika. Po drugie, twórcy systemu GPS pragnęli ograniczyć dokładność, z jaką może korzystać z niego „nieuprawniony” użytkownik (nieprzyjaciel?) i świadomie „popsuli” go przez wprowadzenie zakłóceń czasu emisji sygnałów. W rezultacie tego zmniejszono dokładność wyznaczenia położenia do 100 m (wartość, być może, nieaktualna - reklama odbiorników GPS w polskim czasopiśmie podaje dokładność 15 m), podczas gdy wojskowe odbiorniki osiągają dokładność 1 cm dzięki wyposażeniu ich w kody usuwające zakłócenia. Istnieje zresztą prosta technika pozwalająca każdemu odbiorcy w pewnym stopniu ominąć te ograniczenia - wystarczy dokonać pomiarów ze stacjonarnego punktu o dokładnie znanych współrzędnych i przesłać przez radio niezbędne korekty innym użytkownikom. W USA niektóre stacje radiowe standardowo transmitują te sygnały bez żadnych ograniczeń.

(w nocy z 1 na 2 maja 2000 nastąpiło wyłączenie zakłócania, dokładność cywilna wynosi 10 m, wojskowa lepsza dzięki dodatkowym częstotliwościom)

Najprostsze dostępne na rynku odbiorniki GPS są niewiele większe od telefonu komórkowego, a ich cena wynosi ok. 1000 zł.

0x08 graphic
LASERY I ICH ZASTOSOWANIA

Nazwa „laser” jest skrótem angielskich słów Light Amplification by Stimulated Emission of Radiation (wzmacnianie światła przez wymu­szoną emisję promieniowania). Wymienione tu zjawisko emisji wymu­szonej polega na tym, że kwant promieniowania pada na atom lub czą­steczkę w stanie wzbudzonym i powoduje jej przejście do stanu niż­szego, połączone z emisją dwóch kwantów identycznych z początko­wym. Zjawisko to zostało przewidziane teoretycznie przez A. Einsteina w 1917 r. - jednak na wynalezienie lasera trzeba było czekać aż do 1960 roku (kilka lat wcześniej skonstruowano masery, działające w zakresie mikrofal). Przyczyną tak dużej zwłoki między odkryciem teoretycznym a jego praktycznym zastoso­waniem był fakt, że w „normalnych” warunkach więcej atomów lub też cząsteczek znajduje się w stanie o niższej energii i z tego powodu padający kwant promieniowania z większym prawdopodobieństwem może zostać pochłonięty (zaabsorbo­wany), niż spowodować emisję wymuszoną. Aby emisja wymuszona zaczęła przeważać nad absorpcją, konieczne jest do­prowadzenie do tzw. inwersji obsadzeń - nietypowej sytuacji, w której liczba atomów o wyższej energii jest większa. Wtedy kolejne przypadki emisji wymuszonej spowodują lawinowe „mnożenie się” jednakowych kwantów promieniowania. Ośrodek, w którym zachodzi akcja laserowa, umieszcza się między dwoma zwierciadłami, tak aby wiązka światła wielo­krotne przechodziła przez niego tam i z powrotem, za każdym razem ulegając wzmocnieniu; wyprowadzenie promienia na zewnątrz można osiągnąć, jeśli jedno ze zwierciadeł będzie częściowo odbijające, a częściowo przezroczyste.

W pierwszych laserach opisywane zjawisko zachodziło w np. pręcie rubinowym albo w gazie zamkniętym w szklanej rurce. Przyrządy takie są stosunkowo drogie, trudne do miniaturyzacji i wymagają wysokiego napięcia zasilania. Dlatego szersze zastosowanie laserów w urządzeniach powszechnego użytku stało się możliwe dopiero po opanowaniu technologii produkcji laserów półprzewodnikowych, w których akcja laserowa następuje w złączu pn (por. o diodzie świecącej na s. 2).

0x08 graphic
Światło laserowe różni się od światła pochodzącego z innych źródeł następującymi cechami:

  1. Jest w wysokim stopniu monochromatyczne (jednobarwne), czyli rozpatrywane jako fala jest falą prawie doskonale harmoniczną (por. s. 11).

  2. Jest w wysokim stopniu spójne, co oznacza, że grzbiety fal są bardzo regularne, czyli w różnych punktach przestrzeni faza drgań jest skorelowana. Ta właściwość powoduje, że dla światła laserowego bardzo łatwo zaobserwować zjawisko interferencji.

  3. Wiązka światła jest wąska i bardzo dokładnie równoległa.

Te cechy światła laserowego sprawiają, że można je bardzo dobrze zogniskować - w punkcie o rozmiarach rzędu długości fali (najlepsze zogniskowanie fali, jakie jest możliwe). Dzięki temu lasery znajdują zastosowanie jako czytniki płyt CD i DVD - ale z tego też powodu światło laserowe może być bardziej niebezpieczne dla oczu, gdyż zogniskowane światło łatwiej może uszkodzić siatkówkę (ponadto wiązka zwykłego światła zawsze jest częściowo rozproszona i wcześniej nas ostrzega, aby zamknąć oczy lub odsunąć się z drogi wiązki).

Wymieńmy pobieżnie niektóre inne zastosowania techniczne laserów: telekomunikacja (źródło światła do światłowodów), najbardziej precyzyjne pomiary odległości (definicja metra), pomiary odległości do satelitów i planet, pomiary geodezyjne (np. przewidywanie trzęsień ziemi), kierowanie maszynami na wielkich budowach (zwłaszcza podczas drążenia tuneli), chirurgia („skalpel laserowy”, przydatny zwłaszcza przy operacjach oka), precyzyjna obróbka powierzchni (wiercenie w twardych materiałach, odparowanie warstwy powierzchniowej), nagrzewanie plazmy do nadzwyczaj wysokich temperatur, niezbędnych do zainicjowania kontrolowanej reakcji termojądrowej (tu stosuje się lasery o wielkiej mocy)…

Na płytach CD (rozpoczęcie produkcji 1982) kolejne bity danych zapisuje się w postaci wgłębień na płycie z tworzywa poliwęglanowego, którą pokrywa się cienką warstwą aluminium, odbijającą światło lasera. Promień lasera jest kierowany na wirującą płytę od dołu, a zmiany natężenia światła odbitego są rejestrowane przez czujniki, które poza odczytywaniem zapisanych danych przekazują także informacje korygujące położenie punktu skupienia wiązki, co umożliwia śledzenie wybranej ścieżki danych. Pojemność typowych płyt CD o średnicy 12 cm wynosi do 640 MB (dużą literą B oznaczamy bajt równy 8 bitom), co odpowiada 75 minutom nagrania. W przypadku czytników CD-ROM (odczyt danych komputerowych) istotnym parametrem jest także szybkość odczytu, podawana zwykle w formie np. „szybkość 52×”, co oznacza wielokrotność 150 kB/s (w podanym przykładzie 52×150 kB/s = 7,8 MB/s).

ĆWICZENIE

Na podstawie podanych powyżej parametrów płyt CD obliczyć szybkość transmisji danych (w Mb/s) i porównać z wartością podaną na s. 10.

W 1995-1996 r. wprowadzono nowy format dysków optycznych DVD, osiągający znacznie większą pojemność przy niezmienionej średnicy dysku. Ten rezultat zawdzięczamy głównie dwuwarstwowemu zapisowi na każdej ze stron płyty (wiązkę można zogniskować głębiej lub płycej), a częściowo także większej gęstości zapisu, co z kolei stało się możliwe w wyniku zastosowania światła o mniejszej długości fali (por. informacje o dyfrakcji światła na górze tej strony, a także na s. 9). Poniższa tabelka jest zestawieniem niektórych parametrów czytników CD i DVD.

Rozmiar zagłębień

Odległość ścieżek

Długość fali światła

Pojemność

Podstawowa szybkość odczytu

Osiągana obecnie szybkość odczytu

CD

0,83 μm

1,6 μm

0,78 μm (podczerwień)

640 MB

150 kB/s

52×

DVD

0,4 μm

0,74 μm

0,635÷0,65 μm (widzialne)

17 GB

Każda warstwa zapisu na płytach DVD zawiera 4,7 GB danych. Przemnożenie tej liczby przez 4 (2 strony×2 warstwy) daje prawie 19 GB, czyli więcej od podanej pojemności 17 GB - ale zapis dwuwarstwowy zwiększa ilość błędów, tak więc niezbędne są specjalne systemy kontroli i korekcji błędów, a bity kontrolne pochłaniają pewną część pojemności płyty. Format ten jest przeznaczony głównie do zapisu filmów, z zastosowaniem kompresji danych (MPEG 2). Liczba bitów odpowiadających jednej sekundzie filmu może być różna, zależnie od ilości szczegółów i szybkości zmian obrazu.

Dalszy postęp techniki optycznego zapisu informacji mógłby nastąpić po wynalezieniu niebieskiego lasera, jeśli byłby on równie trwały, niezawodny i tani, jak istniejące lasery działające w zakresie czerwieni i podczerwieni. Jeszcze większe nadzieje wiąże się z wprowadzeniem pamięci holograficznych.

0x08 graphic
Holografia jest metodą rejestracji i odtwarzania fali świetlnej razem z jej przebiegiem w przestrzeni trójwymiarowej, tak że odtworzony obraz może być oglądany z różnych stron, a także można ogniskować wzrok na elementach bliższych lub dalszych (jak przy normalnym widzeniu). Zasady holografii zostały odkryte już w latach 1907-1920 (polski fizyk M. Wolfke), ale ich praktyczna realizacja stała się możliwa dopiero po wynalezieniu lasera. Podstawowy schemat zapisu holograficznego jest przedstawiony na rysunku obok: wiązka światła spójnego (w praktyce laserowego) przechodzi przez zwierciadło półprzepuszczalne Z i ulega podziałowi na dwie części. Jedna z tych wiązek oświetla fotografowany przedmiot, a po odbiciu pada na kliszę, gdzie ulega nałożeniu na drugą część (wiązkę odniesienia) dając obraz interferencyjny w postaci układu prążków. Tak otrzymana fotografia zupełnie nie przypomina zwykłego obrazu fotograficznego, gdyż jest bardzo gęstym (zbyt drobnym do obserwacji gołym okiem) i raczej nieregularnym deseniem. Gdy teraz oświetlimy hologram wiązką światła spójnego, w wyniku dyfrakcji na układzie prążków następuje odtworzenie wiązki przedmiotowej. Odnotujmy, że fragment powierzchni hologramu pozwala odtworzyć cały obraz, co się wiąże jednak z pogorszeniem jego jakości. Powszechnie znane hologramy na banknotach, niektórych dokumentach i towarach są wykonywane nieco bardziej skomplikowaną techniką, dzięki której można je oglądać w zwykłym świetle jako obrazy wielobarwne.

Wspomniane wyżej pamięci holograficzne są obecnie na etapie prób laboratoryjnych. Zapisywanie danych ma przebiegać w następujący sposób: pewna liczba bitów zostaje zobrazowana w postaci mozaiki jasnych i ciemnych pól na wyświetlaczu ciekłokrystalicznym. Oświetlenie tego wzoru światłem laserowym daje wiązkę, która interferuje z wiązką odniesienia, a trójwymiarowy obraz interferencyjny jest zapisywany w odpowiednim ośrodku poprzez zmiany jego współczynnika załamania. W ten sposób każdy bit jest zapisywany w całej objętości nośnika. Rekonstrukcja wiązki przedmiotowej (obrazu mozaiki) następuje po przepuszczeniu przez nośnik wiązki laserowej. Kolejne „strony” mogą być zapisywane i odczytywane w tym samym ośrodku, jeśli wiązka światła będzie padać pod innym kątem - ta technika nosi nazwę multipleksowania kątowego. Uważa się za możliwe, że pojemność pamięci holograficznych będzie rzędu setek GB, szybkość odczytu - rzędu 1 GB/s, a czas dostępu do dowolnego miejsca - rzędu 100 μs. Duża szybkość odczytu wynika stąd, że w jednym kroku odczytuje się całą stronę, zawierającą tysiące bitów - zamiast bit po bicie, jak w innych rodzajach pamięci.

WYŚWIETLACZE I MONITORY

„Zwykłe” monitory komputerowe działają na zasadzie bardzo podobnej do kineskopów telewizyjnych. Są to lampy próżniowe, w których wiązka elektronów zostaje rozpędzona wysokim napięciem (rzędu 10 kV) w stronę ekranu, a po drodze jest odchylana w pionie i w poziomie polem magnetycznym wytwarzanym przez prąd płynący w uzwojeniach. Ekran jest pokryty od tyłu luminoforem, czyli substancją świecącą pod wpływem padających na nią elektronów. Obraz barwny powstaje dzięki zastosowaniu trzech luminoforów, z których jeden emituje światło czerwone, drugi - zielone, a trzeci - niebieskie. Każdy z rodzajów luminoforów jest pobudzany do świecenia przez odrębną wiązkę elektronów, pochodzącą z odrębnej wyrzutni, a dzięki odpowiednim maskom elektrony trafiają tylko w te punkty ekranu, które pokryte są właściwym dla danej wiązki rodzajem luminoforu.

Opisana zasada uzyskiwania obrazu barwnego jest dostosowana do fizjologii widzenia u człowieka, który w swoich oczach ma 3 rodzaje receptorów (czopków), których maksima czułości przypadają na światło czerwone, zielone i niebieskie. Dzięki temu każdą barwę (w sensie wrażenia barwnego) można zbudować mieszając światło o 3 barwach podstawowych. Nazywa się to addytywnym mieszaniem barw, a chociaż istnieje pewna dowolność co do tego, jakie barwy uznamy za podstawowe, to w monitorach, kineskopach, skanerach, cyfrowych aparatach fotograficznych i na taśmie filmowej najczęściej obowiązuje zestaw RGB (ang. red, green, blue). Ponieważ jednakowa zmiana natężenia wszystkich 3 składników oznacza jedynie zmianę ogólnej jasności, ale nie barwy, więc po odrzuceniu tego wspólnego parametru pozostają nam dwie liczby (natężenia) określające samą barwę, które możemy skojarzyć ze współrzędnymi punktu na płaszczyźnie - zob. w encyklopediach tzw. „trójkąt barw”. Nie należy mylić tak określonej barwy z widmem światła, które niesie znacznie większą ilość informacji, nieodczuwalnych na ogół dla człowieka - np. monochromatyczne światło żółte jest nieodróżnialne dla oka od mieszaniny światła czerwonego i zielonego. Podobnie światło białe składające się z tylko dwóch barw monochromatycznych (tzw. barw dopełniających, np. niebieska i pomarańczowa) można odróżnić od światła słonecznego (zawierającego wszystkie długości fali od fioletu do czerwieni) tylko używając pryzmatu albo siatki dyfrakcyjnej.

0x08 graphic
Kineskopy próżniowe są produkowane już od ponad 60 lat, a związana z tym technologia jest „dojrzała” i ma liczne zalety (dość duża jasność ekranu, niewielki pobór energii). Dalszy rozwój techniki prawdopodobnie będzie jednak wymagał odejścia od niej. Na przykład, wprowadzenie telewizji wysokiej rozdzielczości (HDTV) przyniesie rzeczywistą poprawę jakości obrazu tylko wtedy, gdy ekran będzie miał odpowiednio duże rozmiary (przekątna powyżej 1 m). Tak wielki kineskop miałby też dużą objętość, a ważyłby tyle, że praktycznie taką konstrukcję należy wykluczyć. Dlatego bardzo intensywnie pracuje się nad udoskonaleniem wyświetlaczy o płaskim ekranie. Wymieńmy kilka technologii mających szanse na sukces:

Wyświetlacze plazmowe pozostają - jak dotąd - zdecydowanie droższe od kineskopów (w 1998 r. monitor tego typu o przekątnej 1056 mm kosztował 11000$). Wynika to stąd, że napięcie sterujące wynosi ok. 100 V, co w mikroelektronice jest wartością nietypowo wysoką, a każda z elektrod wymaga odrębnego obwodu sterującego, którego funkcje są dość skomplikowane. (Nb. podobnie drogie są i inne wyświetlacze wymienione niżej.)

a

- - 5 -

Skala wielkości w mikroświecie:

1 mm

0,1 mm włos ludzki

10 m

1 m bakterie

0,1 m wirusy

10 nm cząsteczka DNA

1 nm atomy

0,1 nm

0x01 graphic

0x01 graphic

x y u v

0 0 0 0

0 1 1 0

1 0 1 0

1 1 0 1

Napięcie U (różnica potencjałów) mię­dzy okładkami kondensatora jest pro­porcjonalne do jego ładunku Q. Stałą proporcjonalności nazywamy pojemno­ścią kondensatora i oznaczamy symbo­lem C Q = C·U

Można wykazać, że w obwodzie zawierającym opornik o oporze R i kondensator o pojemności C czas nałado­wania lub rozładowania konden­satora jest w przybliżeniu równy iloczynowi R·C. Wielkość tę nazywamy czasem charakterystycznym lub stałą czasową obwodu.

0x01 graphic

x y z

0 0 1

0 1 0

1 0 0

1 1 0

Tranzystor n-p-n. Z lewej - przepływ elektronów (grubość strzałki jest proporcjonalna do ich liczby). Z prawej - symbol.

x y

0 1

1 0

x y z

0 0 0

0 1 1

1 0 1

1 1 1

x y z

0 0 0

0 1 0

1 0 0

1 1 1

Energia promieniowania elektromagnetycznego może być przekazywana tylko w niepodzielnych porcjach nazywanych kwantami. Wartość kwantu promieniowania wyraża się wzorem E = hf, gdzie f jest częstotliwością fali, a h - stałą Plancka. Ponieważ częstotliwość jest powiązana z długością fali  i jej prędkością c wzorem f = c/, więc E = hc/, a po wprowadzeniu danych liczbowych i wyrażeniu E w elektronowoltach otrzymujemy wygodny wzór

E[eV] = 1,24/[m]

Dla światła widzialnego długość fali zawiera się w przedziale od ok. 0,4 m (fiolet) do ok. 0,75 m (czerwień), co oznacza energię kwantu od 1,7 eV (czerwień) do 3 eV (fiolet).

Według praw fizyki statystycznej prawdopodobieństwo tego, że cząstka osiągnie energię E, jest odwrotnie proporcjonalne do liczby e=2,718 do potęgi E/Eśr, gdzie Eśr jest średnią energią, proporcjonalną do temperatury w skali Kelvina.

p ≈ e-E/Eśr

Elektronowolt (eV) jest to energia, jaką uzyskuje ładunek elementarny (np. elektron) po przejściu różnicy potencjałów 1 V. W fizyce atomowej jest to często stosowana jednostka, a jej przeliczenie na dżule ma postać 1 eV = 1,6·10-19 J.

E

Z lewej: poziomy energetyczne elektronu w atomie (przykładowy schemat). W środku: pasma energetyczne elektronu w krysztale. Z prawej: stany elektronu swobodnego.

Lewa strona: nadajniki (oznaczone kropkami) wysyłają falę w jednakowej fazie, w kierunku poziomym (a) fala ulega wzmocnieniu, a w kierunku ukośnym (b) - osłabieniu. Prawa strona: fazy nadajników są przesunięte, w kierunku poziomym (c) mamy osłabienie, a w kierunku ukośnym (d) - wzmocnienie.

Ugięcie dla długich fal (z lewej) i brak ugięcia dla fal krótkich (z prawej)

Dla orbity kołowej siła dośrodkowa m(2/)2R równa się sile przyciągania Ziemi GMm/R2. Po podstawieniu okresu obiegu T równego 23 h 56 m, stałej grawitacji G i masy Ziemi M otrzymujemy R = 42170 km, a wysokość nad powierzchnią Ziemi wynosi h = R - r = 35 800 km (r - promień Ziemi).

Schemat analogowego multipleksera: GFN - generatory fali nośnej, OR - obwody rezonansowe. Grubszą linią zaznaczono kabel wspólny dla wszystkich sygnałów

a) załamanie, słaby promień częściowo odbity zaznaczono linią przerywaną, b) sytuacja graniczna, c) przy dalszym zwiększeniu kąta padania promień załamany znika, a cała energia promienia padającego odnajduje się w promieniu odbitym, d) światłowód

a) widmo fali harmonicznej, b) widmo fali z modulacją amplitudy wg wzoru podanego w tekście, c) typowe widmo fali z modulacją amplitudy. A - amplituda składowych

obwód rezon. demodulator głośnik

Modulacja częstotliwości: a) sygnał modulujący, b) fala zmodulowana

Opór elektryczny drutu o długości l i polu przekroju poprzecznego S wyraża się wzorem

R = ρl/S

gdzie parametr ρ zależy od materiału drutu. Nazy­wamy go opornością właściwą materiału, a jeśli R wyraża się w omach, l w metrach, a S w m2, to - jak wi­dać ze wzoru - jednostką oporności właściwej jest Ω·m.

Trzy podstawowe zjawiska zachodzące podczas oddziaływania promieniowania z materią

INTERFERENCJA I DYFRAKCJA FAL

Interferencja polega na nakładaniu się na siebie dwóch lub więcej fal, przy czym wynik tego nałożenia zależy od ich faz: jeśli fazy są zgodne (grzbiet jednej fali pokrywa się z grzbietem drugiej, a dołek z dołkiem), to następuje wzmocnienie (interferencja konstruktywna), natomiast gdy fazy są przeciwne (grzbiet jednej nakłada się na dołek drugiej), to następuje osłabienie (interferencja destruktywna).

Dyfrakcja fal jest to zmiana kierunku, jaka występuje po obejściu przeszkody lub przejściu przez szczelinę. Efekt ten jest wyraźny, gdy rozmiary przeszkody lub szerokość szczeliny są zbliżone do długości fali, natomiast słaby, gdy długość fali jest znacznie mniejsza.

Plazmą nazywamy gaz, w którym duża część cząsteczek występuje w postaci jonów dodatnich i ujemnych. Jest to więc ośrodek przewodzący - w odróżnieniu od zwykłego gazu, w którym cząsteczki są elektrycznie obojętne. Plazma powstaje podczas wyładowań elektrycznych w gazach (np. jarzeniówki, neony).

Ciekłe kryształy są stanem materii o cechach pośrednich między cieczą (w której cząsteczki mogą wykonywać dowolne ruchy) a ciałem stałym (w którym mogą tylko drgać wokół położeń równowagi). Ważnym przykładem jest struktura polegająca na tym, że podłużne cząsteczki ciekłego kryształu mają swobodę co do przemieszczeń, ale nie co do obrotu - ich kierunek pozostaje ustalony (zob. rysunek poniżej).

Działanie wyświetlaczy ciekłokrystalicznych wynika ze zjawiska polaryzacji światła. Podobnie jak i inne rodzaje fal elektromagnetycznych, światło jest falą poprzeczną, tzn. kierunek drgania fali jest prostopadły do jej kierunku biegu. W zwykłym świetle kierunek drgań zmienia się chaotycznie, ale po przejściu przez polaryzator pozostaje tylko fala drgająca wzdłuż jednej wyróżnionej osi, gdyż druga składowa (drgająca wzdłuż osi prostopadłej) uległa pochłonięciu. Takie światło nazywamy spolaryzowanym. Jeśli dwa polaryzatory ustawimy jeden za drugim tak, że ich osie będą do siebie prostopadłe, światło przez nie przejdzie, gdyż jedna składowa ulegnie pochłonięciu w jednym polaryzatorze, a druga w drugim. Jakakolwiek zmiana stanu polaryzacji światła, która zajdzie w obszarze między polaryzatorami, spowoduje rozjaśnienie obrazu.

Każdy piksel ekranu ciekłokrystalicznego zawiera warstwę ciekłego kryształu umieszczoną między dwiema płytkami o wyróżnionej osi, mającymi właściwość porządkowania wzdłuż tej osi cząsteczek ciekłego kryształu w warstewce przylegającej do płytki. Gdy osie tych dwóch płytek są ustawione prostopadle do siebie nawzajem, efektem ich „rywalizującego” wpływu jest powstanie w ciekłym krysztale struktury śrubowej (rys. obok). Przechodzące przez cały układ światło podlega wtedy skręceniu płaszczyzny polaryzacji, czyli po umieszczeniu całości między skrzyżowanymi polaryzatorami obraz będzie jasny. Przyłożenie napięcia elektrycznego między płytkami zmienia tę sytuację: cząsteczki ustawiają się teraz wzdłuż pola i skręcenie płaszczyzny polaryzacji nie następuje, zatem obraz jest ciemny.

0x01 graphic

Tranzystor polowy: a) budowa, b) rozkład energii potencjalnej elektronów przy zerowym (góra) lub dodatnim (dół) potencjale bramki, c) symbol, d) schemat wzmacniacza.



Wyszukiwarka

Podobne podstrony:
01 Podstawy i technika
PODSTAWY TECHNIK MIKROPROCESOROWYCH, Studia Pwr INF, Semestr IV, PTM
Lab 2 - Podstawowe techniki mikrobiologiczne, Laboratorium 2
cichosz,podstawy technik wytwarzania, Przepisy BHP przy spawaniu gazowym
Podstawy techniki mikroprocesor Nieznany
zadania egzaminacyjne dzienne (PTM), elektro, 1, Podstawy Techniki Mikroprocesorowej
80C51 pytania i odpowiedzi, elektro, 1, Podstawy Techniki Mikroprocesorowej
Podstawy Technik Prac Biurowych, moje prace semestralne, spp
ECDL Podstawy technik informatycznych
zadania egzaminacyjne zaoczne 2006 07 (PTM), elektro, 1, Podstawy Techniki Mikroprocesorowej
Egzamin z PTC podst kombinacyjne, elektro, 1, Podstawy Techniki Mikroprocesorowej
Podstawy Techniki Telwizyjnej Obraz anamorfotyczny
Laboratorium podstaw techniki światłowodowej Pomiar tłumienia włókna światłowodu
05 EW ZEW M pom nr5 Podstawowe techniki facylitacyjne
PODSTAWOWE TECHNIKI STOSOWANE W SOCJOTERAPII
Gronostajski,podstawy i techniki wytwarzania II,Metody walcowania
Gronostajski,podstawy i techniki wytwarzania II,metody spawania

więcej podobnych podstron