Biofizyka skrypt 2013

background image

1

1

1.

1. Entalpia swobodna – potencjał termodynamiczny zwany funkcją Gibbsa lub energią

swobodną Gibbsa, oznaczany przez

, a zdefiniowany następująco:

co jest równoważne:

gdzie

– energia wewnętrzna układu,

–entropia układu,

,

– ciśnienie i objętość układu,

– temperatura bezwzględna układu,

entalpia,

energia swobodna Helmholtza

W procesach izotermiczno-izobarycznych ubytek entalpii swobodnej jest równy pracy
nieobjętościowej wykonanej przez układ w procesach odwracalnych, natomiast jest większy
od tej pracy w procesach nieodwracalnych

2. Potencjał chemiczny

odgrywa kluczową rolę przy ocenie stanu układu pod względem

możliwości wystąpienia w nim transportu materii. Jeżeli w układzie istnieją różnice
potencjałów chemicznych, wtedy zachodzą w nim procesy fizyczne lub chemiczne związane z
transportem substancji, zmieniające skład układu.

Potencjał chemiczny składnika i w mieszaninie gazów lub roztworze doskonałym wyraża
się wzorem:

µ

i

= µ

0

i

+ RT ln x

i

µ

i –

potencjał chemiczny składnika w roztworze

µ

0

i

– potencjał chemiczny składnika w stanie czystym

R – stała gazowa
T – temperatura

x

i

- ułamek molowy składnika w roztworze


Wzór stosujemy również dla roztworów doskonałych gdzie możemy zaniedbać
oddziaływania międzycząsteczkowe czyli roztwory rozcieńczone.

Jeżeli mamy małe stężenie to ułamek molowy jest mały.
Potencjał chemiczny jest najwyższy w stanie czystym, a maleje wraz z rozcieńczaniem
Składnik od potencjału chemicznego wyższego dąży do obniżenia potencjału.

background image

2

2

3. Zjawisko transportu masy- są to rodzaje „sił napędowych”, prowadzących do

wyrównania potencjałów chemicznych. Są to dyfuzja i osmoza.

4. Dyfuzja – jest przykładem transportu biernego. Jeżeli w roztworze znajdują się

obszary o różnych stężeniach (różnych potencjałach chemicznych) to odbywa się
transport substancji rozpuszczonej w kierunku potencjałów chemicznych: wyższych
do niższych, od stężeń większych do mniejszych, aż do stanu równowagi potencjałów
chemicznych. Np. woda ma największy potencjał chemiczny dlatego chce wcisnąć się
w sok o niższym potencjale lub cukier chce obniżyć potencjał chemiczny, a więc z dna
szklanki unosi się do góry. (przykłady z wykładu)

Wzór = prawo Ficka (I prawo:

strumień cząstek dyfuzji jest proporcjonalny do gradientu

stężenia)

D – stała dyfuzji

– strumień substancji

− pole powierzchni, na którym zachodzi transport

- - różnica stężeń przed płaszczyzną i za płaszczyzną (gradient stężeń)


Stała dyfuzji rośnie wraz z temperaturą.( Transport jest łatwiejszy w wyższej niż w niższej
temperaturze). Współczynnik dyfuzji – jednostka [D]=[m

2

/S]

Dyfuzja w wodzie 1 10

-S

, cukier w wodzie 3 10

-10

( 3x szybciej).


5. Dyfuzja przez błonę- jeżeli dwa roztwory o danym stężeniu molowym c

1

oraz c

2

będą

rozdzielone przez błonę, która utrudnia transport. Jednostka [P] = [m/s].
Wzór:

1

– c

2

)

-

strumień substancji

przepuszczalność błony

1

-c

2

- różnica stężeń po dwóch stronach błony

6. Osmoza –

dyfuzja rozpuszczalnika przez błonę półprzepuszczalną rozdzielającą dwa roztwory

o różnym stężeniu. Osmoza spontanicznie zachodzi od roztworu o niższym stężeniu
substancji rozpuszczonej do roztworu o wyższym, czyli prowadzi do wyrównania stężeń obu
roztworów.

Ciśnienie osmotyczne jest to siła, która zahamuje transport osmotyczny rozpuszczalnika
w stanie równowagi. Można je obliczyć z pracy powiększającej potencjał chemiczny
rozpuszczalnika

background image

3

3

µ

1

= µ

2

= µ

2

+ π ΔV

µ

1

= µ

2

–praca wykonana po przeniknięciu 1 mola rozpuszczalnika

π ΔV –

energia(praca) związana z wybrzuszeniem błony


Ciśnienie osmotyczne jest proporcjonalne do stężenia molowego i do temperatury.
Ciśnienie osmotyczne zależy więc od liczby cząsteczek rozpuszczonych w jednostce
objętości ale nie zależy od rodzaju ciała rozpuszczonego.

Prawo Van’t Hoffa

π = c

m

RT

Ciśnienie osmotyczne zależy od:
-stężenia molowego
-temperatury ( im wyższa temperatura tym wyższe stężenie molowe)

7. Potencjał elektrochemiczny – odgrywa taką samą rolę w układzie zawierającym

ładunki elektryczne co potencjał chemiczny w układzie bez ładunków elektrycznych.

Zmiana entalpii swobodnej

ΔW

i

= ΔG

1

= ΔW

ch

+ ΔW

El

background image

4

4

2.

MODEL ELEKTRYCZNY BŁONY KOMÓRKOWEJ/ POTENCJAŁ CZYNNOŚCIOWY
Model elektryczny błony komórkowej

Błonę komórkową i zachodzące przez nią przepływy można interpretować jako
specyficzny układ elektryczny (model Hodgkina i Huxleya). Komórkę rozumiemy
tu jako ogniwo stężeniowe o sile elektromotorycznej SEM = V spocz. (różnica
potencjału spoczynkowego ). Poszczególne kanały jonowe pełnią rolę
przewodników o oporze elektrycznym R, tym mniejszym im łatwiej dany jon
jest transportowany przez błonę. Otwarty kanał jonowy generuje siłę
elektromotoryczną Vjon ( potencjał równowagowy jonu) wywołującą ruch
nośników w kierunku malejącego stężenia. Przewodnictwo wywołane przez
dany jon: G = N/R

gdzie N – liczba otwartych kanałów dla danego jonu
R- opór elektryczny kanału jonowego

Błonę z rozseparowanymi ładunkami traktujemy jako kondensator płaski o
pojemności Cm naładowany do napięcia równego potencjałowi
spoczynkowemu.




Z prawa Ohma możemy zapisac odpowiednie prądy jonowe:

background image

5

5

IK = GK ( Vspocz - VK )

INa = GNa ( Vspocz - VNa )

ICl = GCl ( Vspocz - VCl )

Gdzie: IK/Na/Cl- prądy jonowe potasu, sodu, chloru
GK/Na/Cl- przewodnictwo elektryczne jonów potasu, sodu, chloru
VK/Na/Cl- potencjał równowagowy jonów potasu, sodu I chloru

W stanie stacjonarnym

ICl + INa + IK = 0

Zatem potencjał spoczynkowy możemy przedstawic jako średnią ważoną
potencjałów

równowagowych sodu i potasu:

POTENCJAŁ CZYNNOŚCIOWY

Jak sama nazwa wskazuje, z potencjałem spoczynkowym mamy do czynienia,
gdy komórka jest w stanie stacjonarnym. Potencjał czynnościowy jest
zaburzeniem wyprowadzającym błonę komórkową i samą komórkę ze stanu
spoczynku. Komórki nerwowe i mięśniowe należą do grupy komórek
pobudliwych, które posiadają zdolnośc wytwarzania i przewodzenia potencjału
czynnościowego, przekazując tym samym informację (komórki nerwowe) lub
wykonując pracę mechaniczną (komórki mięśniowe).

Fazy potencjału czynnościowego

background image

6

6

W stanie spoczynku potencjał spoczynkowy komórki jest stały i wynosi np. -
90mV (wartośc zależy od rodzaju komórki). Jeżeli działający bodziec
(elektryczny, chemiczny lub mechaniczny) spowoduje dostatecznie dużą
depolaryzację błony (do wartości ok. -60mV) wówczas wygenerowany zostaje
potencjał czynnościowy.

Fazy odpowiadające funkcji rosnącej potencjału (pierwsza: wzrost do wartości
ok. +30mV, druga: po osiągnięci minimum potencjału) nazywamy fazami
depolaryzacji błony. Fazy odpowiadające zależnościom malejącym natomiast
to fazy repolaryzacji.

background image

7

7


Widzimy więc, że odpowiedzią na pobudzenie błony (elektryczne, mechaniczne,
chemiczne) jest jej depolaryzacja, wskutek czego zmienia się przewodność
błony dla jonów Na i K i następuje zmiana potencjału błony.

background image

8

8

3.

3. Lepkość. Ciecz newtonowska, płyny plastyczno-lepkie. Ruch burzliwy płynów. Opór
naczyniowy. Napięcie powierzchniowe, prawo Laplace’a. Lepkość krwi. Odkształcalność
erytrocytów.

Lepkość – inaczej tarcie wewnętrzne, charakteryzuje ją wielkość fizyczna zwana
współczynnikiem lepkości. Równanie definiujące współczynnik lepkości podał Newton,
odnosząc je do przepływu laminarnego płynów.

Równanie: F= η*S* (Δv/Δx) <- równanie nr.1

F – siła działająca stycznie do warstw o powierzchni S, Δv – różnica prędkości pomiędzy
warstwą górną, a warstwą dolną, Δx – różnica odległości pomiędzy tymi dwoma warstwami,
η – współczynnik lepkości charakteryzujący dany płyn <- eta jest często określana
dynamicznym współczynnikiem lepkości, w odróżnieniu od kinetycznego współczynnika
lepkości rozumianego jako: η/ρ ; ρ – gęstość płynu;

Jednostką lepkości jest: 1 (N*s)/m

2

inne jednostki: pauz = 10

-1

(N*s)/m

2

; centypauz = 10

-2

pauza ; paskalosekunda = 1 Pa*s

odwrotność lepkości η płynu nazywa się płynnością.

Siła lepkości F

1

działająca na każdą z warstw w przepływie laminarnym jest równa co do

wartości sile zewnętrznej F, lecz przeciwnie skierowana czyli: F

1

= – F

Równanie nr.1 można przedstwić inaczej:

τ = F/S = η * (Δv/Δx)

tau (τ) – naprężenie ścinające.

Stosunek (Δv/Δx) = ɣ

jest nazywane szybkością ścienną.

Ciecz newtonowska – ciecz złożona z cząsteczek o niewielkiej masie cząsteczkowej oraz
gazów. Dla tych cieczy (np. woda, osocze krwi) współczynnik lepkości jest wielkością stałą
przy ustalonej temperaturze i ciśnieniu.

Dla płynów zwanych newtonowskimi spełniona jest zależność:

τ = η * ɣ

Większość płynów nie spełnia jednak tego warunku -> są to ciecze nienewtonowskie.

background image

9

9

Ciecz nienewtonowska – ciecz o dużej masie cząsteczkowej oraz ciała bezpostaciowe np.
smoła. Dla takich cieczy współczynnik lepkości przy ustalonej temperaturze i ciśnieniu nie
jest wartością stałą i zależy od gradientu prędkości. Zjawisko to jest spowodowane
oddziaływaniami międzycząsteczkowymi w płynącej cieczy oraz spowodowana przepływem
deformacja zawieszonych w niej cząsteczek.

Lepkość względna zawiesiny (w której znajdują się nienaładowane cząstki w kształcie kuli ->
ma to znaczenie przy szacowaniu lepkości np. plazmy komórkowej, zawiesiny komórek) wg.
Einsteina :

]= (η

roztworu

rozpuszczalnika

) = 1 + q * V

w

q – stała (najczęściej q = ok. 2,5) ; V

w

– względna objętość cząsteczek

Krew stanowi przykład płynu nienewtonowskiego , będąc taka zwanym płynem plastyczno-
lepkim
.

Nienewtonowski charakter krwi polega na tym, że stosunek naprężenia ścinającego do
gradientu w danych warunkach ciśnienia i temperatury dla danej cieczy nie jest stały. Może
on monotonicznie maleć wraz ze wzrostem gradientu prędkości (szybkość ścinania) i nie
zależeć od czasu i sposobu ścinania -> wówczas taką ciecz nazywamy pseudoplastyczną.
Może też ten stosunek zależeć nie tylko od szybkości ścinania, ale od czasu i sposobu
ścinania.

Płyny plastyczno-lepkie (krew) spełniają zależność podaną przez Cassona:

τ

1/n

= τ

g

1/n

+ (η*ɣ

)

1/n

n- wykładnik potęgowy ; tau g – naprężenie graniczne przy ɣ

= 0

Lepkość silnie zależy od temperatury. Zależność lepkości płynu od temperatury ma charakter
wykładniczy, opisany równaniem:

η= B * e

ΔEn/KT

B – stała zależna rodzaju płynu; e – podstawa logarytmu naturalnego; k – stała Boltzmanna ;

ΔEn – bariera energetyczna, którą muszą pokonać cząsteczki płynu podczas ich ruchu

Lepkość wpływa na ruch płynów rzeczywistych w przewodach naczyniowych, ruch ciał o
różnym kształcie odbywający się w tych płynach.

Do pomiarów wsp. lepkości stosuje się różne metody: metodę opadającej kulki Stokesa,
metodę wiskozymetryczną typu Ostwalda lub Coutte’a, metodę stożkowo-płytkową
Brookfielda i inne.

background image

10

10

Ruch burzliwy płynów.

W pewnych warunkach przepływ laminarny przechodzi w przepływ burzliwy (inaczej
turbulentny). Przejście to zachodzi po przekroczeniu pewnej prędkości granicznej, zależnej
od rodzaju płynu i rodzaju przewodu naczyniowego.

Przepływ burzliwy charakteryzuje się tym, że cząstki płynu nie poruszają się w kierunku
równoległym do osi przewodu naczyniowego, lecz wykonują ruchy chaotyczne o różnych
kierunkach prędkości. Takiemu przepływowi towarzyszy powstawanie wirów.

Kryterium przejścia przepływu laminarnego w burzliwy zostało podane przez Reynoldsa
przez wprowadzenie pewnej bezwymiarowej liczby, nazwanej liczbą Rey.. (Re). Liczba Re w
przypadku przewodu naczyniowego o przekroju kołowym (d-średnica przekroju kołowego)
jest określona równaniem:

Re = (ρ * d * v)/ η

ρ – gęstość płynu; eta – lepkość płynu, v – prędkość przepływu płynu

Ustalono, że przy przepływie płynu przez gładkie, proste przewody naczyniowe o przekroju
kołowym, ruch płynu jest laminarny, gdy Re<2300, natomiast gdy Re>3000 przepływ jest
burzliwy.

Dla wartości pośrednich przepływ ma charakter niestacjonarny – czyli może przejść w
burzliwy przy wystąpieniu jakichkolwiek zakłóceń.

Wykorzystując definicję liczby Re można wyznaczyć prędkość krytyczną v

k

przepływu płynu,

po której przekroczeniu orzepływ może stać się burzliwy.

Krytycznej prędkości v

k

odpowiada krytyczna wartość liczby Reynoldsa Re

k

= 2300

Zatem przy przepływie płynu przez przewód o przekroju kołowym równanie określające vk
ma postać:

V

k

= (Re

k

*η) / (ρ * d)

Z powyższego wzoru wynika, że dla określonego płynu prędkość krytyczna jest odwrotnie
proporcjonalna do średnicy przewodu naczyniowego.

background image

11

11

Opór naczyniowy.

Opór naczyniowy (R

p

) przepływu jest odwrotnością przewodności naczyniowej.

R

p

= 1/A

p

= (8η/π)*(l/r

4

) -> gdzie A

p

to przewodność naczyniowa

Jednostką oporu jest jest: 1 (Pa*s)/m

3

Wzór na przewodność naczyniowa wynika z prawa Hagena-Poiseuille’a, które określa
zależność pomiędzy strumieniem objętości cieczy, a jej lepkością, różnicą ciśnień delta p
powodującą przepływ, oraz wielkościami geometrycznymi naczynia.

Prawo to formułuje się przy następujących założeniach:

1. Ciecz nie jest lepka
2. Ciecz jest nieściśliwa
3. Przepływ jest laminarny
4. Przepływ cieczy jest stacjonarny
5. Przepływ cieczy jest wymuszony róznicą ciśnień delta p na końcach rury o długości l i

promieniu r.

Wówczas prawo Hagena-Poiseuille’a:

Φ

v

= ΔV/Δt = (π * r

4

* Δp) / (8 * η * l)

Gdzie: Φ

v

= ΔV/Δt – strumień objętości cieczy przepływającej przez przewód naczyniowy pod

wpływem Δp.

Wprowadzając oznaczenie:

A

p

= (π * r

4

) / (8 * η * l)

Wtedy prawo Hagena-Poiseuille’a przyjmuje postać charakterystyczną dla procesów
transportu:

Φ

v

= A

p

* Δp

Wielkość Ap jest rozumiana jako przewodność naczyniowa i ma jednostkę:

[Ap]= 1 m

3

/(Pa*s)

Napięcie powierzchniowe. Prawo Laplace’a.

Energia powierzchniowa właściwa nazywa się także współczynnikiem napięcia
powierzchniowego lub po prostu napięciem powierzchniowym.

Stycznie do powierzchni cieczy działają siły, zwane siłami napięcia powierzchniowego,
starające się zmniejszyć swobodną powierzchnie cieczy.

background image

12

12

Chcąc utrzymać stałe pole powierzchni błony mydlanej, rozpiętaj na ramce z drutu trzeba na
ruchome ramię ramki działać siłą F. Wymaga to zrównoważenia wypadkowej siły napięć
powierzchniowych, zaczepionych wzdłuż ramienia o długości L=2l (2l, ponieważ siły działają
po obu stronach błony).

Zwiększenie pola blony o ΔS=L*Δx wymaga wykonania pracy ΔW=F*Δx, stąd napięcie
powierzchniowe wyraża również wzór w postaci:

σ = ΔW/ΔS = (F*Δx)/(L*Δx) = F/L

jednostka [σ] = J/m

2

= N/m

Napięcie powierzchniowe wyraża się stosunkiem wypadkowej sił napięcia powierzchniowego
do długości odcinka, wzdłuż którego są zaczepione.

Prawo Laplace’a wiąże się ze stanami powierzchniowymi zakrzywionej powierzchni cieczy.
Stany powierzchniowe powodują, że pod zakrzywioną powierzchnią cieczy panuje ciśnienie
inne jak pod płaską. W przypadku powierzchni wypukłych na ciecz działa ciśnienie większe, a
w przypadku powierzchni wklęsłych – mniejsze jak przy powierzchniach płaskich.

Wartość nadwyżki p ciśnienia dla cieczy w kształcie kuli wyraża wzór Laplace’a:

P= 2 σ/r

r – promień powierzchni kulistej

Dla powierzchni o różnych krzywiznach wzór Laplace’a przyjmuje postać:

P= σ(1/R

1

+ 1/R

2

)

R.. – promienie krzywizny powierzchni cieczy w dwóch do siebie prostopadłych przekrojach

Dla walca:

R

2

= ∞, R

1

= R, czyli wzór przyjmuje postać uproszczoną:

P= σ/R

Wzór Laplace’a znalazł szerokie zastosowanie w analizach biofizycznych, np. w ocenie
ciśnienia w naczyniu krwionośnym, w pęcherzykach płucnych, itd.

Odkształcalność erytrocytów.

Prawidłowe erytrocyty mają szczególną zdolność do odkształceń pod wpływem naprężęń
przede wszystkim dzięki temu, że pozbawione są jądra komórkowego, ich cytoplazma ma
stosunkowo małą lepkość, błona komórkowa ma korzystne właściwości lepko-sprężyste, a
odpowiedni kształt zapewnia dużą wartość stosunku powierzchni swobodnej do objętości.

background image

13

13

Powierzchnia krwinek czerwonych przy normalnym kształcie erytrocytów jest znacznie
większa niż przy kształcie kulistym. Zmniejszona odkształcalność erytrocytów występuje w
różnych chorobach i odgrywa ważną rolę w zaburzeniach przepływu krwi, zwłaszcza na
poziomie mikrokrążenia, oraz zaburza podstawowe funkcje erytrocytów.

Podsumowując: to, że erytrocyty mają zdolność do odkształceń umożliwia im ‘przeciskanie
się’ przez naczynia włosowate o bardzo małej średnicy.

Źródło: Jaroszyk i Terlecki

background image

14

14

4.

1. Elektryczność i magnetyzm (serca):

Elektryczna i magnetyczna aktywność serca jest rezultatem zjawisk
bioenergetycznych oraz bioelektrycznych zachodzących we włóknach mięśnia
sercowego stanowiącego główną część wsierdzia, związanych z wykonywaniem
pracy, mechanicznej, i we włóknach układu przewodzenia, które charakteryzują się
swoistą właściwością autonomicznego wytwarzania i przewodzenie pobudzeń.

2. Dipol elektryczny:

Rozsunięte na pewną odległość różnoimienne ładunki elektryczne tworzą dipol
elektryczny. Linia przechodząca przez oba ładunki nazywa się osią dipola. Ładunki
elektryczne rozmieszczone po wewnętrznej i zewnętrznej stronie błony komórkowej
możemy traktować jako zbiór małych dipoli które są źródłem pola elektrycznego.
Każdy dipol charakteryzuje elektryczny moment dipolowy:

P = q * l

gdzie:

q – wartość ładunku elektrycznego (wartość dodatniego ładunku)
l – wektor łączący obydwa ładunki o zwrocie od ładunku ujemnego do

dodatniego.
Wartość wektora równa jest odległości między ładunkami.

Ponieważ punkty na ciele, pomiędzy którymi mierzymy spadek potencjału są w dużo
większej odległości niż poszczególne dipole, momenty dipolowe wszystkich małych
dipoli na błonach komórkowych mięśnia sercowego sumują się. Dlatego serce
możemy traktować jako jeden duży dipol. Po depolaryzacji wypadkowy moment
dipolowy ulega zmianie, co jest źródłem spadku napięcia mierzonego na skórze w
różnych punktach ciała. Wypadkowy moment dipolowy serca zmierzony w danej
chwili jest nazywany chwilowym wektorem elektrycznym serca. Wektor ten ma punkt
zaczepienia w środku serca, a jego kierunek i zwrot zmienia się zgodnie z przebiegiem
fali depolaryzacyjnej. Jeżeli uśrednimy chwilowe wektory elektryczne serca z czasu
depolaryzacji komór (załamek QRS) i zrzutujemy taki wektor na płaszczyznę to

background image

15

15

otrzymamy oś elektryczną serca. wypadkowym momencie dipolowym. W trakcie
przechodzenia fali.

Bijące serce można z dobrym przybliżeniem traktować jako dipol elektryczny, dla
którego położenie osi oraz wartość momentu dipolowego podlegają okresowym
zmianom. Moment dipolowy serca powstaje w wyniku sumowania wielu momentów
dipolowych małych dipoli, powstających lokalnie w mięśniu sercowym podczas
rozprzestrzeniania się zarówno fali depolaryzacji jak i fali repolaryzacji. Każdy dipol
elektryczny wytwarza w przestrzeni pole elektryczne, które można określić przez
pomiar natężenia pola w poszczególnych punktach. Możliwa jest także procedura
odwrotna, polegająca na wnioskowaniu o rozkładzie ładunków na podstawie
przebiegu linii sił pola elektrycznego. Serce stanowiące zmieniający się w czasie dipol
elektryczny powoduje powstanie ciągu zmiennych potencjałów elektrycznych.
Zmiany te rozprzestrzeniają się w całym ciele i docierają do powierzchni ciała, gdzie
mogą być rejestrowane za pomocą odpowiedniej aparatury. Po wzmocnieniu sygnały
te są zapisywane – w ten sposób powstaje elektrokardiogram. Podczas akcji serca
modelujący je moment dipolowy zmienia zarówno wartość jak i kierunek. Położenie
elektrod pomiarowych dobiera się zawsze tak, by na podstawie pomiaru potencjału
można było określić chwilową wielkość rzutu wektora elektrycznego serca na
płaszczyznę (zwykle czołową lub prostopadłą do niej w przypadku odprowadzeń
przedsercowych). Przy rekonstrukcji momentu dipolowego z mierzonych różnic
potencjałów podstawowym założeniem jest to, że ciało człowieka stanowi dla pola
elektrycznego jednorodny ośrodek.

3. Układ krążenia:

background image

16

16

4. Układ bodźcotwórczy serca:

Autonomiczny układ bodźcoprzewodzący wytwarza cyklicznie pobudzenie
elektryczne, które następnie jest przenoszone na włókna mięśniowe. Układ
bodźcotwórczy zbudowany jest z ośrodków, które generują impulsy z różną
częstotliwością. Jeżeli połączenia pomiędzy poszczególnymi ośrodkami są
prawidłowe to rytm pracy serca narzuca węzeł zatokowo-przedsionkowy, który kurczy
się z najwyższą częstotliwością.
Komórki mięśniowe w sercu połączone są ze sobą wstawkami o niewielkim oporze
elektrycznym. Wzbudzenie dowolnego elementu przedsionków lub komór pobudza
wszystkie pozostałe komórki sierdzia i układu przewodzenia. Komórki układu
przewodzenia są nazwane komórkami rozrusznikowymi (automatyzmu (węzeł
zatokowo-przedsionkowy, niektóre komórki przedsionkowe, węzeł przedsionkowo-
komorowy, włókna Purkiniego i pęczek Hisa). W sercu prawy i lewy przedsionek oraz
prawa i lewa komora oddzielone są tkanką łączną, która stanowi zły przewodnik prądu
(izolator). Z elektrycznego punktu widzenia węzeł przedsionkowo-komorowy i pęczek
Hisa – lewa i prawa odnoga są odpowiedzialne za przewodzenia pobudzenia do lewej i
prawej komory serca.

background image

17

17

Częstotliwość impulsów generowanych przez poszczególne części układu:
-węzeł zatokowo-przedsionkowy – 60-80/min,
-węzeł przedsionkowo-komorowy – 30-50/min,
-pęczek Hissa – 40/min,
-włókna Purkiniego – 20/min.
Źródłem pobudzeń elektrycznych w mięśniu sercowym są wyspecjalizowane komórki
rozrusznikowe (zlokalizowane w węźle zatokowo-przedsionkowym i węźle
przedsionkowo-komorowym), których potencjał spoczynkowy nie jest stały ( jak w
komórkach roboczych mięśnia sercowego), tylko ulega spontanicznie i samoistnie
podwyższeniu (co bywa nazywane powolną spoczynkową depolaryzacją), aż do
osiągnięcia potencjału progowego, co wiąże się z wytworzeniem potencjału
czynnościowego i powstaniem pobudzenia rozchodzącego się wzdłuż przebiegu
układu bodźcoprzewodzącego, a następnie roboczego mięśnia komór, co przejawia się
wystąpieniem skurczu serca. Następnie cały cykl powtarza się.

5. Potencjał czynnościowy komórek kurczliwych:

Pobudzenie elektryczne błony komórkowej następuje dzięki przepływom jonów
(transport aktywny jonów: Na+, K+, transportu dyfuzyjnego i elektrycznego jonów:
Na+, K+ i CL- i w przypadku serca Ca2+). Bodziec nadprogowy powoduje lokalną
zmianę potencjału spoczynkowego błony komórkowej z ujemnego na dodatni. Tę fazę
nazywamy fazą depolaryzacji. Pobudzenie to rozprzestrzenia się wzdłuż błony
komórkowej. Fazie depolaryzacji w sercu odpowiada skurcz komórek mięśniowych.
Następnie błona komórki powoli wraca do stanu spoczynkowego, następuje faza
repolaryzacji, odpowiadająca w sercu fazie rozkurczu mięśnia.

Na skutek działania ośrodka bodźcotwórczego ( komórek rozrusznikowych) następuje
depolaryzacja komórek kurczliwych – w tym momencie następuje szybka aktywacja

background image

18

18

kanałów sodowych. Odcinek „plateau” potencjału czynnościowego związany jest
gównie z ze wzrostem przewodności właściwej błony jonów Ca2+. Repolaryzacja
wiąże się ze zmniejszeniem przewodnictwa właściwego dla jonów wapnia i
zwiększeniem przewodności właściwej sodu błony komórek kurczliwych. Odcinek
RB jest określany jako czas refrakcji bezwzględnej, czyli niewrażliwości. W tym
czasie nie jest możliwe kolejne pobudzenie komórki. Czas ten zabezpiecza komórkę
kurczliwą przed przedwczesnym ponownym pobudzeniem oraz zapewnia wygaszenie
pobudzenia.

6. EKG:

Obrazuje bioelektryczną (nie mechaniczną) czynność serca. Jest to metoda
rejestrowania zmian prądów i różnic potencjałów czynnościowych, wytwarzanych i
przewodzonych przez układ bodźcotwórczo-przewodzący serca w czasie jego
czynności.

Na krzywej EKG 5 charakterystycznych załamków:

Zespół PQ dotyczy powstawania pobudzenia w węźle zatokowo-przedsionkowym i
jego rozprzestrzeniania się w przedsionkach – najpierw prawym, a później w lewym.

Zespół QRS ilustruje początek przejścia pobudzenia przez komory, który pokrywa się
z procesem repolaryzacji przedsionków.

Załamek T oznacza repolaryzację pobudzenia komór.

Odcinek ST odpowiada za aktywność wszystkich komórek kurczliwych obu komór.

Wydłużenie odcinka PQ oznacza opóźnienie pobudzenia w węźle zatokowo-
przedsionkowym lub pęczku Hissa.

Zwiększenie czasu trwania zespołu QRS dotyczy zakłóceń przewodzenia pobudzenia
komorach serca.

Załamek U (nie pojawiający się zawsze) odpowiada za repolaryzację końcowych
włókien komórek przewodzenia.

Tak prościej:

 Załamki – wychylenie od linii izoelektrycznej:

Załamek P – jest wyrazem depolaryzacji mięśnia przedsionków

Zespół QRS – odpowiada depolaryzacji mięśnia komór

background image

19

19

Załamek T – odpowiada repolaryzacji komór

 Odcinki - czas trwania linii izoelektrycznej pomiędzy załamkami:

PQ – czas między skurczem przedsionków i komór (wyraża czas przewodzenia

depolaryzacji przez węzeł przedsionkowo-komorowy)

ST – czas między skurczem i rozluźnieniem komór (okres depolaryzacji komór)

TP – czas między skurczami

 Odstępy- łączny czas trwania odcinków i sąsiadującego załamka:

PQ – czas przewodzenia depolaryzacji od węzła zatokowo-przedsionkowego do

mięśnia komór

ST – czas wolnej i szybkiej repolaryzacji mięśnia komór

QT – potencjał czynnościowy mięśnia komór (depolaryzacja + repolaryzacja)

RR – czas trwania jednego cyklu pracy serca


7. Odprowadzenie Einthovena

Dwubiegunowa metoda, wykorzystująca odprowadzenia kończynowe. Jedną
elektrodę przykłada się do lewego ramienia (LR), drugą do prawego ramienia (RP),
trzecią zaś do lewej nogi (LN).

background image

20

20

I odprowadzenie Einthovena – różnica potencjał elektrycznych między elektrodami
LR a PR ( V

L

– V

P

)


II odprowadzenie Einthovena – różnica potencjał elektrycznych między elektrodami
PR a LN ( V

P

– V

N

)


III odprowadzenie Einthovena – różnica potencjał elektrycznych między elektrodami
LR a LN ( V

L

– V

N

)



Równanie:

( V

L

– V

P

) + ( V

P

– V

N

) + ( V

L

– V

N

) = 0


Co można również zapisać jako:

( V

L

– V

P

) + ( V

N

– V

L

) = ( V

N

– V

P

)

W zasadzie wystarczyłyby informacje z I i III odprowadzenia, lecz klinicznie stosuje
się wszystkie trzy, gdyż zwiększa to redundancję informacji, czyli zwiększa jej
zrozumienie.

background image

21

21

6.

Laser jest to generator promieniowania, który wykorzystuje zjawisko emisji

wymuszonej i inwersji obsadzeń. Laser jest skrótem od

Light Amplification by Stimulated

Emission of Radiation, czyli wzmocnienie światła przez wymuszoną emisję promieniowania.

Promieniowanie lasera jest więc falą elektromagnetyczną i pochodzi od wzbudzonego

elektronu. Z działaniem lasera wiążą się takie pojęcia jak absorpcja, emisja spontaniczna i emisja
wymuszona, wyjaśnijmy więc najpierw te pojęcia.

Fizyczne podstawy

Absorpcja

Jest to po prostu pochłanianie kwantu promieniowania, czyli fotonu, który posiada określoną

porcję energii

E=

(h – stała Plancka, ν – częstotliwość światła). Jeżeli ta jego energia jest równa

różnicy energii pomiędzy stanem wzbudzonym elektronu (E2) a stanem podstawowym (E1), wtedy
właśnie ten foton może być pochłonięty.

Emisja spontaniczna

I wtedy właśnie, jak już nasz elektron znajduje
się w stanie wzbudzonym, zdarza mu się
całkiem spontanicznie wrócić na niższy poziom
energetyczny i przy okazji emituje on foton o
takiej samej lub (częściej) niższej energii.
Fotony takie emitowane są całkiem
przypadkowo, tzn w różnych kierunkach, a
emitowana fala elektromagnetyczna jest
niespójna. Zjawisko takie jest powszechne i

odpowiada właściwie za większość zjawisk świecenia ciał.

Emisja wymuszona

background image

22

22

W końcu dochodzimy do sedna sprawy i mechanizmu, który pozwala nam konstruować

lasery. Generalnie gdyby istniała tylko absorpcja i tylko emisja spontaniczna, to w krótkim czasie
wszystkie atomy byłyby wzbudzone i promieniowanie nie byłoby pochłaniane i emitowane, gdyż
prawdopodobieństwo pochłonięcia atomu zależy od natężenia światła (czyli ilości fotonów), zaś
prawdopodobieństwo emisji spontanicznej zależy od średniego czasu życia danego stanu
wzbudzonego. Tak powiedział Einstein, więc uwierzmy mu na słowo i opiszmy zjawisko emisji
wymuszonej.

Jest przeciwieństwem absorpcji i

ilość emitowanych fotonów zależy od ilości
fotonów padających. Jeżeli padający foton
ma energię równą energii wzbudzenia
atomu, to

możliwe jest zajście emisji wymuszonej.
Padający foton nie jest pochłaniany, jest

tylko wyzwalaczem całego procesu, czyli emisji kolejnego fotonu i przejścia atomu na niższy stan
energetyczny. Ten nowy foton ma właściwości takie same jak foton padający – częstotliwość (zatem
energię też), fazę i polaryzację, jak również kierunek ruchu.

Światło laserowe z tego względu ma następujące właściwości:

jest monochromatyczne (ma jedną długość fali – kolor)

jest koherentne (spójne) – ta sama faza

jest skolimowane – emitowane w postaci mało rozbieżnej wiązki w jednym kierunku
(średnica wiązki nie ulega zmianie w miarę oddalenia od lasera).

Jest jeszcze jedno zjawisko niezbędne do zajścia akcji laserowej, a mianowicie inwersja

obsadzeń. Jest to stan, w którym więcej elektronów jest w stanie wzbudzonym niż w stanie
podstawowym.

Następuje to w momencie pompowania do układu energii, atomy wzbudzają się i od razu

następowała by emisja spontaniczna dlatego powinno się to odbywać w taki materiale aby na
pewnym poziomie wzbudzonym czas przebywania elektronu był dostatecznie długi. Taki poziom
nazywamy poziomem metastabilnym. Atom przechodzi do wysokiego stanu wzbudzonego, a
następnie przeskakuje bez emisji fotonu na stan niższy (metastabilny) Wtedy rezonansowy foton
wyzwala emisje wielu fotonów naraz o tej samej fazie i częstotliwości.

Budowa lasera

Dobra, wiemy już jakie zjawiska fizyczne za to odpowiadają. Ale jak właściwie działa

cały ten laser, co pozwala uzyskać emisję wymuszoną, czyli krótko o jego budowie.

background image

23

23

Laser składa się z ośrodka aktywnego, rezonatora optycznego i układu pompującego.

1. O

środe
k
aktyw
ny to
zespół
atomó
w,

jonów czy cząsteczek. Atomy niektórych pierwiastków posiadają poziomy energetyczne, na
których elektron pozostaje znacznie dłużej (kilkaset μs, kilka ms). Wskutek pobudzania
zewnętrznym polem elektrycznym elektrony w atomach przechodzą do stanu metatrwałego,
wytwarzając inwersję obsadzeń, dzięki czemu możliwe jest zajście akcji laserowej.

2. Rezonator, czyli układ optyczny. Pełni rolę dodatniego sprzężenia zwrotnego dla światła o

wybranym kierunku i określonej długości fali. Spośród wszystkich możliwych kierunków
świecenia i wszystkich dostępnych dla ośrodka długości fal, jedynie światło o parametrach
ustalonych przez rezonator będzie wzmacniane na tyle mocno, by doprowadzić do akcji
laserowej.

Sprzężenie zwrotne polega na możliwości wielokrotnego przepływu fotonów przez ośrodek,
połączonego z ich kaskadowym powielaniem wskutek emisji wymuszonej, dzięki czemu laser
generuje spójne światło. Układ optyczny rezonatora składa się zazwyczaj z dwóch dokładnie
wykonanych i odpowiednio ustawionych zwierciadeł. Dla określonego kierunku możliwe jest
wielokrotne odbicie pomiędzy zwierciadłami, i tylko fotony o takim kierunku, mogą wielokrotnie
przebiegać przez ośrodek czynny, powodując akcję laserową.

Aby emitowane światło laserowe mogło wydostać się poza rezonator (na zewnątrz lasera),
przynajmniej jedno z luster powinno być częściowo przepuszczalne.

3. Zadaniem układu jest przeniesienie jak największej liczby elektronów w substancji czynnej do

stanu wzbudzonego. Układ musi być wydajny by zapewnić inwersję obsadzeń. Pompowanie
lasera odbywa się poprzez błysk lampy błyskowej (flesza), błysk innego lasera, przepływ
prądu (wyładowanie) w gazie, reakcję chemiczną, zderzenia atomów, wstrzelenie wiązki
elektronów do substancji.

background image

24

24

Zastosowa
nie
laserów w
medycynie

1. Diagnost

yczne:

tomo

grafia optyczna i
OCT
(koherentna
tomografia
optyczna)

przep

ływy krwi

pomi

ary pH i
utlenienia krwi

rejest

racja zmian

patologicznych

2. terapeutyczne:

fotochemoterapia – światło laserowe wywołuje reakcje chemiczne o charakterze

terapeutycznym

nagrzewanie – koagulacja i zespajanie: krew jest koagulowana przez ciepło +

uszczelnienie naczyń o małej średnicy – kontrola krwawienia

odparowanie – cięcie przez odparowanie: chirurgia ogólna, ginekologia, chirurgia

ortopedyczna, neurochirurgia

efekt impulsu laserowego – nanosekundowy lub milisekundowy impuls


W medycynie stosuje się lasery:

wysokoenergetyczne,

niskoenergetyczne.

Lasery wysokoenergetyczne służą do destrukcji bądź usuwania tkanek. Mają średnią lub dużą

moc, bądź są to lasery impulsowe.

W okulistyce lasery są wykorzystywane do przecinania cyst powiek lub spojówek, przecinania

background image

25

25

naczyń wrastających w rogówkę, perforacji cyst tęczówki, przecinania zrostów tęczówkowo -
rogówkowych, do zabiegów przeciwjaskrowych i przeciwzaćmowych, do korekcji wad wzroku
(astygmatyzmu, krótkowzroczności i dalekowzroczności) i do witreotomii. Szczególnym wskazaniem
do laserowej korekcji wady refrakcji jest duża wada wzroku tylko w jednym oku.

Dermatolodzy za pomocą laserów usuwają naczyniaki oraz niektóre nowotwory (np. raka

podstawnokomórkowego).

W laryngologii laserem leczy się nowotwory krtani oraz wykonuje rekonstrukcję kosteczek

słuchowych.

W pulmonologii lasery są stosowane do rekanalizacji dróg oddechowych, usuwania ciał

obcych i źródeł krwawienia, fotokoagulacji receptorów kaszlu.

W chirurgii lasery służą do udrażniania przełyku w chorobach nowotworowych, hamowania

krwawienia z górnego odcinka przewodu pokarmowego, leczenia łagodnych nowotworów jelita
grubego.

W ginekologii lasery są stosowane w laparoskopii do uwalniania zrostów

wewnątrzmacicznych i w miednicy, w leczeniu endometriozy, mięśniaków, łagodnych torbieli
przydatków, wodniaków jajowodów.

W urologii są stosowane do kruszenia złogów w moczowodach, leczenia łagodnego przerostu

prostaty.

W neurochirurgii są wykorzystywane do usuwania oponiaków, glejaków i nerwiaków.

W chirurgii naczyniowej za pomocą laserów wykonywana jest przezskórna angioplastyka.

Lasery niskoenergetyczne działają biostymulująco poprzez wpływ na metabolizm komórek.
Jest to wykorzystywane w leczeniu ran, oparzeń, odleżyn oraz bólów stawowych.

Klasyfikacja laserów

Ze względu na:

1. ośrodek aktywny:

ciało stałe: rubin, neodymowy na szkle, neodymowy na YAGu

ciecz: barwnikowe

gaz: helowo-neonowy, na dwutlenku węgla, argonowy

2. długość fali : UV, widzialne, podczerwień

3. emisja w czasie: ciągłe, impulsowe

Absorpcja promieniowania w tkance

Oddziaływanie promieniowania z tkanką zależy od następujących parametrów:

rodzaju tkanki biologicznej (jej własności rozproszeniowych, termicznych, absorpcyjnych -
wszelkie efekty fotobiologiczne mogą zostać wywołane jedynie przez promieniowanie
zaabsorbowane, czyli pochłonięte przez układ)

charakterystyki promieniowania (m.in. długości fali promieniowania)

background image

26

26

gęstości mocy energii, wartości średniej mocy i energii, czasu ekspozycji (czasu
naświetlania, częstotliwości powtórzeń)

Tkanka biologiczna składa się z wody i długich łańcuchów cząsteczek organicznych. Wiązka

promieniowania padając na powierzchnię tkanki częściowo jest odbijana i rozpraszana, a częściowo
pochłaniana. Rozproszenie i absorpcja promieniowania zależą od własności tkanki (składu
chemicznego, zawartości wody, barwników endogennych: hemoglobina, melanina, stanu
funkcjonalnego: ukrwienie, pH) i od długości fali promieniowania (im dłuższa fala tym głębsza
penetracja
). Zaabsorbowane światło zostaje przekształcone w ciepło i podnosi temperaturę tkanki.

Rysunek ukazuje
współczynnik absorpcji
promieniowania o
różnej długości fali dla
wybranych istotnych
składników ludzkiej
tkanki: wody, protein,
hemoglobiny i
melaniny oraz średnią
głębokość wnikania w
wodzie. Generalnie
obydwie wielkości są
od siebie zależne: im
większa absorpcja tym
mniejsza głębokość wnikania.

Głębokość penetracji

Na kolejnym rysunku

przedstawiono aspekt głębokości
wnikania promieniowania elektro-
magnetycznego w zakresie dostępnym
przy zastosowaniu różnych laserów.
Obydwa wykresy są niezwykle istotne
dla osób podejmujących decyzję o
wyborze urządzenia laserowego, np.
szukając urządzenia dla operacji cięcia

background image

27

27

istotna jest duża absorpcja promieniowania i małą inwazyjność (głębokość wnikania). W przypadku
chirurgii ogólnej najlepiej do tego celu nadają się lasery CO2 (również ze względu na niską cenę
urządzenia) lub lasery Er:YAG o mocach ok. 40 - 100 W.

Głębokość penetracji nie zależy od czasu naświetlania.

Najbardziej korzystne dla biostymulacji laserowej jest promieniowanie z zakresu tzw.

,,okienka optycznego’’ – obejmuje ono promieniowanie o długości fali od 550nm do 950 nm – jest to
promieniowanie o największej penetracji. Związane to jest z małymi współczynnikami rozpraszania i
pochłaniania dla tych długości fal. Światło o długości fali spoza tego przedziału jest absorbowane
powierzchownie i nie działa stymulująco na głębiej położone tkanki.

Parametry stosowane w laseroterapii

Parametry fizyczne wiązki laserowej. Określają je wielkości fizyczne, do których zaliczamy:

Długość fali λ – konkretna dla danego lasera, określana w [nm]

Moc promieniowania określana w [W] lub [mW]; opisuje szybkość przepływu energii

E = P / t lub P = E x t

gdzie E – energia promieniowania, P – moc, t – czas

energia promieniowania E, wyrażana w [J] jest miarą dawki

1J = 1W x 1s = 1mW x 1000s = 10 mW x 100 s

Gęstość powierzchniowa energii w [J/cm2] konkretnie określa ilość energii dostarczonej na
1 cm2 naświetlanej powierzchni ciała pacjenta

Gęstość energii = energia / powierzchnia

Epow = P x t / S ; gdzie S = powierzchnia

1J/cm2 = 1W x 1s /1 cm2

Uwaga!!! Bezpieczna dla tkanek biologicznych gęstość powierzchniowa wynosi

50 J/cm2 i nie wolno jej nigdy przekraczać !!!

Rodzaj emisji – ciągła, impulsowa lub modulowana

Czas trwania zabiegu, który możemy obliczyć na podstawie wzoru:

background image

28

28

Epow = P x t / S lub t = (S x Epow ) / P

oraz parametry dotyczące emisji impulsowej:

Czas trwania (szerokość) impulsów ti podawany w ns

Częstotliwość impulsów f:od 1 do10 000 Hz

1.

background image

29

29

7.

7. Czynniki fizyczne wpływające na organizm. Czynniki mechaniczne.

temperatura,

wilgotność,

pole elektryczne i magnetyczne,

promieniowanie jonizujące,

promieniowanie niejonizujące.


Czynniki mechaniczne:

fale sprężyste
1-10 MHz – ultradźwiękowa diagnostyka medyczna, nieniszczące działanie materiałów,
do 100 MHz – badanie tkanek,
do 3 GHz – mikroskopia akustyczna

Infradźwięki (0,1-20Hz) (nie słyszymy ich!)
źródła:

naturalne – ruchy powietrza i wody, wyładowania atmosferyczne, ruchy tektoniczne

Ziemi,

sztuczne – wybuchy jądrowe, lotnictwo, rakiety, transport


Dla f = 10Hz λ =34m – słabe tłumienie przez przegrody ściany

Działanie: drgania rezonansowe klatki piersiowej, przepony brzusznej, organów trawiennych,
Objawy:

zaburzenia systemu oddychania,

zakłócenia równowagi,

zmniejszenie ostrości widzenia,

opóźnienie reakcji nerwowych.

Wpływ poziomu natężenia na oddziaływanie infradźwięków na organizm:

[db]

< 120 – nie szkodzą, brak wrażeń,

120 – 140 – kekkie zakłócenie procesów fizjologicznych, uczucie zmęczenia

140 – 160 – po 2 min. zakłócenie równowagi, wymioty, >> 2 min trwałe uszkodzenie

> 170 – u zwierząt działanie śmiertelne (przekrwienie płuc)


Wibracje (0,1 – 20Hz) (kontakt ze źródłem)

Drgania (f < 20Hz) przenoszenie na organizm przez bezpośredni kontakt z układem
drgającym
źródła: rozciąganie i przemieszanie tkanek
rezonans:
4 – 10Hz – klatka piersiowa, jama brzuszna,
10 – 18Hz – pęcherz moczowy

background image

30

30


Objawy:

bóle w klatce piersiowej,

zaburzenia oddychania,

zmiany naczyniowe,

zaburzenia hormonalne i biochemiczne.

Choroba wibracyjna.


Ultradźwięki (>20Hz)

źródła:

naturalne – zwierzęta,

sztuczne – piszczałki, zjawisko piezoelektryczne









Ultradźwięki w tkankach
zjawisko:

odbicie, z-odporność akustyczna,

załamanie,

ugięcie,

rozpraszanie Rayleigh (d << λ) α

R

(f) = k

R

f

4,

(dlaczego niebo jest niebieskie)

(światło niebieskie 2 razy wyższa częstotliwość od czerwonego)

absorpcja,

Zjawiska występują zależnie od:

rodzaju tkanki )miękka, twarda,

częstotliwości,

relacji λ – d,

orientacji obiektu (w org. Obiekty podłużne itp.),

oporu akustycznego ośrodka.

Działanie ultradźwięków:
działanie czynne (0,5 – 20kW/m

2

) zmiany nieodwracalne lub utrzymujące się stosunkowo

długo,

efekty mechaniczne (zmiany ciśnienia, zniszczenie struktury ośrodka, zjawisko

kawitacji

cieplne (leczenie),

chemiczne, przyspieszone reakcje chemiczne, rozpad białek, wzrost jonizacji,

wzrost dyfuzji przez błony.
Wykorzystanie:

background image

31

31

leczenie chorób reumatycznych, narządów ruchu, tkanki łącznej, niszczenie ognisk
patologicznych, niszczenie wirusów, grzybów, bakterii, sterylizacja leków, mikromasaż,
usuwanie kamienia zębów,

Działanie bierne:

bardzo małe natężenia (I << 10kW/m

2

),

mała długość fali (10

-2

-10

-5

m),

dobrym prostoliniowym rozchodzeniem się.

Fale ultradźwiękowe odgrywają bierną rolę przekaźnika sygnału. Bardzo małe wartości
natężeń zapewniają, że pomiary nie wpływają na właściwości ośrodka ani na przebieg
badanego procesu.

Pomiary:

opóźnienia w czasie między dwoma sygnałami Δt [s],

różnicy poziomów natężeń tych sygnałów Δi [dB].


Różnicę poziomów natężenia (Δi) między dwoma punktami odległymi o (Δt) wyznaczają
współczynnik tłumienia:


q= Δi/Δt =[dB/cm]

liotrypsja – metoda kruszenia złogów w organizmie za pomocą fal uderzeniowych (nagłe
zmiany ciśnień – fala akustyczna o wysokiej energii – pojedyncze impulsy).


Ultrasonografia – rozchodzenie się fal ultradźwiękowych zależy od właściwości
ośrodków: sprężystości, gęstości, zdolności rozciągania, niejednorodności, anizotropii,
budowy molekularnej, w przypadku ruchu ośrodka zależą od jego prędkości.


Szkodliwe działanie ultradźwięków na obiekty biologiczne:

Działanie termiczne:
zależy od:

natężenia,

częstotliwości i kształtu pola,

rodzaju ekspozycji – ciągła, impulsowa,

kierunku – anizotropia,

prędkości przepływu krwi,

konwekcji cieplnej (wody).

Działanie mechaniczne:
powoduje:

przemieszczanie się struktur wewnątrz komórek,

działanie sił i momentów sił związanych z mikroprzepływami,

kawitację – oddziaływanie polaq ultradźwiękowego z pęcherzykami gazu. Mogą

zbliżać się i łączyć w rezonansie pęcherzyki mogą mechanicznie uszkodzić strukturę
biologiczną. Zapadaniu towarzyszy wzrost temperatury – dysocjacja wody – wolne
rodniki – produkty toksyczne.

Działanie chemiczne:

reakcje utleniania – powstaje nadtlenek wodoru,

background image

32

32

zmiana stężenia jonów H+,

jonizacja ośrodka.



Wpływ przyśpieszeń
F = m * a
zależy od

wartości przyspieszenia

czasu trwania,

kierunku i zwrotu w stosunku do podłużnej osi ciała,

szybkości zmian przyspieszenia,

kondycji i wcześniejszego treningu organizmu.


czas trwania

rodzaj

Δt ≤ 0,05s

udarowe

0,5s < Δt <1s

krótkotrwałe

1s < Δt < kilka s

przedłużone

Δt > kilka s

przewlekłe


Relacja wektor przyśpieszenia – oś ciała: podłużne, strzałkowe, poprzeczne

przykładowe wartości przyspieszeń:

wartość a [g]

czas trwania przyśpieszenia [s]

alarmowe zatrzymanie windy

2,5

1

lądowanie na spadochronie

3-4

0,1-0,2

katapultowanie fotela z kabiny samolotu 10-15

0,25

katastrofa samolotu (możliwe do przeżycia) 20-100

0,1


Wyróżniamy przyspieszenia:
1.

Wzdłuż podłużnej osi ciała:

+Gz – od głowy do stóp,
-Gz – od stóp do głowy.
2.

W strzałkowej osi ciała (plecy, mostek):

+Gx – od mostka do pleców,
-Gx – od pleców do mostka.
3.

W poprzecznej osi ciała (lewy bok – prawy bok)

+Gy – od prawej do lewej strony,
-Gy – od lewej do prawej strony.

Przyśpieszenia podłużne: przemieszczanie narządów, spadek ciśnienia krwi –
niedotlenienie mózgu,

Górna granica toleranji +Gz (od głowy do stóp):

a [g]

Δt [s]

3

1080-3600

4

60-1200

5

8-480

8

kilka

background image

33

33

Przyspieszenia -Gz są bardziej szkodliwe dla organizmu człowieka niż +Gz:
Granica tolerancji -Gz (od stóp do głowy):

a [g]

Δt [s]

3

ok 30

4,5

ok 5

5

ok 2

10

< 1


Wpływ ciśnienia na organizm człowieka:
ciśnienie atmosferyczne 10

5

N/m

2

– wyższe hiperbaria, niższe hipobaria

działanie biochemiczne i mechaniczne
zmiany cisnienia wraz ze zmianami wysokości: p=p

0

exp (-g * ρ

0

/p

0

* h) ρ

0

– gęstość; p

0

-

ciśnienie na wysokości odniesienia.

Wpływ obniżonego ciśnienia:

działanie mechaniczne,

zatory gazowe,

zajwisko wrzenia,

niedotlenienie – hipoksja,

Wpływ podwyższonego ciśnienia:

zatrucie tlenem, azotem, dwutlenkiem wegla,

choroba kesonowa (dekompresja),

działanie mechaniczne (uszkodzenie uszu, zatok przynosowych itp.)


Pole elektryczne i magnetyczne:

natężenie pola magnetycznego: [A/m]
natężenie pola elektrycznego: [V/m]

Indukcja magnetyczna: [T]
SAR (Specific Absorption Rate) - współczynnik absorpcji swoistej: energia jaką ciało
wchłania z pola elektromagnetycznego.


Częstotliwość:
sieć 900: 880 – 960 MHz
sieć 1800: 1,7 – 1,875 GHz

sieci komórkowe ok. 1GHz

UMTS 2100: 1,9GHz – 2,17 GHz

Moc nadawania:
- sieć 900: do 2W,
- sieć 1800: do 1W
ok.1,2 W

Oddziaływanie termiczne:
Oddziaływanie promieniowania radiowego zależy od konstrukcji telefonu i jego anteny i
mocy nadawczej. O oddziaływaniu informuje wartość SAR.

Wartość graniczna SAR: ok 2W/kg
Wartość SAR obecnych telefonów ok 0,5W/kg

background image

34

34

oddziaływanie pozatermiczne: brak danych,

zmiany prądów mózgowych: sprzeczne dane (demencja, alzheimer?),

uszkodzenie materiału genetycznego: brak dowodów.



background image

35

35

8.

Dopplerowski pomiar przepływu krwi (USG Dopplerowskie)

– jest to

jedno z podstawowych badań w diagnostyce chorób układu krążenia. Pozwala na ocenę przepływu
krwi w dużych tętnicach i żyłach, poprzez wykorzystanie zmiany długości fal ultradźwiękowych
odbitych od poruszających się krwinek. Analiza fal ultradźwiękowych odbitych od krwinek pozwala
określić kierunek i prędkość przepływu krwi.

Mechanizm działania aparatu USG - Wysyłana przez specjalną głowicę fala ultradźwiękowa odbija się
od ośrodka będącego w ruchu – płynącej krwi – i powraca do głowicy. Głowica połączona jest
przewodem z aparatem ultrasonograficznym, rejestrującym zmiany częstotliwości fali
ultradźwiękowej odbitej od płynącej krwi, przedstawiając obraz na monitorze. Wykonujący badanie
lekarz widzi gdzie krew płynie szybciej, wolniej bądź się cofa. Przystawka dopplerowska do aparatu
USG umożliwia zmierzenie przepływu krwi przez naczynia.

Efekt Dopplera (w ujęciu ultrasonografii Dopplerowskiej) - zjawisko obserwowane dla fal,
polegające na powstawaniu różnicy częstotliwości wysyłanej przez źródło fali oraz zarejestrowanej
przez obserwatora, który porusza się względem źródła fali. Dla fal rozprzestrzeniających się w
ośrodku, takich jak na przykład fale dźwiękowe, efekt zależy od prędkości obserwatora oraz źródła
względem ośrodka, w którym te fale się rozchodzą. W przypadku fal propagujących się bez udziału
ośrodka materialnego, jak na przykład światło w próżni (w ogólności fale elektromagnetyczne),
znaczenie ma jedynie różnica prędkości źródła oraz obserwatora.

Efekt Dopplera jest wykorzystywany do określania prędkości przybliżania lub oddalania
źródła fali. Prędkość źródła fali można określić na podstawie wzoru dla ruchomego źródła.
Dla prędkości znacznie mniejszej od prędkości światła zarówno dla fal mechanicznych jak i
dla światła wynosi ona:

gdzie:

a - dla danego urządzenia stały współczynnik zależny od częstotliwości analizowanej fali i jej
prędkości,

Δf - różnica częstotliwości fal.

Zjawisko wykorzystuje się głównie do określania prędkości ruchu ciała odbijającego falę.
Wówczas traktując to ciało jako element odbierający a następnie wysyłający falę, prędkość
określa wzór:

background image

36

36

W przypadku pomiaru ruchu substancji nieodbijającej fal stosuje się "zasiewanie" polegające
na dodawaniu do substancji drobin odbijających fale. Urządzenia tego typu generują falę o
dokładnie określonej częstotliwości i odbierają falę odbitą. W układzie odbiorczym dokonuje
się zmieszania drgań fali wysyłanej i odbitej, wydzielając drgania o małej częstotliwości,
których częstotliwość jest równa różnicy częstotliwości fali wysyłanej i odbieranej.

Cel badania - Dzięki badaniu ultrasonograficznemu wykorzystującemu efekt Dopplera możliwe jest
wykrycie nawet drobnych schorzeń tętnic i żył, mogących w konsekwencji prowadzić do udaru
mózgu, zawału serca czy zatorowości płucnej. Badanie to, w zależności od tego, do jakich naczyń się
je zastosuje, może mieć na celu:

wykrywanie zwężeń miażdżycowych w tętnicach szyjnych, które zaopatrują mózg,

wykrywanie zwężeń i niedrożności w tętnicach kończyn dolnych,

badanie żył kończyn dolnych pod kątem zakrzepicy lub niewydolności zastawkowej,

diagnostykę innych naczyń obwodowych (tętnice nerkowe, trzewne).

Badanie wykorzystuje się także do oceny ukrwienia niektórych narządów oraz wykrywania
guzów nowotworowych, gdyż większość z nich jest silnie ukrwiona. W położnictwie ocena
przepływu krwi w tętnicy pępowinowej jest wykorzystywana w przewidywaniu niektórych
powikłań zagrażających prawidłowemu rozwojowi ciąży.

Zastosowania USG Dopplerowskiego - USG dopplerowskim można zbadać:

kończyny górne i dolne (np. niedomykanie zastawek jest przyczyną żylaków)

tętnice szyjne (np. pozwala ustalić miejsca, w których doszło do zmian miażdżycowych)

serce – w połączeniu z echem serca USG dopplerowskie jest nieocenione przy wykrywaniu
wad zastawkowych

narządy jamy brzusznej:

o

wątrobę

o

śledzionę

o

trzustkę

o

nerki

narządy płciowe (np. ujawnia żylaki powrózka nasiennego, które mogą być powodem
niepłodności)

guzy (np. różnicowanie guzów wątroby pod kątem ich zezłośliwienia, wykrywanie wśród
guzków tarczycy tych, które wymagają biopsji).

Ultrasonografia, USG

nieinwazyjna, atraumatyczna metoda diagnostyczna, pozwalająca

na uzyskanie obrazu przekroju badanego obiektu. Metoda ta wykorzystuje zjawisko rozchodzenia się,
rozpraszania oraz odbicia fali ultradźwiękowej na granicy ośrodków, przy założeniu stałej prędkości
fali w różnych tkankach równej 1540 m/s. W ultrasonografii medycznej wykorzystywane są
częstotliwości z zakresu ok. 2-50 MHz. Fala ultradźwiękowa najczęściej generowana jest oraz
przetwarzana w impulsy elektryczne przy użyciu zjawiska piezoelektrycznego (opisanego przez braci
Curie na przełomie lat 1880-1881). Pierwsze doświadczenia nad wykorzystaniem ultrasonografii w
diagnostyce prowadzone były w trakcie i zaraz po II wojnie światowej, a ultrasonografy wprowadzone
zostały do szpitali na przełomie lat 60. i 70. XX wieku (jednym z pierwszych klinicznych zastosowań
była diagnostyka płodu).

background image

37

37

Jednym z bardzo popularnych obecnie zastosowań ultrasonografii jest USG naczyń krwionośnych z
wykorzystaniem zjawiska Dopplera. USG dopplerowskie pozwala na ocenę prędkości oraz kierunku
przepływu krwi w naczyniach. Jako metoda całkowicie nieinwazyjna jest obecnie najpopularniejszym
typem badania naczyń pozwalającym na dokładną ocenę zmian w zdecydowanej większości
przypadków.

Stosując niższe częstotliwości (2-5 MHz, np. podczas badania jamy brzusznej lub
echokardiograficznego badania serca) uzyskuje się obrazy struktur głębiej położonych kosztem niższej
rozdzielczości. Natomiast korzystając z częstotliwości wyższych (7,5-16 MHz, np. badanie
przezpochwowe, przezciemiączkowe, diagnostyka węzłów chłonnych, aż do 50 MHz w ultrasonografii
wewnątrznaczyniowej naczyń żylnych oraz tętniczych) uzyskuje się obrazy dokładniejsze, ale tylko
struktur płycej położonych.

Tomografia komputerowa (CT) -

jest rodzajem tomografii rentgenowskiej, metodą

diagnostyczną pozwalającą na uzyskanie obrazów tomograficznych (przekrojów) badanego obiektu.
Wykorzystuje ona złożenie projekcji obiektu wykonanych z różnych kierunków do utworzenia
obrazów przekrojowych (2D) i przestrzennych (3D). Urządzenie do TK nazywamy tomografem, a
uzyskany obraz tomogramem. Tomografia komputerowa jest szeroko wykorzystywana w medycynie i
technice.

Pierwszy tomograf, tzw. EMI scanner, został zbudowany w 1968 roku przez sir Godfreya
Newbolda Hounsfielda, z firmy EMI Ltd, z Wielkiej Brytanii. Podstawy matematyczne tego
wynalazku są zasługą austriackiego matematyka Johanna Radona. W 1917 roku udowodnił,
że obraz dwu- i trójwymiarowego obiektu można odtworzyć w sposób zupełny z
nieskończonej ilości rzutów tego przedmiotu. W 1956 roku, Ronald N. Bracewell użył tej
metody do stworzenia map słonecznych. Pierwsze urządzenia próbujące wykorzystać idee
Radona budowali: w 1961 William Henry Oldendorf, w 1963 Allan MacLeod Cormack (Tufts
University), w 1968 David Kuhl i Roy Edwards. Wszyscy oni przyczynili się do końcowego
efektu osiągniętego przez Hounsfielda, który jako pierwszy stworzył działający system do
diagnostyki i zaprezentował jego unikalne możliwości. Hounsfield i Cormack otrzymali w
1979 roku Nagrodę Nobla za wynalezienie i budowę tomografu komputerowego.

Pierwszy tomograf zainstalowano w szpitalu Atkinson Morley Hospital, w Wimbledonie, w
Wielkiej Brytanii. Pierwszy pacjent został przebadany w 1972 roku. W USA sprzedawano go
w cenie 390 000 USD, a pierwszy zamontowano w 1973 roku w Mayo Clinic i Massachusetts
General Hospital.

Ogólna zasada tworzenia obrazu tomograficznego - Źródło promieniowania i detektory poruszają się
po okręgu prostopadłym do długiej osi pacjenta (dookoła obrazowanego narządu/obiektu),
wykonując szereg prześwietleń wiązką promieniowania równoległą do płaszczyzny obrazowanej.
Strumień danych z detektorów zawiera informacje na temat pochłaniania promieniowania przez
poszczególne tkanki (elementy składowe obiektu). Dane zostają zapisane na twardym dysku
komputera. Informacje z uzyskanych prześwietleń są poddawane obróbce komputerowej w celu
uzyskania czytelnego obrazu. Za pomocą skomplikowanej analizy, uwzględniającej ile
promieniowania zostało pochłonięte przy napromieniowaniu obiektu z danej strony, tworzone są
obrazy przedstawiające kolejne przekroje badanego narządu. Obrazy są monochromatyczne (czarno-
białe). Możliwa jest również obróbka komputerowa pozwalająca na przestrzenną rekonstrukcję

background image

38

38

poszczególnych narządów. Każdy przekrój przez obiekt jest dzielony na małe części, voxele,
reprezentujące fragment obrazowanej objętości. Do każdego voxela przypisywana jest liczbowa
wartość proporcjonalna do stopnia, w którym pochłania on promieniowanie. Aby w danej warstwie
określić tę wartość dla n fragmentów, potrzebne jest przynajmniej n równań opisujących
pochłanianie w danej warstwie. Trzeba więc posiadać n różnych projekcji tej warstwy. Im więcej
mamy projekcji, tym lepszą dokładność obrazu uzyskamy. EMI scanner wykonywał obrazy o
rozdzielczości 80 x 80 pikseli (6400 równań) z 28 800 projekcji. Współczesne tomografy wykonują
nawet do 2 000 000 projekcji. Dzięki temu ich rozdzielczość sięga dziesiątków mikrometrów. Z
powodu ilości równań wymaganych do odtworzenia obrazu, nie można było zrealizować tomografii w
chwili jej wynalezienia, w roku 1917. Dopiero pojawienie się komputerów z ich możliwościami
obliczeniowymi utorowało drogę do praktycznego wykorzystania tomografii.

Liczba CT (jednostka Hounsfielda) - z zebranych danych komputer tomografu oblicza
współczynniki pochłaniania dla każdego z pikseli tworzących obraz. Gdy zostaną już
wyznaczone, ich wartości zostają przeliczone na tak zwane liczby CT (CT numbers) –
nazywane czasem jednostkami Hounsfielda (HU, Hounsfield Units). Konwersja ta pozwala na
przedstawienie obrazu w odcieniach skali szarości. Przeliczenie polega na odniesieniu
wyznaczonego współczynnika pochłaniania do jego wartości dla wody:

,

gdzie: K – stała wzmocnienia obrazu – stała zależna od systemu tomografu, indywidualna dla
tomografu;

– wyznaczony współczynnik pochłaniania piksela;

– wyznaczony

współczynnik pochłaniania wody (wartość odniesienia). Stała K pierwszego tomografu, EMI
scanner, wynosiła 500, a zakres rejestrowanych liczb CT wynosił od – 500 (dla powietrza) do
+500 (dla gęstych kości). Współczesne tomografy mają stałą K większą od 1000, a zakres
liczb CT jest szerszy od -1000 do +4000.

Zagrożenia towarzyszące tomografii komputerowej - Rentgenowska tomografia komputerowa
wykorzystuje promieniowanie rentgenowskie do wykonywania przekrojowych zdjęć obiektów.
Promieniowanie to jest promieniowaniem jonizującym, co wiąże się z potencjalnym zagrożeniem dla
życia i zdrowia organizmów żywych w wypadku nadmiernej ekspozycji. W niewielkim, ale
zauważalnym stopniu wzrasta ryzyko raka. Ponadto niektórzy pacjenci uczuleni są na środki
cieniujące, które zwykle zawierają związki jodu. Innym mogą one uszkodzić nerki. Jeśli środek
kontrastowy otrzyma kobieta karmiąca piersią, to przed wznowieniem karmienia musi odczekać
przynajmniej 24 godziny. Badanie TK napromieniowuje pacjenta nawet do 400 razy większą dawką
promieniowania niż typowa sesja diagnostyczna zwykłym aparatem rentgenowskim. Tomografia
komputerowa jest coraz popularniejszym badaniem i stale rośnie jej udział w sumarycznej dawce
całej populacji ze wszystkich badań diagnostycznych.

background image

39

39

Tomografia NMR (Obrazowanie metodą rezonansu
magnetycznego -

to nieinwazyjna metoda uzyskiwania obrazów

wnętrza obiektów. Ma zastosowanie w medycynie, gdzie jest jedną z
podstawowych technik diagnostyki obrazowej (tomografii) oraz w badaniach
naukowych przeprowadzanych in vivo

na zwierzętach.

Obrazowanie magnetyczno-rezonansowe (MR) opiera się na zjawisku jądrowego rezonansu
magnetycznego. Zjawisko to może zajść w próbce zawierającej jądra o różnym od zera spinie
umieszczonej w silnym stałym polu magnetycznym. W takich warunkach próbka ulega
częściowej polaryzacji opisywanej wektorem magnetyzacji. Jeśli tak spolaryzowana próbka
zostanie poddana działaniu innego pola magnetycznego, które rotuje w płaszczyźnie
prostopadłej do pola głównego, dla pewnej dokładnie określonej częstości tej rotacji
zaobserwować można oddziaływanie między polem a magnetyzacją próbki. Efektem tego
oddziaływania jest obrót magnetyzacji próbki wokół rotującego wektora indukcji
magnetycznej, co w efekcie pozwala wyprowadzić magnetyzację z położenia równowagi, w
którym początkowo się znajduje. Wyprowadzona z położenia równowagi magnetyzacja
precesuje wokół kierunku pola głównego a ruch ten może być obserwowany. Zanikający
sygnał nazywany sygnałem swobodnej precesji ma częstość rezonansową, która dana jest
bardzo prostą zależnością - jest proporcjonalna do pola w jakim znajduje się próbka. Jeśli
różne części próbki znajdują się w różnych polach, nie można mówić o jednej częstości
odbieranego sygnału, mamy do czynienia z wieloma częstościami a najczęściej z ciągłym jej
widmem. Jeśli mapa w jakim znajduje się próbka jest znana, informacja przestrzenna może
zostać odkodowana a zebrane widma mogą zostać zamienione na obraz próbki. Modulowanie
pola głównego i jednoczesny pomiar sygnału rezonansu magnetycznego są podstawą metody
obrazowania MR. Odkodowanie obrazu nazywane jest rekonstrukcją. Jądrem rezonansowym
najczęściej wykorzystywanym w obrazowaniu MR jest proton — jądro atomu wodoru mające
spin połówkowy i występujące powszechnie w obiektach biologicznych w cząsteczkach
wody.

Obrazowanie MR wykorzystywane jest w badaniach praktycznie całego ciała.

Obrazowanie MR może być przeprowadzone w różnych sekwencjach. Pozornie nieznaczne
zmiany w ustawieniu podstawowych parametrów obrazowania mogą doprowadzić do
uzyskania nieco odmiennych danych, mających różne możliwości diagnostyczne. Ze względu
na parametry podstawowe, metody obrazowania dzieli się na:

obrazy T1-zależne, najlepiej oddające wizualnie strukturę anatomiczną mózgu, gdzie istota
biała jest ukazywana w jasnych kolorach, zaś istota szara w ciemnych, płyn mózgowo-
rdzeniowy, ropień i guz na ciemno, a miąższ wątroby na jasno.

obrazy T2-zależne, na których istota biała ukazywana jest w ciemniejszych barwach, zaś
istota szara – w jaśniejszych, płyn mózgowo-rdzeniowy, guz, ropień, naczyniak wątroby i
śledziona – na jasno, a wątroba i trzustka – na ciemno.

FLAIR (ang. Fluid Light Attenuation Inversion Recovery), pewna modyfikacja sekwencji T2-
zależnej, gdzie obszary z małą ilością wody ukazywane są w ciemniejszych barwach, zaś
obszary z dużą ilością wody – w jaśniejszych. Obrazowanie w tej sekwencji znajduje dobre
zastosowanie w wykrywaniu chorób demielinizacyjnych.

Obrazowanie dyfuzyjne mierzy dyfuzję molekuł wody w tkance. Wyróżnia się tutaj
następujące techniki: obrazowanie tensora dyfuzji (ang. DTI – diffusion tensor imaging),
które może być zaadaptowane do obrazowania zmian w połączeniach istoty białej, oraz

background image

40

40

obrazowanie zależne od dyfuzji (ang. DWI – diffusion-weighted imaging), które wykazuje się
dużą skutecznością w obrazowaniu udarów mózgu.

Jeśli pacjent otrzymuje środek cieniujący, istnieje niewielkie ryzyko wystąpienia reakcji
alergicznej. Ale jest ono mniejsze niż w wypadku substancji kontrastowych zawierających jod
i powszechnie stosowanych podczas zdjęć rentgenowskich oraz tomografii komputerowej.
Ponieważ badanie MRI wiąże się z oddziaływaniem silnego pola magnetycznego, może nie
być wskazane u tych, którym wszczepiono różnego rodzaju aparaty lub metalowe implanty.
Niektóre preparaty zawierające gadolin znacząco zwiększają ryzyko wystąpienia
nerkopochodnego włóknienia układowego.

background image

41

41

9.

Tomografia emisyjna SPECT , pozytonowa tomografia emisyjna PET




Skrót z Jaroszyka – tak po ludzku starałem się pisać, ale polecam przejrzeć samą książkę, tam
dużo więcej nie jest, a są rysunki i wzory.

W emisyjnej tomografii komputerowej źródłem promieniowania są związki znakowane
radioizotopem (radiofarmaceutyki) wprowadzone do organizmu.
SPECT – jednofotonowa emisyjna tomografia komputerowa. Pacjentowi do tego badania
podaje się substancję prominiotwórczą, która emituje promieniowanie gamma we wszystkich
kierunkach. Substancja rozprowadza się procesami fizjologicznymi.
Część tego promieniowania jest wychwytywana przez skaner lub kamerę gamma która
przemieszcza się nad ciałem pacjenta. Detekcja kwantów wraz z inf. o połozeniu kątowym i
liniowym detektora jest przesyłana do komputera który dokonuje rejestracji obrazu warstwy.
Promieniowanie jest tłumione na drodze od miejsca emisji do detektora, absorpcja zależy od
energii kwantów emitowanych przez izotop, oraz rodzaju tkanek po drodze. Najbardziej
tłumione jest promieniowanie przebywające najdłuższą drogę, czyli pochodzące z miejsc
oddalonych najbardziej od detektora. Różna odległosć miejsc emisji i detektora zmienia pole
widzenia i zdolność rozdzielczą układu. W SPECT przy tworzeniu obrazów strzałkowych czy
czołowych wykorzystuje się przekroje poprzczne.

Pierwszy SPECT - Kuhl i Edwards w 1963 roku.
we współczesnych tomografach układ składa się z jednej lub dwóch(szybciej działa) głowic
gammakamery umieszczonych naprzeciwko siebie.
Podstawowym składnikiem SPECT jest kryształ scyntylacyjny o śr. ok 40cm. Padające na
kryształ promieniowanie jest „formowane” przez wymienny kolimator o równoległym lub
nachylonych pod odpowiednim kątem układzie otworów, których wielkosć jest zależna od
mierzonej energii i wymaganej rozdzielczości. Układ detekcyjny w czasie jednego obrotu
rejestruje od 1-64 warstw o grubości od około 3mm do około 12mm w przekroju
poprzecznych. Przestrzenna zdolność rozdzielcza SPECT zawiera się w granicach 11-15mm.
Powody małej rozdzielczości wynikają z metody zbierania, rekonstrukcji danych oraz
właściwości detektora.




Pozytonowa emisyjna tomografia komputerowa
Stanowi wyspecjalizowany system który łączy wczesną ocenę biochemicznej patologii z jej
dokładną lokalizacją dokonaną przez komputerową rekonstrukcję obrazu.
Do organizmu wprowadza się związek znakowany radioaktywnym izotopem, z oczekiwaną
aktywnością biologiczną, Izotop rozpada się i emituje pozyton, który niemal natychmiast
reaguje z elektronem z otoczenia i obie cząstki anihilują, tworząc dwa kwanty
promieniowania gammma poruszające się w dwie strony wzdłuż tego samego kierunku.
Promieniowanie przenika przez tkankę i jest rejestrowane przez detektory. Informacja z
detektora jest przesyłana do komputera który stosuje odpowiednie algorytmy i odwzorowuje
prestrzenny rozkład radioaktywności. Intensywność sygnału na obrazie jest proporcjonalna

background image

42

42

do ilości zgromadzonego w danym miejscu znacznika radioaktywnego.

Zasada działania
Opiera się na określeniu wspórzędnych anihilacji pozytonu przez pomiar koincydencji
czasowej (jednoczesne wystąpienie kilku zjawisk) dwóch kwantów promienowania gamma.
Kąt rozejścia kwantów byłby równy 180* gdyby elektron i pozyton były w spoczynku, jednak
jeśli jakaś składowa prędkości ich układów jest prostopadła do kierunku emisji
promieniowania, to kierunek emisji będzie się różnił ( +- 0,25*) , wartość tego rozproszenia
stanowi granicę zdolności rozdzielczej PET. Równoczesna rejestracja przez detektory obu
promieni gamma pozwala wyznaczyć prostą, na której zaszła anihilacja, dokładność jest
uwarunkowana rozmiarami kryształów scyntylacyjnych. Pomiar różnicy czasu między
dwoma fotonami docierającymi do detektorów, wynikający z różnicy odległości przebytych,
pozwala na lokalizajcę miejsca anihilacji. Przesuwając układ detektorów wokół obiektu
otrzymujemy serię projekcj które pozwalają na rekonstrukcję obrazu.
Izotop stosowany jako znacznik powinien łatwo łączyć się z różnymi substancjami, mieć
krótki czas połowicznego rozpadu, emitować promienowanie gamma oraz być w miarę tanie.
Są pochłaniane nierównomiernie przez różne narządy, analizując ich rozkład w obrębie
narządu można wyciągnąć wnioski diagnostyczne. Nargomadzenie to ognisko gorące, obszar
wolny – ognisko zimne, co może świadczyć o patologii.

Zastosowanie kliniczne PET
Jednym z pierwszych badań było określenie objętości krwi w poprzecznych przekrojach
ludzkiego mózgu. Znakowanie izotopem płytek krwi stwarza możliwość badania za pomocą
PET naczyń krwionośnych, w tym procesu miażdżycy tętnic, pomaga to w diagnozowaniu
chorób naczyniowych.
Poza tym można za pomocą PET ocenić przepływ krwi przez np. wątrobę, mięsień sercowy i
ocenić uszkodzenia.


Z Wikipedii

Badania SPECT – tomografia emisyjna pojedynczych fotonów – single photon emission
computed tomography – oparte są na najnowszych metodach obrazowania mózgu i
wykrywania dysfunkcji. Jest to stosunkowo nowa i mało rozpowszechniona metoda
diagnozowania zaburzeń mózgowia, znacznie różniąca się od encefalografii i rezonansu
magnetycznego.
Jest to złożona metoda badawcza z dziedziny medycyny nuklearnej, umożliwiająca
wizualizację przepływu mózgowego krwi i jego metabolizmu. W metodzie tej radioaktywny
izotop przyłączony jest do nośnika mającego równocześnie powinowactwo do komórek w
mózgu, możliwość pokonywania bariery krew-mózg oraz gromadzenia się w ilości
proporcjonalnej do metabolizmu danej okolicy. Emitowane promieniowanie gamma rejestrują
czujniki umieszczone w specjalnej kamerze połączonej z komputerem. Badanie trwa około
15 minut. W trakcie typowego badania do czujników dociera w przybliżeniu dziesięć
milionów impulsów gamma, a superkomputer przetwarza te informacje i prezentuje w postaci
złożonych map przepływu/metabolizmu mózgowego i udostępnia na trójwymiarowych
obrazach. Lekarze oraz badacze wykorzystują te mapy zestawiając je z obrazami prawidłowej
czynności zdrowego mózgu oraz obrazami mózgu osób chorych psychicznie lub cierpiących
na zaburzenia neurologiczne.

Obraz przestrzenny możliwy jest do uzyskania albo z systemu wielogłowicowego (wiele
czujników rozmieszczonych wokół głowy), albo dzięki systemowi mechanicznemu,

background image

43

43

zapewniającemu ruch głowicy wokół głowy pacjenta. Systemy SPECT zbierają dane
obrazowe po ustawieniu się głowicy w kolejnych położeniach, różniących się od siebie o
kilka stopni, aż do uzyskania pełnego obrotu wokół pacjenta, zwykle powtarzanego
kilkakrotnie. Czas zbierania danych może być skrócony o połowę dzięki
zastosowaniu gammakamery dwugłowicowej. Dobre jakościowo obrazy uzyskuje się za
pomocą gamma-kamer przynajmniej dwugłowicowych, na matrycy 128 x 128 elementów
obrazu, z analizą ilościową lub półilościową badanego parametru. Gamma-kamery
zaprojektowane specjalnie dla celów neurodiagnostyki wyposażone są w układy
wielodetektorowe i głowice pierścieniowate (ang. ring-SPECT) lub w kształcie litery L.
Gamma-kamery wyspecjalizowane dla potrzeb neuroobrazowania cechują się wyższą
zdolnością rozdzielczą, ale jest ich niewiele, gdyż nie można na nich wykonywać badań
innych narządów. Cyfrowa obróbka danych uzyskanych z kolejnych położeń głowicy lub
głowic umożliwia uzyskiwanie obrazów przestrzennych lub przekrojów ciała.
Oprogramowanie systemu umożliwia operatorowi cyfrową obróbkę uzyskanego obrazu.
Metoda SPECT pozwala na badanie przepływu mózgowego, rozmieszczenia receptorów
mózgowych a przy pomocy tzw. znaczników onkofilnychumożliwia diagnostykę
nowotworów mózgu.
W diagnostyce ognisk niedokrwiennych pochodzenia zatorowego, w neuroonkologii i do
różnicowania zespołów otępiennych można wykorzystywać standardowe gamma-kamery
(nawet jednogłowicowe z matrycą 64 x 64 elementy obrazu). Natomiast ocena subtelnych
zmian perfuzji w encefalopatiach o różnej etiologii, w chorobach psychicznych oraz do oceny
zaburzeń perfuzji w jądrach podkorowych wymaga sprzętu o wyższych parametrach
technicznych.





PET – z wikipedii

Pozytonowa Tomografia Emisyjna (ang. Positron emission tomography, PET) jest techniką
obrazowania, w której (zamiast jak w tomografii komputerowej – zewnętrznego źródła
promieniowania rentgenowskiego lub radioaktywnego) rejestruje się promieniowanie
powstające podczas anihilacji pozytonów (anty-elektronów). Źródłem pozytonów jest podana
pacjentowi substancja promieniotwórcza, ulegająca rozpadowi beta plus. Substancja ta
zawiera izotopy promieniotwórcze o krótkim czasie połowicznego rozpadu, dzięki czemu
większość promieniowania powstaje w trakcie badania, co ogranicza powstawanie uszkodzeń
tkanek wywołanych promieniowaniem. Wiąże się także z koniecznością uruchomienia
cyklotronu w pobliżu (krótki czas połowicznego rozpadu izotopów to także krótki
maksymalny czas ich transportu) co znacząco podnosi koszty.
Zasada działania
Powstające w rozpadzie promieniotwórczym pozytony, po przebyciu drogi kilku milimetrów,
zderzają się z elektronami zawartymi w tkankach ciała, ulegając anihilacji. W wyniku
anihilacji pary elektron–pozyton powstają dwa kwanty promieniowania
elektromagnetycznego (fotony) o energii 511 keV każdy, poruszające się w przeciwnych
kierunkach (pod kątem 180°). Fotony te rejestrowane są jednocześnie przez dwa z wielu
detektorów ustawionych pod różnymi kątami w stosunku do ciała pacjenta (najczęściej w
postaci pierścienia), w wyniku czego można określić dokładne miejsce powstania pozytonów.
Informacje te rejestrowane w postaci cyfrowej na dysku komputera, pozwalają na konstrukcję
obrazów będących przekrojami ciała pacjenta, analogicznych do obrazów uzyskiwanych w

background image

44

44

tomografii NMR.

W badaniu PET wykorzystuje się fakt, że określonym zmianom chorobowym towarzyszy
zmiana metabolizmu niektórych związków chemicznych, np. cukrów. Ponieważ energia w
organizmie uzyskiwana jest głównie poprzez spalanie cukrów, to w badaniach wykorzystuje
się deoxyglukozę znakowaną izotopem 18F o okresie połowicznego rozpadu ok. 110 minut.
Najczęściej stosowanym preparatem jestF18-FDG.
PET stosuje się w medycynie nuklearnej głównie przy badaniach mózgu, serca, stanów
zapalnych niejasnego pochodzenia oraz nowotworów. Umożliwia wczesną diagnozę choroby
Huntingtona. Zastosowanie PET wpłynęło na znaczne poszerzenie wiedzy o etiologii i
przebiegu w przypadku choroby Alzheimera, Parkinsona czy różnych postaci
schizofrenii,padaczki.

Dzięki diagnostyce PET istnieje bardzo duże prawdopodobieństwo rozpoznania nowotworów
(w około 90% badanych przypadków). Takiego wyniku nie daje się osiągnąć przy pomocy
żadnej innej techniki obrazowania. PET daje także możliwość kontroli efektów
terapeutycznych w trakcie leczenia chorób nowotworowych, np. za pomocą chemioterapii.

Bezpieczeństwo

Zagrożenia

PET nie jest techniką inwazyjną, jednak jej użycie wystawia pacjenta na pewną dawkę
promieniowania jonizującego. Dawka ta jest na poziomie akceptowalnym dla technik
diagnostycznych i przez ponad 50 lat stosowania metody nie stwierdzono żadnych efektów
ubocznych jej stosowania. Kobiety w ciąży lub karmiące piersią powinny poinformować o
swoim stanie lekarza oraz personel obsługujący aparat[14].

Korzyści

Emisja tomograficzna pozytonowa pozwala ocenić obrazowanie nie tylko strukturalne
organów i tkanek, ale także czynnościowe ich funkcjonowanie. Niektóre zmiany w narządach
można zatem wykryć wcześniej, niż pozwala na to tomografia komputerowa bądź rezonans
magnetyczny.

Zastosowanie

PET stosuje się w medycynie nuklearnej głównie przy badaniach mózgu, serca, stanów
zapalnych niejasnego pochodzenia oraz nowotworów. Umożliwia wczesną diagnozę choroby
Huntingtona. Zastosowanie PET wpłynęło na znaczne poszerzenie wiedzy o etiologii i
przebiegu w przypadku choroby Alzheimera, Parkinsona czy różnych postaci schizofrenii,
padaczki.

Dzięki diagnostyce PET istnieje bardzo duże prawdopodobieństwo rozpoznania nowotworów
(w około 90% badanych przypadków). Takiego wyniku nie daje się osiągnąć przy pomocy
żadnej innej techniki obrazowania. PET daje także możliwość kontroli efektów
terapeutycznych w trakcie leczenia chorób nowotworowych, np. za pomocą chemioterapii.

background image

45

45

Bezpieczeństwo

Zagrożenia

PET nie jest techniką inwazyjną, jednak jej użycie wystawia pacjenta na pewną dawkę
promieniowania jonizującego. Dawka ta jest na poziomie akceptowalnym dla technik
diagnostycznych i przez ponad 50 lat stosowania metody nie stwierdzono żadnych efektów
ubocznych jej stosowania. Kobiety w ciąży lub karmiące piersią powinny poinformować o
swoim stanie lekarza oraz personel obsługujący aparat

Korzyści

Emisja tomograficzna pozytonowa pozwala ocenić obrazowanie nie tylko strukturalne organów i
tkanek, ale także czynnościowe ich funkcjonowanie. Niektóre zmiany w narządach można zatem
wykryć wcześniej, niż pozwala na to tomografia komputerowa bądź rezonans magnetyczny.


Wyszukiwarka

Podobne podstrony:
wejściówki biofizyka 12 2013
Biofizyka egzamin 2013
Biofizyka egzamin 2013, far, biofizyka, egzamin, materiały na ćwiczenia
pyt z biofizyki cwiczenia 2013, analityka medyczna, Biofizyka analityka medyczna, Egzaminy, zaliczen
Kolokwium wyjściowe biofizyka lekarski 2013, Biofizyka, pytania egzamin i koło
Biofizyka skrypt 13
PGP skrypt 2013
refrakcja biofizyka skrypt, Materialy aktulane, Biofizyka, zip
Grzesik Biofizyka Skrypt
wejściówki biofizyka 12 2013
Prawo pracy skrypt, Politologia UAM 2013-2016, Semestr IV, Prawo pracy i ubezpieczeń społecznych - S
Biofizyka - 2013, Biofizyka, egzamin i wejściówki
MetodyOpt Biofiz 2013 w3 polaryzacja

więcej podobnych podstron