Biofizyka skrypt 13

1.

  1. Entalpia swobodna – potencjał termodynamiczny zwany funkcją Gibbsa lub energią swobodną Gibbsa, oznaczany przez , a zdefiniowany następująco:

co jest równoważne:

gdzie

W procesach izotermiczno-izobarycznych ubytek entalpii swobodnej jest równy pracy nieobjętościowej wykonanej przez układ w procesach odwracalnych, natomiast jest większy od tej pracy w procesach nieodwracalnych

  1. Potencjał chemiczny –odgrywa kluczową rolę przy ocenie stanu układu pod względem możliwości wystąpienia w nim transportu materii. Jeżeli w układzie istnieją różnice potencjałów chemicznych, wtedy zachodzą w nim procesy fizyczne lub chemiczne związane z transportem substancji, zmieniające skład układu.

Potencjał chemiczny składnika i w mieszaninie gazów lub roztworze doskonałym wyraża się wzorem:

µi = µ0i + RT ln xi µi – potencjał chemiczny składnika w roztworze

µ0i – potencjał chemiczny składnika w stanie czystym

R – stała gazowa

T – temperatura

xi - ułamek molowy składnika w roztworze

Wzór stosujemy również dla roztworów doskonałych gdzie możemy zaniedbać oddziaływania międzycząsteczkowe czyli roztwory rozcieńczone.

Jeżeli mamy małe stężenie to ułamek molowy jest mały.

Potencjał chemiczny jest najwyższy w stanie czystym, a maleje wraz z rozcieńczaniem

Składnik od potencjału chemicznego wyższego dąży do obniżenia potencjału.

  1. Zjawisko transportu masy- są to rodzaje „sił napędowych”, prowadzących do wyrównania potencjałów chemicznych. Są to dyfuzja i osmoza.

  2. Dyfuzja – jest przykładem transportu biernego. Jeżeli w roztworze znajdują się obszary o różnych stężeniach (różnych potencjałach chemicznych) to odbywa się transport substancji rozpuszczonej w kierunku potencjałów chemicznych: wyższych do niższych, od stężeń większych do mniejszych, aż do stanu równowagi potencjałów chemicznych. Np. woda ma największy potencjał chemiczny dlatego chce wcisnąć się w sok o niższym potencjale lub cukier chce obniżyć potencjał chemiczny, a więc z dna szklanki unosi się do góry. (przykłady z wykładu)

Wzór = prawo Ficka (I prawo: strumień cząstek dyfuzji jest proporcjonalny do gradientu stężenia)


$$\frac{\text{dn}}{\text{dt}} = \ - D\ S$$

D – stała dyfuzji

$\frac{\text{dn}}{\text{dt}}$ – strumień substancji

S− pole powierzchni, na którym zachodzi transport

$\frac{\text{dc}}{\text{dx}}$- - różnica stężeń przed płaszczyzną i za płaszczyzną (gradient stężeń)

Stała dyfuzji rośnie wraz z temperaturą.( Transport jest łatwiejszy w wyższej niż w niższej temperaturze). Współczynnik dyfuzji – jednostka [D]=[m2/S]

Dyfuzja w wodzie 1 10-S , cukier w wodzie 3 10-10 ( 3x szybciej).

  1. Dyfuzja przez błonę- jeżeli dwa roztwory o danym stężeniu molowym c1 oraz c2 będą rozdzielone przez błonę, która utrudnia transport. Jednostka [P] = [m/s].

Wzór:

$\frac{\text{dn}}{\text{dt}} = P\ S\ (\ c$1 – c2 )

$\ \frac{\text{dn}}{\text{dt}}$ - strumień substancji

P – przepuszczalność błony

c1-c2 - różnica stężeń po dwóch stronach błony

  1. Osmoza – dyfuzja rozpuszczalnika przez błonę półprzepuszczalną rozdzielającą dwa roztwory o różnym stężeniu. Osmoza spontanicznie zachodzi od roztworu o niższym stężeniu substancji rozpuszczonej do roztworu o wyższym, czyli prowadzi do wyrównania stężeń obu roztworów.

Ciśnienie osmotyczne jest to siła, która zahamuje transport osmotyczny rozpuszczalnika w stanie równowagi. Można je obliczyć z pracy powiększającej potencjał chemiczny rozpuszczalnika

µ1 = µ2 = µ2 + π ΔV

µ1 = µ2 –praca wykonana po przeniknięciu 1 mola rozpuszczalnika

π ΔV – energia(praca) związana z wybrzuszeniem błony

Ciśnienie osmotyczne jest proporcjonalne do stężenia molowego i do temperatury. Ciśnienie osmotyczne zależy więc od liczby cząsteczek rozpuszczonych w jednostce objętości ale nie zależy od rodzaju ciała rozpuszczonego.

Prawo Van’t Hoffa

π = cm RT

Ciśnienie osmotyczne zależy od:

-stężenia molowego

-temperatury ( im wyższa temperatura tym wyższe stężenie molowe)

  1. Potencjał elektrochemiczny – odgrywa taką samą rolę w układzie zawierającym ładunki elektryczne co potencjał chemiczny w układzie bez ładunków elektrycznych.

Zmiana entalpii swobodnej

ΔWi = ΔG1 = ΔWch + ΔWEl

2.

MODEL ELEKTRYCZNY BŁONY KOMÓRKOWEJ/ POTENCJAŁ CZYNNOŚCIOWY
Model elektryczny błony komórkowej

Błonę komórkową i zachodzące przez nią przepływy można interpretować jako specyficzny układ elektryczny (model Hodgkina i Huxleya). Komórkę rozumiemy tu jako ogniwo stężeniowe o sile elektromotorycznej SEM = V spocz. (różnica potencjału spoczynkowego ). Poszczególne kanały jonowe pełnią rolę przewodników o oporze elektrycznym R, tym mniejszym im łatwiej dany jon jest transportowany przez błonę. Otwarty kanał jonowy generuje siłę elektromotoryczną Vjon ( potencjał równowagowy jonu) wywołującą ruch nośników w kierunku malejącego stężenia. Przewodnictwo wywołane przez dany jon: G = N/R

gdzie N – liczba otwartych kanałów dla danego jonu
R- opór elektryczny kanału jonowego

Błonę z rozseparowanymi ładunkami traktujemy jako kondensator płaski o pojemności Cm naładowany do napięcia równego potencjałowi spoczynkowemu.




Z prawa Ohma możemy zapisac odpowiednie prądy jonowe:

IK = GK (Vspocz -VK )

INa = GNa (Vspocz -VNa )

ICl = GCl (Vspocz -VCl )

Gdzie: IK/Na/Cl- prądy jonowe potasu, sodu, chloru
GK/Na/Cl- przewodnictwo elektryczne jonów potasu, sodu, chloru
VK/Na/Cl- potencjał równowagowy jonów potasu, sodu I chloru

W stanie stacjonarnym

ICl + INa + IK = 0

Zatem potencjał spoczynkowy możemy przedstawic jako średnią ważoną potencjałów

równowagowych sodu i potasu:

POTENCJAŁ CZYNNOŚCIOWY

Jak sama nazwa wskazuje, z potencjałem spoczynkowym mamy do czynienia, gdy komórka jest w stanie stacjonarnym. Potencjał czynnościowy jest zaburzeniem wyprowadzającym błonę komórkową i samą komórkę ze stanu spoczynku. Komórki nerwowe i mięśniowe należą do grupy komórek pobudliwych, które posiadają zdolnośc wytwarzania i przewodzenia potencjału czynnościowego, przekazując tym samym informację (komórki nerwowe) lub wykonując pracę mechaniczną (komórki mięśniowe).

Fazy potencjału czynnościowego

W stanie spoczynku potencjał spoczynkowy komórki jest stały i wynosi np. -90mV (wartośc zależy od rodzaju komórki). Jeżeli działający bodziec (elektryczny, chemiczny lub mechaniczny) spowoduje dostatecznie dużą depolaryzację błony (do wartości ok. -60mV) wówczas wygenerowany zostaje potencjał czynnościowy.


Fazy odpowiadające funkcji rosnącej potencjału (pierwsza: wzrost do wartości ok. +30mV, druga: po osiągnięci minimum potencjału) nazywamy fazami depolaryzacji błony. Fazy odpowiadające zależnościom malejącym natomiast to fazy repolaryzacji.



Widzimy więc, że odpowiedzią na pobudzenie błony (elektryczne, mechaniczne, chemiczne) jest jej depolaryzacja, wskutek czego zmienia się przewodność błony dla jonów Na i K i następuje zmiana potencjału błony.

3.

3. Lepkość. Ciecz newtonowska, płyny plastyczno-lepkie. Ruch burzliwy płynów. Opór naczyniowy. Napięcie powierzchniowe, prawo Laplace’a. Lepkość krwi. Odkształcalność erytrocytów.

Lepkość – inaczej tarcie wewnętrzne, charakteryzuje ją wielkość fizyczna zwana współczynnikiem lepkości. Równanie definiujące współczynnik lepkości podał Newton, odnosząc je do przepływu laminarnego płynów.

Równanie: F= η*S* (Δv/Δx) <- równanie nr.1

F – siła działająca stycznie do warstw o powierzchni S, Δv – różnica prędkości pomiędzy warstwą górną, a warstwą dolną, Δx – różnica odległości pomiędzy tymi dwoma warstwami, η – współczynnik lepkości charakteryzujący dany płyn <- eta jest często określana dynamicznym współczynnikiem lepkości, w odróżnieniu od kinetycznego współczynnika lepkości rozumianego jako: η/ρ ; ρ – gęstość płynu;

Jednostką lepkości jest: 1 (N*s)/m2

inne jednostki: pauz = 10-1 (N*s)/m2 ; centypauz = 10-2 pauza ; paskalosekunda = 1 Pa*s

odwrotność lepkości η płynu nazywa się płynnością.

Siła lepkości F1 działająca na każdą z warstw w przepływie laminarnym jest równa co do wartości sile zewnętrznej F, lecz przeciwnie skierowana czyli: F1 = – F

Równanie nr.1 można przedstwić inaczej:

τ = F/S = η * (Δv/Δx)

tau (τ) – naprężenie ścinające.

Stosunek (Δv/Δx) = ɣ jest nazywane szybkością ścienną.

Ciecz newtonowska – ciecz złożona z cząsteczek o niewielkiej masie cząsteczkowej oraz gazów. Dla tych cieczy (np. woda, osocze krwi) współczynnik lepkości jest wielkością stałą przy ustalonej temperaturze i ciśnieniu.

Dla płynów zwanych newtonowskimi spełniona jest zależność:

τ = η * ɣ

Większość płynów nie spełnia jednak tego warunku -> są to ciecze nienewtonowskie.

Ciecz nienewtonowska – ciecz o dużej masie cząsteczkowej oraz ciała bezpostaciowe np. smoła. Dla takich cieczy współczynnik lepkości przy ustalonej temperaturze i ciśnieniu nie jest wartością stałą i zależy od gradientu prędkości. Zjawisko to jest spowodowane oddziaływaniami międzycząsteczkowymi w płynącej cieczy oraz spowodowana przepływem deformacja zawieszonych w niej cząsteczek.

Lepkość względna zawiesiny (w której znajdują się nienaładowane cząstki w kształcie kuli -> ma to znaczenie przy szacowaniu lepkości np. plazmy komórkowej, zawiesiny komórek) wg. Einsteina :

]= (ηroztworurozpuszczalnika) = 1 + q * Vw

q – stała (najczęściej q = ok. 2,5) ; Vw – względna objętość cząsteczek

Krew stanowi przykład płynu nienewtonowskiego , będąc taka zwanym płynem plastyczno-lepkim.

Nienewtonowski charakter krwi polega na tym, że stosunek naprężenia ścinającego do gradientu w danych warunkach ciśnienia i temperatury dla danej cieczy nie jest stały. Może on monotonicznie maleć wraz ze wzrostem gradientu prędkości (szybkość ścinania) i nie zależeć od czasu i sposobu ścinania -> wówczas taką ciecz nazywamy pseudoplastyczną. Może też ten stosunek zależeć nie tylko od szybkości ścinania, ale od czasu i sposobu ścinania.

Płyny plastyczno-lepkie (krew) spełniają zależność podaną przez Cassona:

τ1/n = τg1/n + (η*ɣ)1/n

n- wykładnik potęgowy ; tau g – naprężenie graniczne przy ɣ = 0

Lepkość silnie zależy od temperatury. Zależność lepkości płynu od temperatury ma charakter wykładniczy, opisany równaniem:

η= B * eΔEn/KT

B – stała zależna rodzaju płynu; e – podstawa logarytmu naturalnego; k – stała Boltzmanna ;

ΔEn – bariera energetyczna, którą muszą pokonać cząsteczki płynu podczas ich ruchu

Lepkość wpływa na ruch płynów rzeczywistych w przewodach naczyniowych, ruch ciał o różnym kształcie odbywający się w tych płynach.

Do pomiarów wsp. lepkości stosuje się różne metody: metodę opadającej kulki Stokesa, metodę wiskozymetryczną typu Ostwalda lub Coutte’a, metodę stożkowo-płytkową Brookfielda i inne.

Ruch burzliwy płynów.

W pewnych warunkach przepływ laminarny przechodzi w przepływ burzliwy (inaczej turbulentny). Przejście to zachodzi po przekroczeniu pewnej prędkości granicznej, zależnej od rodzaju płynu i rodzaju przewodu naczyniowego.

Przepływ burzliwy charakteryzuje się tym, że cząstki płynu nie poruszają się w kierunku równoległym do osi przewodu naczyniowego, lecz wykonują ruchy chaotyczne o różnych kierunkach prędkości. Takiemu przepływowi towarzyszy powstawanie wirów.

Kryterium przejścia przepływu laminarnego w burzliwy zostało podane przez Reynoldsa przez wprowadzenie pewnej bezwymiarowej liczby, nazwanej liczbą Rey.. (Re). Liczba Re w przypadku przewodu naczyniowego o przekroju kołowym (d-średnica przekroju kołowego) jest określona równaniem:

Re = (ρ * d * v)/ η

ρ – gęstość płynu; eta – lepkość płynu, v – prędkość przepływu płynu

Ustalono, że przy przepływie płynu przez gładkie, proste przewody naczyniowe o przekroju kołowym, ruch płynu jest laminarny, gdy Re<2300, natomiast gdy Re>3000 przepływ jest burzliwy.

Dla wartości pośrednich przepływ ma charakter niestacjonarny – czyli może przejść w burzliwy przy wystąpieniu jakichkolwiek zakłóceń.

Wykorzystując definicję liczby Re można wyznaczyć prędkość krytyczną vk przepływu płynu, po której przekroczeniu orzepływ może stać się burzliwy.

Krytycznej prędkości vk odpowiada krytyczna wartość liczby Reynoldsa Rek = 2300

Zatem przy przepływie płynu przez przewód o przekroju kołowym równanie określające vk ma postać:

Vk = (Rek*η) / (ρ * d)

Z powyższego wzoru wynika, że dla określonego płynu prędkość krytyczna jest odwrotnie proporcjonalna do średnicy przewodu naczyniowego.

Opór naczyniowy.

Opór naczyniowy (Rp) przepływu jest odwrotnością przewodności naczyniowej.

Rp = 1/Ap = (8η/π)*(l/r4) -> gdzie Ap to przewodność naczyniowa

Jednostką oporu jest jest: 1 (Pa*s)/m3

Wzór na przewodność naczyniowa wynika z prawa Hagena-Poiseuille’a, które określa zależność pomiędzy strumieniem objętości cieczy, a jej lepkością, różnicą ciśnień delta p powodującą przepływ, oraz wielkościami geometrycznymi naczynia.

Prawo to formułuje się przy następujących założeniach:

  1. Ciecz nie jest lepka

  2. Ciecz jest nieściśliwa

  3. Przepływ jest laminarny

  4. Przepływ cieczy jest stacjonarny

  5. Przepływ cieczy jest wymuszony róznicą ciśnień delta p na końcach rury o długości l i promieniu r.

Wówczas prawo Hagena-Poiseuille’a:

Φv = ΔV/Δt = (π * r 4 * Δp) / (8 * η * l)

Gdzie: Φv = ΔV/Δt – strumień objętości cieczy przepływającej przez przewód naczyniowy pod wpływem Δp.

Wprowadzając oznaczenie:

Ap = (π * r 4) / (8 * η * l)

Wtedy prawo Hagena-Poiseuille’a przyjmuje postać charakterystyczną dla procesów transportu:

Φv = Ap * Δp

Wielkość Ap jest rozumiana jako przewodność naczyniowa i ma jednostkę:

[Ap]= 1 m3/(Pa*s)

Napięcie powierzchniowe. Prawo Laplace’a.

Energia powierzchniowa właściwa nazywa się także współczynnikiem napięcia powierzchniowego lub po prostu napięciem powierzchniowym.

Stycznie do powierzchni cieczy działają siły, zwane siłami napięcia powierzchniowego, starające się zmniejszyć swobodną powierzchnie cieczy.

Chcąc utrzymać stałe pole powierzchni błony mydlanej, rozpiętaj na ramce z drutu trzeba na ruchome ramię ramki działać siłą F. Wymaga to zrównoważenia wypadkowej siły napięć powierzchniowych, zaczepionych wzdłuż ramienia o długości L=2l (2l, ponieważ siły działają po obu stronach błony).

Zwiększenie pola blony o ΔS=L*Δx wymaga wykonania pracy ΔW=F*Δx, stąd napięcie powierzchniowe wyraża również wzór w postaci:

σ = ΔW/ΔS = (F*Δx)/(L*Δx) = F/L

jednostka [σ] = J/m2 = N/m

Napięcie powierzchniowe wyraża się stosunkiem wypadkowej sił napięcia powierzchniowego do długości odcinka, wzdłuż którego są zaczepione.

Prawo Laplace’a wiąże się ze stanami powierzchniowymi zakrzywionej powierzchni cieczy. Stany powierzchniowe powodują, że pod zakrzywioną powierzchnią cieczy panuje ciśnienie inne jak pod płaską. W przypadku powierzchni wypukłych na ciecz działa ciśnienie większe, a w przypadku powierzchni wklęsłych – mniejsze jak przy powierzchniach płaskich.

Wartość nadwyżki p ciśnienia dla cieczy w kształcie kuli wyraża wzór Laplace’a:

P= 2 σ/r

r – promień powierzchni kulistej

Dla powierzchni o różnych krzywiznach wzór Laplace’a przyjmuje postać:

P= σ(1/R1 + 1/R2)

R.. – promienie krzywizny powierzchni cieczy w dwóch do siebie prostopadłych przekrojach

Dla walca:

R2= ∞, R1 = R, czyli wzór przyjmuje postać uproszczoną:

P= σ/R

Wzór Laplace’a znalazł szerokie zastosowanie w analizach biofizycznych, np. w ocenie ciśnienia w naczyniu krwionośnym, w pęcherzykach płucnych, itd.

Odkształcalność erytrocytów.

Prawidłowe erytrocyty mają szczególną zdolność do odkształceń pod wpływem naprężęń przede wszystkim dzięki temu, że pozbawione są jądra komórkowego, ich cytoplazma ma stosunkowo małą lepkość, błona komórkowa ma korzystne właściwości lepko-sprężyste, a odpowiedni kształt zapewnia dużą wartość stosunku powierzchni swobodnej do objętości.

Powierzchnia krwinek czerwonych przy normalnym kształcie erytrocytów jest znacznie większa niż przy kształcie kulistym. Zmniejszona odkształcalność erytrocytów występuje w różnych chorobach i odgrywa ważną rolę w zaburzeniach przepływu krwi, zwłaszcza na poziomie mikrokrążenia, oraz zaburza podstawowe funkcje erytrocytów.

Podsumowując: to, że erytrocyty mają zdolność do odkształceń umożliwia im ‘przeciskanie się’ przez naczynia włosowate o bardzo małej średnicy.

Źródło: Jaroszyk i Terlecki

4.

  1. Elektryczność i magnetyzm (serca):

Elektryczna i magnetyczna aktywność serca jest rezultatem zjawisk bioenergetycznych oraz bioelektrycznych zachodzących we włóknach mięśnia sercowego stanowiącego główną część wsierdzia, związanych z wykonywaniem pracy, mechanicznej, i we włóknach układu przewodzenia, które charakteryzują się swoistą właściwością autonomicznego wytwarzania i przewodzenie pobudzeń.

  1. Dipol elektryczny:

Rozsunięte na pewną odległość różnoimienne ładunki elektryczne tworzą dipol elektryczny. Linia przechodząca przez oba ładunki nazywa się osią dipola. Ładunki elektryczne rozmieszczone po wewnętrznej i zewnętrznej stronie błony komórkowej możemy traktować jako zbiór małych dipoli które są źródłem pola elektrycznego. Każdy dipol charakteryzuje elektryczny moment dipolowy:

P = q * l

gdzie:

q – wartość ładunku elektrycznego (wartość dodatniego ładunku)

l – wektor łączący obydwa ładunki o zwrocie od ładunku ujemnego do dodatniego.

Wartość wektora równa jest odległości między ładunkami.

Ponieważ punkty na ciele, pomiędzy którymi mierzymy spadek potencjału są w dużo większej odległości niż poszczególne dipole, momenty dipolowe wszystkich małych dipoli na błonach komórkowych mięśnia sercowego sumują się. Dlatego serce możemy traktować jako jeden duży dipol. Po depolaryzacji wypadkowy moment dipolowy ulega zmianie, co jest źródłem spadku napięcia mierzonego na skórze w różnych punktach ciała. Wypadkowy moment dipolowy serca zmierzony w danej chwili jest nazywany chwilowym wektorem elektrycznym serca. Wektor ten ma punkt zaczepienia w środku serca, a jego kierunek i zwrot zmienia się zgodnie z przebiegiem fali depolaryzacyjnej. Jeżeli uśrednimy chwilowe wektory elektryczne serca z czasu depolaryzacji komór (załamek QRS) i zrzutujemy taki wektor na płaszczyznę to otrzymamy oś elektryczną serca. wypadkowym momencie dipolowym. W trakcie przechodzenia fali.

Bijące serce można z dobrym przybliżeniem traktować jako dipol elektryczny, dla którego położenie osi oraz wartość momentu dipolowego podlegają okresowym zmianom. Moment dipolowy serca powstaje w wyniku sumowania wielu momentów dipolowych małych dipoli, powstających lokalnie w mięśniu sercowym podczas rozprzestrzeniania się zarówno fali depolaryzacji jak i fali repolaryzacji. Każdy dipol elektryczny wytwarza w przestrzeni pole elektryczne, które można określić przez pomiar natężenia pola w poszczególnych punktach. Możliwa jest także procedura odwrotna, polegająca na wnioskowaniu o rozkładzie ładunków na podstawie przebiegu linii sił pola elektrycznego. Serce stanowiące zmieniający się w czasie dipol elektryczny powoduje powstanie ciągu zmiennych potencjałów elektrycznych. Zmiany te rozprzestrzeniają się w całym ciele i docierają do powierzchni ciała, gdzie mogą być rejestrowane za pomocą odpowiedniej aparatury. Po wzmocnieniu sygnały te są zapisywane – w ten sposób powstaje elektrokardiogram. Podczas akcji serca modelujący je moment dipolowy zmienia zarówno wartość jak i kierunek. Położenie elektrod pomiarowych dobiera się zawsze tak, by na podstawie pomiaru potencjału można było określić chwilową wielkość rzutu wektora elektrycznego serca na płaszczyznę (zwykle czołową lub prostopadłą do niej w przypadku odprowadzeń przedsercowych). Przy rekonstrukcji momentu dipolowego z mierzonych różnic potencjałów podstawowym założeniem jest to, że ciało człowieka stanowi dla pola elektrycznego jednorodny ośrodek.

  1. Układ krążenia:

  1. Układ bodźcotwórczy serca:

Autonomiczny układ bodźcoprzewodzący wytwarza cyklicznie pobudzenie elektryczne, które następnie jest przenoszone na włókna mięśniowe. Układ bodźcotwórczy zbudowany jest z ośrodków, które generują impulsy z różną częstotliwością. Jeżeli połączenia pomiędzy poszczególnymi ośrodkami są prawidłowe to rytm pracy serca narzuca węzeł zatokowo-przedsionkowy, który kurczy się z najwyższą częstotliwością.

Komórki mięśniowe w sercu połączone są ze sobą wstawkami o niewielkim oporze elektrycznym. Wzbudzenie dowolnego elementu przedsionków lub komór pobudza wszystkie pozostałe komórki sierdzia i układu przewodzenia. Komórki układu przewodzenia są nazwane komórkami rozrusznikowymi (automatyzmu (węzeł zatokowo-przedsionkowy, niektóre komórki przedsionkowe, węzeł przedsionkowo-komorowy, włókna Purkiniego i pęczek Hisa). W sercu prawy i lewy przedsionek oraz prawa i lewa komora oddzielone są tkanką łączną, która stanowi zły przewodnik prądu (izolator). Z elektrycznego punktu widzenia węzeł przedsionkowo-komorowy i pęczek Hisa – lewa i prawa odnoga są odpowiedzialne za przewodzenia pobudzenia do lewej i prawej komory serca.

Częstotliwość impulsów generowanych przez poszczególne części układu:

-węzeł zatokowo-przedsionkowy – 60-80/min,

-węzeł przedsionkowo-komorowy – 30-50/min,

-pęczek Hissa – 40/min,

-włókna Purkiniego – 20/min.

Źródłem pobudzeń elektrycznych w mięśniu sercowym są wyspecjalizowane komórki rozrusznikowe (zlokalizowane w węźle zatokowo-przedsionkowym i węźle przedsionkowo-komorowym), których potencjał spoczynkowy nie jest stały ( jak w komórkach roboczych mięśnia sercowego), tylko ulega spontanicznie i samoistnie podwyższeniu (co bywa nazywane powolną spoczynkową depolaryzacją), aż do osiągnięcia potencjału progowego, co wiąże się z wytworzeniem potencjału czynnościowego i powstaniem pobudzenia rozchodzącego się wzdłuż przebiegu układu bodźcoprzewodzącego, a następnie roboczego mięśnia komór, co przejawia się wystąpieniem skurczu serca. Następnie cały cykl powtarza się.

  1. Potencjał czynnościowy komórek kurczliwych:

Pobudzenie elektryczne błony komórkowej następuje dzięki przepływom jonów (transport aktywny jonów: Na+, K+, transportu dyfuzyjnego i elektrycznego jonów: Na+, K+ i CL- i w przypadku serca Ca2+). Bodziec nadprogowy powoduje lokalną zmianę potencjału spoczynkowego błony komórkowej z ujemnego na dodatni. Tę fazę nazywamy fazą depolaryzacji. Pobudzenie to rozprzestrzenia się wzdłuż błony komórkowej. Fazie depolaryzacji w sercu odpowiada skurcz komórek mięśniowych. Następnie błona komórki powoli wraca do stanu spoczynkowego, następuje faza repolaryzacji, odpowiadająca w sercu fazie rozkurczu mięśnia.

Na skutek działania ośrodka bodźcotwórczego ( komórek rozrusznikowych) następuje depolaryzacja komórek kurczliwych – w tym momencie następuje szybka aktywacja kanałów sodowych. Odcinek „plateau” potencjału czynnościowego związany jest gównie z ze wzrostem przewodności właściwej błony jonów Ca2+. Repolaryzacja wiąże się ze zmniejszeniem przewodnictwa właściwego dla jonów wapnia i zwiększeniem przewodności właściwej sodu błony komórek kurczliwych. Odcinek RB jest określany jako czas refrakcji bezwzględnej, czyli niewrażliwości. W tym czasie nie jest możliwe kolejne pobudzenie komórki. Czas ten zabezpiecza komórkę kurczliwą przed przedwczesnym ponownym pobudzeniem oraz zapewnia wygaszenie pobudzenia.

  1. EKG:

Obrazuje bioelektryczną (nie mechaniczną) czynność serca. Jest to metoda rejestrowania zmian prądów i różnic potencjałów czynnościowych, wytwarzanych i przewodzonych przez układ bodźcotwórczo-przewodzący serca w czasie jego czynności.

Na krzywej EKG 5 charakterystycznych załamków:

Tak prościej:

mięśnia komór

  1. Odprowadzenie Einthovena

Dwubiegunowa metoda, wykorzystująca odprowadzenia kończynowe. Jedną elektrodę przykłada się do lewego ramienia (LR), drugą do prawego ramienia (RP), trzecią zaś do lewej nogi (LN).

I odprowadzenie Einthovena – różnica potencjał elektrycznych między elektrodami LR a PR ( VL – VP)

II odprowadzenie Einthovena – różnica potencjał elektrycznych między elektrodami PR a LN ( VP – VN)

III odprowadzenie Einthovena – różnica potencjał elektrycznych między elektrodami LR a LN ( VL – VN)

Równanie:

( VL – VP) + ( VP – VN) + ( VL – VN) = 0

Co można również zapisać jako:

( VL – VP) + ( VN – VL) = ( VN – VP)

W zasadzie wystarczyłyby informacje z I i III odprowadzenia, lecz klinicznie stosuje się wszystkie trzy, gdyż zwiększa to redundancję informacji, czyli zwiększa jej zrozumienie.

6.

Laser jest to generator promieniowania, który wykorzystuje zjawisko emisji wymuszonej i inwersji obsadzeń. Laser jest skrótem od Light Amplification by Stimulated Emission of Radiation, czyli wzmocnienie światła przez wymuszoną emisję promieniowania.

Promieniowanie lasera jest więc falą elektromagnetyczną i pochodzi od wzbudzonego elektronu. Z działaniem lasera wiążą się takie pojęcia jak absorpcja, emisja spontaniczna i emisja wymuszona, wyjaśnijmy więc najpierw te pojęcia.

Fizyczne podstawy

Absorpcja

Jest to po prostu pochłanianie kwantu promieniowania, czyli fotonu, który posiada określoną porcję energii (h – stała Plancka, ν – częstotliwość światła). Jeżeli ta jego energia jest równa różnicy energii pomiędzy stanem wzbudzonym elektronu (E2) a stanem podstawowym (E1), wtedy właśnie ten foton może być pochłonięty.

Emisja spontaniczna

I wtedy właśnie, jak już nasz elektron znajduje się w stanie wzbudzonym, zdarza mu się całkiem spontanicznie wrócić na niższy poziom energetyczny i przy okazji emituje on foton o takiej samej lub (częściej) niższej energii. Fotony takie emitowane są całkiem przypadkowo, tzn w różnych kierunkach, a emitowana fala elektromagnetyczna jest niespójna. Zjawisko takie jest powszechne i odpowiada właściwie za większość zjawisk świecenia ciał.

Emisja wymuszona

W końcu dochodzimy do sedna sprawy i mechanizmu, który pozwala nam konstruować lasery. Generalnie gdyby istniała tylko absorpcja i tylko emisja spontaniczna, to w krótkim czasie wszystkie atomy byłyby wzbudzone i promieniowanie nie byłoby pochłaniane i emitowane, gdyż prawdopodobieństwo pochłonięcia atomu zależy od natężenia światła (czyli ilości fotonów), zaś prawdopodobieństwo emisji spontanicznej zależy od średniego czasu życia danego stanu wzbudzonego. Tak powiedział Einstein, więc uwierzmy mu na słowo i opiszmy zjawisko emisji wymuszonej.

Jest przeciwieństwem absorpcji i ilość emitowanych fotonów zależy od ilości fotonów padających. Jeżeli padający foton ma energię równą energii wzbudzenia atomu, to

możliwe jest zajście emisji wymuszonej. Padający foton nie jest pochłaniany, jest tylko wyzwalaczem całego procesu, czyli emisji kolejnego fotonu i przejścia atomu na niższy stan energetyczny. Ten nowy foton ma właściwości takie same jak foton padający – częstotliwość (zatem energię też), fazę i polaryzację, jak również kierunek ruchu.

Światło laserowe z tego względu ma następujące właściwości:

Jest jeszcze jedno zjawisko niezbędne do zajścia akcji laserowej, a mianowicie inwersja obsadzeń. Jest to stan, w którym więcej elektronów jest w stanie wzbudzonym niż w stanie podstawowym.

Następuje to w momencie pompowania do układu energii, atomy wzbudzają się i od razu następowała by emisja spontaniczna dlatego powinno się to odbywać w taki materiale aby na pewnym poziomie wzbudzonym czas przebywania elektronu był dostatecznie długi. Taki poziom nazywamy poziomem metastabilnym. Atom przechodzi do wysokiego stanu wzbudzonego, a następnie przeskakuje bez emisji fotonu na stan niższy (metastabilny) Wtedy rezonansowy foton wyzwala emisje wielu fotonów naraz o tej samej fazie i częstotliwości.


Budowa lasera

Dobra, wiemy już jakie zjawiska fizyczne za to odpowiadają. Ale jak właściwie działa cały ten laser, co pozwala uzyskać emisję wymuszoną, czyli krótko o jego budowie.

Laser składa się z ośrodka aktywnego, rezonatora optycznego i układu pompującego.

  1. Ośrodek aktywny to zespół atomów, jonów czy cząsteczek. Atomy niektórych pierwiastków posiadają poziomy energetyczne, na których elektron pozostaje znacznie dłużej (kilkaset μs, kilka ms). Wskutek pobudzania zewnętrznym polem elektrycznym elektrony w atomach przechodzą do stanu metatrwałego, wytwarzając inwersję obsadzeń, dzięki czemu możliwe jest zajście akcji laserowej.

  2. Rezonator, czyli układ optyczny. Pełni rolę dodatniego sprzężenia zwrotnego dla światła o wybranym kierunku i określonej długości fali. Spośród wszystkich możliwych kierunków świecenia i wszystkich dostępnych dla ośrodka długości fal, jedynie światło o parametrach ustalonych przez rezonator będzie wzmacniane na tyle mocno, by doprowadzić do akcji laserowej.

Sprzężenie zwrotne polega na możliwości wielokrotnego przepływu fotonów przez ośrodek, połączonego z ich kaskadowym powielaniem wskutek emisji wymuszonej, dzięki czemu laser generuje spójne światło. Układ optyczny rezonatora składa się zazwyczaj z dwóch dokładnie wykonanych i odpowiednio ustawionych zwierciadeł. Dla określonego kierunku możliwe jest wielokrotne odbicie pomiędzy zwierciadłami, i tylko fotony o takim kierunku, mogą wielokrotnie przebiegać przez ośrodek czynny, powodując akcję laserową.

Aby emitowane światło laserowe mogło wydostać się poza rezonator (na zewnątrz lasera), przynajmniej jedno z luster powinno być częściowo przepuszczalne.

  1. Zadaniem układu jest przeniesienie jak największej liczby elektronów w substancji czynnej do stanu wzbudzonego. Układ musi być wydajny by zapewnić inwersję obsadzeń. Pompowanie lasera odbywa się poprzez błysk lampy błyskowej (flesza), błysk innego lasera, przepływ prądu (wyładowanie) w gazie, reakcję chemiczną, zderzenia atomów, wstrzelenie wiązki elektronów do substancji.

Zastosowanie laserów w medycynie

  1. Diagnostyczne:

  1. terapeutyczne:

W medycynie stosuje się lasery:

Lasery wysokoenergetyczne służą do destrukcji bądź usuwania tkanek. Mają średnią lub dużą moc, bądź są to lasery impulsowe.
W okulistyce lasery są wykorzystywane do przecinania cyst powiek lub spojówek, przecinania naczyń wrastających w rogówkę, perforacji cyst tęczówki, przecinania zrostów tęczówkowo - rogówkowych, do zabiegów przeciwjaskrowych i przeciwzaćmowych, do korekcji wad wzroku (astygmatyzmu, krótkowzroczności i dalekowzroczności) i do witreotomii. Szczególnym wskazaniem do laserowej korekcji wady refrakcji jest duża wada wzroku tylko w jednym oku.
Dermatolodzy za pomocą laserów usuwają naczyniaki oraz niektóre nowotwory (np. raka podstawnokomórkowego).
W laryngologii laserem leczy się nowotwory krtani oraz wykonuje rekonstrukcję kosteczek słuchowych.
W pulmonologii lasery są stosowane do rekanalizacji dróg oddechowych, usuwania ciał obcych i źródeł krwawienia, fotokoagulacji receptorów kaszlu.
W chirurgii lasery służą do udrażniania przełyku w chorobach nowotworowych, hamowania krwawienia z górnego odcinka przewodu pokarmowego, leczenia łagodnych nowotworów jelita grubego.
W ginekologii lasery są stosowane w laparoskopii do uwalniania zrostów wewnątrzmacicznych i w miednicy, w leczeniu endometriozy, mięśniaków, łagodnych torbieli przydatków, wodniaków jajowodów.
W urologii są stosowane do kruszenia złogów w moczowodach, leczenia łagodnego przerostu prostaty.
W neurochirurgii są wykorzystywane do usuwania oponiaków, glejaków i nerwiaków.
W chirurgii naczyniowej za pomocą laserów wykonywana jest przezskórna angioplastyka.
Lasery niskoenergetyczne działają biostymulująco poprzez wpływ na metabolizm komórek.
Jest to wykorzystywane w leczeniu ran, oparzeń, odleżyn oraz bólów stawowych.

Klasyfikacja laserów

Ze względu na:

  1. ośrodek aktywny:

  1. długość fali : UV, widzialne, podczerwień

  2. emisja w czasie: ciągłe, impulsowe

Absorpcja promieniowania w tkance

Oddziaływanie promieniowania z tkanką zależy od następujących parametrów:

Tkanka biologiczna składa się z wody i długich łańcuchów cząsteczek organicznych. Wiązka promieniowania padając na powierzchnię tkanki częściowo jest odbijana i rozpraszana, a częściowo pochłaniana. Rozproszenie i absorpcja promieniowania zależą od własności tkanki (składu chemicznego, zawartości wody, barwników endogennych: hemoglobina, melanina, stanu funkcjonalnego: ukrwienie, pH) i od długości fali promieniowania (im dłuższa fala tym głębsza penetracja). Zaabsorbowane światło zostaje przekształcone w ciepło i podnosi temperaturę tkanki.

Rysunek ukazuje współczynnik absorpcji promieniowania o różnej długości fali dla wybranych istotnych składników ludzkiej tkanki: wody, protein, hemoglobiny i melaniny oraz średnią głębokość wnikania w wodzie. Generalnie obydwie wielkości są od siebie zależne: im większa absorpcja tym mniejsza głębokość wnikania.

Głębokość penetracji

Na kolejnym rysunku przedstawiono aspekt głębokości wnikania promieniowania elektro-magnetycznego w zakresie dostępnym przy zastosowaniu różnych laserów. Obydwa wykresy są niezwykle istotne dla osób podejmujących decyzję o wyborze urządzenia laserowego, np. szukając urządzenia dla operacji cięcia istotna jest duża absorpcja promieniowania i małą inwazyjność (głębokość wnikania). W przypadku chirurgii ogólnej najlepiej do tego celu nadają się lasery CO2 (również ze względu na niską cenę urządzenia) lub lasery Er:YAG o mocach ok. 40 - 100 W.

Głębokość penetracji nie zależy od czasu naświetlania.

Najbardziej korzystne dla biostymulacji laserowej jest promieniowanie z zakresu tzw. ,,okienka optycznego’’ – obejmuje ono promieniowanie o długości fali od 550nm do 950 nm – jest to promieniowanie o największej penetracji. Związane to jest z małymi współczynnikami rozpraszania i pochłaniania dla tych długości fal. Światło o długości fali spoza tego przedziału jest absorbowane powierzchownie i nie działa stymulująco na głębiej położone tkanki.

Parametry stosowane w laseroterapii

Parametry fizyczne wiązki laserowej. Określają je wielkości fizyczne, do których zaliczamy:

E = P / t lub P = E x t

gdzie E – energia promieniowania, P – moc, t – czas

1J = 1W x 1s = 1mW x 1000s = 10 mW x 100 s

Gęstość energii = energia / powierzchnia

Epow = P x t / S ; gdzie S = powierzchnia

1J/cm2 = 1W x 1s /1 cm2

Uwaga!!! Bezpieczna dla tkanek biologicznych gęstość powierzchniowa wynosi 50 J/cm2 i nie wolno jej nigdy przekraczać !!!

Epow = P x t / S lub t = (S x Epow ) / P

oraz parametry dotyczące emisji impulsowej:

7.

7. Czynniki fizyczne wpływające na organizm. Czynniki mechaniczne.

Czynniki mechaniczne:

fale sprężyste

1-10 MHz – ultradźwiękowa diagnostyka medyczna, nieniszczące działanie materiałów,

do 100 MHz – badanie tkanek,

do 3 GHz – mikroskopia akustyczna

Infradźwięki (0,1-20Hz) (nie słyszymy ich!)

źródła:

Dla f = 10Hz λ =34m – słabe tłumienie przez przegrody ściany

Działanie: drgania rezonansowe klatki piersiowej, przepony brzusznej, organów trawiennych,

Objawy:

Wpływ poziomu natężenia na oddziaływanie infradźwięków na organizm:

[db]

< 120 – nie szkodzą, brak wrażeń,

120 – 140 – kekkie zakłócenie procesów fizjologicznych, uczucie zmęczenia

140 – 160 – po 2 min. zakłócenie równowagi, wymioty, >> 2 min trwałe uszkodzenie

> 170 – u zwierząt działanie śmiertelne (przekrwienie płuc)

Wibracje (0,1 – 20Hz) (kontakt ze źródłem)

Drgania (f < 20Hz) przenoszenie na organizm przez bezpośredni kontakt z układem drgającym

źródła: rozciąganie i przemieszanie tkanek

rezonans:

4 – 10Hz – klatka piersiowa, jama brzuszna,

10 – 18Hz – pęcherz moczowy

Objawy:

Choroba wibracyjna.

Ultradźwięki (>20Hz)

źródła:

Ultradźwięki w tkankach

zjawisko:

Zjawiska występują zależnie od:

Działanie ultradźwięków:

działanie czynne (0,5 – 20kW/m2) zmiany nieodwracalne lub utrzymujące się stosunkowo długo,

Wykorzystanie:

leczenie chorób reumatycznych, narządów ruchu, tkanki łącznej, niszczenie ognisk patologicznych, niszczenie wirusów, grzybów, bakterii, sterylizacja leków, mikromasaż, usuwanie kamienia zębów,

Działanie bierne:

Fale ultradźwiękowe odgrywają bierną rolę przekaźnika sygnału. Bardzo małe wartości natężeń zapewniają, że pomiary nie wpływają na właściwości ośrodka ani na przebieg badanego procesu.

Pomiary:

Różnicę poziomów natężenia (Δi) między dwoma punktami odległymi o (Δt) wyznaczają współczynnik tłumienia:

q= Δi/Δt =[dB/cm]

liotrypsja – metoda kruszenia złogów w organizmie za pomocą fal uderzeniowych (nagłe zmiany ciśnień – fala akustyczna o wysokiej energii – pojedyncze impulsy).

Ultrasonografia – rozchodzenie się fal ultradźwiękowych zależy od właściwości ośrodków: sprężystości, gęstości, zdolności rozciągania, niejednorodności, anizotropii, budowy molekularnej, w przypadku ruchu ośrodka zależą od jego prędkości.

Szkodliwe działanie ultradźwięków na obiekty biologiczne:

Działanie termiczne:

zależy od:

Działanie mechaniczne:

powoduje:

Działanie chemiczne:

Wpływ przyśpieszeń

F = m * a

zależy od

czas trwania rodzaj

Δt ≤ 0,05s udarowe

0,5s < Δt <1s krótkotrwałe

1s < Δt < kilka s przedłużone

Δt > kilka s przewlekłe

Relacja wektor przyśpieszenia – oś ciała: podłużne, strzałkowe, poprzeczne

przykładowe wartości przyspieszeń:

wartość a [g] czas trwania przyśpieszenia [s]

alarmowe zatrzymanie windy 2,5 1

lądowanie na spadochronie 3-4 0,1-0,2

katapultowanie fotela z kabiny samolotu 10-15 0,25

katastrofa samolotu (możliwe do przeżycia) 20-100 0,1

Wyróżniamy przyspieszenia:

  1. Wzdłuż podłużnej osi ciała:

+Gz – od głowy do stóp,

-Gz – od stóp do głowy.

  1. W strzałkowej osi ciała (plecy, mostek):

+Gx – od mostka do pleców,

-Gx – od pleców do mostka.

  1. W poprzecznej osi ciała (lewy bok – prawy bok)

+Gy – od prawej do lewej strony,

-Gy – od lewej do prawej strony.

Przyśpieszenia podłużne: przemieszczanie narządów, spadek ciśnienia krwi – niedotlenienie mózgu,

Górna granica toleranji +Gz (od głowy do stóp):

a [g] Δt [s]

3 1080-3600

4 60-1200

5 8-480

8 kilka

Przyspieszenia -Gz są bardziej szkodliwe dla organizmu człowieka niż +Gz:

Granica tolerancji -Gz (od stóp do głowy):

a [g] Δt [s]

3 ok 30

4,5 ok 5

5 ok 2

10 < 1

Wpływ ciśnienia na organizm człowieka:

ciśnienie atmosferyczne 105 N/m2 – wyższe hiperbaria, niższe hipobaria

działanie biochemiczne i mechaniczne

zmiany cisnienia wraz ze zmianami wysokości: p=p0 exp (-g * ρ0/p0 * h) ρ0 – gęstość; p0 - ciśnienie na wysokości odniesienia.

Wpływ obniżonego ciśnienia:

Wpływ podwyższonego ciśnienia:

Pole elektryczne i magnetyczne:

natężenie pola magnetycznego: [A/m]

natężenie pola elektrycznego: [V/m]

Indukcja magnetyczna: [T]

SAR (Specific Absorption Rate) - współczynnik absorpcji swoistej: energia jaką ciało wchłania z pola elektromagnetycznego.

Częstotliwość:

sieć 900: 880 – 960 MHz

sieć 1800: 1,7 – 1,875 GHz sieci komórkowe ok. 1GHz

UMTS 2100: 1,9GHz – 2,17 GHz

Moc nadawania:

- sieć 900: do 2W,

- sieć 1800: do 1W

ok.1,2 W

Oddziaływanie termiczne:

Oddziaływanie promieniowania radiowego zależy od konstrukcji telefonu i jego anteny i mocy nadawczej. O oddziaływaniu informuje wartość SAR.

Wartość graniczna SAR: ok 2W/kg

Wartość SAR obecnych telefonów ok 0,5W/kg

8.

Dopplerowski pomiar przepływu krwi (USG Dopplerowskie) – jest to jedno z podstawowych badań w diagnostyce chorób układu krążenia. Pozwala na ocenę przepływu krwi w dużych tętnicach i żyłach, poprzez wykorzystanie zmiany długości fal ultradźwiękowych odbitych od poruszających się krwinek. Analiza fal ultradźwiękowych odbitych od krwinek pozwala określić kierunek i prędkość przepływu krwi.

Mechanizm działania aparatu USG - Wysyłana przez specjalną głowicę fala ultradźwiękowa odbija się od ośrodka będącego w ruchu – płynącej krwi – i powraca do głowicy. Głowica połączona jest przewodem z aparatem ultrasonograficznym, rejestrującym zmiany częstotliwości fali ultradźwiękowej odbitej od płynącej krwi, przedstawiając obraz na monitorze. Wykonujący badanie lekarz widzi gdzie krew płynie szybciej, wolniej bądź się cofa. Przystawka dopplerowska do aparatu USG umożliwia zmierzenie przepływu krwi przez naczynia.

Efekt Dopplera (w ujęciu ultrasonografii Dopplerowskiej) - zjawisko obserwowane dla fal, polegające na powstawaniu różnicy częstotliwości wysyłanej przez źródło fali oraz zarejestrowanej przez obserwatora, który porusza się względem źródła fali. Dla fal rozprzestrzeniających się w ośrodku, takich jak na przykład fale dźwiękowe, efekt zależy od prędkości obserwatora oraz źródła względem ośrodka, w którym te fale się rozchodzą. W przypadku fal propagujących się bez udziału ośrodka materialnego, jak na przykład światło w próżni (w ogólności fale elektromagnetyczne), znaczenie ma jedynie różnica prędkości źródła oraz obserwatora.

Efekt Dopplera jest wykorzystywany do określania prędkości przybliżania lub oddalania źródła fali. Prędkość źródła fali można określić na podstawie wzoru dla ruchomego źródła. Dla prędkości znacznie mniejszej od prędkości światła zarówno dla fal mechanicznych jak i dla światła wynosi ona:

gdzie:

Zjawisko wykorzystuje się głównie do określania prędkości ruchu ciała odbijającego falę. Wówczas traktując to ciało jako element odbierający a następnie wysyłający falę, prędkość określa wzór:

W przypadku pomiaru ruchu substancji nieodbijającej fal stosuje się "zasiewanie" polegające na dodawaniu do substancji drobin odbijających fale. Urządzenia tego typu generują falę o dokładnie określonej częstotliwości i odbierają falę odbitą. W układzie odbiorczym dokonuje się zmieszania drgań fali wysyłanej i odbitej, wydzielając drgania o małej częstotliwości, których częstotliwość jest równa różnicy częstotliwości fali wysyłanej i odbieranej.

Cel badania - Dzięki badaniu ultrasonograficznemu wykorzystującemu efekt Dopplera możliwe jest wykrycie nawet drobnych schorzeń tętnic i żył, mogących w konsekwencji prowadzić do udaru mózgu, zawału serca czy zatorowości płucnej. Badanie to, w zależności od tego, do jakich naczyń się je zastosuje, może mieć na celu:

Badanie wykorzystuje się także do oceny ukrwienia niektórych narządów oraz wykrywania guzów nowotworowych, gdyż większość z nich jest silnie ukrwiona. W położnictwie ocena przepływu krwi w tętnicy pępowinowej jest wykorzystywana w przewidywaniu niektórych powikłań zagrażających prawidłowemu rozwojowi ciąży.

Zastosowania USG Dopplerowskiego - USG dopplerowskim można zbadać:

Ultrasonografia, USG – nieinwazyjna, atraumatyczna metoda diagnostyczna, pozwalająca na uzyskanie obrazu przekroju badanego obiektu. Metoda ta wykorzystuje zjawisko rozchodzenia się, rozpraszania oraz odbicia fali ultradźwiękowej na granicy ośrodków, przy założeniu stałej prędkości fali w różnych tkankach równej 1540 m/s. W ultrasonografii medycznej wykorzystywane są częstotliwości z zakresu ok. 2-50 MHz. Fala ultradźwiękowa najczęściej generowana jest oraz przetwarzana w impulsy elektryczne przy użyciu zjawiska piezoelektrycznego (opisanego przez braci Curie na przełomie lat 1880-1881). Pierwsze doświadczenia nad wykorzystaniem ultrasonografii w diagnostyce prowadzone były w trakcie i zaraz po II wojnie światowej, a ultrasonografy wprowadzone zostały do szpitali na przełomie lat 60. i 70. XX wieku (jednym z pierwszych klinicznych zastosowań była diagnostyka płodu).

Jednym z bardzo popularnych obecnie zastosowań ultrasonografii jest USG naczyń krwionośnych z wykorzystaniem zjawiska Dopplera. USG dopplerowskie pozwala na ocenę prędkości oraz kierunku przepływu krwi w naczyniach. Jako metoda całkowicie nieinwazyjna jest obecnie najpopularniejszym typem badania naczyń pozwalającym na dokładną ocenę zmian w zdecydowanej większości przypadków.

Stosując niższe częstotliwości (2-5 MHz, np. podczas badania jamy brzusznej lub echokardiograficznego badania serca) uzyskuje się obrazy struktur głębiej położonych kosztem niższej rozdzielczości. Natomiast korzystając z częstotliwości wyższych (7,5-16 MHz, np. badanie przezpochwowe, przezciemiączkowe, diagnostyka węzłów chłonnych, aż do 50 MHz w ultrasonografii wewnątrznaczyniowej naczyń żylnych oraz tętniczych) uzyskuje się obrazy dokładniejsze, ale tylko struktur płycej położonych.

Tomografia komputerowa (CT) - jest rodzajem tomografii rentgenowskiej, metodą diagnostyczną pozwalającą na uzyskanie obrazów tomograficznych (przekrojów) badanego obiektu. Wykorzystuje ona złożenie projekcji obiektu wykonanych z różnych kierunków do utworzenia obrazów przekrojowych (2D) i przestrzennych (3D). Urządzenie do TK nazywamy tomografem, a uzyskany obraz tomogramem. Tomografia komputerowa jest szeroko wykorzystywana w medycynie i technice.

Pierwszy tomograf, tzw. EMI scanner, został zbudowany w 1968 roku przez sir Godfreya Newbolda Hounsfielda, z firmy EMI Ltd, z Wielkiej Brytanii. Podstawy matematyczne tego wynalazku są zasługą austriackiego matematyka Johanna Radona. W 1917 roku udowodnił, że obraz dwu- i trójwymiarowego obiektu można odtworzyć w sposób zupełny z nieskończonej ilości rzutów tego przedmiotu. W 1956 roku, Ronald N. Bracewell użył tej metody do stworzenia map słonecznych. Pierwsze urządzenia próbujące wykorzystać idee Radona budowali: w 1961 William Henry Oldendorf, w 1963 Allan MacLeod Cormack (Tufts University), w 1968 David Kuhl i Roy Edwards. Wszyscy oni przyczynili się do końcowego efektu osiągniętego przez Hounsfielda, który jako pierwszy stworzył działający system do diagnostyki i zaprezentował jego unikalne możliwości. Hounsfield i Cormack otrzymali w 1979 roku Nagrodę Nobla za wynalezienie i budowę tomografu komputerowego.

Pierwszy tomograf zainstalowano w szpitalu Atkinson Morley Hospital, w Wimbledonie, w Wielkiej Brytanii. Pierwszy pacjent został przebadany w 1972 roku. W USA sprzedawano go w cenie 390 000 USD, a pierwszy zamontowano w 1973 roku w Mayo Clinic i Massachusetts General Hospital.

Ogólna zasada tworzenia obrazu tomograficznego - Źródło promieniowania i detektory poruszają się po okręgu prostopadłym do długiej osi pacjenta (dookoła obrazowanego narządu/obiektu), wykonując szereg prześwietleń wiązką promieniowania równoległą do płaszczyzny obrazowanej. Strumień danych z detektorów zawiera informacje na temat pochłaniania promieniowania przez poszczególne tkanki (elementy składowe obiektu). Dane zostają zapisane na twardym dysku komputera. Informacje z uzyskanych prześwietleń są poddawane obróbce komputerowej w celu uzyskania czytelnego obrazu. Za pomocą skomplikowanej analizy, uwzględniającej ile promieniowania zostało pochłonięte przy napromieniowaniu obiektu z danej strony, tworzone są obrazy przedstawiające kolejne przekroje badanego narządu. Obrazy są monochromatyczne (czarno-białe). Możliwa jest również obróbka komputerowa pozwalająca na przestrzenną rekonstrukcję poszczególnych narządów. Każdy przekrój przez obiekt jest dzielony na małe części, voxele, reprezentujące fragment obrazowanej objętości. Do każdego voxela przypisywana jest liczbowa wartość proporcjonalna do stopnia, w którym pochłania on promieniowanie. Aby w danej warstwie określić tę wartość dla n fragmentów, potrzebne jest przynajmniej n równań opisujących pochłanianie w danej warstwie. Trzeba więc posiadać n różnych projekcji tej warstwy. Im więcej mamy projekcji, tym lepszą dokładność obrazu uzyskamy. EMI scanner wykonywał obrazy o rozdzielczości 80 x 80 pikseli (6400 równań) z 28 800 projekcji. Współczesne tomografy wykonują nawet do 2 000 000 projekcji. Dzięki temu ich rozdzielczość sięga dziesiątków mikrometrów. Z powodu ilości równań wymaganych do odtworzenia obrazu, nie można było zrealizować tomografii w chwili jej wynalezienia, w roku 1917. Dopiero pojawienie się komputerów z ich możliwościami obliczeniowymi utorowało drogę do praktycznego wykorzystania tomografii.

Liczba CT (jednostka Hounsfielda) - z zebranych danych komputer tomografu oblicza współczynniki pochłaniania dla każdego z pikseli tworzących obraz. Gdy zostaną już wyznaczone, ich wartości zostają przeliczone na tak zwane liczby CT (CT numbers) – nazywane czasem jednostkami Hounsfielda (HU, Hounsfield Units). Konwersja ta pozwala na przedstawienie obrazu w odcieniach skali szarości. Przeliczenie polega na odniesieniu wyznaczonego współczynnika pochłaniania do jego wartości dla wody:

,

gdzie: K – stała wzmocnienia obrazu – stała zależna od systemu tomografu, indywidualna dla tomografu; – wyznaczony współczynnik pochłaniania piksela; – wyznaczony współczynnik pochłaniania wody (wartość odniesienia). Stała K pierwszego tomografu, EMI scanner, wynosiła zakres rejestrowanych liczb CT wynosił od – 500 (dla powietrza) do +500 (dla gęstych kości). Współczesne tomografy mają stałą K większą od zakres liczb CT jest szerszy od -1000 do +4000.

Zagrożenia towarzyszące tomografii komputerowej - Rentgenowska tomografia komputerowa wykorzystuje promieniowanie rentgenowskie do wykonywania przekrojowych zdjęć obiektów. Promieniowanie to jest promieniowaniem jonizującym, co wiąże się z potencjalnym zagrożeniem dla życia i zdrowia organizmów żywych w wypadku nadmiernej ekspozycji. W niewielkim, ale zauważalnym stopniu wzrasta ryzyko raka. Ponadto niektórzy pacjenci uczuleni są na środki cieniujące, które zwykle zawierają związki jodu. Innym mogą one uszkodzić nerki. Jeśli środek kontrastowy otrzyma kobieta karmiąca piersią, to przed wznowieniem karmienia musi odczekać przynajmniej 24 godziny. Badanie TK napromieniowuje pacjenta nawet do 400 razy większą dawką promieniowania niż typowa sesja diagnostyczna zwykłym aparatem rentgenowskim. Tomografia komputerowa jest coraz popularniejszym badaniem i stale rośnie jej udział w sumarycznej dawce całej populacji ze wszystkich badań diagnostycznych.

Tomografia NMR (Obrazowanie metodą rezonansu magnetycznego - to nieinwazyjna metoda uzyskiwania obrazów wnętrza obiektów. Ma zastosowanie w medycynie, gdzie jest jedną z podstawowych technik diagnostyki obrazowej (tomografii) oraz w badaniach naukowych przeprowadzanych in vivo na zwierzętach.

Obrazowanie magnetyczno-rezonansowe (MR) opiera się na zjawisku jądrowego rezonansu magnetycznego. Zjawisko to może zajść w próbce zawierającej jądra o różnym od zera spinie umieszczonej w silnym stałym polu magnetycznym. W takich warunkach próbka ulega częściowej polaryzacji opisywanej wektorem magnetyzacji. Jeśli tak spolaryzowana próbka zostanie poddana działaniu innego pola magnetycznego, które rotuje w płaszczyźnie prostopadłej do pola głównego, dla pewnej dokładnie określonej częstości tej rotacji zaobserwować można oddziaływanie między polem a magnetyzacją próbki. Efektem tego oddziaływania jest obrót magnetyzacji próbki wokół rotującego wektora indukcji magnetycznej, co w efekcie pozwala wyprowadzić magnetyzację z położenia równowagi, w którym początkowo się znajduje. Wyprowadzona z położenia równowagi magnetyzacja precesuje wokół kierunku pola głównego a ruch ten może być obserwowany. Zanikający sygnał nazywany sygnałem swobodnej precesji ma częstość rezonansową, która dana jest bardzo prostą zależnością - jest proporcjonalna do pola w jakim znajduje się próbka. Jeśli różne części próbki znajdują się w różnych polach, nie można mówić o jednej częstości odbieranego sygnału, mamy do czynienia z wieloma częstościami a najczęściej z ciągłym jej widmem. Jeśli mapa w jakim znajduje się próbka jest znana, informacja przestrzenna może zostać odkodowana a zebrane widma mogą zostać zamienione na obraz próbki. Modulowanie pola głównego i jednoczesny pomiar sygnału rezonansu magnetycznego są podstawą metody obrazowania MR. Odkodowanie obrazu nazywane jest rekonstrukcją. Jądrem rezonansowym najczęściej wykorzystywanym w obrazowaniu MR jest proton — jądro atomu wodoru mające spin połówkowy i występujące powszechnie w obiektach biologicznych w cząsteczkach wody.

Obrazowanie MR wykorzystywane jest w badaniach praktycznie całego ciała.

Obrazowanie MR może być przeprowadzone w różnych sekwencjach. Pozornie nieznaczne zmiany w ustawieniu podstawowych parametrów obrazowania mogą doprowadzić do uzyskania nieco odmiennych danych, mających różne możliwości diagnostyczne. Ze względu na parametry podstawowe, metody obrazowania dzieli się na:

Jeśli pacjent otrzymuje środek cieniujący, istnieje niewielkie ryzyko wystąpienia reakcji alergicznej. Ale jest ono mniejsze niż w wypadku substancji kontrastowych zawierających jod i powszechnie stosowanych podczas zdjęć rentgenowskich oraz tomografii komputerowej. Ponieważ badanie MRI wiąże się z oddziaływaniem silnego pola magnetycznego, może nie być wskazane u tych, którym wszczepiono różnego rodzaju aparaty lub metalowe implanty. Niektóre preparaty zawierające gadolin znacząco zwiększają ryzyko wystąpienia nerkopochodnego włóknienia układowego.

9.

Tomografia emisyjna SPECT , pozytonowa tomografia emisyjna PET

Skrót z Jaroszyka – tak po ludzku starałem się pisać, ale polecam przejrzeć samą książkę, tam dużo więcej nie jest, a są rysunki i wzory.

W emisyjnej tomografii komputerowej źródłem promieniowania są związki znakowane radioizotopem (radiofarmaceutyki) wprowadzone do organizmu.
SPECT – jednofotonowa emisyjna tomografia komputerowa. Pacjentowi do tego badania podaje się substancję prominiotwórczą, która emituje promieniowanie gamma we wszystkich kierunkach. Substancja rozprowadza się procesami fizjologicznymi.
Część tego promieniowania jest wychwytywana przez skaner lub kamerę gamma która przemieszcza się nad ciałem pacjenta. Detekcja kwantów wraz z inf. o połozeniu kątowym i liniowym detektora jest przesyłana do komputera który dokonuje rejestracji obrazu warstwy.
Promieniowanie jest tłumione na drodze od miejsca emisji do detektora, absorpcja zależy od energii kwantów emitowanych przez izotop, oraz rodzaju tkanek po drodze. Najbardziej tłumione jest promieniowanie przebywające najdłuższą drogę, czyli pochodzące z miejsc oddalonych najbardziej od detektora. Różna odległosć miejsc emisji i detektora zmienia pole widzenia i zdolność rozdzielczą układu. W SPECT przy tworzeniu obrazów strzałkowych czy czołowych wykorzystuje się przekroje poprzczne.

Pierwszy SPECT - Kuhl i Edwards w 1963 roku.
we współczesnych tomografach układ składa się z jednej lub dwóch(szybciej działa) głowic gammakamery umieszczonych naprzeciwko siebie.
Podstawowym składnikiem SPECT jest kryształ scyntylacyjny o śr. ok 40cm. Padające na kryształ promieniowanie jest „formowane” przez wymienny kolimator o równoległym lub nachylonych pod odpowiednim kątem układzie otworów, których wielkosć jest zależna od mierzonej energii i wymaganej rozdzielczości. Układ detekcyjny w czasie jednego obrotu rejestruje od 1-64 warstw o grubości od około 3mm do około 12mm w przekroju poprzecznych. Przestrzenna zdolność rozdzielcza SPECT zawiera się w granicach 11-15mm. Powody małej rozdzielczości wynikają z metody zbierania, rekonstrukcji danych oraz właściwości detektora.

Pozytonowa emisyjna tomografia komputerowa
Stanowi wyspecjalizowany system który łączy wczesną ocenę biochemicznej patologii z jej dokładną lokalizacją dokonaną przez komputerową rekonstrukcję obrazu.
Do organizmu wprowadza się związek znakowany radioaktywnym izotopem, z oczekiwaną aktywnością biologiczną, Izotop rozpada się i emituje pozyton, który niemal natychmiast reaguje z elektronem z otoczenia i obie cząstki anihilują, tworząc dwa kwanty promieniowania gammma poruszające się w dwie strony wzdłuż tego samego kierunku. Promieniowanie przenika przez tkankę i jest rejestrowane przez detektory. Informacja z detektora jest przesyłana do komputera który stosuje odpowiednie algorytmy i odwzorowuje prestrzenny rozkład radioaktywności. Intensywność sygnału na obrazie jest proporcjonalna do ilości zgromadzonego w danym miejscu znacznika radioaktywnego.

Zasada działania
Opiera się na określeniu wspórzędnych anihilacji pozytonu przez pomiar koincydencji czasowej (jednoczesne wystąpienie kilku zjawisk) dwóch kwantów promienowania gamma.
Kąt rozejścia kwantów byłby równy 180* gdyby elektron i pozyton były w spoczynku, jednak jeśli jakaś składowa prędkości ich układów jest prostopadła do kierunku emisji promieniowania, to kierunek emisji będzie się różnił ( +- 0,25*) , wartość tego rozproszenia stanowi granicę zdolności rozdzielczej PET. Równoczesna rejestracja przez detektory obu promieni gamma pozwala wyznaczyć prostą, na której zaszła anihilacja, dokładność jest uwarunkowana rozmiarami kryształów scyntylacyjnych. Pomiar różnicy czasu między dwoma fotonami docierającymi do detektorów, wynikający z różnicy odległości przebytych, pozwala na lokalizajcę miejsca anihilacji. Przesuwając układ detektorów wokół obiektu otrzymujemy serię projekcj które pozwalają na rekonstrukcję obrazu.

Izotop stosowany jako znacznik powinien łatwo łączyć się z różnymi substancjami, mieć krótki czas połowicznego rozpadu, emitować promienowanie gamma oraz być w miarę tanie.
Są pochłaniane nierównomiernie przez różne narządy, analizując ich rozkład w obrębie narządu można wyciągnąć wnioski diagnostyczne. Nargomadzenie to ognisko gorące, obszar wolny – ognisko zimne, co może świadczyć o patologii.

Zastosowanie kliniczne PET
Jednym z pierwszych badań było określenie objętości krwi w poprzecznych przekrojach ludzkiego mózgu. Znakowanie izotopem płytek krwi stwarza możliwość badania za pomocą PET naczyń krwionośnych, w tym procesu miażdżycy tętnic, pomaga to w diagnozowaniu chorób naczyniowych.
Poza tym można za pomocą PET ocenić przepływ krwi przez np. wątrobę, mięsień sercowy i ocenić uszkodzenia.

Z Wikipedii

Badania SPECT – tomografia emisyjna pojedynczych fotonów – single photon emission computed tomography – oparte są na najnowszych metodach obrazowania mózgu i wykrywania dysfunkcji. Jest to stosunkowo nowa i mało rozpowszechniona metoda diagnozowania zaburzeń mózgowia, znacznie różniąca się od encefalografii i rezonansu magnetycznego.

Jest to złożona metoda badawcza z dziedziny medycyny nuklearnej, umożliwiająca wizualizację przepływu mózgowego krwi i jego metabolizmu. W metodzie tej radioaktywny izotop przyłączony jest do nośnika mającego równocześnie powinowactwo do komórek w mózgu, możliwość pokonywania bariery krew-mózg oraz gromadzenia się w ilości proporcjonalnej do metabolizmu danej okolicy. Emitowane promieniowanie gamma rejestrują czujniki umieszczone w specjalnej kamerze połączonej z komputerem. Badanie trwa około 15 minut. W trakcie typowego badania do czujników dociera w przybliżeniu dziesięć milionów impulsów gamma, a superkomputer przetwarza te informacje i prezentuje w postaci złożonych map przepływu/metabolizmu mózgowego i udostępnia na trójwymiarowych obrazach. Lekarze oraz badacze wykorzystują te mapy zestawiając je z obrazami prawidłowej czynności zdrowego mózgu oraz obrazami mózgu osób chorych psychicznie lub cierpiących na zaburzenia neurologiczne.

Obraz przestrzenny możliwy jest do uzyskania albo z systemu wielogłowicowego (wiele czujników rozmieszczonych wokół głowy), albo dzięki systemowi mechanicznemu, zapewniającemu ruch głowicy wokół głowy pacjenta. Systemy SPECT zbierają dane obrazowe po ustawieniu się głowicy w kolejnych położeniach, różniących się od siebie o kilka stopni, aż do uzyskania pełnego obrotu wokół pacjenta, zwykle powtarzanego kilkakrotnie. Czas zbierania danych może być skrócony o połowę dzięki zastosowaniu gammakamery dwugłowicowej. Dobre jakościowo obrazy uzyskuje się za pomocą gamma-kamer przynajmniej dwugłowicowych, na matrycy 128 x 128 elementów obrazu, z analizą ilościową lub półilościową badanego parametru. Gamma-kamery zaprojektowane specjalnie dla celów neurodiagnostyki wyposażone są w układy wielodetektorowe i głowice pierścieniowate (ang. ring-SPECT) lub w kształcie litery L. Gamma-kamery wyspecjalizowane dla potrzeb neuroobrazowania cechują się wyższą zdolnością rozdzielczą, ale jest ich niewiele, gdyż nie można na nich wykonywać badań innych narządów. Cyfrowa obróbka danych uzyskanych z kolejnych położeń głowicy lub głowic umożliwia uzyskiwanie obrazów przestrzennych lub przekrojów ciała. Oprogramowanie systemu umożliwia operatorowi cyfrową obróbkę uzyskanego obrazu. Metoda SPECT pozwala na badanie przepływu mózgowego, rozmieszczenia receptorów mózgowych a przy pomocy tzw. znaczników onkofilnychumożliwia diagnostykę nowotworów mózgu.
W diagnostyce ognisk niedokrwiennych pochodzenia zatorowego, w neuroonkologii i do różnicowania zespołów otępiennych można wykorzystywać standardowe gamma-kamery (nawet jednogłowicowe z matrycą 64 x 64 elementy obrazu). Natomiast ocena subtelnych zmian perfuzji w encefalopatiach o różnej etiologii, w chorobach psychicznych oraz do oceny zaburzeń perfuzji w jądrach podkorowych wymaga sprzętu o wyższych parametrach technicznych.





PET – z wikipedii

Pozytonowa Tomografia Emisyjna (ang. Positron emission tomography, PET) jest techniką obrazowania, w której (zamiast jak w tomografii komputerowej – zewnętrznego źródła promieniowania rentgenowskiego lub radioaktywnego) rejestruje się promieniowanie powstające podczas anihilacji pozytonów (anty-elektronów). Źródłem pozytonów jest podana pacjentowi substancja promieniotwórcza, ulegająca rozpadowi beta plus. Substancja ta zawiera izotopy promieniotwórcze o krótkim czasie połowicznego rozpadu, dzięki czemu większość promieniowania powstaje w trakcie badania, co ogranicza powstawanie uszkodzeń tkanek wywołanych promieniowaniem. Wiąże się także z koniecznością uruchomienia cyklotronu w pobliżu (krótki czas połowicznego rozpadu izotopów to także krótki maksymalny czas ich transportu) co znacząco podnosi koszty.

Zasada działania

Powstające w rozpadzie promieniotwórczym pozytony, po przebyciu drogi kilku milimetrów, zderzają się z elektronami zawartymi w tkankach ciała, ulegając anihilacji. W wyniku anihilacji pary elektron–pozyton powstają dwa kwanty promieniowania elektromagnetycznego (fotony) o energii 511 keV każdy, poruszające się w przeciwnych kierunkach (pod kątem 180°). Fotony te rejestrowane są jednocześnie przez dwa z wielu detektorów ustawionych pod różnymi kątami w stosunku do ciała pacjenta (najczęściej w postaci pierścienia), w wyniku czego można określić dokładne miejsce powstania pozytonów. Informacje te rejestrowane w postaci cyfrowej na dysku komputera, pozwalają na konstrukcję obrazów będących przekrojami ciała pacjenta, analogicznych do obrazów uzyskiwanych w tomografii NMR.

W badaniu PET wykorzystuje się fakt, że określonym zmianom chorobowym towarzyszy zmiana metabolizmu niektórych związków chemicznych, np. cukrów. Ponieważ energia w organizmie uzyskiwana jest głównie poprzez spalanie cukrów, to w badaniach wykorzystuje się deoxyglukozę znakowaną izotopem 18F o okresie połowicznego rozpadu ok. 110 minut. Najczęściej stosowanym preparatem jestF18-FDG.

PET stosuje się w medycynie nuklearnej głównie przy badaniach mózgu, serca, stanów zapalnych niejasnego pochodzenia oraz nowotworów. Umożliwia wczesną diagnozę choroby Huntingtona. Zastosowanie PET wpłynęło na znaczne poszerzenie wiedzy o etiologii i przebiegu w przypadku choroby Alzheimera, Parkinsona czy różnych postaci schizofrenii,padaczki.

Dzięki diagnostyce PET istnieje bardzo duże prawdopodobieństwo rozpoznania nowotworów (w około 90% badanych przypadków). Takiego wyniku nie daje się osiągnąć przy pomocy żadnej innej techniki obrazowania. PET daje także możliwość kontroli efektów terapeutycznych w trakcie leczenia chorób nowotworowych, np. za pomocą chemioterapii.

Bezpieczeństwo

Zagrożenia

PET nie jest techniką inwazyjną, jednak jej użycie wystawia pacjenta na pewną dawkę promieniowania jonizującego. Dawka ta jest na poziomie akceptowalnym dla technik diagnostycznych i przez ponad 50 lat stosowania metody nie stwierdzono żadnych efektów ubocznych jej stosowania. Kobiety w ciąży lub karmiące piersią powinny poinformować o swoim stanie lekarza oraz personel obsługujący aparat[14].

Korzyści

Emisja tomograficzna pozytonowa pozwala ocenić obrazowanie nie tylko strukturalne organów i tkanek, ale także czynnościowe ich funkcjonowanie. Niektóre zmiany w narządach można zatem wykryć wcześniej, niż pozwala na to tomografia komputerowa bądź rezonans magnetyczny.

Zastosowanie

PET stosuje się w medycynie nuklearnej głównie przy badaniach mózgu, serca, stanów zapalnych niejasnego pochodzenia oraz nowotworów. Umożliwia wczesną diagnozę choroby Huntingtona. Zastosowanie PET wpłynęło na znaczne poszerzenie wiedzy o etiologii i przebiegu w przypadku choroby Alzheimera, Parkinsona czy różnych postaci schizofrenii, padaczki.

Dzięki diagnostyce PET istnieje bardzo duże prawdopodobieństwo rozpoznania nowotworów (w około 90% badanych przypadków). Takiego wyniku nie daje się osiągnąć przy pomocy żadnej innej techniki obrazowania. PET daje także możliwość kontroli efektów terapeutycznych w trakcie leczenia chorób nowotworowych, np. za pomocą chemioterapii.

Bezpieczeństwo

Zagrożenia

PET nie jest techniką inwazyjną, jednak jej użycie wystawia pacjenta na pewną dawkę promieniowania jonizującego. Dawka ta jest na poziomie akceptowalnym dla technik diagnostycznych i przez ponad 50 lat stosowania metody nie stwierdzono żadnych efektów ubocznych jej stosowania. Kobiety w ciąży lub karmiące piersią powinny poinformować o swoim stanie lekarza oraz personel obsługujący aparat

Korzyści

Emisja tomograficzna pozytonowa pozwala ocenić obrazowanie nie tylko strukturalne organów i tkanek, ale także czynnościowe ich funkcjonowanie. Niektóre zmiany w narządach można zatem wykryć wcześniej, niż pozwala na to tomografia komputerowa bądź rezonans magnetyczny.


Wyszukiwarka

Podobne podstrony:
estetyka skrypt, 13.Estet. transkul
zestawy biofiza zebrane 13
refrakcja biofizyka skrypt, Materialy aktulane, Biofizyka, zip
Biofizyka skrypt 2013
biofizyka wyklad 13
Grzesik Biofizyka Skrypt
skrypt 13 KPA PRAWIE SKO CZONY(1)
biofizyka lek 13 I termin
Giełda biofizyka 12 13
I KOLOKWIUM Z BIOFIZYKI 13 2014 (PROMIENIOTWÓRCZOŚĆ)
Skrypt z Prawa?ministracyjnego 13 !
biofizyka egzamin zestawy 13

więcej podobnych podstron