1.
Entalpia swobodna – potencjał termodynamiczny zwany funkcją Gibbsa lub energią swobodną Gibbsa, oznaczany przez , a zdefiniowany następująco:
co jest równoważne:
gdzie
– energia wewnętrzna układu,
–entropia układu,
, – ciśnienie i objętość układu,
– temperatura bezwzględna układu,
– entalpia,
W procesach izotermiczno-izobarycznych ubytek entalpii swobodnej jest równy pracy nieobjętościowej wykonanej przez układ w procesach odwracalnych, natomiast jest większy od tej pracy w procesach nieodwracalnych
Potencjał chemiczny –odgrywa kluczową rolę przy ocenie stanu układu pod względem możliwości wystąpienia w nim transportu materii. Jeżeli w układzie istnieją różnice potencjałów chemicznych, wtedy zachodzą w nim procesy fizyczne lub chemiczne związane z transportem substancji, zmieniające skład układu.
Potencjał chemiczny składnika i w mieszaninie gazów lub roztworze doskonałym wyraża się wzorem:
µi = µ0i + RT ln xi µi – potencjał chemiczny składnika w roztworze
µ0i – potencjał chemiczny składnika w stanie czystym
R – stała gazowa
T – temperatura
xi - ułamek molowy składnika w roztworze
Wzór stosujemy również dla roztworów doskonałych gdzie możemy zaniedbać oddziaływania międzycząsteczkowe czyli roztwory rozcieńczone.
Jeżeli mamy małe stężenie to ułamek molowy jest mały.
Potencjał chemiczny jest najwyższy w stanie czystym, a maleje wraz z rozcieńczaniem
Składnik od potencjału chemicznego wyższego dąży do obniżenia potencjału.
Zjawisko transportu masy- są to rodzaje „sił napędowych”, prowadzących do wyrównania potencjałów chemicznych. Są to dyfuzja i osmoza.
Dyfuzja – jest przykładem transportu biernego. Jeżeli w roztworze znajdują się obszary o różnych stężeniach (różnych potencjałach chemicznych) to odbywa się transport substancji rozpuszczonej w kierunku potencjałów chemicznych: wyższych do niższych, od stężeń większych do mniejszych, aż do stanu równowagi potencjałów chemicznych. Np. woda ma największy potencjał chemiczny dlatego chce wcisnąć się w sok o niższym potencjale lub cukier chce obniżyć potencjał chemiczny, a więc z dna szklanki unosi się do góry. (przykłady z wykładu)
Wzór = prawo Ficka (I prawo: strumień cząstek dyfuzji jest proporcjonalny do gradientu stężenia)
$$\frac{\text{dn}}{\text{dt}} = \ - D\ S$$
D – stała dyfuzji
$\frac{\text{dn}}{\text{dt}}$ – strumień substancji
S− pole powierzchni, na którym zachodzi transport
$\frac{\text{dc}}{\text{dx}}$- - różnica stężeń przed płaszczyzną i za płaszczyzną (gradient stężeń)
Stała dyfuzji rośnie wraz z temperaturą.( Transport jest łatwiejszy w wyższej niż w niższej temperaturze). Współczynnik dyfuzji – jednostka [D]=[m2/S]
Dyfuzja w wodzie 1 10-S , cukier w wodzie 3 10-10 ( 3x szybciej).
Dyfuzja przez błonę- jeżeli dwa roztwory o danym stężeniu molowym c1 oraz c2 będą rozdzielone przez błonę, która utrudnia transport. Jednostka [P] = [m/s].
Wzór:
$\frac{\text{dn}}{\text{dt}} = P\ S\ (\ c$1 – c2 )
$\ \frac{\text{dn}}{\text{dt}}$ - strumień substancji
P – przepuszczalność błony
c1-c2 - różnica stężeń po dwóch stronach błony
Osmoza – dyfuzja rozpuszczalnika przez błonę półprzepuszczalną rozdzielającą dwa roztwory o różnym stężeniu. Osmoza spontanicznie zachodzi od roztworu o niższym stężeniu substancji rozpuszczonej do roztworu o wyższym, czyli prowadzi do wyrównania stężeń obu roztworów.
Ciśnienie osmotyczne jest to siła, która zahamuje transport osmotyczny rozpuszczalnika w stanie równowagi. Można je obliczyć z pracy powiększającej potencjał chemiczny rozpuszczalnika
µ1 = µ2 = µ2 + π ΔV
µ1 = µ2 –praca wykonana po przeniknięciu 1 mola rozpuszczalnika
π ΔV – energia(praca) związana z wybrzuszeniem błony
Ciśnienie osmotyczne jest proporcjonalne do stężenia molowego i do temperatury. Ciśnienie osmotyczne zależy więc od liczby cząsteczek rozpuszczonych w jednostce objętości ale nie zależy od rodzaju ciała rozpuszczonego.
Prawo Van’t Hoffa
π = cm RT
Ciśnienie osmotyczne zależy od:
-stężenia molowego
-temperatury ( im wyższa temperatura tym wyższe stężenie molowe)
Potencjał elektrochemiczny – odgrywa taką samą rolę w układzie zawierającym ładunki elektryczne co potencjał chemiczny w układzie bez ładunków elektrycznych.
Zmiana entalpii swobodnej
ΔWi = ΔG1 = ΔWch + ΔWEl
2.
MODEL ELEKTRYCZNY BŁONY KOMÓRKOWEJ/ POTENCJAŁ CZYNNOŚCIOWY
Model elektryczny błony komórkowej
Błonę komórkową i zachodzące przez nią przepływy można interpretować jako specyficzny układ elektryczny (model Hodgkina i Huxleya). Komórkę rozumiemy tu jako ogniwo stężeniowe o sile elektromotorycznej SEM = V spocz. (różnica potencjału spoczynkowego ). Poszczególne kanały jonowe pełnią rolę przewodników o oporze elektrycznym R, tym mniejszym im łatwiej dany jon jest transportowany przez błonę. Otwarty kanał jonowy generuje siłę elektromotoryczną Vjon ( potencjał równowagowy jonu) wywołującą ruch nośników w kierunku malejącego stężenia. Przewodnictwo wywołane przez dany jon: G = N/R
gdzie N – liczba otwartych kanałów dla danego jonu
R- opór elektryczny kanału jonowego
Błonę z rozseparowanymi ładunkami traktujemy jako kondensator płaski o pojemności Cm naładowany do napięcia równego potencjałowi spoczynkowemu.
Z prawa Ohma możemy zapisac odpowiednie prądy jonowe:
IK = GK (Vspocz -VK )
INa = GNa (Vspocz -VNa )
ICl = GCl (Vspocz -VCl )
Gdzie: IK/Na/Cl- prądy jonowe potasu, sodu, chloru
GK/Na/Cl- przewodnictwo elektryczne jonów potasu, sodu, chloru
VK/Na/Cl- potencjał równowagowy jonów potasu, sodu I chloru
W stanie stacjonarnym
ICl + INa + IK = 0
Zatem potencjał spoczynkowy możemy przedstawic jako średnią ważoną potencjałów
równowagowych sodu i potasu:
POTENCJAŁ CZYNNOŚCIOWY
Jak sama nazwa wskazuje, z potencjałem spoczynkowym mamy do czynienia, gdy komórka jest w stanie stacjonarnym. Potencjał czynnościowy jest zaburzeniem wyprowadzającym błonę komórkową i samą komórkę ze stanu spoczynku. Komórki nerwowe i mięśniowe należą do grupy komórek pobudliwych, które posiadają zdolnośc wytwarzania i przewodzenia potencjału czynnościowego, przekazując tym samym informację (komórki nerwowe) lub wykonując pracę mechaniczną (komórki mięśniowe).
Fazy potencjału czynnościowego
W stanie spoczynku potencjał spoczynkowy komórki jest stały i wynosi np. -90mV (wartośc zależy od rodzaju komórki). Jeżeli działający bodziec (elektryczny, chemiczny lub mechaniczny) spowoduje dostatecznie dużą depolaryzację błony (do wartości ok. -60mV) wówczas wygenerowany zostaje potencjał czynnościowy.
Fazy odpowiadające funkcji rosnącej potencjału (pierwsza: wzrost do wartości ok. +30mV, druga: po osiągnięci minimum potencjału) nazywamy fazami depolaryzacji błony. Fazy odpowiadające zależnościom malejącym natomiast to fazy repolaryzacji.
Widzimy więc, że odpowiedzią na pobudzenie błony (elektryczne, mechaniczne, chemiczne) jest jej depolaryzacja, wskutek czego zmienia się przewodność błony dla jonów Na i K i następuje zmiana potencjału błony.
3.
3. Lepkość. Ciecz newtonowska, płyny plastyczno-lepkie. Ruch burzliwy płynów. Opór naczyniowy. Napięcie powierzchniowe, prawo Laplace’a. Lepkość krwi. Odkształcalność erytrocytów.
Lepkość – inaczej tarcie wewnętrzne, charakteryzuje ją wielkość fizyczna zwana współczynnikiem lepkości. Równanie definiujące współczynnik lepkości podał Newton, odnosząc je do przepływu laminarnego płynów.
Równanie: F= η*S* (Δv/Δx) <- równanie nr.1
F – siła działająca stycznie do warstw o powierzchni S, Δv – różnica prędkości pomiędzy warstwą górną, a warstwą dolną, Δx – różnica odległości pomiędzy tymi dwoma warstwami, η – współczynnik lepkości charakteryzujący dany płyn <- eta jest często określana dynamicznym współczynnikiem lepkości, w odróżnieniu od kinetycznego współczynnika lepkości rozumianego jako: η/ρ ; ρ – gęstość płynu;
Jednostką lepkości jest: 1 (N*s)/m2
inne jednostki: pauz = 10-1 (N*s)/m2 ; centypauz = 10-2 pauza ; paskalosekunda = 1 Pa*s
odwrotność lepkości η płynu nazywa się płynnością.
Siła lepkości F1 działająca na każdą z warstw w przepływie laminarnym jest równa co do wartości sile zewnętrznej F, lecz przeciwnie skierowana czyli: F1 = – F
Równanie nr.1 można przedstwić inaczej:
τ = F/S = η * (Δv/Δx)
tau (τ) – naprężenie ścinające.
Stosunek (Δv/Δx) = ɣ’ jest nazywane szybkością ścienną.
Ciecz newtonowska – ciecz złożona z cząsteczek o niewielkiej masie cząsteczkowej oraz gazów. Dla tych cieczy (np. woda, osocze krwi) współczynnik lepkości jest wielkością stałą przy ustalonej temperaturze i ciśnieniu.
Dla płynów zwanych newtonowskimi spełniona jest zależność:
τ = η * ɣ’
Większość płynów nie spełnia jednak tego warunku -> są to ciecze nienewtonowskie.
Ciecz nienewtonowska – ciecz o dużej masie cząsteczkowej oraz ciała bezpostaciowe np. smoła. Dla takich cieczy współczynnik lepkości przy ustalonej temperaturze i ciśnieniu nie jest wartością stałą i zależy od gradientu prędkości. Zjawisko to jest spowodowane oddziaływaniami międzycząsteczkowymi w płynącej cieczy oraz spowodowana przepływem deformacja zawieszonych w niej cząsteczek.
Lepkość względna zawiesiny (w której znajdują się nienaładowane cząstki w kształcie kuli -> ma to znaczenie przy szacowaniu lepkości np. plazmy komórkowej, zawiesiny komórek) wg. Einsteina :
[η’]= (ηroztworu/ηrozpuszczalnika) = 1 + q * Vw
q – stała (najczęściej q = ok. 2,5) ; Vw – względna objętość cząsteczek
Krew stanowi przykład płynu nienewtonowskiego , będąc taka zwanym płynem plastyczno-lepkim.
Nienewtonowski charakter krwi polega na tym, że stosunek naprężenia ścinającego do gradientu w danych warunkach ciśnienia i temperatury dla danej cieczy nie jest stały. Może on monotonicznie maleć wraz ze wzrostem gradientu prędkości (szybkość ścinania) i nie zależeć od czasu i sposobu ścinania -> wówczas taką ciecz nazywamy pseudoplastyczną. Może też ten stosunek zależeć nie tylko od szybkości ścinania, ale od czasu i sposobu ścinania.
Płyny plastyczno-lepkie (krew) spełniają zależność podaną przez Cassona:
τ1/n = τg1/n + (η*ɣ’)1/n
n- wykładnik potęgowy ; tau g – naprężenie graniczne przy ɣ’ = 0
Lepkość silnie zależy od temperatury. Zależność lepkości płynu od temperatury ma charakter wykładniczy, opisany równaniem:
η= B * eΔEn/KT
B – stała zależna rodzaju płynu; e – podstawa logarytmu naturalnego; k – stała Boltzmanna ;
ΔEn – bariera energetyczna, którą muszą pokonać cząsteczki płynu podczas ich ruchu
Lepkość wpływa na ruch płynów rzeczywistych w przewodach naczyniowych, ruch ciał o różnym kształcie odbywający się w tych płynach.
Do pomiarów wsp. lepkości stosuje się różne metody: metodę opadającej kulki Stokesa, metodę wiskozymetryczną typu Ostwalda lub Coutte’a, metodę stożkowo-płytkową Brookfielda i inne.
Ruch burzliwy płynów.
W pewnych warunkach przepływ laminarny przechodzi w przepływ burzliwy (inaczej turbulentny). Przejście to zachodzi po przekroczeniu pewnej prędkości granicznej, zależnej od rodzaju płynu i rodzaju przewodu naczyniowego.
Przepływ burzliwy charakteryzuje się tym, że cząstki płynu nie poruszają się w kierunku równoległym do osi przewodu naczyniowego, lecz wykonują ruchy chaotyczne o różnych kierunkach prędkości. Takiemu przepływowi towarzyszy powstawanie wirów.
Kryterium przejścia przepływu laminarnego w burzliwy zostało podane przez Reynoldsa przez wprowadzenie pewnej bezwymiarowej liczby, nazwanej liczbą Rey.. (Re). Liczba Re w przypadku przewodu naczyniowego o przekroju kołowym (d-średnica przekroju kołowego) jest określona równaniem:
Re = (ρ * d * v)/ η
ρ – gęstość płynu; eta – lepkość płynu, v – prędkość przepływu płynu
Ustalono, że przy przepływie płynu przez gładkie, proste przewody naczyniowe o przekroju kołowym, ruch płynu jest laminarny, gdy Re<2300, natomiast gdy Re>3000 przepływ jest burzliwy.
Dla wartości pośrednich przepływ ma charakter niestacjonarny – czyli może przejść w burzliwy przy wystąpieniu jakichkolwiek zakłóceń.
Wykorzystując definicję liczby Re można wyznaczyć prędkość krytyczną vk przepływu płynu, po której przekroczeniu orzepływ może stać się burzliwy.
Krytycznej prędkości vk odpowiada krytyczna wartość liczby Reynoldsa Rek = 2300
Zatem przy przepływie płynu przez przewód o przekroju kołowym równanie określające vk ma postać:
Vk = (Rek*η) / (ρ * d)
Z powyższego wzoru wynika, że dla określonego płynu prędkość krytyczna jest odwrotnie proporcjonalna do średnicy przewodu naczyniowego.
Opór naczyniowy.
Opór naczyniowy (Rp) przepływu jest odwrotnością przewodności naczyniowej.
Rp = 1/Ap = (8η/π)*(l/r4) -> gdzie Ap to przewodność naczyniowa
Jednostką oporu jest jest: 1 (Pa*s)/m3
Wzór na przewodność naczyniowa wynika z prawa Hagena-Poiseuille’a, które określa zależność pomiędzy strumieniem objętości cieczy, a jej lepkością, różnicą ciśnień delta p powodującą przepływ, oraz wielkościami geometrycznymi naczynia.
Prawo to formułuje się przy następujących założeniach:
Ciecz nie jest lepka
Ciecz jest nieściśliwa
Przepływ jest laminarny
Przepływ cieczy jest stacjonarny
Przepływ cieczy jest wymuszony róznicą ciśnień delta p na końcach rury o długości l i promieniu r.
Wówczas prawo Hagena-Poiseuille’a:
Φv = ΔV/Δt = (π * r 4 * Δp) / (8 * η * l)
Gdzie: Φv = ΔV/Δt – strumień objętości cieczy przepływającej przez przewód naczyniowy pod wpływem Δp.
Wprowadzając oznaczenie:
Ap = (π * r 4) / (8 * η * l)
Wtedy prawo Hagena-Poiseuille’a przyjmuje postać charakterystyczną dla procesów transportu:
Φv = Ap * Δp
Wielkość Ap jest rozumiana jako przewodność naczyniowa i ma jednostkę:
[Ap]= 1 m3/(Pa*s)
Napięcie powierzchniowe. Prawo Laplace’a.
Energia powierzchniowa właściwa nazywa się także współczynnikiem napięcia powierzchniowego lub po prostu napięciem powierzchniowym.
Stycznie do powierzchni cieczy działają siły, zwane siłami napięcia powierzchniowego, starające się zmniejszyć swobodną powierzchnie cieczy.
Chcąc utrzymać stałe pole powierzchni błony mydlanej, rozpiętaj na ramce z drutu trzeba na ruchome ramię ramki działać siłą F. Wymaga to zrównoważenia wypadkowej siły napięć powierzchniowych, zaczepionych wzdłuż ramienia o długości L=2l (2l, ponieważ siły działają po obu stronach błony).
Zwiększenie pola blony o ΔS=L*Δx wymaga wykonania pracy ΔW=F*Δx, stąd napięcie powierzchniowe wyraża również wzór w postaci:
σ = ΔW/ΔS = (F*Δx)/(L*Δx) = F/L
jednostka [σ] = J/m2 = N/m
Napięcie powierzchniowe wyraża się stosunkiem wypadkowej sił napięcia powierzchniowego do długości odcinka, wzdłuż którego są zaczepione.
Prawo Laplace’a wiąże się ze stanami powierzchniowymi zakrzywionej powierzchni cieczy. Stany powierzchniowe powodują, że pod zakrzywioną powierzchnią cieczy panuje ciśnienie inne jak pod płaską. W przypadku powierzchni wypukłych na ciecz działa ciśnienie większe, a w przypadku powierzchni wklęsłych – mniejsze jak przy powierzchniach płaskich.
Wartość nadwyżki p ciśnienia dla cieczy w kształcie kuli wyraża wzór Laplace’a:
P= 2 σ/r
r – promień powierzchni kulistej
Dla powierzchni o różnych krzywiznach wzór Laplace’a przyjmuje postać:
P= σ(1/R1 + 1/R2)
R.. – promienie krzywizny powierzchni cieczy w dwóch do siebie prostopadłych przekrojach
Dla walca:
R2= ∞, R1 = R, czyli wzór przyjmuje postać uproszczoną:
P= σ/R
Wzór Laplace’a znalazł szerokie zastosowanie w analizach biofizycznych, np. w ocenie ciśnienia w naczyniu krwionośnym, w pęcherzykach płucnych, itd.
Odkształcalność erytrocytów.
Prawidłowe erytrocyty mają szczególną zdolność do odkształceń pod wpływem naprężęń przede wszystkim dzięki temu, że pozbawione są jądra komórkowego, ich cytoplazma ma stosunkowo małą lepkość, błona komórkowa ma korzystne właściwości lepko-sprężyste, a odpowiedni kształt zapewnia dużą wartość stosunku powierzchni swobodnej do objętości.
Powierzchnia krwinek czerwonych przy normalnym kształcie erytrocytów jest znacznie większa niż przy kształcie kulistym. Zmniejszona odkształcalność erytrocytów występuje w różnych chorobach i odgrywa ważną rolę w zaburzeniach przepływu krwi, zwłaszcza na poziomie mikrokrążenia, oraz zaburza podstawowe funkcje erytrocytów.
Podsumowując: to, że erytrocyty mają zdolność do odkształceń umożliwia im ‘przeciskanie się’ przez naczynia włosowate o bardzo małej średnicy.
Źródło: Jaroszyk i Terlecki
4.
Elektryczność i magnetyzm (serca):
Elektryczna i magnetyczna aktywność serca jest rezultatem zjawisk bioenergetycznych oraz bioelektrycznych zachodzących we włóknach mięśnia sercowego stanowiącego główną część wsierdzia, związanych z wykonywaniem pracy, mechanicznej, i we włóknach układu przewodzenia, które charakteryzują się swoistą właściwością autonomicznego wytwarzania i przewodzenie pobudzeń.
Dipol elektryczny:
Rozsunięte na pewną odległość różnoimienne ładunki elektryczne tworzą dipol elektryczny. Linia przechodząca przez oba ładunki nazywa się osią dipola. Ładunki elektryczne rozmieszczone po wewnętrznej i zewnętrznej stronie błony komórkowej możemy traktować jako zbiór małych dipoli które są źródłem pola elektrycznego. Każdy dipol charakteryzuje elektryczny moment dipolowy:
P = q * l
gdzie:
q – wartość ładunku elektrycznego (wartość dodatniego ładunku)
l – wektor łączący obydwa ładunki o zwrocie od ładunku ujemnego do dodatniego.
Wartość wektora równa jest odległości między ładunkami.
Ponieważ punkty na ciele, pomiędzy którymi mierzymy spadek potencjału są w dużo większej odległości niż poszczególne dipole, momenty dipolowe wszystkich małych dipoli na błonach komórkowych mięśnia sercowego sumują się. Dlatego serce możemy traktować jako jeden duży dipol. Po depolaryzacji wypadkowy moment dipolowy ulega zmianie, co jest źródłem spadku napięcia mierzonego na skórze w różnych punktach ciała. Wypadkowy moment dipolowy serca zmierzony w danej chwili jest nazywany chwilowym wektorem elektrycznym serca. Wektor ten ma punkt zaczepienia w środku serca, a jego kierunek i zwrot zmienia się zgodnie z przebiegiem fali depolaryzacyjnej. Jeżeli uśrednimy chwilowe wektory elektryczne serca z czasu depolaryzacji komór (załamek QRS) i zrzutujemy taki wektor na płaszczyznę to otrzymamy oś elektryczną serca. wypadkowym momencie dipolowym. W trakcie przechodzenia fali.
Bijące serce można z dobrym przybliżeniem traktować jako dipol elektryczny, dla którego położenie osi oraz wartość momentu dipolowego podlegają okresowym zmianom. Moment dipolowy serca powstaje w wyniku sumowania wielu momentów dipolowych małych dipoli, powstających lokalnie w mięśniu sercowym podczas rozprzestrzeniania się zarówno fali depolaryzacji jak i fali repolaryzacji. Każdy dipol elektryczny wytwarza w przestrzeni pole elektryczne, które można określić przez pomiar natężenia pola w poszczególnych punktach. Możliwa jest także procedura odwrotna, polegająca na wnioskowaniu o rozkładzie ładunków na podstawie przebiegu linii sił pola elektrycznego. Serce stanowiące zmieniający się w czasie dipol elektryczny powoduje powstanie ciągu zmiennych potencjałów elektrycznych. Zmiany te rozprzestrzeniają się w całym ciele i docierają do powierzchni ciała, gdzie mogą być rejestrowane za pomocą odpowiedniej aparatury. Po wzmocnieniu sygnały te są zapisywane – w ten sposób powstaje elektrokardiogram. Podczas akcji serca modelujący je moment dipolowy zmienia zarówno wartość jak i kierunek. Położenie elektrod pomiarowych dobiera się zawsze tak, by na podstawie pomiaru potencjału można było określić chwilową wielkość rzutu wektora elektrycznego serca na płaszczyznę (zwykle czołową lub prostopadłą do niej w przypadku odprowadzeń przedsercowych). Przy rekonstrukcji momentu dipolowego z mierzonych różnic potencjałów podstawowym założeniem jest to, że ciało człowieka stanowi dla pola elektrycznego jednorodny ośrodek.
Układ krążenia:
Układ bodźcotwórczy serca:
Autonomiczny układ bodźcoprzewodzący wytwarza cyklicznie pobudzenie elektryczne, które następnie jest przenoszone na włókna mięśniowe. Układ bodźcotwórczy zbudowany jest z ośrodków, które generują impulsy z różną częstotliwością. Jeżeli połączenia pomiędzy poszczególnymi ośrodkami są prawidłowe to rytm pracy serca narzuca węzeł zatokowo-przedsionkowy, który kurczy się z najwyższą częstotliwością.
Komórki mięśniowe w sercu połączone są ze sobą wstawkami o niewielkim oporze elektrycznym. Wzbudzenie dowolnego elementu przedsionków lub komór pobudza wszystkie pozostałe komórki sierdzia i układu przewodzenia. Komórki układu przewodzenia są nazwane komórkami rozrusznikowymi (automatyzmu (węzeł zatokowo-przedsionkowy, niektóre komórki przedsionkowe, węzeł przedsionkowo-komorowy, włókna Purkiniego i pęczek Hisa). W sercu prawy i lewy przedsionek oraz prawa i lewa komora oddzielone są tkanką łączną, która stanowi zły przewodnik prądu (izolator). Z elektrycznego punktu widzenia węzeł przedsionkowo-komorowy i pęczek Hisa – lewa i prawa odnoga są odpowiedzialne za przewodzenia pobudzenia do lewej i prawej komory serca.
Częstotliwość impulsów generowanych przez poszczególne części układu:
-węzeł zatokowo-przedsionkowy – 60-80/min,
-węzeł przedsionkowo-komorowy – 30-50/min,
-pęczek Hissa – 40/min,
-włókna Purkiniego – 20/min.
Źródłem pobudzeń elektrycznych w mięśniu sercowym są wyspecjalizowane komórki rozrusznikowe (zlokalizowane w węźle zatokowo-przedsionkowym i węźle przedsionkowo-komorowym), których potencjał spoczynkowy nie jest stały ( jak w komórkach roboczych mięśnia sercowego), tylko ulega spontanicznie i samoistnie podwyższeniu (co bywa nazywane powolną spoczynkową depolaryzacją), aż do osiągnięcia potencjału progowego, co wiąże się z wytworzeniem potencjału czynnościowego i powstaniem pobudzenia rozchodzącego się wzdłuż przebiegu układu bodźcoprzewodzącego, a następnie roboczego mięśnia komór, co przejawia się wystąpieniem skurczu serca. Następnie cały cykl powtarza się.
Potencjał czynnościowy komórek kurczliwych:
Pobudzenie elektryczne błony komórkowej następuje dzięki przepływom jonów (transport aktywny jonów: Na+, K+, transportu dyfuzyjnego i elektrycznego jonów: Na+, K+ i CL- i w przypadku serca Ca2+). Bodziec nadprogowy powoduje lokalną zmianę potencjału spoczynkowego błony komórkowej z ujemnego na dodatni. Tę fazę nazywamy fazą depolaryzacji. Pobudzenie to rozprzestrzenia się wzdłuż błony komórkowej. Fazie depolaryzacji w sercu odpowiada skurcz komórek mięśniowych. Następnie błona komórki powoli wraca do stanu spoczynkowego, następuje faza repolaryzacji, odpowiadająca w sercu fazie rozkurczu mięśnia.
Na skutek działania ośrodka bodźcotwórczego ( komórek rozrusznikowych) następuje depolaryzacja komórek kurczliwych – w tym momencie następuje szybka aktywacja kanałów sodowych. Odcinek „plateau” potencjału czynnościowego związany jest gównie z ze wzrostem przewodności właściwej błony jonów Ca2+. Repolaryzacja wiąże się ze zmniejszeniem przewodnictwa właściwego dla jonów wapnia i zwiększeniem przewodności właściwej sodu błony komórek kurczliwych. Odcinek RB jest określany jako czas refrakcji bezwzględnej, czyli niewrażliwości. W tym czasie nie jest możliwe kolejne pobudzenie komórki. Czas ten zabezpiecza komórkę kurczliwą przed przedwczesnym ponownym pobudzeniem oraz zapewnia wygaszenie pobudzenia.
EKG:
Obrazuje bioelektryczną (nie mechaniczną) czynność serca. Jest to metoda rejestrowania zmian prądów i różnic potencjałów czynnościowych, wytwarzanych i przewodzonych przez układ bodźcotwórczo-przewodzący serca w czasie jego czynności.
Na krzywej EKG 5 charakterystycznych załamków:
Zespół PQ dotyczy powstawania pobudzenia w węźle zatokowo-przedsionkowym i jego rozprzestrzeniania się w przedsionkach – najpierw prawym, a później w lewym.
Zespół QRS ilustruje początek przejścia pobudzenia przez komory, który pokrywa się z procesem repolaryzacji przedsionków.
Załamek T oznacza repolaryzację pobudzenia komór.
Odcinek ST odpowiada za aktywność wszystkich komórek kurczliwych obu komór.
Wydłużenie odcinka PQ oznacza opóźnienie pobudzenia w węźle zatokowo-przedsionkowym lub pęczku Hissa.
Zwiększenie czasu trwania zespołu QRS dotyczy zakłóceń przewodzenia pobudzenia komorach serca.
Załamek U (nie pojawiający się zawsze) odpowiada za repolaryzację końcowych włókien komórek przewodzenia.
Tak prościej:
Załamki – wychylenie od linii izoelektrycznej:
Załamek P – jest wyrazem depolaryzacji mięśnia przedsionków
Zespół QRS – odpowiada depolaryzacji mięśnia komór
Załamek T – odpowiada repolaryzacji komór
Odcinki - czas trwania linii izoelektrycznej pomiędzy załamkami:
PQ – czas między skurczem przedsionków i komór (wyraża czas przewodzenia depolaryzacji przez węzeł przedsionkowo-komorowy)
ST – czas między skurczem i rozluźnieniem komór (okres depolaryzacji komór)
TP – czas między skurczami
Odstępy- łączny czas trwania odcinków i sąsiadującego załamka:
PQ – czas przewodzenia depolaryzacji od węzła zatokowo-przedsionkowego do
mięśnia komór
ST – czas wolnej i szybkiej repolaryzacji mięśnia komór
QT – potencjał czynnościowy mięśnia komór (depolaryzacja + repolaryzacja)
RR – czas trwania jednego cyklu pracy serca
Odprowadzenie Einthovena
Dwubiegunowa metoda, wykorzystująca odprowadzenia kończynowe. Jedną elektrodę przykłada się do lewego ramienia (LR), drugą do prawego ramienia (RP), trzecią zaś do lewej nogi (LN).
I odprowadzenie Einthovena – różnica potencjał elektrycznych między elektrodami LR a PR ( VL – VP)
II odprowadzenie Einthovena – różnica potencjał elektrycznych między elektrodami PR a LN ( VP – VN)
III odprowadzenie Einthovena – różnica potencjał elektrycznych między elektrodami LR a LN ( VL – VN)
Równanie:
( VL – VP) + ( VP – VN) + ( VL – VN) = 0
Co można również zapisać jako:
( VL – VP) + ( VN – VL) = ( VN – VP)
W zasadzie wystarczyłyby informacje z I i III odprowadzenia, lecz klinicznie stosuje się wszystkie trzy, gdyż zwiększa to redundancję informacji, czyli zwiększa jej zrozumienie.
6.
Laser jest to generator promieniowania, który wykorzystuje zjawisko emisji wymuszonej i inwersji obsadzeń. Laser jest skrótem od Light Amplification by Stimulated Emission of Radiation, czyli wzmocnienie światła przez wymuszoną emisję promieniowania.
Promieniowanie lasera jest więc falą elektromagnetyczną i pochodzi od wzbudzonego elektronu. Z działaniem lasera wiążą się takie pojęcia jak absorpcja, emisja spontaniczna i emisja wymuszona, wyjaśnijmy więc najpierw te pojęcia.
Absorpcja
Jest to po prostu pochłanianie kwantu promieniowania, czyli fotonu, który posiada określoną porcję energii (h – stała Plancka, ν – częstotliwość światła). Jeżeli ta jego energia jest równa różnicy energii pomiędzy stanem wzbudzonym elektronu (E2) a stanem podstawowym (E1), wtedy właśnie ten foton może być pochłonięty.
Emisja spontaniczna
I wtedy właśnie, jak już nasz elektron znajduje się w stanie wzbudzonym, zdarza mu się całkiem spontanicznie wrócić na niższy poziom energetyczny i przy okazji emituje on foton o takiej samej lub (częściej) niższej energii. Fotony takie emitowane są całkiem przypadkowo, tzn w różnych kierunkach, a emitowana fala elektromagnetyczna jest niespójna. Zjawisko takie jest powszechne i odpowiada właściwie za większość zjawisk świecenia ciał.
Emisja wymuszona
W końcu dochodzimy do sedna sprawy i mechanizmu, który pozwala nam konstruować lasery. Generalnie gdyby istniała tylko absorpcja i tylko emisja spontaniczna, to w krótkim czasie wszystkie atomy byłyby wzbudzone i promieniowanie nie byłoby pochłaniane i emitowane, gdyż prawdopodobieństwo pochłonięcia atomu zależy od natężenia światła (czyli ilości fotonów), zaś prawdopodobieństwo emisji spontanicznej zależy od średniego czasu życia danego stanu wzbudzonego. Tak powiedział Einstein, więc uwierzmy mu na słowo i opiszmy zjawisko emisji wymuszonej.
Jest przeciwieństwem absorpcji i ilość emitowanych fotonów zależy od ilości fotonów padających. Jeżeli padający foton ma energię równą energii wzbudzenia atomu, to
możliwe jest zajście emisji wymuszonej. Padający foton nie jest pochłaniany, jest tylko wyzwalaczem całego procesu, czyli emisji kolejnego fotonu i przejścia atomu na niższy stan energetyczny. Ten nowy foton ma właściwości takie same jak foton padający – częstotliwość (zatem energię też), fazę i polaryzację, jak również kierunek ruchu.
Światło laserowe z tego względu ma następujące właściwości:
jest monochromatyczne (ma jedną długość fali – kolor)
jest koherentne (spójne) – ta sama faza
jest skolimowane – emitowane w postaci mało rozbieżnej wiązki w jednym kierunku (średnica wiązki nie ulega zmianie w miarę oddalenia od lasera).
Jest jeszcze jedno zjawisko niezbędne do zajścia akcji laserowej, a mianowicie inwersja obsadzeń. Jest to stan, w którym więcej elektronów jest w stanie wzbudzonym niż w stanie podstawowym.
Następuje to w momencie pompowania do układu energii, atomy wzbudzają się i od razu następowała by emisja spontaniczna dlatego powinno się to odbywać w taki materiale aby na pewnym poziomie wzbudzonym czas przebywania elektronu był dostatecznie długi. Taki poziom nazywamy poziomem metastabilnym. Atom przechodzi do wysokiego stanu wzbudzonego, a następnie przeskakuje bez emisji fotonu na stan niższy (metastabilny) Wtedy rezonansowy foton wyzwala emisje wielu fotonów naraz o tej samej fazie i częstotliwości.
Dobra, wiemy już jakie zjawiska fizyczne za to odpowiadają. Ale jak właściwie działa cały ten laser, co pozwala uzyskać emisję wymuszoną, czyli krótko o jego budowie.
Laser składa się z ośrodka aktywnego, rezonatora optycznego i układu pompującego.
Ośrodek aktywny to zespół atomów, jonów czy cząsteczek. Atomy niektórych pierwiastków posiadają poziomy energetyczne, na których elektron pozostaje znacznie dłużej (kilkaset μs, kilka ms). Wskutek pobudzania zewnętrznym polem elektrycznym elektrony w atomach przechodzą do stanu metatrwałego, wytwarzając inwersję obsadzeń, dzięki czemu możliwe jest zajście akcji laserowej.
Rezonator, czyli układ optyczny. Pełni rolę dodatniego sprzężenia zwrotnego dla światła o wybranym kierunku i określonej długości fali. Spośród wszystkich możliwych kierunków świecenia i wszystkich dostępnych dla ośrodka długości fal, jedynie światło o parametrach ustalonych przez rezonator będzie wzmacniane na tyle mocno, by doprowadzić do akcji laserowej.
Sprzężenie zwrotne polega na możliwości wielokrotnego przepływu fotonów przez ośrodek, połączonego z ich kaskadowym powielaniem wskutek emisji wymuszonej, dzięki czemu laser generuje spójne światło. Układ optyczny rezonatora składa się zazwyczaj z dwóch dokładnie wykonanych i odpowiednio ustawionych zwierciadeł. Dla określonego kierunku możliwe jest wielokrotne odbicie pomiędzy zwierciadłami, i tylko fotony o takim kierunku, mogą wielokrotnie przebiegać przez ośrodek czynny, powodując akcję laserową.
Aby emitowane światło laserowe mogło wydostać się poza rezonator (na zewnątrz lasera), przynajmniej jedno z luster powinno być częściowo przepuszczalne.
Zadaniem układu jest przeniesienie jak największej liczby elektronów w substancji czynnej do stanu wzbudzonego. Układ musi być wydajny by zapewnić inwersję obsadzeń. Pompowanie lasera odbywa się poprzez błysk lampy błyskowej (flesza), błysk innego lasera, przepływ prądu (wyładowanie) w gazie, reakcję chemiczną, zderzenia atomów, wstrzelenie wiązki elektronów do substancji.
Diagnostyczne:
tomografia optyczna i OCT (koherentna tomografia optyczna)
przepływy krwi
pomiary pH i utlenienia krwi
rejestracja zmian patologicznych
terapeutyczne:
fotochemoterapia – światło laserowe wywołuje reakcje chemiczne o charakterze terapeutycznym
nagrzewanie – koagulacja i zespajanie: krew jest koagulowana przez ciepło + uszczelnienie naczyń o małej średnicy – kontrola krwawienia
odparowanie – cięcie przez odparowanie: chirurgia ogólna, ginekologia, chirurgia ortopedyczna, neurochirurgia
efekt impulsu laserowego – nanosekundowy lub milisekundowy impuls
W medycynie stosuje się lasery:
wysokoenergetyczne,
niskoenergetyczne.
Lasery wysokoenergetyczne służą do destrukcji bądź usuwania tkanek. Mają średnią lub dużą moc, bądź są to lasery impulsowe.
W okulistyce lasery są wykorzystywane do przecinania cyst powiek lub spojówek, przecinania naczyń wrastających w rogówkę, perforacji cyst tęczówki, przecinania zrostów tęczówkowo - rogówkowych, do zabiegów przeciwjaskrowych i przeciwzaćmowych, do korekcji wad wzroku (astygmatyzmu, krótkowzroczności i dalekowzroczności) i do witreotomii. Szczególnym wskazaniem do laserowej korekcji wady refrakcji jest duża wada wzroku tylko w jednym oku.
Dermatolodzy za pomocą laserów usuwają naczyniaki oraz niektóre nowotwory (np. raka podstawnokomórkowego).
W laryngologii laserem leczy się nowotwory krtani oraz wykonuje rekonstrukcję kosteczek słuchowych.
W pulmonologii lasery są stosowane do rekanalizacji dróg oddechowych, usuwania ciał obcych i źródeł krwawienia, fotokoagulacji receptorów kaszlu.
W chirurgii lasery służą do udrażniania przełyku w chorobach nowotworowych, hamowania krwawienia z górnego odcinka przewodu pokarmowego, leczenia łagodnych nowotworów jelita grubego.
W ginekologii lasery są stosowane w laparoskopii do uwalniania zrostów wewnątrzmacicznych i w miednicy, w leczeniu endometriozy, mięśniaków, łagodnych torbieli przydatków, wodniaków jajowodów.
W urologii są stosowane do kruszenia złogów w moczowodach, leczenia łagodnego przerostu prostaty.
W neurochirurgii są wykorzystywane do usuwania oponiaków, glejaków i nerwiaków.
W chirurgii naczyniowej za pomocą laserów wykonywana jest przezskórna angioplastyka.
Lasery niskoenergetyczne działają biostymulująco poprzez wpływ na metabolizm komórek.
Jest to wykorzystywane w leczeniu ran, oparzeń, odleżyn oraz bólów stawowych.
Ze względu na:
ośrodek aktywny:
ciało stałe: rubin, neodymowy na szkle, neodymowy na YAGu
ciecz: barwnikowe
gaz: helowo-neonowy, na dwutlenku węgla, argonowy
długość fali : UV, widzialne, podczerwień
emisja w czasie: ciągłe, impulsowe
Oddziaływanie promieniowania z tkanką zależy od następujących parametrów:
rodzaju tkanki biologicznej (jej własności rozproszeniowych, termicznych, absorpcyjnych - wszelkie efekty fotobiologiczne mogą zostać wywołane jedynie przez promieniowanie zaabsorbowane, czyli pochłonięte przez układ)
charakterystyki promieniowania (m.in. długości fali promieniowania)
gęstości mocy energii, wartości średniej mocy i energii, czasu ekspozycji (czasu naświetlania, częstotliwości powtórzeń)
Tkanka biologiczna składa się z wody i długich łańcuchów cząsteczek organicznych. Wiązka promieniowania padając na powierzchnię tkanki częściowo jest odbijana i rozpraszana, a częściowo pochłaniana. Rozproszenie i absorpcja promieniowania zależą od własności tkanki (składu chemicznego, zawartości wody, barwników endogennych: hemoglobina, melanina, stanu funkcjonalnego: ukrwienie, pH) i od długości fali promieniowania (im dłuższa fala tym głębsza penetracja). Zaabsorbowane światło zostaje przekształcone w ciepło i podnosi temperaturę tkanki.
Rysunek ukazuje współczynnik absorpcji promieniowania o różnej długości fali dla wybranych istotnych składników ludzkiej tkanki: wody, protein, hemoglobiny i melaniny oraz średnią głębokość wnikania w wodzie. Generalnie obydwie wielkości są od siebie zależne: im większa absorpcja tym mniejsza głębokość wnikania.
Na kolejnym rysunku przedstawiono aspekt głębokości wnikania promieniowania elektro-magnetycznego w zakresie dostępnym przy zastosowaniu różnych laserów. Obydwa wykresy są niezwykle istotne dla osób podejmujących decyzję o wyborze urządzenia laserowego, np. szukając urządzenia dla operacji cięcia istotna jest duża absorpcja promieniowania i małą inwazyjność (głębokość wnikania). W przypadku chirurgii ogólnej najlepiej do tego celu nadają się lasery CO2 (również ze względu na niską cenę urządzenia) lub lasery Er:YAG o mocach ok. 40 - 100 W.
Głębokość penetracji nie zależy od czasu naświetlania.
Najbardziej korzystne dla biostymulacji laserowej jest promieniowanie z zakresu tzw. ,,okienka optycznego’’ – obejmuje ono promieniowanie o długości fali od 550nm do 950 nm – jest to promieniowanie o największej penetracji. Związane to jest z małymi współczynnikami rozpraszania i pochłaniania dla tych długości fal. Światło o długości fali spoza tego przedziału jest absorbowane powierzchownie i nie działa stymulująco na głębiej położone tkanki.
Parametry fizyczne wiązki laserowej. Określają je wielkości fizyczne, do których zaliczamy:
Długość fali λ – konkretna dla danego lasera, określana w [nm]
Moc promieniowania określana w [W] lub [mW]; opisuje szybkość przepływu energii
E = P / t lub P = E x t
gdzie E – energia promieniowania, P – moc, t – czas
energia promieniowania E, wyrażana w [J] jest miarą dawki
1J = 1W x 1s = 1mW x 1000s = 10 mW x 100 s
Gęstość powierzchniowa energii w [J/cm2] konkretnie określa ilość energii dostarczonej na 1 cm2 naświetlanej powierzchni ciała pacjenta
Gęstość energii = energia / powierzchnia
Epow = P x t / S ; gdzie S = powierzchnia
1J/cm2 = 1W x 1s /1 cm2
Uwaga!!! Bezpieczna dla tkanek biologicznych gęstość powierzchniowa wynosi 50 J/cm2 i nie wolno jej nigdy przekraczać !!!
Rodzaj emisji – ciągła, impulsowa lub modulowana
Czas trwania zabiegu, który możemy obliczyć na podstawie wzoru:
Epow = P x t / S lub t = (S x Epow ) / P
oraz parametry dotyczące emisji impulsowej:
Czas trwania (szerokość) impulsów ti podawany w ns
Częstotliwość impulsów f:od 1 do10 000 Hz
7.
7. Czynniki fizyczne wpływające na organizm. Czynniki mechaniczne.
temperatura,
wilgotność,
pole elektryczne i magnetyczne,
promieniowanie jonizujące,
promieniowanie niejonizujące.
Czynniki mechaniczne:
fale sprężyste
1-10 MHz – ultradźwiękowa diagnostyka medyczna, nieniszczące działanie materiałów,
do 100 MHz – badanie tkanek,
do 3 GHz – mikroskopia akustyczna
Infradźwięki (0,1-20Hz) (nie słyszymy ich!)
źródła:
naturalne – ruchy powietrza i wody, wyładowania atmosferyczne, ruchy tektoniczne Ziemi,
sztuczne – wybuchy jądrowe, lotnictwo, rakiety, transport
Dla f = 10Hz λ =34m – słabe tłumienie przez przegrody ściany
Działanie: drgania rezonansowe klatki piersiowej, przepony brzusznej, organów trawiennych,
Objawy:
zaburzenia systemu oddychania,
zakłócenia równowagi,
zmniejszenie ostrości widzenia,
opóźnienie reakcji nerwowych.
Wpływ poziomu natężenia na oddziaływanie infradźwięków na organizm:
[db]
< 120 – nie szkodzą, brak wrażeń,
120 – 140 – kekkie zakłócenie procesów fizjologicznych, uczucie zmęczenia
140 – 160 – po 2 min. zakłócenie równowagi, wymioty, >> 2 min trwałe uszkodzenie
> 170 – u zwierząt działanie śmiertelne (przekrwienie płuc)
Wibracje (0,1 – 20Hz) (kontakt ze źródłem)
Drgania (f < 20Hz) przenoszenie na organizm przez bezpośredni kontakt z układem drgającym
źródła: rozciąganie i przemieszanie tkanek
rezonans:
4 – 10Hz – klatka piersiowa, jama brzuszna,
10 – 18Hz – pęcherz moczowy
Objawy:
bóle w klatce piersiowej,
zaburzenia oddychania,
zmiany naczyniowe,
zaburzenia hormonalne i biochemiczne.
Choroba wibracyjna.
Ultradźwięki (>20Hz)
źródła:
naturalne – zwierzęta,
sztuczne – piszczałki, zjawisko piezoelektryczne
Ultradźwięki w tkankach
zjawisko:
odbicie, z-odporność akustyczna,
załamanie,
ugięcie,
rozpraszanie Rayleigh (d << λ) αR (f) = kRf4, (dlaczego niebo jest niebieskie) (światło niebieskie 2 razy wyższa częstotliwość od czerwonego)
absorpcja,
Zjawiska występują zależnie od:
rodzaju tkanki )miękka, twarda,
częstotliwości,
relacji λ – d,
orientacji obiektu (w org. Obiekty podłużne itp.),
oporu akustycznego ośrodka.
Działanie ultradźwięków:
działanie czynne (0,5 – 20kW/m2) zmiany nieodwracalne lub utrzymujące się stosunkowo długo,
efekty mechaniczne (zmiany ciśnienia, zniszczenie struktury ośrodka, zjawisko kawitacji
cieplne (leczenie),
chemiczne, przyspieszone reakcje chemiczne, rozpad białek, wzrost jonizacji, wzrost dyfuzji przez błony.
Wykorzystanie:
leczenie chorób reumatycznych, narządów ruchu, tkanki łącznej, niszczenie ognisk patologicznych, niszczenie wirusów, grzybów, bakterii, sterylizacja leków, mikromasaż, usuwanie kamienia zębów,
Działanie bierne:
bardzo małe natężenia (I << 10kW/m2),
mała długość fali (10-2-10-5m),
dobrym prostoliniowym rozchodzeniem się.
Fale ultradźwiękowe odgrywają bierną rolę przekaźnika sygnału. Bardzo małe wartości natężeń zapewniają, że pomiary nie wpływają na właściwości ośrodka ani na przebieg badanego procesu.
Pomiary:
opóźnienia w czasie między dwoma sygnałami Δt [s],
różnicy poziomów natężeń tych sygnałów Δi [dB].
Różnicę poziomów natężenia (Δi) między dwoma punktami odległymi o (Δt) wyznaczają współczynnik tłumienia:
q= Δi/Δt =[dB/cm]
liotrypsja – metoda kruszenia złogów w organizmie za pomocą fal uderzeniowych (nagłe zmiany ciśnień – fala akustyczna o wysokiej energii – pojedyncze impulsy).
Ultrasonografia – rozchodzenie się fal ultradźwiękowych zależy od właściwości ośrodków: sprężystości, gęstości, zdolności rozciągania, niejednorodności, anizotropii, budowy molekularnej, w przypadku ruchu ośrodka zależą od jego prędkości.
Szkodliwe działanie ultradźwięków na obiekty biologiczne:
Działanie termiczne:
zależy od:
natężenia,
częstotliwości i kształtu pola,
rodzaju ekspozycji – ciągła, impulsowa,
kierunku – anizotropia,
prędkości przepływu krwi,
konwekcji cieplnej (wody).
Działanie mechaniczne:
powoduje:
przemieszczanie się struktur wewnątrz komórek,
działanie sił i momentów sił związanych z mikroprzepływami,
kawitację – oddziaływanie polaq ultradźwiękowego z pęcherzykami gazu. Mogą zbliżać się i łączyć w rezonansie pęcherzyki mogą mechanicznie uszkodzić strukturę biologiczną. Zapadaniu towarzyszy wzrost temperatury – dysocjacja wody – wolne rodniki – produkty toksyczne.
Działanie chemiczne:
reakcje utleniania – powstaje nadtlenek wodoru,
zmiana stężenia jonów H+,
jonizacja ośrodka.
Wpływ przyśpieszeń
F = m * a
zależy od
wartości przyspieszenia
czasu trwania,
kierunku i zwrotu w stosunku do podłużnej osi ciała,
szybkości zmian przyspieszenia,
kondycji i wcześniejszego treningu organizmu.
czas trwania rodzaj
Δt ≤ 0,05s udarowe
0,5s < Δt <1s krótkotrwałe
1s < Δt < kilka s przedłużone
Δt > kilka s przewlekłe
Relacja wektor przyśpieszenia – oś ciała: podłużne, strzałkowe, poprzeczne
przykładowe wartości przyspieszeń:
wartość a [g] czas trwania przyśpieszenia [s]
alarmowe zatrzymanie windy 2,5 1
lądowanie na spadochronie 3-4 0,1-0,2
katapultowanie fotela z kabiny samolotu 10-15 0,25
katastrofa samolotu (możliwe do przeżycia) 20-100 0,1
Wyróżniamy przyspieszenia:
Wzdłuż podłużnej osi ciała:
+Gz – od głowy do stóp,
-Gz – od stóp do głowy.
W strzałkowej osi ciała (plecy, mostek):
+Gx – od mostka do pleców,
-Gx – od pleców do mostka.
W poprzecznej osi ciała (lewy bok – prawy bok)
+Gy – od prawej do lewej strony,
-Gy – od lewej do prawej strony.
Przyśpieszenia podłużne: przemieszczanie narządów, spadek ciśnienia krwi – niedotlenienie mózgu,
Górna granica toleranji +Gz (od głowy do stóp):
a [g] Δt [s]
3 1080-3600
4 60-1200
5 8-480
8 kilka
Przyspieszenia -Gz są bardziej szkodliwe dla organizmu człowieka niż +Gz:
Granica tolerancji -Gz (od stóp do głowy):
a [g] Δt [s]
3 ok 30
4,5 ok 5
5 ok 2
10 < 1
Wpływ ciśnienia na organizm człowieka:
ciśnienie atmosferyczne 105 N/m2 – wyższe hiperbaria, niższe hipobaria
działanie biochemiczne i mechaniczne
zmiany cisnienia wraz ze zmianami wysokości: p=p0 exp (-g * ρ0/p0 * h) ρ0 – gęstość; p0 - ciśnienie na wysokości odniesienia.
Wpływ obniżonego ciśnienia:
działanie mechaniczne,
zatory gazowe,
zajwisko wrzenia,
niedotlenienie – hipoksja,
Wpływ podwyższonego ciśnienia:
zatrucie tlenem, azotem, dwutlenkiem wegla,
choroba kesonowa (dekompresja),
działanie mechaniczne (uszkodzenie uszu, zatok przynosowych itp.)
Pole elektryczne i magnetyczne:
natężenie pola magnetycznego: [A/m]
natężenie pola elektrycznego: [V/m]
Indukcja magnetyczna: [T]
SAR (Specific Absorption Rate) - współczynnik absorpcji swoistej: energia jaką ciało wchłania z pola elektromagnetycznego.
Częstotliwość:
sieć 900: 880 – 960 MHz
sieć 1800: 1,7 – 1,875 GHz sieci komórkowe ok. 1GHz
UMTS 2100: 1,9GHz – 2,17 GHz
Moc nadawania:
- sieć 900: do 2W,
- sieć 1800: do 1W
ok.1,2 W
Oddziaływanie termiczne:
Oddziaływanie promieniowania radiowego zależy od konstrukcji telefonu i jego anteny i mocy nadawczej. O oddziaływaniu informuje wartość SAR.
Wartość graniczna SAR: ok 2W/kg
Wartość SAR obecnych telefonów ok 0,5W/kg
oddziaływanie pozatermiczne: brak danych,
zmiany prądów mózgowych: sprzeczne dane (demencja, alzheimer?),
uszkodzenie materiału genetycznego: brak dowodów.
8.
Dopplerowski pomiar przepływu krwi (USG Dopplerowskie) – jest to jedno z podstawowych badań w diagnostyce chorób układu krążenia. Pozwala na ocenę przepływu krwi w dużych tętnicach i żyłach, poprzez wykorzystanie zmiany długości fal ultradźwiękowych odbitych od poruszających się krwinek. Analiza fal ultradźwiękowych odbitych od krwinek pozwala określić kierunek i prędkość przepływu krwi.
Mechanizm działania aparatu USG - Wysyłana przez specjalną głowicę fala ultradźwiękowa odbija się od ośrodka będącego w ruchu – płynącej krwi – i powraca do głowicy. Głowica połączona jest przewodem z aparatem ultrasonograficznym, rejestrującym zmiany częstotliwości fali ultradźwiękowej odbitej od płynącej krwi, przedstawiając obraz na monitorze. Wykonujący badanie lekarz widzi gdzie krew płynie szybciej, wolniej bądź się cofa. Przystawka dopplerowska do aparatu USG umożliwia zmierzenie przepływu krwi przez naczynia.
Efekt Dopplera (w ujęciu ultrasonografii Dopplerowskiej) - zjawisko obserwowane dla fal, polegające na powstawaniu różnicy częstotliwości wysyłanej przez źródło fali oraz zarejestrowanej przez obserwatora, który porusza się względem źródła fali. Dla fal rozprzestrzeniających się w ośrodku, takich jak na przykład fale dźwiękowe, efekt zależy od prędkości obserwatora oraz źródła względem ośrodka, w którym te fale się rozchodzą. W przypadku fal propagujących się bez udziału ośrodka materialnego, jak na przykład światło w próżni (w ogólności fale elektromagnetyczne), znaczenie ma jedynie różnica prędkości źródła oraz obserwatora.
Efekt Dopplera jest wykorzystywany do określania prędkości przybliżania lub oddalania źródła fali. Prędkość źródła fali można określić na podstawie wzoru dla ruchomego źródła. Dla prędkości znacznie mniejszej od prędkości światła zarówno dla fal mechanicznych jak i dla światła wynosi ona:
gdzie:
a - dla danego urządzenia stały współczynnik zależny od częstotliwości analizowanej fali i jej prędkości,
Δf - różnica częstotliwości fal.
Zjawisko wykorzystuje się głównie do określania prędkości ruchu ciała odbijającego falę. Wówczas traktując to ciało jako element odbierający a następnie wysyłający falę, prędkość określa wzór:
W przypadku pomiaru ruchu substancji nieodbijającej fal stosuje się "zasiewanie" polegające na dodawaniu do substancji drobin odbijających fale. Urządzenia tego typu generują falę o dokładnie określonej częstotliwości i odbierają falę odbitą. W układzie odbiorczym dokonuje się zmieszania drgań fali wysyłanej i odbitej, wydzielając drgania o małej częstotliwości, których częstotliwość jest równa różnicy częstotliwości fali wysyłanej i odbieranej.
Cel badania - Dzięki badaniu ultrasonograficznemu wykorzystującemu efekt Dopplera możliwe jest wykrycie nawet drobnych schorzeń tętnic i żył, mogących w konsekwencji prowadzić do udaru mózgu, zawału serca czy zatorowości płucnej. Badanie to, w zależności od tego, do jakich naczyń się je zastosuje, może mieć na celu:
wykrywanie zwężeń miażdżycowych w tętnicach szyjnych, które zaopatrują mózg,
wykrywanie zwężeń i niedrożności w tętnicach kończyn dolnych,
badanie żył kończyn dolnych pod kątem zakrzepicy lub niewydolności zastawkowej,
diagnostykę innych naczyń obwodowych (tętnice nerkowe, trzewne).
Badanie wykorzystuje się także do oceny ukrwienia niektórych narządów oraz wykrywania guzów nowotworowych, gdyż większość z nich jest silnie ukrwiona. W położnictwie ocena przepływu krwi w tętnicy pępowinowej jest wykorzystywana w przewidywaniu niektórych powikłań zagrażających prawidłowemu rozwojowi ciąży.
Zastosowania USG Dopplerowskiego - USG dopplerowskim można zbadać:
kończyny górne i dolne (np. niedomykanie zastawek jest przyczyną żylaków)
tętnice szyjne (np. pozwala ustalić miejsca, w których doszło do zmian miażdżycowych)
serce – w połączeniu z echem serca USG dopplerowskie jest nieocenione przy wykrywaniu wad zastawkowych
narządy jamy brzusznej:
wątrobę
śledzionę
trzustkę
nerki
narządy płciowe (np. ujawnia żylaki powrózka nasiennego, które mogą być powodem niepłodności)
guzy (np. różnicowanie guzów wątroby pod kątem ich zezłośliwienia, wykrywanie wśród guzków tarczycy tych, które wymagają biopsji).
Ultrasonografia, USG – nieinwazyjna, atraumatyczna metoda diagnostyczna, pozwalająca na uzyskanie obrazu przekroju badanego obiektu. Metoda ta wykorzystuje zjawisko rozchodzenia się, rozpraszania oraz odbicia fali ultradźwiękowej na granicy ośrodków, przy założeniu stałej prędkości fali w różnych tkankach równej 1540 m/s. W ultrasonografii medycznej wykorzystywane są częstotliwości z zakresu ok. 2-50 MHz. Fala ultradźwiękowa najczęściej generowana jest oraz przetwarzana w impulsy elektryczne przy użyciu zjawiska piezoelektrycznego (opisanego przez braci Curie na przełomie lat 1880-1881). Pierwsze doświadczenia nad wykorzystaniem ultrasonografii w diagnostyce prowadzone były w trakcie i zaraz po II wojnie światowej, a ultrasonografy wprowadzone zostały do szpitali na przełomie lat 60. i 70. XX wieku (jednym z pierwszych klinicznych zastosowań była diagnostyka płodu).
Jednym z bardzo popularnych obecnie zastosowań ultrasonografii jest USG naczyń krwionośnych z wykorzystaniem zjawiska Dopplera. USG dopplerowskie pozwala na ocenę prędkości oraz kierunku przepływu krwi w naczyniach. Jako metoda całkowicie nieinwazyjna jest obecnie najpopularniejszym typem badania naczyń pozwalającym na dokładną ocenę zmian w zdecydowanej większości przypadków.
Stosując niższe częstotliwości (2-5 MHz, np. podczas badania jamy brzusznej lub echokardiograficznego badania serca) uzyskuje się obrazy struktur głębiej położonych kosztem niższej rozdzielczości. Natomiast korzystając z częstotliwości wyższych (7,5-16 MHz, np. badanie przezpochwowe, przezciemiączkowe, diagnostyka węzłów chłonnych, aż do 50 MHz w ultrasonografii wewnątrznaczyniowej naczyń żylnych oraz tętniczych) uzyskuje się obrazy dokładniejsze, ale tylko struktur płycej położonych.
Tomografia komputerowa (CT) - jest rodzajem tomografii rentgenowskiej, metodą diagnostyczną pozwalającą na uzyskanie obrazów tomograficznych (przekrojów) badanego obiektu. Wykorzystuje ona złożenie projekcji obiektu wykonanych z różnych kierunków do utworzenia obrazów przekrojowych (2D) i przestrzennych (3D). Urządzenie do TK nazywamy tomografem, a uzyskany obraz tomogramem. Tomografia komputerowa jest szeroko wykorzystywana w medycynie i technice.
Pierwszy tomograf, tzw. EMI scanner, został zbudowany w 1968 roku przez sir Godfreya Newbolda Hounsfielda, z firmy EMI Ltd, z Wielkiej Brytanii. Podstawy matematyczne tego wynalazku są zasługą austriackiego matematyka Johanna Radona. W 1917 roku udowodnił, że obraz dwu- i trójwymiarowego obiektu można odtworzyć w sposób zupełny z nieskończonej ilości rzutów tego przedmiotu. W 1956 roku, Ronald N. Bracewell użył tej metody do stworzenia map słonecznych. Pierwsze urządzenia próbujące wykorzystać idee Radona budowali: w 1961 William Henry Oldendorf, w 1963 Allan MacLeod Cormack (Tufts University), w 1968 David Kuhl i Roy Edwards. Wszyscy oni przyczynili się do końcowego efektu osiągniętego przez Hounsfielda, który jako pierwszy stworzył działający system do diagnostyki i zaprezentował jego unikalne możliwości. Hounsfield i Cormack otrzymali w 1979 roku Nagrodę Nobla za wynalezienie i budowę tomografu komputerowego.
Pierwszy tomograf zainstalowano w szpitalu Atkinson Morley Hospital, w Wimbledonie, w Wielkiej Brytanii. Pierwszy pacjent został przebadany w 1972 roku. W USA sprzedawano go w cenie 390 000 USD, a pierwszy zamontowano w 1973 roku w Mayo Clinic i Massachusetts General Hospital.
Ogólna zasada tworzenia obrazu tomograficznego - Źródło promieniowania i detektory poruszają się po okręgu prostopadłym do długiej osi pacjenta (dookoła obrazowanego narządu/obiektu), wykonując szereg prześwietleń wiązką promieniowania równoległą do płaszczyzny obrazowanej. Strumień danych z detektorów zawiera informacje na temat pochłaniania promieniowania przez poszczególne tkanki (elementy składowe obiektu). Dane zostają zapisane na twardym dysku komputera. Informacje z uzyskanych prześwietleń są poddawane obróbce komputerowej w celu uzyskania czytelnego obrazu. Za pomocą skomplikowanej analizy, uwzględniającej ile promieniowania zostało pochłonięte przy napromieniowaniu obiektu z danej strony, tworzone są obrazy przedstawiające kolejne przekroje badanego narządu. Obrazy są monochromatyczne (czarno-białe). Możliwa jest również obróbka komputerowa pozwalająca na przestrzenną rekonstrukcję poszczególnych narządów. Każdy przekrój przez obiekt jest dzielony na małe części, voxele, reprezentujące fragment obrazowanej objętości. Do każdego voxela przypisywana jest liczbowa wartość proporcjonalna do stopnia, w którym pochłania on promieniowanie. Aby w danej warstwie określić tę wartość dla n fragmentów, potrzebne jest przynajmniej n równań opisujących pochłanianie w danej warstwie. Trzeba więc posiadać n różnych projekcji tej warstwy. Im więcej mamy projekcji, tym lepszą dokładność obrazu uzyskamy. EMI scanner wykonywał obrazy o rozdzielczości 80 x 80 pikseli (6400 równań) z 28 800 projekcji. Współczesne tomografy wykonują nawet do 2 000 000 projekcji. Dzięki temu ich rozdzielczość sięga dziesiątków mikrometrów. Z powodu ilości równań wymaganych do odtworzenia obrazu, nie można było zrealizować tomografii w chwili jej wynalezienia, w roku 1917. Dopiero pojawienie się komputerów z ich możliwościami obliczeniowymi utorowało drogę do praktycznego wykorzystania tomografii.
Liczba CT (jednostka Hounsfielda) - z zebranych danych komputer tomografu oblicza współczynniki pochłaniania dla każdego z pikseli tworzących obraz. Gdy zostaną już wyznaczone, ich wartości zostają przeliczone na tak zwane liczby CT (CT numbers) – nazywane czasem jednostkami Hounsfielda (HU, Hounsfield Units). Konwersja ta pozwala na przedstawienie obrazu w odcieniach skali szarości. Przeliczenie polega na odniesieniu wyznaczonego współczynnika pochłaniania do jego wartości dla wody:
,
gdzie: K – stała wzmocnienia obrazu – stała zależna od systemu tomografu, indywidualna dla tomografu; – wyznaczony współczynnik pochłaniania piksela; – wyznaczony współczynnik pochłaniania wody (wartość odniesienia). Stała K pierwszego tomografu, EMI scanner, wynosiła zakres rejestrowanych liczb CT wynosił od – 500 (dla powietrza) do +500 (dla gęstych kości). Współczesne tomografy mają stałą K większą od zakres liczb CT jest szerszy od -1000 do +4000.
Zagrożenia towarzyszące tomografii komputerowej - Rentgenowska tomografia komputerowa wykorzystuje promieniowanie rentgenowskie do wykonywania przekrojowych zdjęć obiektów. Promieniowanie to jest promieniowaniem jonizującym, co wiąże się z potencjalnym zagrożeniem dla życia i zdrowia organizmów żywych w wypadku nadmiernej ekspozycji. W niewielkim, ale zauważalnym stopniu wzrasta ryzyko raka. Ponadto niektórzy pacjenci uczuleni są na środki cieniujące, które zwykle zawierają związki jodu. Innym mogą one uszkodzić nerki. Jeśli środek kontrastowy otrzyma kobieta karmiąca piersią, to przed wznowieniem karmienia musi odczekać przynajmniej 24 godziny. Badanie TK napromieniowuje pacjenta nawet do 400 razy większą dawką promieniowania niż typowa sesja diagnostyczna zwykłym aparatem rentgenowskim. Tomografia komputerowa jest coraz popularniejszym badaniem i stale rośnie jej udział w sumarycznej dawce całej populacji ze wszystkich badań diagnostycznych.
Obrazowanie magnetyczno-rezonansowe (MR) opiera się na zjawisku jądrowego rezonansu magnetycznego. Zjawisko to może zajść w próbce zawierającej jądra o różnym od zera spinie umieszczonej w silnym stałym polu magnetycznym. W takich warunkach próbka ulega częściowej polaryzacji opisywanej wektorem magnetyzacji. Jeśli tak spolaryzowana próbka zostanie poddana działaniu innego pola magnetycznego, które rotuje w płaszczyźnie prostopadłej do pola głównego, dla pewnej dokładnie określonej częstości tej rotacji zaobserwować można oddziaływanie między polem a magnetyzacją próbki. Efektem tego oddziaływania jest obrót magnetyzacji próbki wokół rotującego wektora indukcji magnetycznej, co w efekcie pozwala wyprowadzić magnetyzację z położenia równowagi, w którym początkowo się znajduje. Wyprowadzona z położenia równowagi magnetyzacja precesuje wokół kierunku pola głównego a ruch ten może być obserwowany. Zanikający sygnał nazywany sygnałem swobodnej precesji ma częstość rezonansową, która dana jest bardzo prostą zależnością - jest proporcjonalna do pola w jakim znajduje się próbka. Jeśli różne części próbki znajdują się w różnych polach, nie można mówić o jednej częstości odbieranego sygnału, mamy do czynienia z wieloma częstościami a najczęściej z ciągłym jej widmem. Jeśli mapa w jakim znajduje się próbka jest znana, informacja przestrzenna może zostać odkodowana a zebrane widma mogą zostać zamienione na obraz próbki. Modulowanie pola głównego i jednoczesny pomiar sygnału rezonansu magnetycznego są podstawą metody obrazowania MR. Odkodowanie obrazu nazywane jest rekonstrukcją. Jądrem rezonansowym najczęściej wykorzystywanym w obrazowaniu MR jest proton — jądro atomu wodoru mające spin połówkowy i występujące powszechnie w obiektach biologicznych w cząsteczkach wody.
Obrazowanie MR wykorzystywane jest w badaniach praktycznie całego ciała.
Obrazowanie MR może być przeprowadzone w różnych sekwencjach. Pozornie nieznaczne zmiany w ustawieniu podstawowych parametrów obrazowania mogą doprowadzić do uzyskania nieco odmiennych danych, mających różne możliwości diagnostyczne. Ze względu na parametry podstawowe, metody obrazowania dzieli się na:
obrazy T1-zależne, najlepiej oddające wizualnie strukturę anatomiczną mózgu, gdzie istota biała jest ukazywana w jasnych kolorach, zaś istota szara w ciemnych, płyn mózgowo-rdzeniowy, ropień i guz na ciemno, a miąższ wątroby na jasno.
obrazy T2-zależne, na których istota biała ukazywana jest w ciemniejszych barwach, zaś istota szara – w jaśniejszych, płyn mózgowo-rdzeniowy, guz, ropień, naczyniak wątroby i śledziona – na jasno, a wątroba i trzustka – na ciemno.
FLAIR (ang. Fluid Light Attenuation Inversion Recovery), pewna modyfikacja sekwencji T2-zależnej, gdzie obszary z małą ilością wody ukazywane są w ciemniejszych barwach, zaś obszary z dużą ilością wody – w jaśniejszych. Obrazowanie w tej sekwencji znajduje dobre zastosowanie w wykrywaniu chorób demielinizacyjnych.
Obrazowanie dyfuzyjne mierzy dyfuzję molekuł wody w tkance. Wyróżnia się tutaj następujące techniki: obrazowanie tensora dyfuzji (ang. DTI – diffusion tensor imaging), które może być zaadaptowane do obrazowania zmian w połączeniach istoty białej, oraz obrazowanie zależne od dyfuzji (ang. DWI – diffusion-weighted imaging), które wykazuje się dużą skutecznością w obrazowaniu udarów mózgu.
Jeśli pacjent otrzymuje środek cieniujący, istnieje niewielkie ryzyko wystąpienia reakcji alergicznej. Ale jest ono mniejsze niż w wypadku substancji kontrastowych zawierających jod i powszechnie stosowanych podczas zdjęć rentgenowskich oraz tomografii komputerowej. Ponieważ badanie MRI wiąże się z oddziaływaniem silnego pola magnetycznego, może nie być wskazane u tych, którym wszczepiono różnego rodzaju aparaty lub metalowe implanty. Niektóre preparaty zawierające gadolin znacząco zwiększają ryzyko wystąpienia nerkopochodnego włóknienia układowego.
9.
Tomografia emisyjna SPECT , pozytonowa tomografia emisyjna PET
Skrót z Jaroszyka – tak po ludzku starałem się pisać, ale polecam przejrzeć samą książkę, tam dużo więcej nie jest, a są rysunki i wzory.
W emisyjnej tomografii komputerowej źródłem promieniowania są związki znakowane radioizotopem (radiofarmaceutyki) wprowadzone do organizmu.
SPECT – jednofotonowa emisyjna tomografia komputerowa. Pacjentowi do tego badania podaje się substancję prominiotwórczą, która emituje promieniowanie gamma we wszystkich kierunkach. Substancja rozprowadza się procesami fizjologicznymi.
Część tego promieniowania jest wychwytywana przez skaner lub kamerę gamma która przemieszcza się nad ciałem pacjenta. Detekcja kwantów wraz z inf. o połozeniu kątowym i liniowym detektora jest przesyłana do komputera który dokonuje rejestracji obrazu warstwy.
Promieniowanie jest tłumione na drodze od miejsca emisji do detektora, absorpcja zależy od energii kwantów emitowanych przez izotop, oraz rodzaju tkanek po drodze. Najbardziej tłumione jest promieniowanie przebywające najdłuższą drogę, czyli pochodzące z miejsc oddalonych najbardziej od detektora. Różna odległosć miejsc emisji i detektora zmienia pole widzenia i zdolność rozdzielczą układu. W SPECT przy tworzeniu obrazów strzałkowych czy czołowych wykorzystuje się przekroje poprzczne.
Pierwszy SPECT - Kuhl i Edwards w 1963 roku.
we współczesnych tomografach układ składa się z jednej lub dwóch(szybciej działa) głowic gammakamery umieszczonych naprzeciwko siebie.
Podstawowym składnikiem SPECT jest kryształ scyntylacyjny o śr. ok 40cm. Padające na kryształ promieniowanie jest „formowane” przez wymienny kolimator o równoległym lub nachylonych pod odpowiednim kątem układzie otworów, których wielkosć jest zależna od mierzonej energii i wymaganej rozdzielczości. Układ detekcyjny w czasie jednego obrotu rejestruje od 1-64 warstw o grubości od około 3mm do około 12mm w przekroju poprzecznych. Przestrzenna zdolność rozdzielcza SPECT zawiera się w granicach 11-15mm. Powody małej rozdzielczości wynikają z metody zbierania, rekonstrukcji danych oraz właściwości detektora.
Pozytonowa emisyjna tomografia komputerowa
Stanowi wyspecjalizowany system który łączy wczesną ocenę biochemicznej patologii z jej dokładną lokalizacją dokonaną przez komputerową rekonstrukcję obrazu.
Do organizmu wprowadza się związek znakowany radioaktywnym izotopem, z oczekiwaną aktywnością biologiczną, Izotop rozpada się i emituje pozyton, który niemal natychmiast reaguje z elektronem z otoczenia i obie cząstki anihilują, tworząc dwa kwanty promieniowania gammma poruszające się w dwie strony wzdłuż tego samego kierunku. Promieniowanie przenika przez tkankę i jest rejestrowane przez detektory. Informacja z detektora jest przesyłana do komputera który stosuje odpowiednie algorytmy i odwzorowuje prestrzenny rozkład radioaktywności. Intensywność sygnału na obrazie jest proporcjonalna do ilości zgromadzonego w danym miejscu znacznika radioaktywnego.
Zasada działania
Opiera się na określeniu wspórzędnych anihilacji pozytonu przez pomiar koincydencji czasowej (jednoczesne wystąpienie kilku zjawisk) dwóch kwantów promienowania gamma.
Kąt rozejścia kwantów byłby równy 180* gdyby elektron i pozyton były w spoczynku, jednak jeśli jakaś składowa prędkości ich układów jest prostopadła do kierunku emisji promieniowania, to kierunek emisji będzie się różnił ( +- 0,25*) , wartość tego rozproszenia stanowi granicę zdolności rozdzielczej PET. Równoczesna rejestracja przez detektory obu promieni gamma pozwala wyznaczyć prostą, na której zaszła anihilacja, dokładność jest uwarunkowana rozmiarami kryształów scyntylacyjnych. Pomiar różnicy czasu między dwoma fotonami docierającymi do detektorów, wynikający z różnicy odległości przebytych, pozwala na lokalizajcę miejsca anihilacji. Przesuwając układ detektorów wokół obiektu otrzymujemy serię projekcj które pozwalają na rekonstrukcję obrazu.
Izotop stosowany jako znacznik powinien łatwo łączyć się z różnymi substancjami, mieć krótki czas połowicznego rozpadu, emitować promienowanie gamma oraz być w miarę tanie.
Są pochłaniane nierównomiernie przez różne narządy, analizując ich rozkład w obrębie narządu można wyciągnąć wnioski diagnostyczne. Nargomadzenie to ognisko gorące, obszar wolny – ognisko zimne, co może świadczyć o patologii.
Zastosowanie kliniczne PET
Jednym z pierwszych badań było określenie objętości krwi w poprzecznych przekrojach ludzkiego mózgu. Znakowanie izotopem płytek krwi stwarza możliwość badania za pomocą PET naczyń krwionośnych, w tym procesu miażdżycy tętnic, pomaga to w diagnozowaniu chorób naczyniowych.
Poza tym można za pomocą PET ocenić przepływ krwi przez np. wątrobę, mięsień sercowy i ocenić uszkodzenia.
Z Wikipedii
Badania SPECT – tomografia emisyjna pojedynczych fotonów – single photon emission computed tomography – oparte są na najnowszych metodach obrazowania mózgu i wykrywania dysfunkcji. Jest to stosunkowo nowa i mało rozpowszechniona metoda diagnozowania zaburzeń mózgowia, znacznie różniąca się od encefalografii i rezonansu magnetycznego.
Jest to złożona metoda badawcza z dziedziny medycyny nuklearnej, umożliwiająca wizualizację przepływu mózgowego krwi i jego metabolizmu. W metodzie tej radioaktywny izotop przyłączony jest do nośnika mającego równocześnie powinowactwo do komórek w mózgu, możliwość pokonywania bariery krew-mózg oraz gromadzenia się w ilości proporcjonalnej do metabolizmu danej okolicy. Emitowane promieniowanie gamma rejestrują czujniki umieszczone w specjalnej kamerze połączonej z komputerem. Badanie trwa około 15 minut. W trakcie typowego badania do czujników dociera w przybliżeniu dziesięć milionów impulsów gamma, a superkomputer przetwarza te informacje i prezentuje w postaci złożonych map przepływu/metabolizmu mózgowego i udostępnia na trójwymiarowych obrazach. Lekarze oraz badacze wykorzystują te mapy zestawiając je z obrazami prawidłowej czynności zdrowego mózgu oraz obrazami mózgu osób chorych psychicznie lub cierpiących na zaburzenia neurologiczne.
Obraz przestrzenny możliwy jest do uzyskania albo z systemu wielogłowicowego (wiele czujników rozmieszczonych wokół głowy), albo dzięki systemowi mechanicznemu, zapewniającemu ruch głowicy wokół głowy pacjenta. Systemy SPECT zbierają dane obrazowe po ustawieniu się głowicy w kolejnych położeniach, różniących się od siebie o kilka stopni, aż do uzyskania pełnego obrotu wokół pacjenta, zwykle powtarzanego kilkakrotnie. Czas zbierania danych może być skrócony o połowę dzięki zastosowaniu gammakamery dwugłowicowej. Dobre jakościowo obrazy uzyskuje się za pomocą gamma-kamer przynajmniej dwugłowicowych, na matrycy 128 x 128 elementów obrazu, z analizą ilościową lub półilościową badanego parametru. Gamma-kamery zaprojektowane specjalnie dla celów neurodiagnostyki wyposażone są w układy wielodetektorowe i głowice pierścieniowate (ang. ring-SPECT) lub w kształcie litery L. Gamma-kamery wyspecjalizowane dla potrzeb neuroobrazowania cechują się wyższą zdolnością rozdzielczą, ale jest ich niewiele, gdyż nie można na nich wykonywać badań innych narządów. Cyfrowa obróbka danych uzyskanych z kolejnych położeń głowicy lub głowic umożliwia uzyskiwanie obrazów przestrzennych lub przekrojów ciała. Oprogramowanie systemu umożliwia operatorowi cyfrową obróbkę uzyskanego obrazu. Metoda SPECT pozwala na badanie przepływu mózgowego, rozmieszczenia receptorów mózgowych a przy pomocy tzw. znaczników onkofilnychumożliwia diagnostykę nowotworów mózgu.
W diagnostyce ognisk niedokrwiennych pochodzenia zatorowego, w neuroonkologii i do różnicowania zespołów otępiennych można wykorzystywać standardowe gamma-kamery (nawet jednogłowicowe z matrycą 64 x 64 elementy obrazu). Natomiast ocena subtelnych zmian perfuzji w encefalopatiach o różnej etiologii, w chorobach psychicznych oraz do oceny zaburzeń perfuzji w jądrach podkorowych wymaga sprzętu o wyższych parametrach technicznych.
PET – z wikipedii
Pozytonowa Tomografia Emisyjna (ang. Positron emission tomography, PET) jest techniką obrazowania, w której (zamiast jak w tomografii komputerowej – zewnętrznego źródła promieniowania rentgenowskiego lub radioaktywnego) rejestruje się promieniowanie powstające podczas anihilacji pozytonów (anty-elektronów). Źródłem pozytonów jest podana pacjentowi substancja promieniotwórcza, ulegająca rozpadowi beta plus. Substancja ta zawiera izotopy promieniotwórcze o krótkim czasie połowicznego rozpadu, dzięki czemu większość promieniowania powstaje w trakcie badania, co ogranicza powstawanie uszkodzeń tkanek wywołanych promieniowaniem. Wiąże się także z koniecznością uruchomienia cyklotronu w pobliżu (krótki czas połowicznego rozpadu izotopów to także krótki maksymalny czas ich transportu) co znacząco podnosi koszty.
Zasada działania
Powstające w rozpadzie promieniotwórczym pozytony, po przebyciu drogi kilku milimetrów, zderzają się z elektronami zawartymi w tkankach ciała, ulegając anihilacji. W wyniku anihilacji pary elektron–pozyton powstają dwa kwanty promieniowania elektromagnetycznego (fotony) o energii 511 keV każdy, poruszające się w przeciwnych kierunkach (pod kątem 180°). Fotony te rejestrowane są jednocześnie przez dwa z wielu detektorów ustawionych pod różnymi kątami w stosunku do ciała pacjenta (najczęściej w postaci pierścienia), w wyniku czego można określić dokładne miejsce powstania pozytonów. Informacje te rejestrowane w postaci cyfrowej na dysku komputera, pozwalają na konstrukcję obrazów będących przekrojami ciała pacjenta, analogicznych do obrazów uzyskiwanych w tomografii NMR.
W badaniu PET wykorzystuje się fakt, że określonym zmianom chorobowym towarzyszy zmiana metabolizmu niektórych związków chemicznych, np. cukrów. Ponieważ energia w organizmie uzyskiwana jest głównie poprzez spalanie cukrów, to w badaniach wykorzystuje się deoxyglukozę znakowaną izotopem 18F o okresie połowicznego rozpadu ok. 110 minut. Najczęściej stosowanym preparatem jestF18-FDG.
PET stosuje się w medycynie nuklearnej głównie przy badaniach mózgu, serca, stanów zapalnych niejasnego pochodzenia oraz nowotworów. Umożliwia wczesną diagnozę choroby Huntingtona. Zastosowanie PET wpłynęło na znaczne poszerzenie wiedzy o etiologii i przebiegu w przypadku choroby Alzheimera, Parkinsona czy różnych postaci schizofrenii,padaczki.
Dzięki diagnostyce PET istnieje bardzo duże prawdopodobieństwo rozpoznania nowotworów (w około 90% badanych przypadków). Takiego wyniku nie daje się osiągnąć przy pomocy żadnej innej techniki obrazowania. PET daje także możliwość kontroli efektów terapeutycznych w trakcie leczenia chorób nowotworowych, np. za pomocą chemioterapii.
Zagrożenia
PET nie jest techniką inwazyjną, jednak jej użycie wystawia pacjenta na pewną dawkę promieniowania jonizującego. Dawka ta jest na poziomie akceptowalnym dla technik diagnostycznych i przez ponad 50 lat stosowania metody nie stwierdzono żadnych efektów ubocznych jej stosowania. Kobiety w ciąży lub karmiące piersią powinny poinformować o swoim stanie lekarza oraz personel obsługujący aparat[14].
Korzyści
Emisja tomograficzna pozytonowa pozwala ocenić obrazowanie nie tylko strukturalne organów i tkanek, ale także czynnościowe ich funkcjonowanie. Niektóre zmiany w narządach można zatem wykryć wcześniej, niż pozwala na to tomografia komputerowa bądź rezonans magnetyczny.
PET stosuje się w medycynie nuklearnej głównie przy badaniach mózgu, serca, stanów zapalnych niejasnego pochodzenia oraz nowotworów. Umożliwia wczesną diagnozę choroby Huntingtona. Zastosowanie PET wpłynęło na znaczne poszerzenie wiedzy o etiologii i przebiegu w przypadku choroby Alzheimera, Parkinsona czy różnych postaci schizofrenii, padaczki.
Dzięki diagnostyce PET istnieje bardzo duże prawdopodobieństwo rozpoznania nowotworów (w około 90% badanych przypadków). Takiego wyniku nie daje się osiągnąć przy pomocy żadnej innej techniki obrazowania. PET daje także możliwość kontroli efektów terapeutycznych w trakcie leczenia chorób nowotworowych, np. za pomocą chemioterapii.
Zagrożenia
PET nie jest techniką inwazyjną, jednak jej użycie wystawia pacjenta na pewną dawkę promieniowania jonizującego. Dawka ta jest na poziomie akceptowalnym dla technik diagnostycznych i przez ponad 50 lat stosowania metody nie stwierdzono żadnych efektów ubocznych jej stosowania. Kobiety w ciąży lub karmiące piersią powinny poinformować o swoim stanie lekarza oraz personel obsługujący aparat
Korzyści
Emisja tomograficzna pozytonowa pozwala ocenić obrazowanie nie tylko strukturalne organów i tkanek, ale także czynnościowe ich funkcjonowanie. Niektóre zmiany w narządach można zatem wykryć wcześniej, niż pozwala na to tomografia komputerowa bądź rezonans magnetyczny.