background image

Klasyczne metody rentgenowskie 

 

W  listopadzie  1895  roku  Wilhelm  Konrad  Roentgen  dokonał  epokowego  odkrycia 

nowego rodzaju promieni, które ze względu na ich tajemniczą nieznaną wówczas naturę nazwał 

promieniami X. 

 

Wiadomość  o  niewidzialnym  promieniowaniu,  które  przenika  przez  ciała 

nieprzeźroczyste obiegła świat lotem błyskawicy.  Użyteczność nowo odkrytych promieni zastała 

doceniona już wkrótce po ich odkryciu. W 1896 roku zaczęto stosować promienie rentgenowskie 

do  uwidocznienia  kości  kończyn,  rozpoznania  złamania  lub  lokalizacji  ciał  obcych.  Były  to 

początki rentgenodiagnostyki - nowej dziedziny nauk lekarskich. 

 

Promienie  rentgenowskie  szybko  znalazły  zastosowanie  na  ziemiach  polskich.  W  lutym 

1896r. prof. A. Obaliński, na podstawie zdjęcia rentgenowskiego rozpoznał zwichnięcie w stawie 

łokciowym.  W  tym  samym  roku  M.  Brunner    zorganizował  pierwszą  na  ziemiach  polskich 

pracownię  rentgenowską.  Zdjęcia  wykonywano  na  szklanych  kliszach  posługując  się 

prymitywnymi urządzeniami. Czas ekspozycji musiał być niezwykle długi - często kilka minut 

do przeszło 2 godzin. 

 

Już  w  pierszych  miesiącach  stosowania  promieni  rentgenowskich  zauważono  pewne 

ujemne  skutki  działania  tego  promieniowania.  U  osób  eksponowanych  na  działanie  promieni 

zaobserwowano  oparzenia  skóry  dłoni.    To  z  kolei  zwróciło  uwagę  na  efekt  biologiczny. 

Promienie  rentgenowskie  znalazły  zastosowanie  w  leczeniu  chorób  skóry.  Równocześnie  z 

rengenodiagnostyką  zaczęła  się  rozwijać  rentgenoterapia.  Dysponując  już  pewnym 

doświadczeniem w zakresie działania promieni rentgenowskich na żywą tkankę rozpoczęto próby 

leczenia  nowotworów.  W  latach  1901-1902  rozpowszechniła  się  radioterapia,  która  wspólnie  z 

rentgenodiagnostyką i rentgenoterapią składa się na nową dziedzinę nauki - radiologię lekarską. 

 

Lata  1900-1920  stanowią  okres  intensywnej  pracy  nad  doskonaleniem  aparatury 

rentgenowskiej,  poszukiwaniem  nowych  materiałów  światłoczułych,  odpowiednich  do 

wykonywania  zdjęć,  oraz  środków  cieniujących    umożliwiających  uwidocznienie  szczegółów 

budowy narządów wewnętrznych, normalnie nie widocznych na zdjęciu rentgenowskim. Wysiłki 

naukowców owego okresu nie były daremne. Stworzono materialne podstawy dalszego rozwoju 

radiologii klinicznej. 

 

W  latach  1920-1930  krystalizuje  się  technika  badań  rentgenowskich,  które  dzisiaj 

uważamy za badania podstawowe. Rozwinęła się diagnostyka przewodu pokarmowego, została 

background image

opracowana  technika  cholecystografii,  badania  narządu  oddechowego  wzbogacono  o 

bronchografię i tomografię. Do badań układu naczyniowego wprowadzono cewnikowanie serca, 

powstały  podstawy  neuroradiologii,  rozwinęła  się  urografia  jako  metoda  badania  nerek  i  dróg 

moczowych. 

 

Wybitny  postęp  technologiczny  w  latach  pięćdziesiątych  umożliwił  wprowadzenie 

wzmacniaczy  elektronowych  obrazu  oraz  urządzeń  telewizyjnych  zmniejszając  czas  trwania  

prześwietlenia do rozsądnych granic. W latach powojennych radiologia lekarska wzbogaciła się o 

zupełnie  nowy  dział  -  medycynę  nuklearną.  Rozwinęły  się  również  dwie  techniki 

pararadiologiczne  -  termografia  i  ultrasonografia.  W  latach  siedemdziesiątych  wprowdzono  do 

diagnostyki  tomografię  komputerową,  a  w  osiemdziesiątych  tomografię  magnetycznego 

rezonansu  jądrowego.  Współczesna  radiologia  lekarska  jest  ściśle  powiązana  ze  wszystkimi 

dziedzinami medycyny doświadczalnej i klinicznej. Niemal każdy dzień przynosi coś nowego w 

dziedzinie metodyki, aparatury lub urządzeń pomocniczych. 

 

Wybrane wiadomości z fizyki promieniowania rentgenowskiego 

 

Promienie  X  są  falami  elektromagnetycznymi  o  długości  od  ok.  6pm  do  ok.  100pm. 

Powstają w wyniku hamowania elektronów swobodnych przyspieszonych w polu elektrycznym. 

Urządzeniami  stosowanymi  w  diagnostyce  lekarskiej  do  wytwarzania  promieniowania  rtg  są 

lampy próżniowe z dwiema elektrodami, w których elektrony wysyłane przez elektrodę ujemną 

(katodę) zostają gwałtownie zahamowane na elektrodzie dodatniej (anodzie). Katoda zbudowana 

jest  ze  skręconego  spiralnie  drutu  wolframowego,  zwanego  włóknem  żarzenia.  Wolfram  jest 

pierwiastkiem o wysokiej liczbie atomowej (Z=74), ma wysoką temperaturę topnienia (3370C), 

małą  skłonność  do  parowania  i  jest  bardzo  dobrym  przewodnikiem  ciepła.  Rozgrzanie  włókna 

wolframowego  do  temp.  2200C  powoduje  zjawisko  termoemisji  elektronów.  Anoda  jest 

zbudowana  z  bloku  miedzianego,  w  który  jest  wtopiony  krążek  z  wolframu.  Katoda  emituje 

elektrony,  które  są  przyspieszane  w  polu  elektrycznym  pomiędzy  anodą  i  katodą.  Wzrost 

napięcia przyspieszającego powoduje wzrost energii elektronów, które są następnie hamowane na 

powierzchi anody (w miejscu, gdzie w miedzianym bloku umieszczono krążek wolframowy). W 

wyniku hamowania elektronów na anodzie powstaje promieniowanie rentgenowskie. Składa się 

ono z:  

 

1. promieniowania hamowania, 

background image

 

2. promieniowania charakterystycznego. 

Promieniowanie hamowania daje widmo ciągłe (różne długości fal), którego rozkład nie zależy 

od  materiału  elektrody  hamującej.  Wynika  to  stąd,  że  zamiana  energii  elektronu  na  energię 

fotonu odbywa się bez wzbudzenia atomu. 

 

Ze  wzbudzeniem  atomu  pierwiastka  elektrody  hamującej  jest  związane  promieniowanie 

charakterystyczne,  dające  widmo  liniowe  (jednakowa  długość  fali).  Promieniowanie 

charakterystyczne  pojawia  się,  gdy  energia  elektronów  przekroczy  określoną  dla  danego 

pierwiastka wartość. Dla wolframu napięcie potrzebne do uzyskania tego efektu wynosi 70 kV. 

Wartość  ta  wynika  z  energii  wiązania  na  powłoce  K  (najbliższej  jądra)  atomu  wolframu. 

Promieniowanie  charakterystyczne  stanowi  niewielki  odsetek  całości  promieniowania 

rentgenowskiego.  Tylko  1%  energii  kinetycznej  elektronów  jest  zamieniany  na  energię 

promieniowania  rtg,  99%  ich  energii  zostaje  zamienione  na  ciepło.  Dzieje  się  tak  ponieważ 

większość elektronów wytrąca elektrony z powłok zewnętrznych atomów wolframu i powoduje 

ich silne ruchy, które dają emisję ciepła. 

 

Napięcie  szczytowe  przyłożone  do  lampy  rentgenowskiej  decyduje  o  jakości 

promieniowania rentgenowskiego. Natomiast na ilość promieni ma wpływ natężenie płynącego 

prądu mierzone w miliaperach (mA). 

 

Wzajemne oddziaływanie promieniowania rentgenowskiego i materii. 

 

Część promieniowania rentgenowskiego przenikając przez materię ulega osłabieniu przez 

ich wzajemne oddziaływanie. Istnieją trzy podstawowe procesy wzajemnego oddziaływania: 

1. rozpraszanie spójne, 

 

Występuje  wtedy,  gdy  foton  promieniowania  rtg  trafi  na  atom.  Może  to  spowodować 

wysłanie  innego  fotonu,  o  zmienionym  kierunku,  ale  o  tej  samej  długości  fali.  Spójne 

rozpraszanie jako jedyne przebiega bez jonizacji atomu. 

2. Zjawisko fotoelektryczne 

 

Foton  promieniowania  rtg  o  energii  nieco  większej  niż  energia  wiązania  powłoki 

elektronu  atomu,  na  który  trafia  oddając  całą  swoją  energię  wytrąca  ten  elektron  poza  atom. 

Nazywa  się  on  wtedy  fotoelektronem.  Powstają  jednocześnie  dwa  jony  i  dwa  fotony 

promieniowania  charakterystycznego  przez  zmiany  położenia  elektronów  na  powłokach 

wzbudzonego atomu. Zjawisko fotoelektryczne jest zjawiskiem pochłaniania promieniowania. 

background image

3. Rozpraszanie Comptona 

 

Występuje  wtedy,  gdy  foton  uderza  w  elektron  powłoki  zewnętrznej  atomu,  która  ma 

niską  energię  wiązania.  Elektron  zostaje  wyrzucony  poza  atom,  a  pozostała  energia  fotonu 

tworzy nowy foton o zmienionej długości fali (dłuższej) i zmienionym kierunku ( nawet o 180). 

Atom pozbawiony elektronu staje się jonem. 

 

 

Przy  wyższych  energiach  promieniowania  rentgenowskiego  (nie  stosowanych  w 

diagnostyce medycznej) występuje jeszcze zjawisko tworzenia par i zjawisko rozpadu atomu. 

 

Promieniowanie rentgenowskie ma następujące właściwości: 

1. zmniejsza swoje natężenie z kwadratem odległości, 

2. ulega osłabieniu przenikając przez materię, 

3. wywołuje jonizację materii, 

4. wywołuje zjawisko luminescencji, 

5. działa na emulsję fotograficzną, 

6. ma działanie biologiczne. 

  

Zmiana  natężenia  z  kwadratem  odległości  ma  istotne  znaczenie  dla  techniki 

wykonywania  zdjęć  rentgenowskich  oraz  dla  pacjenta  i  radiologa.  Z  właściwości  tej  wynika 

prosta zasada, że odległość jest najlepszą ochroną przed promieniowaniem.  

 

Osłabianie promieniowania, na które składa się zjawisko pochłaniania i rozpraszania ma 

kluczowe znaczenie w diagnostyce radiologicznej. Obrazy rentgenowskie oglądane na zdjęciu i 

podczas  prześwietlania  powstają  dzięki  zróżnicowanemu  osłabianiu  zależnemu  od  rodzaju 

materiału.  Za  pochłanianie  promieniowania  jest  odpowiedzialne  zjawisko  fotoelektryczne.  Im 

wyższa  zawartość  pierwiastków  o  dużych  liczbach  atomowych,  tym  pochłanianie  większe. 

Tkanki miękkie zbudowane głownie z pierwiastków lekkich, takich jak wodór, węgiel czy tlen 

wytwarzają  bardzo  mało  fotoelektronów.  Natomiast  kości  zawierające  wapń  dużo.  Dlatego  w 

obrazie rentgenowskim występują różnice zaczernienia między np. gazem, tkankami miękkimi  i 

tkanką kostną. 

Wzajemny  udział  pochłaniania  i  rozpraszania  w  osłabieniu  promieniowania  zależy  energii 

promieniowania  i  rodzaju  materiału.  Im  wyższa  energia  promieniowania  tym  większe 

rozpraszanie. 

 

Jonizacja powstaje w wyniku oddziaływania promieniowania rentgenowskiego z materią.  

background image

 

Luminescencja  jest  zjawiskiem  emitowania  światła  widzialnego  przez  niektóre  związki 

chemiczne pod wpływem promieniowania rentgenowskiego. Luminescencję wykorzystuje się do 

wzmocnienia promieniowania rtg podczas zdjęć (folie wzmacniające) oraz podczas prześwietleń 

(ekrany wzmacniacza obrazu). 

 

Działanie  fotograficzne  promieniowania  rentgenowskiego  wraz  ze  zjawiskiem 

luminescencji umożliwia wykonywanie zdjęć rentgenowskich na kliszach fotograficznych. 

 

Działanie  biologiczne  promieniowania  rentgenowskiego  wynika  z  jonizacji  tkanek 

poddanych  napromieniowaniu.  Fotony  promieniowania  rtg  reagują  z  elektronami  orbitalnymi 

tkanek  (  jonizacja  lub  wzbudzenie)  doprowadzając  do  zmian  na  poziomie  molekularnym.  W 

sprzyjających warunkach energia wyzwolona w powyższych procesach może inicjować łańcuch 

przemian fizykochemicznych i biochemicznych w komórce i przestrzeni zewnątrzkomórkowej, a 

w  efekcie  w  wyższych  poziomach  strukturalnych.  Podstawową  regułą  określającą 

promienioczułość  komórek,  a  więc  ich  podatność  na  uszkodzenie,  jest  reguła  sformułowana  w 

pierwszych  latach  XXw.  przez  Bergonie  i  Tribondeau,  która  głosi:  "Wrażliwość  komórek  na 

promieniowanie  jest  wprost  proporcjonalna  do  ich  aktywności  proliferacyjnej  i  odwrotnie 

proporcjonalna do stopnia ich zróżnicowania." 

Z  właściwości  tej  wynika  zróżnicowany  sposób  szkodliwości  promieniowania  rtg  w  zależności 

od  rodzaju  tkanki,  a  także  możliwość  wykorzystania  promieni  rtg  w  leczeniu,  czyli 

rentgenoterapia. 

 

Aparatura rentgenowska i tworzenie obrazów rentgenowskich. 

 

Badania  diagnostyczne  wykonywane  są  za  pomocą  aparatów  rentgenowskich 

składających  się  z  lampy  rentgenowskiej  (jednej  lub  kilku),  generatora  wysokiego  napięcia  i 

urządzeń pomocniczych umożliwiających wykonanie badania (zegar, stół kasety, przesłony itp.). 

Zazwyczaj jeden aparat umożliwia wykonanie zarówno prześwietlenia jak i zdjęcia. 

 

Wykorzystanie  diagnostyczne  zdjęcia  rentgenowskiego  lub  obrazu  prześwietleniowego 

jest możliwe tylko wówczas, gdy obraz ten spełnia określone warunki w zakresie: 

 

1. kontrastu, 

 

2. zaczernienia, 

 

3. ostrości, 

 

4. zniekształceń geometrycznych badanego obiektu. 

background image

 

Kontrast  jest  określony  stosunkiem  jaskrawości  jasnych  i  ciemnych  elementów  obrazu. 

Zróżnicowanie  obrazu  pod  względem  jaskrawości  jest  następstwem  niejednorodnego 

pochłaniania  przez  badany  obiekt.  Zjawisko  to  nazywamy  kontrastem  promieniowania  i  zależy 

ono  od  badanego  obiektu  i  jakości  promieniowania.  Energia  promieniowania  warunkuje  jego 

przenikliwość,  a  przenikliwość  ma  decydujący  wpływ  na  ilość  promieniowania  rozproszonego. 

Ilość  promieniowania  rozproszonego  pogarsza  kontrast  co  implikuje  konieczność  stosowania 

odpowiednich  przesłon  głębinowych  i  przeciwrozproszeniowych.  Wysoka  przenikliwość 

powoduje zmniejszenie różnic w pochłanianiu przez różne elementy obiektu. 

 

Kontrast  obrazu  uzależniony  jest  również  od  parametrów  błony  fotograficznej  oraz 

procesu jej wywoływania, a w przypadku prześwietleń od parametrów toru wizyjnego. 

 

Zaczernienie  obrazu  zależne  jest  od  ilości  promieni  rtg  przechodzących  przez  obiekt  w 

czasie trwania ekspozycji i docierających do odbiornika, czyli błony rentgenowskiej lub ekranu 

luminescencyjnego. Ilość promieni zależy od iloczynu prądu lampy i czasu trwania ekspozycji, a 

także od wysokości napięcia kształtującego ilościowo i jakościowo wiązkę promieniowania. Ma 

tu również znaczenie czułość zastosowanej błony fotograficznej. 

 

Na  ostrość  obrazu  ma  wpływ  szereg  zaburzeń  pochodzących  zarówno  od  badanego 

obiektu,  jak  i  wykorzystanej  aparatury.  Nieostrość,  jaką  obserwuje  się  na  zdjęciach,  stanowi 

sumę  nieostrości  pochodzącą  od  zaburzeń  geometrycznych,  ruchowych,  ziarna  błony, 

rozproszenia, paralaksy, czy astygmatyzmu. 

 

ULTRAGONOGRAFIA 

 

Fala  akustyczna,  do  której  zaliczamy  również  ultradźwięki,  jest  falą  typu 

mechanicznego.  Do  ultradźwięków  zaliczamy  fale  o  częstotliwości  od  16  kHz  do  ok.  10 

GHz. Powyżej tej częstotliwości fale akustyczne nazywamy hiperdźwiękami.  

 

Ultradźwięki  występują  dość  powszechnie  w  przyrodzie.  Są  one  wykorzystywane 

przez  niektóre  zwierzęta  np.nietoperze  lub  delfiny  do  lokalizowania  różnych  obiektów 

otoczenia za pomocą echa wydawanych  przez siebie dźwięków. 

 

Pierwsze  zastosowania  ultradźwięków  przez  człowieka  sięgają  czasów  II  Wojny 

Światowej.  Wynalezienie  echosondy  służącej  do  lokalizowania  nieprzyjacielskich  łodzi 

podwodnych  dało  początek  wspólczesnej  ultrasonografii.  Już  od  1942  roku  notuje  się 

pierwsze próby zastosowania ultradźwięków w medycynie. W 1958 r. zastosowano po raz 

background image

pierwszy  ultradźwięki  w  ginekologii  i  położnictwie,  na  początku  lat  sześdziesiątych  w 

kardiologii.  Jenakże  dopiero  rozwój  technik  komputerowych  i  informatyki  dał  prawdziwy 

początek wspólczesnej ultrasonografii.  

 

Rozchodzenie  się  ultradźwięków  jest  ściśle  związane  z  istnieniem  ośrodka 

przenoszącego,  którego  właściwości  decydują  o  prędkości  rozchodzenia  się  fali.  Dzięki 

wiązaniom  elastycznym  cząsteczek  danego  ośrodka  narzucone  im  przez  przetwornik 

ultradźwiękowy  drgania  mechaniczne  rozprzestrzeniają  się  ruchem  falowym  przenosząc 

jedynie  pęd  i  energię  ruchu  i  różnią  się  pod  tym  wględem  od  wszelkich  ruchów 

postępowych, w których wraz z przebytą drogą przenosi się ponadto masę ciała. Tak więc 

ośrodek  przenoszący  falę  dźwiękową  nie  zostaje  ani  przesunięty,  ani  trwale  odkształcony. 

W  takiej  sytuacji  przenoszenie  drgań  mechanicznych  zależeć  będzie  nie  tylko  od  źródła 

drgań  i  intensywności  tych  drgań,  ale  przede  wszystkim  od  charakteru  ośrodków    ich  

budowy  strukturalnej  i  właściwości  mechanicznych,  takich  jak  gęstość  i  sprężystość. 

Wymienione czynniki określają istotne dla rozprzesteniających się fal wielkości akustyczne 

takie jak: tłumienie fali i jej prędkość. Poza tym charakter ośrodków wpływa zasadniczo na 

rodzaj  sprężystości,  od  której  zależy  sposób  rozprzestrzeniania  się  fali.  we  krwii  i  innych 

płynach ustrojowych oraz tkankach miękkich, akustycznie bliskich cieczom, posiadających 

tak  jak  i  one  sprężystość  objętości,  praktycznie  mogą  być  propagowane  wyłącznie  fale 

podłużne, tzn takie, w których kierunek ruchu drgających cząstek jest zgodny z kierunkiem 

wysyłanej  fali.  W  tkance  kostnej  reprezentującej  ciała  stałe,  które  posiadają  zarówno 

sprężystość objętości jak i postaci, mogą się rozprzestrzeniać oprócz fal podłużnych również 

poprzeczne.  pomimo,  że  oprócz  fal  podłużnych  żadne  inne  nie  są  wykorzystywane 

diagnostycznie,  ich  odmienny  charakter  rzutuje  na  użyteczny  strumień  wiązki  fal  (starty 

energetyczne). 

 

Prędkość  rozchodzenia  się  fal  akustycznych  w  materii  zależy  od  zdolności 

przenoszenia tego rodzaju ruchu przez dany ośrodek, nie zależy natomiast od częstotliwości 

fali.  Ogólnie  można  powiedzieć,  że  prędkość  ta  wzrasta  wraz  z  wypełnieniem  przestrzeni 

cząsteczkami tej materii, czyli z gęstością ośrodka. Z zasady tej wynika, że istotnie różnią 

się od siebie tylko prędkości rozchodzenia się fali dźwiękowej jedynie w gazach, cieczach i 

ciałach stałych. 

background image

 

Dla ciała ludzkiego średnia prędkość wynosi ok. 1540m/s. Stosowane w diagnostyce 

medycznej  częstotliwości  fali  ultradźwiękowej  mieszczą  się  w  granicach  2  -    20MHz.  Z 

częstotliwością  wiązki  związana  jest  rozdzielczość  liniowa  uzyskanego  obrazu  (wprost 

proporcjonalnie)  oraz  głębokość  penetracji  (odwrotnie  proporcjonalnie).  Przy  wnikaniu  do 

ośrodka fala dźwiękowa zostaje osłabiona. Składa się na to kilka przyczyn: 

 

- rozproszenie fali, 

 

- absorbcja fali, 

 

- odbicie fali, 

 

- załamanie fali. 

 

Rozproszenie fali jest związane z niejednorodnością ośrodka co powoduje odbijanie 

fali  we  wszystkich  kierunkach.  Rozproszenie    rośnie  znacznie  wraz  z  częstotliwością. 

Absorbcja fali polega na zamianie jej energii w ciepło. Jeśli fala dźwiękowa przechodzi z 

jednego  ośrodka  do  drugiego  (o  innej  oporności  akustycznej)  to  część  jej  energii  zostanie 

odbita  na  granicy  tych  ośrodków.  Stosunek  natężenia  fali  odbitej  do  natężenia  fali 

pierwotnej  nazywamy  współczynnikiem  refleksji.  Jego  wielkość  zależy  od  wzajemnej 

różnicy impedancji akustycznych sąsiadujących ośrodków. Z kolei załamanie  jest związane 

ze zmianą prędkości fali dźwiękowej  w różnych ośrodkach przenoszących.  

 

 

Metody obrazowania w diagnostyce ultradźwiękowej. 

 

Ultradźwięki  wytwarza  się  za  pomocą  kryształów  polaryzowalnych,  np.  tytanianu 

baru  lub  cyrkonianu  ołowiu.  Mają  one  taką  właściwość,  że  po  przyłożeniu  do  nich 

zmiennego napięcia elektrycznego wykonują drgania mechaniczne na zasadzie odwrotnego 

zjawiska  piezoelektrycznego.  Drgania  te  pobudzają  z  kolei  przylegający  do  kryształu 

ośrodek,  powodując  w  nim  rozchodzenie  się  fali.  Odwrotnie,  odkształcenia  mechaniczne, 

spowodowane  powracającym  echem  powodują  powstawanie  zmiennego  prądu 

elektrycznego  na  zasadzie  zjawiska  piezoelektrycznego.  Właściwość  ta  umożliwia 

wykorzystanie tego samego kryształu jako nadajnika i odbiornika fali ultradźwiękowej. 

Cykl pracy głowicy ultradźwiękowej o częstotliwości 3,5Mhz wygląda zatem następująco: 

najpierw  kryształ  wytwarza  krótki  impuls  dźwiękowy,  którego  czas  trwania  wynosi  około 

dwóch  okresów  dragań  (dla  częstotliwości  3,5MHz  t=2/3,5x1000000=0,5ms).  Następnie 

głowica jest przełączana na odbiór. Przy średniej prędkości dźwięku w tkankach 1540m/s i 

background image

założonej  głębokości  penetracji  20cm  ostatnie  echo  wróci  do  odbiornika  po  czasie  ok. 

0,25ms.  Następnie  zostaje  wysłany  kolejny  impuls.  Powyższy  przykład  ilustruje  fakt,  że 

głowica jest nadajnikiem tylko przez ok. 0,2% czasu jednego cyklu.Pozostałe 99,8% czasu 

przeznaczone jest na odbiór powracających ech. 

 

Fala  ultradźwiękowa  wnikając  do  ośrodka  ulega  opisanym  powyżej  zjawiskom 

fizycznym, jednakże z punktu widzenia diagnostycznego istotne są tylko parametry tyczące 

wielkości  odbitego  echa  oraz  czasu  jego  powrotu  do  nadajnika,  co  umożliwia  lokalizację 

odbijającej  przeszkody.  Wartości  te  można  przedstawić  w  układzie  współrzędnych  w 

postaci wykresu amplitudy powracającego echa w czasie. Ten sposób prezentacji nazywamy 

modulacją  A  lub  też,  najczęściej  prezentacją  A.  Wykorzystywana  jest  ona  do  celów 

diagnostycznych najczęściej w okulistyce.  

 

Szersze  zastosowanie  znajduje  w  diagnostyce  tak  zwana  prezentacja  typu  B  (ang. 

brightness,  jasność),  w  której  wartość  powracającego  echa  jest  przedstawiana  w  postaci 

jasności świecenia punktu na ekranie. Punkty rzutowane są na płaski układ współrzędnych  

x , y, gdzie wartość x odpowiada czasowi powrotu echa do przetwornika, a  y - lokalizacji 

przetwornika, który odebrał sygnał w głowicy. W ten sposób uzyskiwany jest obraz całego 

przekroju obejmowanego przez głowicę.  

 

Szczególne znaczenie ma w tym przypadku dynamiczna prezentacja typu B, określana też 

jako prezentacja czasu rzeczywistego. Częstotliwość odnawiania obrazu w metodzie dynamicznej 

jest bardzo duża (powyżej 15 obrazów na sek.) tak, że oko ludzkie nie jest w stanie rejestrować 

pojedynczych obrazów. Za jej pomocą można uwidocznić tętnienie naczyń krwionośnych, ruchy 

oddechowe  czy  perystaltykę  przewodu  pokarmowego.  W  elektronicznych  urządzeniach  czasu 

rzeczywistego  poszczególne  przetworniki  są  kolejno  włączane  i  wyłączane  dając  obraz  całego 

przekroju. Strukturami wytwarzającymi echa są granice narządów oraz obiekty leżące wewnątrz 

tych  narządów:  zraziki,  naczynia  krwionośne,  drogi  żółciowe,  przegrody  tkanki  łącznej. 

Struktury te wytwarzają charakterystyczne echa wzorcowe, a nieprawidłowości sygnalizowane są 

przez odpowiednie w stosunku do ech wzorcowych zmiany. 

 

Oprócz prezentacji A i B występuje jeszcze tak zwana prezentacja TM (time motion) albo 

M  (motion),  która  stosowana  jest  w  echokardiografii.  W  tym  przypadku  nieruchoma  głowica 

wyselowana  jest  w  poruszające  się  struktury,  wszystkie  zaś  wytwarzane  przez  kolejne  impulsy 

echa rejestrowane są według czasów powrotu na ekranie monitora lub przesuwającej się taśmie 

background image

papierowej. Na podstawie odchyleń plamki na ekranie od linii bazowej, jak i prędkości narastania 

tych  odchyleń  można  za  pomocą  prezentacji  TM  wyciągać  wnioski  dotyczące  ruchów    ścian 

serca i zastawek. 

 

Głowice ultrasonograficzne 

 

Głowice ultrasonograficzne możemy podzielić na dwie zasadnicze grupy: 

 

1. W zależności od sposobu nadźwiękawiania badanego przekroju głowice dzielimy na: a) 

mechaniczne i b) elektroniczne. 

 

2. W zależności od usytuowania wzajemnego wiązek ultrasonograficznych w przestrzeni 

głowice dzielimy na a) sektorowe i b)równoległe zwane też liniowymi. 

Ad1a. W głowicach mechamicznych przeglądanie danego przekroju realizowane jest przez ruch 

kryształu głowicy. 

Ad1b.  W  głowicach  elektronicznych  nieruchome  kryształy  przełączane  są  elektronicznie  przez 

odpowedni procesor. 

Ad2a.  W  głowicach  sektorowych  przedłużenia  wysyłanych  przez  nie  wiązek  elektronicznych 

spotykają się w jednym punkcie.Można to porównać do rozchodzenia się promieni słonecznych. 

Ad2b. W głowicach liniowych wiązki ultradźwięków przebiegają równolegle do siebie. 

 

Możliwe są wszystkie kombinacje głowic z grupy pierwszej z głowicami z grupy drugiej. 

 

 

 

Artefakty 

 

Prawidłowa  imterpretacja  obrazów  USG  zależy  w  zasadniczym  stopniu  od  tego,  jak 

dalece  obrazy  te  odzwierciedlają  rzeczywistą  budowę  anatomiczną  badanego.Podczas  badania 

ultrasonograficznego  powstają  jednak  nie  tylko  echa  opisujące  wielkość,  położenie,  kształt  i 

wewnętrzną strukturę narządów, ale również liczne ech fałszywe, które mogą wprowadzić w błąd 

lekarza  wykonującego  badanie.  Echo  nie  odpowiadające  żadnej  strukturze  określa  się  jako 

artefakt.  Aby  lepiej  zrozumieć  pochodzenie  artefaktów,  należy  przyjrzeć  się  bliżej  procesowi 

wytwarzania  i  przetwarzania  sygnału.  Obróbka  sygnału  ultradźwiękowego  opiera  się  na 

następujących założeniach: 

 

-impulsy ultradźwiękowe wysyłane przez głowicę są ekstremalnie krótkie, 

background image

 

-impulsy te rozchodzą się tylko w jednym kirunku (wzdłuż jednej prostej), 

 

-wszystkie narządy i struktury przewodzą ultradźwięki z tą samą prędkością, 

 

-na  każdej  powierzchni  granicznej  jedynie  mała  część  wiązki  ultradźwiękowej  zostaje 

odbita (przeważająca część energii tej wiązki przechodzi dalej), 

 

-odbite    (od  pewnej  powierzchni  granicznej)  ultradźwięki  wracają  do  głowicy 

bezpośrednio, tzn. bez dalszych odbić. 

 

Wszystkie te założenia są jednak spełnione tylko w przybliżeniu. Czas emisji  sygnału nie 

jest  bowiem  ekstremalnie  krótki,  ponieważ  każda  emisja  wymaga  czasu  na  wytłumienie  drgań, 

impuls  nie  rozchodzi  się  wzdłuż  jednej  prostej,  prędkość  rozchodzenia  się  ultradźwięków  w 

różnych  tkankach  nie  jest  jednakowa,  mogą  występować  dalsze  odbicia  ech  wracających  do 

głowicy.  Jak  z  tego  wynika,  analiza  powracających  ech,  dokonywana  przez  aparat,  ma  pewien 

modelowy i tym samym ograniczony charakter. 

 

Artefakty można ogólnie podzielić na zależne od aparatu albo od jego nastawienia oraz na 

takie,  których  źródłem  jest  oddziaływanie  ultradźwięków  z  tkankami.  Szczegółowa  analiza 

możliwych występujących artefaktów nie jest celem tego opracowania. 

 

Bezpieczeństwo metody 

 

Wedle  współczesnego  stanu  wiedzy  zastosowanie  ultradźwięków  do  badań  lekarskich 

(przy  mocach  dawek  stosowanych  w  diagnostyce)  jest  bezpieczne.Trudno  jednak  dowieść 

pełnego  bezpieczeństwa  metody  zwłaszcza,  że  ze  wględów  genetycznych  nawet  nikłe  ryzyko 

może być istotne jeśli zagraża wielu ludziom. 

 

Bardzo  szerokie  zastosowanie  ultradźwięków  w  położnictwie  jest  ciągle  przedmiotem 

badań.  Nie  ma  jednak  jak  dotąd  żadnych  przesłanek  ku  temu  aby  przy  istnieniu  wskazań 

klinicznych odstępować od badania USG ze względu na jego ewentualną szkodliwość. 

 

TOMOGRAFIA KOMPUTEROWA 

 

W  latach  1967-1972  G.N.Hounsfield  i  A,Cormak  opracowali  techniczne  złożenia 

koputerowej tomografii poprzecznej. 

 

Tomografia  komputerowa  jest  metodą  badania  radiologicznego  dającą  obraz 

poprzecznych lub skośnych warstw ciała przez przepuszczenie przez nie wiązek promieniowania 

rentgenowskiego pod różnymi kątami na detektory (kryształy scyntylacyjne np. jodek sodowy), 

background image

następnie  za  pomocą  komputera  określenie  wielkości  względnego  liniowego  współczynnika 

osłabienia promieniowania w poszczególnych miejscach tej warstwy i odtwożenie jej obrazu na 

ekranie monitora w skali szarości. Wartość współczynnika osłabienia przedstawiona jest w skali 

Hounsfielda,  zależy  ona  od  liczby  atomowej  pierwiastków  wchodzący  w  skład  danej  tkanki. 

Skala  ta  została  stworzona  przez  twórców  tomografii  komputerowej  w  wyniku  empirycznych 

pomiarów  osłabienia  wiązki  promieniowania  rtg  przez    różne  materiały  znajdujące  się  na  jego 

drodze.  Dolna  granica  skali  Hounsfielda  wynosi  -1023jH,  odpowiada  to  osłabieniu  emitowanej 

wiązki promieni rtg przez powietrze w warunkach normalnych. 0jH odpowiada osłabieniu wiązki 

przez wodę natomiast górna granica skali praktycznie nie istnieje (dla kości ok. 1000jH). 

 

Klasyczny  zestaw  do  tomografii  komputerowej  składa  się  z  ruchomego  pierścienia  z 

umocowaną do niego lampą rentgenowską oraz zestawu detektorów umieszczonych biegunowo 

na  pewnym  jego  wycinku  (  detektory  mogą  równiez  być  nieruchome,  rozmieszczone  na  całym 

obwodzie  pierścienia).  W  trakcie  badania  lampa  rentgenowska  wykonuje  obrót  360  wokół 

pasjenta leżącego na przesuwalny stole w czasie kilku sekund. Cienka wiązka promieniowania w 

kształcie wachlarza obejmuje całą szerokość ciała pacjenta i pada jednocześnie na kilkadziesiąt 

detektorów. 

 

Każdy  detektor  mierzy  wielkość  liniowego  współczynnika  osłabiania  promieniowania 

rentgenowskiego.    Przestrzeń,  którą  zajmuje  badana  warstwa,  jest  podzielona  na  tysiące 

prostopadłościanów-stanowiących  elementy  przestrzenne.  Lokalizacja  każdego  elementu 

realizawana jest na drodze przecinania się wiązek promieniowania rtg emitowanych przez lampę 

pod różnymi kątami. Przecięcie się różnych wiązek w danym elemencie umożliwia umieszczenie 

go  w  określonym  miejscu  układu  x  ,  y.  Komputer  z  otrzymanych  pomiarów  liniowych  oblicza 

współczynnik  względnego  osłabienia  dla  każdego  elementu  i  określa  jego  lokalizację,  a  wynik 

obliczeń przekazuje do odpowiedniej komórki pamięci. 

 

W  zależności  od  współczynnika  osłabienia  komputer  przypisuje  elementowi 

przestrzennemu  odpowiednią  szarość  (w  16  stopniowej  skali)  i  po  zsumowaniu  wszystkich 

pomiarów umożliwia rekonstrukcję obrazu na ekranie monitora. 

 

Istota komputerowej tomografii osiowej polega na wykonaniu wielu zdjęć warstwowych 

danego  obiektu.  Liczba  i  grubość  pojedynczej  warstwy  zależą  od  wymiarów  badanego  obiektu 

oraz  wymaganej  dokładności  badania.  Stosowane  powszechnie  w  diagnostyce  grubości  warstw 

mieszczą się w granicach od 1 do 10mm. Wszystkie zrekonstruowane warstwy zapamiętane są na 

background image

dysku  magnetycznym,  a  następnie  naświetlone  na  specjalnej  jednowarswowej  błonie 

fotograficznej. 

 

W tym miejscu niezbędne wydaje się wyjaśnienie pojęcia tzw. "okna". 

Skala gęstości Hounsfielda współczynników osłabiania przez tkanki ciała ludzkiego mieści się w 

granicach od ok. -1000j do ok. 1000j. Zawiera więc ok. 2000 jednostek. Natomiast skala szarości, 

czyli jasności świecenia punktów na ekranie monitora ma tylko 16 stopni. Z prostego obliczenia 

matematycznego  wynika,  że  biorąc  pod  uwagę  cały  zakres  skali  Hounsfielda  na  każdy  stopień 

szarości  przypada  ok.  125jH.  Uniemożliwia  to  rozróżnienie  dwóch  tkanek,  których 

współczynniki  osłabienia  różnią  się  o  mniej  niż  125jH,  co  oczywiście  nie  było  zamierzeniem 

twórców tomografii komputerowej. Dlatego z całej skali wycina się odpowiedni zakres gęstości, 

którego  granice  określane  są  płynnie  w  zależności  od  badanego  narządu.  Umożliwia  to  takie 

zawężenie skali aby 16 stopniom szarości odpowiadała jak najmniejsza liczba jednostek gęstości, 

umożliwiająra rozróżnienie wszystkich tkanek tworzących dany narząd. 

 

W rzeczywistości urządzenia do tomografii komputerowej są o wiele bardziej złożone niż 

wynikało  by  z  dotychczasowego  omówienia.  W  skład  zestawu  muszą  wchodzić  podstawowe 

urządzenia  do  wytwarzania  promieniowania  rentgenowskiego:  generatory  wysokiego  napięcia, 

urządzenia  zasilające  i  kontrolne,  lampy  rtg  o  specjalnej  konstrukcji  z  zespołem  kolimatorów  i 

odpowiednich  przesłon,  a  także  odpowiednie  urządzenia  do  ułożenia  pacjenta  umożliwiające 

odpowiedni  przeszow  w  trakcie  badania.  Jakkolwiek  zasada  tworzenia  obrazu  w  tomografii 

komputerowej wydaje się prosta, w rzeczywistości napotyka na znaczne trudności. Wynika to z 

konieczności 

wprowadzania 

do 

obliczeń 

odpowiedniej 

korekty 

uwzględniającej 

polichromatyczność  rzeczywistej  wiązki  promieniowania,  niemożność  uzyskania  wiązki 

równoległej,  czy  wreszcie  wzajemny  wpływ  sąsiednich  punktów  obiektu  na  wyniki  pomiaru 

współczynnika  osłabiania.  Każdy  z  wymienionych  wyżej  czynników  może  być  żródłem 

artefaktów. Innym rodzajem artefaktów występujących w obrazach tomograficznych są te, które 

pochodzą od badanego obiektu. Mamy tu do czynienia głównie z artefaktami ruchowym. 

 

Ogólne kryteria analizy obrazu tomografii komputerowej (TK) 

 

Analiza obrazu TK opiera się na następujących ogólnych zasadach: 

- badaniu różnic osłabiania promieniowania przez tkanki, 

background image

-  badaniu  budowy  wewnętrznej  narządów.  TK  wykrywa  i  pozwala  mierzyć  osłabianie 

promieniowania  w  narządzie.  Wykrywa  twory  oraz  ogniska  o  zmniejszonym  osłabianiu 

promieniowania  w  porównaniu  z  otoczeniem  tzw.  hypodensyjne,  o  identycznym  osłabianiu 

promieniowania  tzw.  izodensyjne  oraz  o  zwiększonym  w  porównaniu  do  otoczenia  osłabianiu 

promieniowania czyli struktury hyperdensyjne, 

-  badaniu  kształtu  i  wielkości  narządu.  Wiadomo,  że  izolowana  zmiana  wielkości  narządu  jest 

mało  swoistym,  źle  róznicującym  kryterium  i  zwykle  nie  pozwala  na  rozpoznanie  przyczyny 

choroby.  Uwidaczniając    jednak  skutek  możemy,  a  właściwie  musimy  poszukiwaś  przyczyn, 

które doprowadziły do jego wystąpienia. 

 

Czy tomografia komputerowa jest badaniem szkodliwym dla zdrowia? 

 

Jak niesie wieść gminna tomografia komputerowa jest badaniem nieszkodliwym, a wręcz 

pożytecznym  dla  zdrowia.  Opowieści  te  możemy  od  razu  włożyć  między  bajki.  Badanie  TK 

naraża  chorego  na  ryzyko  związane  z  użyciem  promieniowania  rentgenowskiego.  Dawka 

promieniowania  rtg  przypadająca  na  jedną  warstwę  zawiera  się  w  granicach  od  1  do  5  radów 

(zależy od przyjętych parametrów badania). Biorąc pod uwagę, że kompleta wizualizacja narządu 

często  wymaga  wykonania  20  i  więcej  warstw  warstość  pochłoniętej  dawki  promieniowania 

może  dochodzić  i  do  100  radów.  Maksymalna  dawka  na  badanie  jest  nawet  nieco  wyższa  niż 

dawka  na  jedną  warstwę,  ze  względu  na  nakładanie  się  warstw.  Dawka  pochłonięta  w  ciele 

badanego  odpowiada  więc  dawce  przy  specjalnych  badaniach  rentgenowskich  takich  jak 

angiografia, czy urografia. Szczególnie ostrożnie należy traktować badania, które obejmują tzw. 

narządy  krytyczne  czli  oko,  gruczoł  tarczowy,  jajniki,  jądra.  Jak  wynika  z  powyższego  opisu 

wszystkie  czynniki  szkodliwe  opisane  w  części  o  badaniach  rentgenowskich  dotyczą  również 

tomografii komputerowej.