1
I.
Metody badań strukturalnych
1)
Budowa materii - -powtórka (poziomy struktury, model Bohra)
Materia – składnik wszystkich obiektów we wszechświecie.
Stany skupienia: ciało stałe, ciekłe, gazowe, plazma.
Różne poziomy struktury:
-Struktura żelaza 0,04nm
- str. metaliczna miedzi 0,361nm
- str. dyslokacyjna stali austenitycznej 0,5
µ
m
- s. ziarnowa żelaza 50
µ
m
- s. dwufazowa 20
µ
m
Poziomy struktury, które decydują o właściwościach materiałów:
10
-1
obiekt materialny
10
-3
mikrostruktura
10
-4
kryształ
10
-8
komórka elementarna
10
-10
atom
10
-15
neutron, proton, elektron
10
-18
kwark d, kwark u
Co doprowadziło do powstania modelu Bohra:
Max Planck –emisja promieniowania elektrycznego w ciele doskonale czarnym odbywa się w sposób ciągły lub dyskretnie –
>skwantowanie energii przynajmniej w odniesieniu do procesu emisji i substancji światła.
1913 – N. Bohr – skwantowanie poz. Energetycznej atomu wodoru
Bohr- wyjaśnił skwantowanie poziomów energet.
Model budowy atomu Bohra
Bohr przyjął wprowadzony przez Ernesta Rutherforda model atomu, według tego modelu elektron krąży wokół jądra jako
naładowany punkt materialny, przyciągany przez jądro siłami elektrostatycznymi. Przez analogię do ruchu planet wokół Słońca model
ten nazwano "modelem planetarnym atomu".
POSTULATY Bohra:
1) Orbitalny moment pędu elektronu jest skwantowany. Może on przybierać dyskretne wartości
gdzie n = 1,2,3..., – stała Plancka podzielona przez 2π.
2
2) Podczas zmiany orbity, której towarzyszy zmiana energii elektronu, atom emituje foton. Energia fotonu równa jest różnicy
między energiami elektronu na tych orbitach
gdzie
E
2
i E
1
– energie elektronu, odpowiednio, końcowa i początkowa,
h – stała Plancka,
ν - częstotliwość fotonu.
2)
Falowe właściwości materii (hipoteza de Broglie’a, doświadczenie Davisona i Germera, kwantowomechaniczny opis atomu)
Louis de Broglie tworzy teorie fal materii w ramach koncepcji Bohra, uzyskuje naturalną interpretację: stany stabilne elektronów w
modelu planetarnym Bohra odpowiadają elektronowym falom stojącym.
Hipoteza de Broglie'a polegała na tym, aby każdej cząstce o różnym od zera pędzie przypisać falę, o określonej długości i
częstotliwości.
gdzie :
λ − długość fali cząstki,
h − stała Plancka,
p − pęd cząstki.
Doświadczenie Davissona i Germera (1927 r.)Dyfrakcja elektronów na podwójnej szczelinie. Davisson i Germer wykorzystali
fakt, że dysponując wiązką elektronów o określonym pędzie, będą w stanie teoretycznie określić długość fali tych elektronów. Na tej
podstawie (znając teoretycznie wyznaczoną długość fali) potrafili tak dobrać kryształ, aby można było zaobserwować zjawisko
interferencji. W swoim doświadczeniu wykorzystali kryształy niklu. Zaobserwowany obraz interferencyjny, który uczeni
wytłumaczyli dyfrakcją fal płaskich, stał się pierwszym dowodem na falową naturę cząstek.
Na rysunku przedstawiono schemat aparatury pomiarowej wykorzystanej przez Davissona i Germera.
Kwantowomechaniczny opis atomu
Najnowszym modelem budowy atomu jest model kwantowo-mechaniczny-matematyczny.
W teorii kwantowo-mechanicznej za pomocą równań matematycznych opisuje się zachowanie elektronu będącego w ruchu wokół
jądra jako pewne funkcje i pozwala to określić, atom jako układ mniejszych cząstek elementarnych, w którym to układzie możemy
wyróżnię dwie sfery:
-sferę dodatnią naładowanego jądra i sferę elektronową w postaci chmury ujemnego ładunku.
Trzy cząstki elementarne
Jądro= p- proton + n- neutron = nukleony
ē - elektron – chmura elektronowa
ē -negaton
3
e+- pozyton
Pierwiastek chemiczny to substancja, która nie może być podzielona na inne, prostsze substancje poprzez reakcje chemiczne.
Znanych jest ponad 100 pierwiastków, sklasyfikowanych w układzie okresowym. Pierwiastkiem nazywamy zbiór atomów o takiej
samej liczbie protonów w jądrze.
Liczba protonów zawartych w jądrze atomu danego pierwiastka nazywa się liczbą atomową i oznacza się dużą literą Z.
Liczba masowa to całkowita liczba protonów i neutronów w jednym atomie pierwiastka. Liczba masowa pierwiastka może być
różna, ponieważ liczba neutronów może się zmieniać.
3)
Podstawy spektroskopii optycznej
Spektroskopia, dział fizyki atomowej i jądrowej oraz chemii atomowej badający struktury energetyczne (budowę i
właściwości) cząsteczek, atomów, jąder atomowych i cząstek elementarnych (w historycznym znaczeniu nazwy) poprzez
obserwację i analizę rozkładu energii (widm) promieniowania emitowanego, pochłanianego lub rozpraszanego przez dany
obiekt fizyczny.
Spektroskopia dzieli się wg rodzaju badanego promieniowania na: radiospektroskopię, spektroskopię mikrofalową,
spektroskopię optyczną (z podpodziałem na spektroskopię promieniowania podczerwonego, spektroskopię światła
widzialnego i spektroskopię promieniowania ultrafioletowego), spektroskopię rentgenowską, spektroskopię
promieniowania gamma, spektroskopię promieniowania beta, spektroskopię promieniowania alfa, spektroskopię
neutronową.
Podział spektroskopii optycznej
a) w bliskim i próżniowym nadfiolecie 100 - 300 nm
b) w zakresie widzialnym 360 - 830 nm
c) w bliskiej (2.5-15 µm), średniej, dalekiej podczerwieni
12000-50 cm-1
Ciało ogrzane do wysokiej temperatury, poddane wyładowaniu elektrycznemu lub naświetleniu promieniowaniem o
odpowiedniej d ługości fali samorzutnie emituje promieniowanie elektromagnetyczne. Widmo spektroskopowe to
zarejestrowany obraz promieniowania rozłożonego na poszczególne długości fal, częstotliwości lub energie.
Jeżeli świecący gaz składa się z oddzielnych, nieoddziałujących ze sobą atomów, to jego widmo nazywamy atomowym
lub liniowym.
Jeżeli ciało jest gazem składającym się z wieloatomowych cząsteczek lub cieczą to jego widmo jest widmem pasmowym.
Przepuszczając przez badane ciało promieniowanie o widmie ciągłym otrzymujemy widmo absorpcyjne, w którym
obserwujemy ciemne linie odpowiadające długościom fal promieniowania pochłoniętego przez to ciało.
4)
Odkrycie promieniowania rentgenowskiego
Najważniejsi badacze promieni rentgenowskich: W. Crookes, J. W. Hittorf, E. Goldstein, H. Hertz, P. Lenard, Hermann von
Helmholtz, Thomas Edison, Nikola Tesla, Charles Barkla, oraz Wilhelm Conrad Roentgen.
Jedne z najwcześniejszych badań -> William Crookesa oraz Johanna Wilhelma Hittorfa. Obserwowali powstające w lampie
próżniowej promieniowanie, które pochodziło z ujemnej elektrody. Promienie te powodowały świecenie szkła w lampie. W 1876
roku Eugen Goldstein nazwał je promieniowaniem katodowym. Nie było to jednak promieniowanie rentgenowskie, tylko strumień
elektronów o dużej energii.
Następnie W. Crookes badał efekty wyładowań elektrycznych w gazach szlachetnych -> jeżeli umieści w pobliżu lampy kliszę
fotograficzną, to ulega ona naświetleniu i pojawiają się na niej cienie przedmiotów, które przesłaniały lampę. Głównym źródłem
4
wspomnianego efektu było promieniowanie nazwane później "X", powstające w wyniku gwałtownego wyhamowania elektronów –
promieni katodowych.
1892r. H. Hertz rozpoczął eksperymenty, nad przenikaniem promieni katodowych przez cienkie warstwy metalu, np. aluminium,
a jego student P. Lenard kontynuował te badania i opracował wersje lampy katodowej i analizował przenikanie promieni przez różne
materiały.
1887r Nikola Tesla rozpoczął badania nad tym samym zagadnieniem. Eksperymentował z wysokimi napięciami i lampami
próżniowymi. Opublikował on wiele technicznych prac nad udoskonalonymi lampami z jedną elektrodą. Tesla potrafił wytworzyć na
tyle silne promieniowanie katodowe ->jego negatywny wpływ na istoty żywe. W 1892 roku -> promienie katodowe mogą służyć do
obserwacji wnętrza ciała człowieka i wykonał szereg fotografii. Nie opublikował tych wyników, wysyłał zdjęcia do W. Roentgena.
Hermann von Helmholtz sformułował równania opisujące promieniowanie katodowe, z których wynikała możliwość ich dyspersji.
1895r. Wilhelm Röntgen rozpoczął obserwacje promieni katodowych podczas eksperymentów z lampami próżniowymi. 28
grudnia 1895 roku opublikował on wyniki swoich badań w czasopiśmie Würzburgskiego Towarzystwa Fizyczno-Medycznego. Było
to pierwsze publiczne ogłoszenie istnienia promieni rentgenowskich, dla których Roentgen zaproponował nazwę promieni X,
obowiązującą do chwili obecnej w większości krajów (m.in. w krajach anglosaskich). Potem wielu naukowców zaczęło je określać
jako promienie rentgena (nazwa obowiązująca m.in. w Polsce i w Niemczech). Za odkrycie promieni X Roentgen otrzymał pierwszą
nagrodę Nobla w dziedzinie fizyki w 1901 roku.
5)
Wiązania (liczby kwantowe, orbitale, powstanie pasm energetycznych w ciele stałym, kwantowomechaniczny i klasyczny
opis wiązań)
Liczby kwantowe
Nazwa liczby
kwantowej
Symbol
Możliwe
wartości
Liczba możliwych
wartości
Wielkość
kwantowa
Znaczenie
Główna
n
1,2,3…
nieograniczona
Energia
decyduje o
wielkości
orbitalu
Poboczna
l
0,1,2,…,(n-1)
zależy od n
(głównej liczby
kwantowej) i
wynosi: n
Moment pędu
informuje nas o
kształcie
orbitalu
Magnetyczna
m
l
Liczby
całkowite od
–L do L
zależy od l
(pobocznej liczby
kwantowej) i
wynosi (2l+1)
rzut momentu
pędu na
wyróżniony
kierunek
decyduje o
orientacji
przestrzennej
orbitalu
Spinowa
m
s
-1/2 lub 1/2
2
rzut spinu na
wyróżniony
kierunek
decyduje o
orientacji
przestrzennej
spinu
Orbitale - funkcją falową jednego elektronu, której kwadrat modułu określa gęstość prawdopodobieństwa napotkania elektronu w
danym punkcie przestrzeni.
Powstanie pasm energetycznych w ciele stałym – Pasma powstają, ponieważ:
a) elektrony związane z pojedynczym atomem zajmują dyskretne poziomy energetyczne
b) w sieci krystalicznej ciała stałego elektrony poruszają się w polu elektrycznym wytworzonym przez inne atomy w rezultacie
prowadzi to do rozszczepienia poziomów energetycznych i powstanie pasm energetycznych.
Najważniejsza rolę odgrywają 2 pasma:
a) walencyjne – nie wzbudzone atomy elektronów walencyjnych (w dielektryku całkowicie zapełnione)
b) najbliższe pasmo atomów wzbudź. tych elektronów nosi nazwę pasma przewodnictwa
Przedział energii zabronionej między tymi pasmami stanowi przerwę energetyczną. Stopień zapełnienia pasma wal. I wart. przerwy
energetycznej stanowią o własnościach ciał stałych (elektr., cieplnych, optycznych, magnetycznych) Szerokość pasm zabronionych
5
jest tego samego rzędu co szerokość pasm dozwolonych. Wraz ze wzrostem energii szer. pasm dozwolonych zwiększa się, a
wzbronionych maleje.
Kwantowomechaniczny opis wiązań –
•
Atomy w cząsteczce zachowują swoja indywidualność.
•
Wiązanie pomiędzy atomami powstaje wtedy, gdy odległość między nimi jest tak mała, że następuje przenikanie się ich
powłok walencyjnych (warunek konieczny lecz nie wystarczający).
•
Aby powstało wiązanie, na przenikających się orbitalach atomowych muszą znajdować się niesparowane elektrony.
•
Spiny nakładających się chmur elektronowych muszą być skierowane antyrównolegle.
•
Przenikające się chmury elektronowe są opisywane nowymi funkcjami, tzw. orbitalami cząsteczkowymi (molekularnymi).
•
Liczba wiązań kowalencyjnych, jakie może utworzyć atom, powinna być równa maksymalnej liczbie pojedynczo
obsadzonych orbitali.
•
Zaangażowane w wiązaniu elektrony pozostają zlokalizowane między atomami.
•
Wiązania pojedyncze opisywane są orbitalem cząsteczkowym σ.
•
Pary elektronowe tworzące wiązania wielokrotne opisywane są jednym orbitalem σ i jednym lub dwoma orbitalami π .
Klasyczny opis wiązań
1. Wiązania siłami van der Waalsa - wzajemne oddziaływania elektrostatyczne pomiędzy dipolami cząsteczkowymi, pomiędzy
cząsteczkami pozbawionymi momentów dipolowych lub atomami (tzw. oddziaływania dyspersyjne). Przyczyną wystąpienia
oddziaływania van der Waalsa są trwałe oraz wyindukowane momenty dipolowe w cząsteczkach lub - w przypadku oddziaływań
dyspersyjnych - chwilowe asymetrie rozkładu ładunku w cząsteczce lub atomie. Oddziaływania van der Waalsa są oddziaływaniami
bliskiego zasięgu.
2. Wiązania jonowe - Istotą tego wiązania jest elektrostatyczne oddziaływanie między jonami o różnoimiennych ładunkach.
Wiązanie to powstaje najczęściej między metalem a niemetalem.
Dążenie do oktetu – 8 elektronów na ostatniej powłoce.
Elektroujemność mówi o tym, czy atom chętniej oddaje, czy przyłącza elektron.
Elektroujemnośc wg. Millikana
X = ½( l+E )
l – energia potrzebna do usunięcia elektronu
E – powinowactwo do elektronu.
Różnica elektroujemności
∆
x = |xa – xb|
xa – elektroujemność pierwszego pierwiastka
xb – elektroujemność drugiego pierwiastka
3. Wiązania kowalencyjne – związane jest z „nagromadzeniem” ładunku pomiędzy atomami tworzącymi cząsteczkę lub ciało stałe.
4. Wiązania metaliczne – Elektrony zostają „uwspólnione” w całym krysztale. Jony dodatnie tworzą sztywną sieć i są jakby
zanużone w morzu ładunków ujemnych.
6)
Przypomnienie podstawowych pojęć z krystalografii (Komorka elementarna, kierunki sieciowe, płaszczyzny sieciowe,
oznaczenia)
Komórka elementarna – równoległościan oparty na wektorach translacji prymitywnych.
Odtwarzanie całej struktury można otrzymać przez powtórzenie różnych elementów, ale komórka elementarna jest najprostszym
elementem, którego powtarzanie odtwarza sieć.
Kierunki sieciowe – w celu określenia kierunku prostej sieciowej, należy poprowadzić prostą równoległą do prostej przechodzącej
przez punkty sieciowe i przechodzącą przez początek układu współrzędnych, a następnie podać współrzędne dowolnego punktu,
leżącego na tej prostej.
Wartości uvw są zawsze sprowadzane do zbioru najmniejszych liczb całkowitych. Wyznaczane w opisany sposób wskaźniki
nazywane są wskaźnikami Millera.
Płaszczyzny sieciowe - W celu określenia wskaźnika płaszczyzny, należy określić długość odcinków odciętych na osiach układów
współrzędnych przez rozpatrywaną płaszczyznę oraz podać odwrotność tych odcinków. Następnie należy zredukować odwrotność
długości odcinków do najmniejszych liczb całkowitych.
Oznaczenia – w ogólnym przypadku współrzędne położenia oznaczane są [uvw] natomiast rodziny kierunków sieciowych <uvw>.
Współrzędne ujemne oznacza się przez dodanie nad nimi poziomych kresek.
6
7)
Właściwości, otrzymywanie i zastosowania promieniowania rentgenowskiego
Promieniowanie rentgenowskie powstaje przy przejściach elektronów na wewnętrzne powłoki elektronowe atomu, jego długości
zawarte są w przedziale 0,1 pm do ok. 50 nm, tj. między promieniowaniem gamma i ultrafioletowym.
Zastosowanie:
- medycyna
- prześwietlają bagaże na lotniskach
- pomagają w defektoskopii i budowaniu konstrukcji stalowych
- każdy odbiornik telewizyjny emituje promienie X, które jednak nie przedostają się przez szybę odbiornika
- używane są w fizyce jądrowej (mikroskopy elektronowe, cyklotrony, akcelatory)
- wykorzystywane są w badaniach pierwiastkowego składu chemicznego substancji oraz struktur kryształów
Własności promieniowania X:
- są niewidzialne, ale wywołują fluorescencję
- wywołują jonizację powietrza
- wiele substancji fosforyzuje przy naświetlaniu promieniami X
- emulsje fotograficzne są czułe na promienie X, powodujące zaczernienie kliszy
- w próżni mają prędkość światła
- rozchodzą się po liniach prostych, ich tor nie zakrzywia się w polu magnetycznym ani elektrycznym
- padając na ciało naelektryzowane powodują, że ciało to traci ładunek,
8)
Promieniowanie synchrotronowe
W miarę wzrostu energii przyspieszonych cząstek, pole magnetyczne jest zwiększone, by zachować stały promień obiegu cząstek.
Elektrony są przyspieszane na kilku etapach, aby móc osiągnąć końcową energię rzędu gigaelektronowoltów (GeV). Elektrony
znajdują się wewnątrz pierścienia z próżnią i poruszają się po zamkniętym obwodzie, przez to okrążając pierścień ogromną liczbę
razy. Zmiana kierunku jest formą przyspieszenia i stąd elektrony emitują promieniowanie o energii rzędu gigaelektronowoltów. Efekt
relatywistyczny sprawia, że promieniowanie nie przebiega izotropowo, lecz uzyskuje się skierowany do przodu stożek
promieniowania. To sprawia, że promieniowanie synchrotronowe jest jednym z najjaśniejszych źródeł promieniowania X. W
promieniowaniu synchrotronowym powstają fotony o szerokim zakresie energii, od kilku do kliku tysięcy eV. Przyspieszenie w
geometrii płaskiej powoduje, że promieniowanie jest spolaryzowane liniowo, gdy obserwowane w płaszczyźnie orbitalnej oraz
spolaryzowane kołowo, gdy obserwowane przy niewielkim kącie do tej płaszczyzny.
Innymi słowy:
P.S. - promieniowanie elektromagnetyczne, wysyłane przez naładowane cząstki (na ogół elektrony), przemieszczające się z
relatywistycznymi szybkościami w polu magnetycznym. Elektrony przemieszczają się po spirali o powiększającym się promieniu,
emitując promieniowanie w obszarze wąskiego stożka, którego oś jest równoległa do wektora szybkości chwilowej Tak samo jak
światło latarni morskiej, stożek ten raz na obrót przechodzi przez linię widzenia obserwatora, który ogląda krótkotrwałe błyski. Kiedy
elektronów jest duża ilość, ich błyski zlewają się oraz możemy zaobserwować ciągłe promieniowanie, którego widmo odbiega
znacznie od typowego widma promieniowania doskonale czarnego (definiowanego krzywą Planck'a). Istotną własnością tego
promieniowania jest jego polaryzacja. Częstotliwość wysyłanego promieniowania uzależniona jest od energii elektronu oraz
natężenia pola magnetycznego. Wypromieniowywanie energii przez elektron powiązane jest z jej pomniejszeniem się, dlatego
częstotliwość emitowanej fali pomniejsza się, natomiast promień spiralnego toru ulega powiększeniu. Ciągłość promieniowania
synchrotronowego w czasie potrzebuje występowania źródła relatywistycznych elektronów, które jest dostarczane cały czas nowych
cząsteczek.
•
ma intensywne widmo ciągłe, sięgające od podczerwieni do obszaru rentgenowskiego
•
jest silnie skupione
•
ma dokładną strukturę impulsową
•
posiada dobrze znane i łatwo wyliczalne własności
•
jest spolaryzowane liniowo i eliptycznie.
•
mieszaniną promieniowania elektromagnetycznego o różnych długościach fali i o jedynych w swoim rodzaju własnościach
•
bardzo intensywne promieniowanie
•
do badań struktur elektronowych i geometrycznych atomów, z których składa się materia
7
9)
Wykorzystywanie elektronów do badania struktury
•
Elektrony mają ładunek elektryczny i oddziaływają silnie z materią, wnikają bardzo płytko.
•
Zjawisko ugięcia elektronów pozwala na badania strukturalne powierzchni oraz bardzo cienkich warstw.
•
Dyfrakcja elektronów (ED) – obrazy w mikroskopie elektronowym; metoda informuje o przemianach fazowych i defektach
struktury (stos. w metaloznawstwie). Dośw. C. J. Davissona i L. H. Germera Dwa warianty:
o
D.e. wysokiej energii (zast. w układach wielowarstwowych) HEED. Dyfrakcja zachodzi w różnych cienkich
warstwach a wynik pomiaru dotyczy układu jako całości.
o
D.e. D. elektronów odbitych wysokiej energii (RHEED).W metodzie tej elektrony padają na badany materiał
pod małym katem (3 – 5)
°
.
•
Ultraszybka dyfrakcja elektronów (UED) – duża czułość
•
Dyfrakcja elektronów niskiej energii (LEED) – umożliwia określenie topografii
Strukturę materiałów krystalicznych można analizować za pomocą mikroskopu elektronowego wykorzystując metody
dyfrakcyjne. Jedna z najważniejszych metod badań struktury krystalicznej jest oparta na wykorzystaniu efektu dyfrakcji elektronów
na płaszczyznach atomowych kryształu. Wśród kilku sposobów tworzenia obrazu dyfrakcyjnego, najczęściej wykorzystywana jest
dyfrakcja punktowa. Utworzenie punktu dyfrakcyjnego jest wynikiem rozproszenia elektronów na atomach znajdujących się w
węzłach sieci kryształu. Elektrony przyśpieszone wysokim napięciem, np. 200 kV, posiadają jednakową energię, (200 keV) co
oznacza, że wiązka przyśpieszonych elektronów ma ściśle określoną długość fali (promieniowanie monochromatyczne). Tor takiego
elektronu, który przelatuje w pobliżu jądra atomu, ulega zakrzywieniu pod wpływem oddziaływania elektrostatycznego między
dodatnim ładunkiem jądra a ujemnym ładunkiem elektronu. Kierunek ruchu elektronu zmienia się tym silniej im bliżej jądra przeleci
elektron. Mówimy wtedy o rozproszeniu sprężystym, w którym energia elektronu praktycznie nie ulega zmianie i porusza się on z
taką samą prędkością jak wcześniej. Rozproszenie elektronów od atomów uporządkowanych w sieci krystalicznej, powoduje, zatem
powstanie fali spójnego promieniowania rozproszonego w różnych kierunkach od centrów rozpraszania, którymi są poszczególne
atomy w sieci krystalicznej. W szczególnych warunkach wiązka rozproszona może ulec wzmocnieniu powodując powstanie
punktowych refleksów na ekranie mikroskopu. Punkty dyfrakcyjne powstają
w określonej odległości od środka ekranu, zależnej od
długości fali promieniowania, rodzaju sieci i odległości między płaszczyznami atomowymi.
10)
Wykorzystywanie neutronów do badania struktury
•
Neutrony nie posiadają ładunku elektrycznego i oddziałują tylko z jądrami (reakcje jądrowe). Nie powodują jonizacji
•
Trudno je rejestrować
•
Najsilniejsze neutrony o niższych energiach.
•
Trudno je wytworzyć
•
Zalety dyfrakcji neutronów:
•
Dają informacje o rozmieszczeniu lekkich elektronów (H, C -> substancje organiczne) w strukturach zawierających
pierwiastki cięższe (dod. info z porównania wyników dla różnych izotopów [dla NaH i NaD])
•
umożliwiają wyznaczenie struktur magnetycznych
•
dają informacje o rozmieszczeniu pierwiastków o podobnym Z nierozróżnialnych za pomocą pr. X
•
dokładniejsza niż pr. X czy e- informacje o położeniu i drganiach termicznych atomów
•
Neutronografia (ND) - C.G. Shull. Stosuje się przy badaniach pod wysokim ciśnieniem oraz przy wyznaczaniu struktur
magnetycznych. Dyfraktometry neutronów, ze względu na wymagane natężenia wiązek neutronów, instalowane są przy
reaktorach atomowych.
Skonstruowanie reaktorów jądrowych wytwarzających wiązki neutronów o dużym natężeniu pozwoliło na ich wykorzystanie
do badań struktury krystalicznej. Większość wytwarzanych w reaktorach neutronów to tzw. neutrony termiczne, o energii
8
kinetycznej odpowiadającej temperaturze T=400K Odpowiadająca im długość fali wynosi kilka Å. Precyzyjne
wyselekcjonowanie neutronów o dobrze określonej energii odbywa się za pomocą monochromatora krystalicznego, którego
działanie tak jest analogiczne do działania siatki dyfrakcyjnej wobec promieniowania widzialnego. Otrzymane w ten sposób
monochromatyczne neutrony wykorzystuje się w neutronowej metodzie Debey’a -Sherrera lub w metodzie obracanego kryształu.
Wiązkę neutronów stosuje się przede wszystkim do badania uporządkowania magnetycznego, badania przejść fazowych
( porządek- nieporządek) oraz położeń atomów wodoru w ciałach stałych, cząsteczkach i układach biologicznych.
11)
Oddziaływanie promieniowania elektromagnetycznego z materią (zjawisko fotoelektryczne, zjawisko Thomsona,
zjawisko Comptona, kreacja i anihilacja par)
Zjawisko fotoelektryczne
Zjawisko fotoelektryczne (zewnętrzne) polega na wybijaniu elektronów z powierzchni metalu przez padającą wiązkę światła
o odpowiedniej częstości (nie zależy od natężenia światła, gdyż natężenie zwiększa tylko ilość emitowanych fotonów).
Ilość energii E zawarta w fotonie związana jest z jego częstotliwością następującą zależnością
E = hν, gdzie: h – stała Plancka, ν - częstotliwość
Jeden kwant światła (foton), zupełnie niezależnie od pozostałych, przekazuje całą swoją energię elektronowi. Gdy elektron
emitowany jest z powierzchni metalu, wtedy jego energia kinetyczna wynosi:
E
max
= hν – P
gdzie: P = hν
0,
jest tzw. pracą wyjścia – charakterystyczną dla metalu minimalną
energią, która pozwala elektronowi opuścić jego powierzchnię, a ν
0
– częstotliwością, poniżej której nie ma emisji elektronów.
W efekcie fotoelektrycznym wewnętrznym energia fotonu też jest całkowicie pochłaniana przez elektron, ale elektron nie jest
uwalniany, jak to ma miejsce w zjawisku fotoelektrycznym zewnętrznym, przenosi się do pasma przewodnictwa zmieniając tym
samym własności elektryczne materiału (Fotoprzewodnictwo). Zjawisko to zachodzi tylko wówczas, gdy energia fotonu jest większa,
niż wynosi szerokość pasma wzbronionego (odległość energetyczna między pasmem walencyjnym a pasmem przewodnictwa).
Zjawisko Comptona
Zjawisko Comptona polega na zmianie długości fali promieniowania rentgenowskiego podczas rozpraszania promieni
rentgenowskich na cząstkach naładowanych.
W swoich doświadczeniach Compton stosował wiązkę promieniowania rentgenowskiego o ściśle określonej długości fali λ
1
i
kierował ją na grafitową tarczę. Dla różnych kątów rozproszenia mierzył on natężenie rozproszonego promieniowania
rentgenowskiego w funkcji długości fali.
Rys. Natężenie wiązki rozproszonej pod kątem w zależności od długości fali (λ =
λ
1
, λ'= λ
2
).
9
Łatwo zauważyć, że chociaż wiązka padająca zawiera w zasadzie jedną długość fali λ
1
, rozkład natężenia rozproszonego
promieniowania rentgenowskiego ma maksima dla dwu długości fali. Jedna długość fali równa jest długości fali padającej, druga λ
2
jest od niej większa o wielkość ∆λ. To tak zwane przesunięcie komptonowskie, które zmienia się wraz
z kątem, pod którym obserwujemy rozproszone promieniowanie rentgenowskie.
Compton zinterpretował te wyniki doświadczenia postulując, że padająca wiązka promieniowania rentgenowskiego nie jest falą, a
strumieniem fotonów, z których każdy ma energię
. Rozpraszanie jest wynikiem zderzenia fotonu z elektronem swobodnym,
który przed zderzeniem jest nieruchomy.
Ponieważ padające fotony podczas zderzeń przekazują część swojej energii elektronom, rozproszony foton musi mieć energię
mniejszą od energii fotonu padającego, a zatem niższą częstotliwość
, co z kolei daje większą długość fali
. Taka
interpretacja Comptona jakościowo wyjaśnia obserwowaną zmianę długości fali wiązki rozproszonej.
Przesunięcie komptonowskie ∆λ:
gdzie: λ
e
= jest to tzw. komptonowska długość fali elektronu
Zjawisko Thomsona
Proces rozpraszania fotonów bez zmiany długości fali nazywany jest rozpraszaniem Thomsona.
Thomson rozważał promieniowanie rentgenowskie jako wiązkę fal elektromagnetycznych. Drgający wektor pola
elektrycznego fali działa na elektrony atomów tarczy. W rezultacie na elektron działa siła wprawiająca go w drgania, a więc
wywołująca ruch przyspieszony. Elektron poruszający się ruchem przyspieszonym wypromieniowuje fale elektromagnetyczne o tej
samej częstotliwości co fale padające oraz będące z nimi w zgodnej fazie. Tak więc elektrony atomów mogą pochłaniać energię z
padającej wiązki promieniowania rentgenowskiego i rozpraszać ją we wszystkich kierunkach. Przy tym długość fali promieniowania
rozproszonego jest taka sama jak promieniowania padającego.
Dla
dominuje rozpraszanie Thomsona. Gdy przechodzimy do zakresu promieniowania rentgenowskiego
rozpraszanie Comptona zaczyna odgrywać coraz większą rolę, szczególnie dla tarcz rozpraszających złożonych z atomów o małej
liczbie atomowej.
W przypadku takich tarcz elektrony nie są silnie związane w atomach i w konsekwencji zmiana długości fali w procesie rozpraszania
na elektronie, który w rezultacie zostaje uwalniany, staje się łatwo mierzalna. W przypadku promieniowania gamma, dla którego
można przyjąć, że
, energia fotonu staje się tak duża, iż w procesie zderzenia elektron jest zawsze uwalniany i w rezultacie
dominuje rozpraszanie komptonowskie.
Kreacja i anihilacja par
W procesie tym foton o wysokiej energii traci wskutek zderzenia z jądrem całą swą energię hν i jej kosztem powstaje para
cząstek - elektron i pozyton, mających pewną energię kinetyczną.
10
W procesie tworzenia par energia przekazana jądru ulegającemu odrzutowi jest zaniedbywana, ponieważ jądro ma dużą
masę. Obie cząstki mają jednakowe energie spoczynkowe m
0
c
2
. Wyprodukowany pozyton ma nieco większą energię kinetyczną,
ponieważ w wyniku oddziaływania kulombowskiego wytworzonej pary z dodatnio naładowanym jądrem występuje przyspieszenie
pozytonu i hamowanie elektronu.
Możemy stwierdzić, że minimalna energia fotonu, zwana inaczej energią progową, potrzebna do wytworzenia pary cząstek,
wynosi 2m
0
c
2
, czyli 1,02 MeV, co odpowiada długości fali 0,012Å. Jeżeli długość fali jest mniejsza, a tym samym energia jest
większa od energii progowej, to wytworzona para cząstek ma oprócz energii spoczynkowej również pewną energię kinetyczną.
Ze zjawiskiem kreacji par ściśle związany jest proces odwrotny zwany anihilacją par. Polega on na tym, że gdy
spoczywające cząstki - elektron i pozyton - znajdują się blisko siebie, wtedy łączą się ze sobą i ulegają anihilacji. W rezultacie
następuje unicestwienie dwóch cząstek materialnych, w miejsce których powstaje promieniowanie elektromagnetyczne.
W wyniku występowania zjawiska fotoelektrycznego oraz kreacji par zachodzi całkowita absorpcja fotonów,
natomiast zjawisko Comptona i zjawisko Thomsona prowadzą do rozpraszania
fotonów.
12)
Fizyczne podstawy metod dyfrakcyjnych
Zjawiska falowe
Powierzchnia falowa to zbiór punktów ośrodka dających się połączyć, będących w tej samej fazie drgań.
Z punktu widzenia kształtu powierzchni falowej fale dzielą się na:
- koliste – zaburzenie punktowe,
- płaskie – zaburzenie liniowe.
ZASADA HUYGENSA:
I. Każdy punkt ośrodka po dojściu do niego zaburzenia staje się źródłem nowej fali kulistej.
II. Wypadkowa fal cząstkowych tworzy powierzchnię falową.
Rozchodząca się fala mechaniczna może ulegać następującym zjawiskom:
Ugięciu (dyfrakcji), odbiciu, załamaniu, interferencji i polaryzacji.
Dowodem słuszności I cz. zasady Huygensa jest zjawisko ugięcia fali (dyfrakcja):
Dyfrakcja fali, inaczej nazywana ugięciem fali, jest zjawiskiem polegającym na zmianie kształtu powierzchni falowej (zmianie
kierunku promieni fali) na skutek pokonania przez falę przeszkody.
Zjawisko odbicia fali to zmiana kierunku rozchodzenia się fali w danym ośrodku na granicy
z innym ośrodkiem..
11
Kąt odbicia jest równy kątowi padania α = α’
Załamanie fali – jeżeli fala przechodzi przez granicę dwóch ośrodków, różniących się prędkością rozchodzenia się fali, to ulega
załamaniu.
gdzie: v
1
, v
2
– prędkości rozchodzenia się fal w ośrodku pierwszym i drugim.
Interferencja to nakładanie się fal rozchodzących się z dwóch lub większej liczby źródeł. Nakładanie się fal zachodzi bezkolizyjnie,
fale przenikają się nawzajem. W wyniku interferencji może wystąpić wzmocnienie lub wygaszenie fali. Interferencja możliwa jest
tylko dla fal o tych samych długościach (częstotliwościach) i stałej różnicy faz.
Wzmacnianie zachodzi w miejscach, w których spotykają się dwa grzbiety lub dwie doliny fal. Wygaszenie występuje w miejscach
spotkania się doliny jednej fali z grzbietem drugiej fali.
W punkcie S zachodzi wygaszenie. W punkcie S zachodzi wzmocnienie.
Z
1
, Z
2
– miejsca wzbudzenia fal;
r
1
, r
2
–drogi przebyte przez fale od miejsca wzbudzenia do punktu nałożenia S.
Zjawiska świadczące o naturze korpuskularnej światła
- zjawisko fotoelektryczne zewnętrzne;
- zjawisko Comptona;
- promieniowanie ciała doskonale czarnego;
13)
Dyfrakcyjne metody badania monokryształów
Metoda Lauego
Wykorzystuje się w tej metodzie promieniowanie rentgenowskie polichromatyczne a obiekt badań czyli monokryształ jest w czasie
badania nieruchomy.
Równania Lauego dla trójwymiarowej sieci
12
A ( cos α1- cos α0) =hλ
B( cos β1 – cos B0)=hλ
C(cos γ1- cos γ0) =hλ
Atomy kryształu rozpraszają promienie dając interferencje na trzech stożkach wokół trzech osi. Przecięcia stożków występujące dla
różnych długości fal określają kierunki najsilniejszej interferencji co objawia się w postaci najsilniejszych plamek na kliszy. Metoda
informuje o symetrii kryształu , często służy do przestrzennej orientacji kryształu . Istnieje możliwość badań kinetyki strukturalnych
przemian fazowych. W promieniowaniu synchrotronowym (duże napięcie ) pomiar trwa do 10ps. Amplituda fali rozproszonej na
komórce elementarnej zawiera w sobie informacje o położeniach atomów. Stąd niezbędne są pomiary natężeń refleksów
dyfrakcyjnych . Jest to generalna zasada wszystkich metod dyfrakcyjnych bez względu na rodzaj stosowanego promieniowania.
W doświadczeniu Lauego promienie Rentgena po przejściu przez otwory w płytkach ołowiowych (kolimator), tworzyły wąską
wiązkę padająca na cienka płytkę siarczku cynku. Na kliszy fotograficznej , która znajdowała się za kryształem powstał obraz
dyfrakcyjny tego kryształu. Obraz ten występował jako wyraźna plamka pośrodku obrazu i szeregu rozrzuconych symetrycznie
plamek. Próbka jest zamocowana na główce goniometrycznej. Fale o różnej długości zostają rozproszone w różnych kierunkach które
spełniają równanie Bragga dla danej długości. Otrzymujemy na kliszy różne punkty dla różnych długości fali. Układ plamek ma
symetrię taka jak kierunek w krysztale wzdłuż którego pada fala.
Na podstawie uzyskanych obrazów można zorientować się czy dany obiekt jest monokryształem , bliźniakiem czy obiektem
polikrystalicznym, jaka jest symetria kryształu, zorientować kryształ w przestrzeni zgodnie z wybrana osią w celu dalszych badań.
Od równania Lauego można przejść do równania Bragga
2
2
2
2
2
2
2
1
c
l
b
k
a
h
d
+
+
=
hkl – wskaźniki Millera
Równanie Bragga
λ=2dsinѲ
Metoda Bragga
Odegrała ona dużą role w analizie strukturalnej i spektralnej. Wykorzystuje się w niej promienie monochromatyczne które ulega
dyfrakcji na monokrysztale. Metoda Bragga znalazła zastosowanie głownie w spektrometrii rentgenowskiej do jakościowej i
ilościowej analizy chemicznej materiałów.
Monokryształ jest umieszczany na obrotowym stoliku z jedną płaszczyzna prostopadła do stolika o znanych wskaźnikach promienie
padają na płaszczyznę monokryształu przecinając pod katem prostym oś jego obrotu. Metoda ta uzyskuje refleksy różnych rzędów
pochodzące tylko od jednej rodziny równoległych płaszczyzn krystalicznych. Metoda ta umożliwia zidentyfikowanie pierwiastka
który wysłał promieniowanie a pomiar natężenia refleksu pozwala określić zawartość w analizowanym materiale.
Metoda obracanego kryształu
W metodzie tej wykorzystuje się monochromatyczne promieniowanie rentgenowskie padające na monokryształ ustawiony jedną z osi
krystalograficznych prostopadle do padającej wiązki promieni. Kryształ jest obracany wokół osi i jest większe prawdopodobieństwo
spełnienia równia Bragga.
14)
Dyfrakcyjne metody badań polikryształów i materiałów ceramicznych
Metoda Debye’a-Sherrera-Hulla DSH
Jest to podstawowa metoda badań substancji polikrystalicznych w której stosuje się monochromatyczne promieniowanie
rentgenowskie. Obiektem badań jest próbka składająca się z setek lub tysięcy krystalitów najczęściej 0,1 – 10 um ułożonych
bezładnie do padającej wiązki promieni. Długość fali jest w tej metodzie stała refleksy uzyskuje się od tych płaszczyzn krystalitów
które spełniają prawo bargla. Metoda ta pozwala wyznaczyć jedną wielkość charakteryzująca sieć krystaliczną a mianowicie
odległość międzypłaszczyznową d. Stwarza to możliwość określenia parametrów komórki krystalicznej. Metoda ta znalazła
zastosowanie w ilościowej i jakościowej analizie fazowej , w precyzyjnym pomiarze stałych sieciowych , w wyznaczaniu wielkości
krystalitów i zniekształceń sieciowych oraz badania tekstury.
13
Ogniskowanie Bragg Brentano
Promieniowanie wytworzone na obwodzie lampy rentgenowskiej pada na kryształ monochromatora który na zasadzie odbicie Bragga
wybiera z polichromatycznej wiązki promieniowania .
Zasada działania polega na zsynchronizowanym obrocie próbki o kat Ѳ i układu rejestrującego o kat 2Ѳ. Dla każdego położenia
kątowego rejestrowany jest kat 2Ѳ oraz odpowiadające mu natężenie odbitego od próbki promieniowania. Otrzymuje się informacje o
strukturze krystalicznej, skaldzie fazowym , teksturze i innych właściwościach.
Na podstawie linni dyfrakcyjnych można okreslic symetrie komórki
θ
λ
sin
2
*
2
2
2
l
k
h
a
+
+
=
15)
Symetria kryształów i sposoby określania
Elementy symetrii kryształów – prawidłowe powtarzanie się w przestrzeni jednakowych pod względem geometrycznym i
fizycznym części kryształów: np. ścian, krawędzi, naroży określane jest mianem symetrii kryształów.
Symetria przejawia się w postaciach, strukturze i właściwościach fizycznych kryształów.
Symetrię określa się za pomocą tzw. makroskopowych elementów symetrii, czyli dających się zaobserwować na wielościennej
postaci kryształu.
Proste elementy symetrii kryształu
•
środek symetrii – punkt położony wewnątrz kryształu, który ma tę własność, że na dowolnej prostej przeprowadzonej przez
ten punkt, w jednakowej od niego odległości, znajdują się jednakowe pod względem geometrycznym i fizycznym punkty
kryształu.
•
oś symetrii – prosta, wokół której powtarzają się jednakowe części kryształu, przy czym te części mogą się powtarzać co kąt
α = 60°, 90°, 120°, 180°, 360°, liczbę n = 360/α nazywa się odwrotnością osi symetrii; w kryształach możliwe są osie jedno-,
dwu-, cztero-, sześciokrotne.
•
płaszczyzny symetrii – płaszczyzny dzielące kryształ na dwie części pozostające względem siebie w takim stosunku jak
przedmiot do swego obrazu w zwierciadle płaskim.
SPOSOBY
W metodzie Lauego wąska wiązka równol., polichromatycznych (tzn. o różnych długościach fal) promieni rentgenowskich pada
na nieruchomy monokryształ; obraz dyfrakcyjny, powstający w wyniku odbicia promieni rentgenowskich przez płaszczyzny sieciowe
kryształu ( Bragga równanie), jest rejestrowany na płaskiej błonie fot. umieszczonej prostopadle do kierunku wiązki padającej; jeśli
wiązka padająca jest równol. do osi lub płaszczyzny symetrii monokryształu, to refleksy (ślady wiązek odbitych) na rentgenogramie,
tzw. lauegramie, są rozmieszczone zgodnie z symetrią tego kierunku. Metodą Lauego nie można wykryć w monokrysztale środka
symetrii, wobec czego monokryształ można zakwalifikować jedynie do jednej z 11 tzw. klas dyfrakcyjnych (a nie do jednej z 32 klas
krystalograficznych). Metodę Lauego stosuje się do określania makroskopowej symetrii monokryształów ( kryształu symetria); oprac.
ją 1912 M. von Laue, W. Friedrich i P. Knipping.
W metodzie obracanego kryształu wąska wiązka równol., monochromatycznych (o jednej długości fali) promieni
rentgenowskich pada na obracający się monokryształ, zazwyczaj prostopadle do jego osi obrotu, którą jest prosta sieciowa,
najczęściej oś krystalograf.; wiązki promieni rentgenowskich, odbitych od płaszczyzn sieciowych, dają na błonie fot. (cylindrycznie
otaczającej monokryształ) refleksy układające się wzdłuż równol. linii zw. warstwicami; otrzymany rentgenogram nazywa się
dyfraktogramem warstwicowym. Metodą obracanego kryształu wyznacza się rozmiary komórki elementarnej i typ sieci Bravais'go
(rentgenostrukturalna analiza). Metodę obracanego kryształu oprac. 1919 E. Schiebold.
W metodzie kołysanego kryształu kryształ, zamiast pełnego obrotu o 360°, wykonuje (powtarzające się wielokrotnie): obrót
o niewielki kąt i powrót do punktu wyjścia.
W celu wyznaczenia grupy przestrzennej i struktury kryształów stosuje się przede wszystkim metody goniometryczne oraz
czterokołowy dyfraktometr rentgenowski
14
16)
Dyfrakcyjna rentgenowska analiza fazowa
Metodami rentgenowskiej analizy dyfrakcyjnej można:
- badać strukturę kryształów
- identyfikować substancje krystaliczne i odróżniać substancje krystaliczne od bezpostaciowych
- wykonywać ilościową analizę fazową i oznaczać przemiany fazowe
- badać naprężenia wewnętrzne w krysztale i deformację sieci krystalicznej
- badać grubość warstw na różnych materiałach
- oznaczać teksturę i określać budowę ciał krystalicznych, w których zachodzi już częściowe uporządkowanie położenia atomów,
jonów i cząsteczek
W celu rozwiązania każdego z tych zadań stosuje się różne metody:
- bada się odpowiednimi metodami ciała mono- i polikrystaliczne
- obraz dyfrakcyjny rejestruje się metodą fotograficzną lub za pomocą liczników
- stosuje się promieniowanie mono- lub polichromatyczne
Przykłady zastosowania rentgenowskich metod dyfrakcyjnych
Rentgenowska jakościowa analiza fazowa
Przedmiotem rentgenowskiej analizy fazowej jest identyfikacja składu fazowego metodą dyfrakcji promieni rentgenowskich.
Analiza fazowa polega na interpretacji dyfraktogramów cyfrowych uzyskanych przy użyciu dyfraktometru rentgenowskiego.
Przeznaczone do analizy próbki lite powinny mieć kształt prostopadłościanu o wymiarach zewnętrznych (34mm ? 1mm)×(30 ¸
55mm)×(0.1 ¸ 4mm), lub jak największą płaską powierzchnię i wymiary pozwalające na ukrycie próbki w zamkniętej dłoni.
Przeznaczone do analizy próbki proszkowe muszą posiadać cechy umożliwiające równomierne rozprowadzenie ich na podłożu
szklanym o powierzchni > 1 cm
2
. W każdym przypadku krystality badanej substancji muszą być większe od 1mm, aby mogło w nich
zajść zjawisko dyfrakcji.
Wynik analizy zawiera opis zidentyfikowanych faz krystalicznych oraz dyfraktogram zestawiony z modelami dyfraktogramów
zidentyfikowanych faz.
Przykładowy wygląd dyfraktogramu rentgenowskiego (dolny wykres) zestawionego z modelem dyfraktogramu rentgenowskiego
metalicznego aluminium (górny wykres)oraz modelem dyfraktogramu fazy Mn12Si7Al5 (wykres środkowy).
Rentgenowska ilościowa analiza fazowa
Przedmiotem rentgenowskiej analizy fazowej jest ilościowe oznaczenie składu fazowego metodą dyfrakcji promieni rentgenowskich.
Rentgenowska ilościowa analiza fazowa musi być poprzedzona analizą jakościową.
Wynik analizy zawiera opis zidentyfikowanych faz krystalicznych wraz z oznaczonym udziałem procentowym, a także dyfraktogram
zestawiony z modelami dyfraktogramów zidentyfikowanych faz.
Rentgenowska jakościowa analiza tekstur
Przedmiotem rentgenowskiej jakościowej analizy tekstur jest identyfikacja rozkładu uprzywilejowanych orientacji
krystalograficznych metodą dyfrakcji promieni rentgenowskich.
Analiza tekstur polega na interpretacji dyfraktogramów cyfrowych uzyskanych przy użyciu trójosiowego goniometru i dyfraktometru
rentgenowskiego.
Przeznaczone do analizy próbki lite powinny mieć kształt prostopadłościanu o wymiarach zewnętrznych (34mm ? 1mm)×(30 ¸
55mm)×(0.1 ¸ 4mm). Krystality badanej substancji muszą być większe od 1mm, aby mogło w nich zajść zjawisko dyfrakcji.
Wynik analizy tekstur zawiera opis wskaźników składowych tekstury oraz figury biegunowe.
15
Przykładowy wygląd figury biegunowej przedstawiającej teksturę walcowania na zimno metali o sieci regularnej ściennie
centrowanej.
Rentgenowska ilościowa analiza tekstur
Przedmiotem rentgenowskiej ilościowej analizy fazowej jest ilościowe oznaczenie składowych tekstury metodą dyfrakcji promieni
rentgenowskich. Rentgenowska ilościowa analiza tekstur musi być poprzedzona analizą jakościową.
Wynik analizy zawiera opis zidentyfikowanych (opisanych przy użyciu wskaźników Millera) orientacji krystalograficznych wraz z
oznaczonym udziałem procentowym, a także wykresy figur biegunowych.
Rentgenowski pomiar stałej sieciowej
Przedmiotem pomiaru stałej sieciowej jest wyznaczenie parametru sieci a (komórki elementarnej) metodą dyfrakcji promieni
rentgenowskich w substancjach krystalizujących w układzie regularnym.
Pomiar polega na interpretacji dyfraktogramów cyfrowych uzyskanych przy użyciu dyfraktometru rentgenowskiego.
Przeznaczone do analizy próbki lite powinny mieć kształt prostopadłościanu o wymiarach zewnętrznych (34mm ? 1mm)×(30 ¸
55mm)×(0.1 ¸ 4mm), lub jak największą płaską powierzchnię i wymiary pozwalające na ukrycie próbki w zamkniętej dłoni.
Przeznaczone do analizy próbki proszkowe muszą posiadać cechy umożliwiające równomierne rozprowadzenie ich na podłożu
szklanym o powierzchni >1 cm
2
. W każdym przypadku krystality badanej substancji muszą być większe od 1mm, aby mogło w nich
zajść zjawisko dyfrakcji.
Wynik analizy zawiera wartość liczbową przypisaną parametrowi a komórki elementarnej wraz z jednostkami [Å] lub [nm].
17)
Badania mikrostruktury i defektów sieci krystalicznej w transmisyjnej mikroskopii elektronowej
Badania na mikroskopie transmisyjnym o napięciu 100 kV wymagają przygotowania cienkich próbek o grubości 2000 – 3000 Å. Tak
cienkie próbki można uzyskać w dwojaki sposób:
1.
Metody pośrednie (tzw. repliki)
W badaniu nie prześwietla się samej próbki a jedynie jej replikę tj. cienką błonkę wiernie odwzorowującą topografię
powierzchni. Replika powinna spełniać warunki:
-
dokładnie odwzorowywać powierzchnię,
-
być trwała (odporność mechaniczna, chemiczna)
-
być bezpostaciowa (ze względu na wysoką zdolność rozdzielczą mikroskopu
-
łatwo oddzielać się od powierzchni próbki,
-
być kontrastowa i łatwa do interpretacji.
Repliki wykonuje się jako:
a)
Jednostopniowe (na powierzchnię nakłada się cienką warstwę masy plastycznej i ją odrywa),
b)
Dwustopniowe np. triafol – węgiel (najpierw wykonuje się matrycę powierzchni z łatwo rozpuszczalnego plastiku o nazwie
triafol a następnie na tą matrycę naparowuje się węgiel),
c) Repliki ekstrakcyjne; kolejne etapy przygotowania to:
-
trawienie szlifu metalograficznego tak aby rozpuścić jedynie osnowę, a nie rozpuścić wydzieleń,
-
naparowanie powierzchni próbki warstwą węgla (ok.200 Å)
-
elektrolityczne oddzielenie błonki węglowej od powierzchni próbki.
2.
Metody bezpośrednie (tzw. cienkie folie)
Metody bezpośrednie (cienkie folie)- umożliwiają:
a)
Badania struktury
b)
Obserwacje defektów sieciowych
c)
Obserwacje procesów wydzieleniowych
d)
Obserwacje przemian fazowych
e)
Obserwacje procesów odkształcania i rekrystalizacji
Grubość folii zależy od użytego napięcia przyśpieszającego i od liczby atomowej badanego metalu np. dla 100 kV grubość
folii aluminiowej może wynosić 3000 Å a dla ołowiu 1000 Å
16
Metody wykonywania cienkich folii:
•
Polerowanie elektrolityczne
•
Metody strugi – szybkie polerowanie elektrolityczne
Polerowanie elektrolityczne – etapy:
-
Wstępne ścienianie próbki (szlifowanie, polerowanie mechaniczne) do grubości ok. 100 µm.
-
Chemiczne lub elektrolityczne polerowanie do grubości ok. 10 µm (konieczne dla usunięcia warstw powierzchniowych
odkształconych w wyniku mechanicznego szlifowania.
-
Ostateczne polerowanie elektrolityczne dla osiągnięcia wymaganej grubości przy zachowaniu gładkości powierzchni.
II.
Metody badania właściwości mechanicznych i twardości
18)
Czynniki określające właściwości mechaniczne materiałów
•
Udarność - odporność materiału na obciążenia dynamiczne. Do wykonywania tych badań wykorzystuje się urządzenia
umożliwiające przyłożenie dużej siły w krótkim czasie, zwane najczęściej młotami udarowymi. Najczęściej spotykanym
urządzeniem jest młot Charpy'ego.
•
Zmęczenie materiału - zjawisko pękania materiału pod wpływem cyklicznie zmieniających się naprężeń.
•
Twardość - twardością określa się odporność materiału na odkształcenia trwałe, które powstają pod wpływem sił
skupionych, działających na małą powierzchnię materiału, wywołanych przez wciskanie odpowiedniego wgłębnika.
Twardość nie jest stałą materiałową, a więc porównywanie twardości jest możliwe w zakresie tylko jednej metody.
Skale
•
Mohsa
•
Brinella
•
Rockvela
•
Vickersa
(te czynniki podał Skulski dla nadgorliwych inne czynniki)
•
Wytrzymałość - materiału jest jego mechaniczną właściwością, określającą zdolność materiału do przeciwstawiania się
działaniu sił zewnętrznych, które powodują przejściowe lub trwałe jego odkształcenie a nawet zniszczenie.
•
Moduł sprężystości - wielkość określająca sprężystość materiału.
•
Granica plastyczności - to wartość naprężenia przy której zaczynają powstawać nieodwracalne odkształcenia plastyczne.
•
Wytrzymałością zmęczeniową (lub granicą zmęczenia) nazywamy takie maksymalne naprężenie dla danego cyklu
naprężeń, przy którym element nie dozna zniszczenia po osiągnięciu umownej granicznej liczby cykli naprężeń
•
Odporność na pełzanie - maksymalne naprężenie potrzebne do spowodowania odkształcenia wskutek pełzania o określonej
wielkości w określonym czasie.
19)
Statyczna próba rozciągania
Podstawowa metoda badań wytrzymałościowych materiałów konstrukcyjnych. Rozciąga się odpowiednio wykonany pręt o przekroju
okrągłym wykorzystując urządzenie - zrywarka. W czasie próby rejestruje się zależność przyrostu długości próbki od wielkości siły
rozciągającej oraz Naprężenia w próbce oblicza się dzieląc siłę rozciągającą przez pole przekroju poprzecznego próbki
(uwzględniając przewężenie lub nie). Rejestruje się granice sprężystości, przewężenie próbki i siłę zrywającą próbkę.
Wykres - początkowo wzrost naprężenia powoduje liniowy wzrost odkształcenia. W zakresie tym obowiązuje prawo Hooke'a. Po
osiągnięciu naprężenia R
sp
, zwanego granicą sprężystości materiał przechodzi w stan plastyczności, a odkształcenie staje się
nieodwracalne. Przekroczenie granicy sprężystości, zauważalne w okresie chwilowego braku przyrostu naprężenia, powoduje
przejście materiału w stan plastyczny. Dalsze zwiększanie naprężenia powoduje nieliniowy wzrost odkształcenia, aż do momentu
wystąpienia zauważalnego, lokalnego przewężenia zwanego szyjką. Naprężenie, w którym pojawia się szyjka, zwane jest
wytrzymałością na rozciąganie R
m
. Dalsze rozciąganie próbki powoduje jej zerwanie przy naprężeniu rozrywającym R
u
.
Metale – znaczne odkształcenie plastyczne,
Ceramika, szkło – zniszczenie już w zakresie odkształceń sprężystych
Wykres przedstawia dwie linie. Przerywana pokazuje naprężenie rzeczywiste obliczane przy uwzględnieniu przewężenia próbki.
Linia ciągła pokazuje wykres naprężenia obliczanego przy uwzględnieniu pola wyjściowego próbki. Czyni się tak, by zaobserwować
wartość R
m
, będącą lokalnym maksimum krzywej.
17
Właściwości wytrzymałościowe określane w próbie rozciąganiaWłaściwości wytrzymałościowe charakteryzują opór materiału
próbki na odkształcanie lub pękanie. Zależność „siła — wydłużenie". W przypadku różnych metali polikrystalicznych i stopów
uzyskuje się różnorodne kształty krzywych.
Granica proporcjonalności R
H
jest to maksymalne naprężenie, przy którym materiał próbki zachowuje się zgodnie z prawem
Hooke'a (przyrostom naprężenia odpowiadają proporcjonalne wydłużenia sprężyste).
Granica sprężystości R
s
to naprężenie, które powoduje umowne odkształcenie trwałe.
Granica plastyczności. naprężenie, po osiągnięciu której materiał nie powróci do stanu poprzedniego.
Wyraźna granica plastyczności R
e
jest to naprężenie odpowiadające największej sile F
e
, po osiągnięciu której następuje wyraźny
wzrost wydłużenia rozciąganej próbki przy niezmiennym lub obniżonym obciążeniu:
Granica ta odpowiada górnej granicy plastyczności R
eH
.
Dolna granica plastyczności, która często nazywana jest fizyczną granicą plastyczności.
Wytrzymałość na rozciąganie. Zwiększanie naprężeń powyżej wyraźnej granicy plastyczności powoduje przywrócenie stanu
równowagi pomiędzy obciążeniem a odkształceniem. Opór odkształcania wzrasta przy intensywnym rozwoju odkształcenia
plastycznego. Do obciążenia maksymalnego próbka zachowuje swój pierwotny kształt. Wydłużenie następuje równomiernie na całej
długości pomiarowej. Przy maksymalnej sile makrorównomierność odkształcania zostaje zakłócona. W pewnej części próbki, w
pobliżu koncentratora naprężeń, który znajdował się w próbce już w stanie wyjściowym lub powstał w czasie rozciągania (najczęściej
w okolicy środka długości pomiarowej), rozpoczyna się umiejscowione odkształcanie, które doprowadza do lokalnego zmniejszania
przekroju poprzecznego próbki powstawania szyjki. Maksymalna siła F
m
podzielona przez pole przekroju pierwotnego próbki S
0
daje
wartość umownego, granicznego naprężenia rozciągającego, które nazywa się wytrzymałością na rozciąganie R
m
:
W materiałach plastycznych po osiągnięciu wytrzymałości na rozciąganie dalsze rozciąganie powoduje spadek siły, doprowadzając
do zerwania przy sile F
u
. Naprężenie odpowiadające tej sile nazywamy naprężeniem zrywającym.
Właściwości plastyczne określane w statycznej próbie rozciągania
Wielkościami charakteryzującymi właściwości plastyczne materiału są: wydłużenie względne, wydłużenie równomierne i
przewężenie.
Wydłużenie względne (procentowe) stosunek trwałego wydłużenia bezwzględnego długości pomiarowej próbki po rozerwaniu do
początkowej długości pomiarowej próbki, wyrażony w procentach.
Względne wydłużenie równomierne A
r
określa względne wydłużenie próbki, odpowiadające równomiernemu odkształceniu, które
zachodzi do momentu pojawienia się szyjki.
Względne przewężenie Z zmniejszenie pola powierzchni przekroju poprzecznego próbki w miejscu rozerwania w odniesieniu do
pola powierzchni jej przekroju pierwotnego
18
Charakterystyki mechaniczne metali
TECHNOLOGICZNE
WYTRZYMAŁOŚCIOWE
- lejność
- skurcz odlewniczy
- ciągliwość
- plastyczność
- granica plastyczności
- wydłużenie
- przewężenie
- skrawalność
- hartowność stali
- spawalność
- udarność
- wytrzymałość
- na rozciąganie
- na zginanie
- na ściskanie
- na zmęczenie
- bez karbu
- z karbem
20)
Metody badania twardości
Metoda Rockwella.
Próba ta Polega na dwustopniowym wciskaniu w badany materiał stożka diamentowego lub kulki stalowej.. Podstawą określenia
twardości jest pomiar trwałego przyrostu głębokości odcisku, który jest wyrażony w jednostkach twardości HR. Twardość odczytuje
się bezpośrednio na wyskalowanym czujniku.
Wgłębnika stożkowego używa się do twardych metali i ich stopów, wgłębnika kulkowego do miększych materiałów.
Wzory: Dla stożka HRC = 100 – h
śr
/0,002 dla kulki HRC = 130 – h
śr
/0,002
Zalety:
- można mierzyć mat. miękkie i twarde.
- duża szybkość pomiaru
Wady:
- błędy powstające przez pomiar głębokości odcisku
- duża ilość skal umownych, skąd konieczność porównywania ich przy pomocy tablic.
Metoda Brinella
Polega na wciskaniu wgłębnika pod obciążeniem F, w postaci hartowanej kulki stalowej o średnicy D, w powierzchnię badanego
materiału, w czasie T. Średnica odcisku kulki stalowej – d.
HB=P/F [N/mm
2
]
Zalety:
-jedna skala twardości
-można badań stopy niejednorodne
Wady:
-nie nadaje się do pomiaru materiałów twardych
-uciążliwy pomiar średnicy odcisku (lupa lub soczewka z przymiarem milimetrowym)
Metoda Vickersa
Pomiar polega na wciskaniu wgłębnika w kształcie ostrosłupa prawidłowego o kącie wierzchołkowym 136 stopni.
P- siła, a-długość boku utworzonego odcisku
HV
-jednoznaczność oznaczeń (w przybliżeniu) z metodą brinella do twardości 300
_nadaje Się do pomiaru twardości bardzo małych przedmiotów
-nadaje się do pomiarów mat. Miękkich jak i twardych
-duża dokładność pomiarów
Wady:
-nie nadaje się do pomiarów twardości materiałów o strukturze gruboziarnistej i niejednorodnej
III. Metody nieniszczące akustyczne
21)
Fale akustyczne i ich propagacja w ciałach stałych
Fale dźwiękowe są podłużnymi falami mechanicznymi. Mogą one rozchodzićsięw ciałach stałych, cieczach, gazach. Materialne
cząstki ośrodka w którym rozchodzi się fala, drgają wzdłuż linii prostek pokrywającej się z kierunkiem propagacji fali. Zakres
częstości jakie mogą mieć podłużne fale mechaniczne jest bardzo szeroki przy czym falami dźwiękowymi nazywamy fale o takich
19
częstościach które w działaniu na ludzkie ucho i mózg wywołują wrażenie słyszenia. Zakres tych czestości rozciągający się od około
20 Hz do około 20000 Hz nazywany jest zakresem słyszalnym.
FALA POPRZECZNA to taka fala, której cząsteczki ośrodka drgają w kierunku prostopadłym do kierunku rozchodzenia się fali.
Powstanie fali poprzecznej wiąże się ze zmianą kształtu ciała, a więc może się ona rozchodzić jedynie w ośrodkach mających
sprężystość postaci (głównie w ciałach stałych). Cząsteczki ośrodków doskonale sprężystych wykonują drgania harmoniczne, zatem
fala poprzeczna rozchodząca się w takim ośrodku ma postać sinusoidy Np. drgania struny.
•
ODBICIE FALI I POCHŁANIANIE ENERGII AKUSTYCZNEJ NA GRANICY DWÓCH OŚRODKÓW
Fala napotykająca na swojej drodze inny ośrodek podlega częściowo odbiciu a część jej energii przenika do drugiego
ośrodka. Fala która przeniknęła da drugiego ośrodka charakteryzowana jest przez współczynnik pochłaniania. Kierunek fali odbitej
można wyznaczyć z zasad ruchu falistego – kąt padania jest równy kątowi odbicia
Fala dźwiękowa może rozchodzić się w każdym ośrodku materialnym, przy czym im jest większa gęstość tego ośrodka tym prędkość
jej jest większa. Dlatego z największą prędkością fala dźwiękowa porusza się w ciałach stałych.
Propagacja polega na przemieszczaniu się drgań cząstek ośrodka materialnego. Dlatego fale mechaniczne a więc i fale dźwiękowe nie
mogą rozchodzić się w próżni. W próżni rozchodzi się tylko drugi typ fal zwanych falami elektromagnetycznymi.
Prędkość rozchodzenia się dźwięku (fal podłużnych) w ciałach stałych jest znacznie większa niż w powietrzu
Nie umiem nic znaleźć na temat propagacji w ciele stałym !! odpadam
W przypadku ciał stałych termin "fala uderzeniowa" jest zwykle rozumiany jako fala naprężeń ściskających o wielkiej amplitudzie
lub impuls ciśnienia, który powoduje niemal natychmiastowy wzrost naprężeń lub ciśnienia w środku – przechodząca fala zwiększa
gęstość ciała w kierunku swojego ruchu detonacja (przestrzeń C-J).
Fale o wielkiej amplitudzie powstają w Ziemi w wyniku takich zjawisk, jak podziemna eksplozja, trzęsienie ziemi lub uderzenie
meteorytu. W laboratorium mogą być one wytwarzane pod kontrolą i są bardzo użyteczne zarówno w geofizyce, jak i badaniach ciał
stałych.
Przejście fali uderzeniowej przez ciało stałe powoduje zmiany w stanie fizycznym materiału. Może ona np. spowodować przesunięcia
atomów, zmiany poziomów energetycznych elektronów i zmienić bilans energii wewnętrznej. Pomiary zachowania się ciał stałych
poddanych silnym impulsom ciśnienia rzuciły nowe światło na podstawowe właściwości ciał stałych i doprowadziły do zastosowania
fali uderzeniowej w medycynie – poprzez ogniskowanie wiązki ultradźwięków na kamieniach nerkowych można spowodować ich
skruszenie (metoda litotrypsji) czy do rozwoju takich użytecznych metod przemysłowych, jak wybuchowe platerowanie i zgrzewanie,
wybuchowe cięcie i kształtowanie, uderzeniowe wprasowywanie proszków w stałe części maszyn, wybuchowe roboty ziemne (np.
wykopy) i wytwarzanie nowych materiałów o szczególnych właściwościach.
Eksperymentatorzy zwykle wytwarzają fale uderzeniowe w materiałach za pomocą eksplozji przyłożonego materiału wybuchowego
albo przez uderzenie pocisku o dużej prędkości wystrzelonego z działa lub przyspieszonego przez eksplozję
22)
Defektoskopia
Defektoskopia, nie niszcząca metoda badań uszkodzeń i wykrywania defektów w przedmiotach, głównie metalowych (odlewach,
odkuwkach, spawach itp.). Ze względu na wykorzystywane w badaniu zjawiska fizyczne rozróżnia się defektoskopię gamma,
rentgenowską, luminescencyjną, magnetyczną i elektromagnetyczną oraz ultradźwiękową.
Defektoskopia gamma i rentgenowska polega na prześwietlaniu przedmiotu odpowiednim promieniowaniem przenikliwym i
rejestracji obrazu za pomocą odpowiednich klisz, wizualizacji na ekranach elektrooptycznych i scyntylacyjnych lub rejestracji
licznikowej.
W defektoskopii luminescencyjnej pokrywa się badany przedmiot cieczą luminescencyjną, która wnika w szczeliny i pozostaje w
nich po usunięciu nadmiaru cieczy z powierzchni. Po oświetleniu tak przygotowanego przedmiotu światłem ultrafioletowym
obserwuje się wyraźne świecenie szczelin i rys wypełnionych śladami cieczy luminescencyjnej.
W defektoskopii magnetycznej przedmiot z ferromagnetyku pokrywa się proszkiem ferromagnetycznym, który gromadzi się wzdłuż
szczelin powierzchniowych, wizualizując je.
W defektoskopii elektromagnetycznej bada się takie parametry materiału jak nasycenie namagnesowania, przenikalność
magnetyczną, oporność właściwą itp. Odstępstwa od wartości wzorcowych dla danego materiału wskazują na defekty struktury.
20
W defektoskopii ultradźwiękowej bada się rozchodzenie się fali akustycznej wysokiej częstości w danym przedmiocie. Stosuje się
tu metody: echa, cienia, rezonansu, impedancji oraz drgań własnych.
IV. Metody cieplne i metody badania właściwości cieplnych
23)
Czynniki określające właściwości cieplne materiałów
Pojemnością cieplną substancji nazywa się ilość ciepła potrzebną do podniesienia temperatury tej substancji o jeden stopień.
Pojemność cieplna przypadająca na jednostkę masy substancji nazywa się ciepłem właściwym i wyraża się w J/ (kg • K). Ciepło
właściwe nie jest wartością stałą i zależy głównie od temperatury. Ciepło właściwe wielu substancji krystalicznych, bezpostaciowych
i szklistych wzrasta wraz ze wzrostem temperatury.
Rozszerzalność temperaturowa charakteryzuje zjawisko zmiany wymiarów substancji wraz ze zmianą temperatury. Przyrost
długości przypadający na jednostkę długości spowodowany wzrostem temperatury o IK nazywa się współczynnikiem
temperaturowej rozszerzalności liniowej. Zjawisko rozszerzalności temperaturowej ciał stałych jest spowodowane drganiami
atomów w siatce krystalicznej, w których intensywność wzrasta wraz ze wzrostem temperatury. Podczas ogrzewania pewne
materiały wykazują nagłe zmiany współczynnika rozszerzalności temperaturowej. Zmiany te są spowodowane głównie przez
przebudowę siatki krystalicznej zachodzącą w niektórych substancjach w określonych temperaturach.
Przewodność cieplna jest określona współczynnikiem przewodności cieplnej. Jest to ilość ciepła, która w jednostce czasu przepływa
przez jednostkę powierzchni, gdy różnica temperatury w ciele przewodzącym ciepło równa jest ∆K na jednostkę długości. W
technice współczynnik przewodności cieplnej wyraża się W/ (m • K).
24)
Metody kalorymetryczne
Metody kalorymetryczne to:
- TG (pyt 27)
- DTG (pyt 27)
- DTA (pyt 27)
- DSC
W różnicowej kalorymetrii skaningowej (ang. Differential Scanning Calorimetry – DSC) rejestruje się energię konieczną do
sprowadzenia do zera różnicy temperatur między próbką i substancją odniesienia. Podobnie jak w DTA, obie próbki ogrzewa się lub
chłodzi w sposób kontrolowany, a krzywa DSC odzwierciedla ilość ciepła wymienionego przez próbkę z otoczeniem w jednostce
czasu w funkcji czasu (t) lub temperatury (T):
Skaningowa kalorymetria różnicowa DSC – technika służąca do pomiarów mocy cieplnej, a dokładniej zmiany różnicy strumienia
cieplnego powstającego między próbką badaną i referencyjną w trakcie przemiany termicznej.
DSC polega na utrzymywaniu tych samych temperatur dla próbki badanej i próbki odniesienia oraz pomiarze różnicy strumienia
ciepła dostarczanego do obu próbek. Eksperyment może być przeprowadzany w warunkach izotermicznych lub w warunkach
narastającej temperatury.
Kalorymetry różnicowe z kompensacją mocy
Próbka badana i próbka referencyjna znajdują sie w identycznych oddzielnych termicznie izolowanych piecykach, które są
niezależnie sterowane. Tak aby temperatura obu próbek sie utrzymywała na stałym poziomie. Różnica pomiaru temperatur powstaje,
jeżeli badana próbka pochłania lub wydziela więcej ciepła niż próbka referencyjna. Mierzonym sygnałem jest moc dostarczana do
elementów grzejnych prób.
Kalorymetry typu przypływ ciepła
Kalorymetry tego typu nazywają się Heat flux DSC lub kalorymetry Calveta. Jako czujnik pomiarowy stosuje się jedno z dwu
rozwiązań konstrukcyjnych: stosy termopar lub tzw. plate detector. Wielkość mierzona w obu przypadkach jest różnica temperatur
między próbkami.
Przegląd zastosowania DSC
- analiza fazowa
- oznaczanie składu chemicznego i czystości
- pomiar ciepła przemian fazowych i reakcji chemicznej
- wyznaczanie ciepła właściwego substancji
- wyznaczanie parametrów kinetycznych reakcji
- wyznaczanie temperatury zeszklenia
25)
Przewodnictwo cieplne i metody badania
Mechanizmy przepływu ciepła:
- przewodnictwo – przepływ ciepła do części gorących do zimnych, materia nie przepływa,
- promieniowanie – każde ciało emituje promieniowanie elektromagnetyczne w temperaturze powyżej 0 K,
- konwekcja – ruch molekuł płynu wywołany różnicą gęstości wynikającą z różnicy temperatur.
21
Przewodnictwo cieplne – występuje w materiale, gdy ciepło przepływa od części gorących do zimnych. Brak przepływu materii.
Zależy od składu chemicznego materiałów, wiązań międzyatomowych oraz struktury. W przypadku jednowymiarowym:
[ ]
mK
W
W
s
J
dt
dQ
dx
dT
S
dt
dQ
=
=
=
⋅
⋅
−
=
=
Φ
λ
λ
,
,
gdzie: dT/dx – gradient temperatury,
Φ – strumień cieplny (dQ/dt – energia cieplna przepływająca w czasie dt),
λ – współczynnik przewodnictwa cieplnego,
S – pole powierzchni przekroju, przez który przepływa strumień).
Współczynnik przewodnictwa cieplnego w ogólnym przypadku będzie sumą dwóch składowych: λ = λ
e
+ λ
s
, gdzie λ
e
i λ
s
to
odpowiednio: przewodnictwo elektronowe i sieci.
Kwantowane drgania określa się jako fonony, a składowa λ
s
traktowana jest jako składnik fononowy.
Ciepło jest to energia jaką, układ o wyższej temperaturze przekazuje znajdującemu się z nim w kontakcie cieplnym układowi o
niższej temperaturze w procesie dochodzenia obu układów do równowagi cieplnej. W procesie tym energia wewnętrzna układu o
wyższej temperaturze maleje, a energia wewnętrzna układu o niższej temperaturze rośnie.
Najpopularniejsze metody termoanalityczne badania przewodnictwa to:
- termiczna analiza różnicowa DTA,
- termograwimetria TG,
- skaningowa kalorymetria różnicowa DSC,
- analiza termocząstkowa (EGA) i termiczna analiza emanacyjna (EGD) – rejestrujące objętość i skład chemiczny gazowych
produktów reakcji,
- termodylatometria – rejestruje liniowe zmiany wymiarów próbki,
- analiza termomechaniczna – rejestruje zmianę niektórych właściwości mechanicznych,
- termosonimetria – rejestrująca natężenie efektów akustycznych towarzyszących reakcjom,
- termoelektrometria – rejestrująca przewodnictwo, oporność oraz pojemność elektryczną,
- termomagnetometria – rejestrująca zmiany podatności magnetycznej,
- termooptometria – rejestrująca zmiany zespołu własności optycznych substancji.
26)
Analizy DTA, TG, DTG
Termiczna analiza różnicowa DTA
DTA umożliwia wykrywanie efektów cieplnych, które towarzyszą przemianom fizycznym lub chemicznym. Polega na
rejestracji różnicy temperatur pomiędzy substancją badaną a substancją wzorcową (odniesienia), względem czasu lub
temperatury. Substancja odniesienia musi zostać dobrana tak, aby w danym zakresie temperatur nie podlegała żadnym
przemianom fizycznym lub chemicznym (najczęściej stosuje się Al2O3 lub MgO). Termiczna analiza różnicowa pozwala na
identyfikację związków, które w badanym zakresie temperatur ulegają przemianom egzotermicznym lub endotermicznym. A
wśród nich wyróżnić można:
- reakcje chemiczne (utlenianie, redukcja, dysocjacja, synteza),
- procesy fizyczne, głównie przemiany fazowe:
- ze zmianą stanu skupienia (sublimacja, wrzenie, topnienie, krystalizacja)
- bez zmiany stanu skupienia (przemiany polimorficzne).
Zasada metody
Ogrzewa się w piecu jednocześnie i w takich samych warunkach badaną próbkę oraz próbkę wzorcową – taką, w której nie
zachodzą żadne przemiany termiczne. Przy czym należy tak prowadzić ogrzewanie, by zależność temperatury od czasu miała
charakter liniowy. Aby można było zmierzyć interesującą różnice temperatur DT próbki i próbki wzorcowej, w obu
próbkach umieszczone są termoelementy. Połączone są one z reszta układu tak by była możliwość wyznaczenia DT. Jeżeli w
próbce nie zachodzą żadne reakcje przebiegające z efektem cieplnym, temperatury obu próbek są takie same (Ts=Ti). Czyli
DT=0. Jeżeli w próbce zajdą takie reakcje DT będzie różna od 0.
TG
Termograwimetria polega na rejestrowaniu zmian masy substancji podczas ogrzewania lub studzenia w funkcji czasu lub
temperatury lub na pomiarze zmiany masy substancji ogrzewanej izotermicznie w funkcji czasu. Używane do tego celu urządzenia
nazywa się termowagami. Składa się ono z wagi, gdzie do szalki przymocowany jest tygiel z badaną próbką umieszczony w
ogrzewanym piecu (wzrost lub spadek temperatury ma charakter liniowy). Strata ciężaru może być spowodowana:
- dysocjacją termiczną połączoną z utratą np. wody, dwutlenku węgla,
- sublimacją,
- utlenianiem z wydzieleniem produktów gazowych.
DTG
W termograwimetrii różnicowej równolegle obok próbki badanej ogrzewana jest próbka kontrolna z obojętnego materiału, nie
ulegającego żadnym przemianom termicznym. Wnioskowanie prowadzi się na podstawie różnic zmian temperatur obu próbek.
27)
Dylatometria
Dylatometria jest jedną z technik badania przemian fazowych zachodzących w stali w stanie stałym. Metoda ta pozwala na
monitorowanie ewolucji przemian w czasie rzeczywistym poprzez obserwacje zmiany wymiarów próbki podczas cyklu termicznego.
Jest to również jedna z klasycznych technik najczęściej używanych do określania temperatury początku i końca przemian fazowych
22
Metody dylatometryczne wykorzystują zjawisko, że kiedy w materiale zachodzi przemiana fazowa jego siec krystaliczna jest
przebudowywana, co powoduje zmianę objętości właściwej.
Badania dylatometryczne polegają na pomiarze zmian wymiarów (zwykle jednego wymiaru) próbki materiału w funkcji
temperatury, czasu lub jednocześnie temperatury i czasu. Konstrukcje dylatometrów różnią się od siebie zasadniczo sposobem
pomiaru wydłużenia. Dylatometr różnicowy rejestruje zmianę różnicy wydłużenia pomiędzy próbką wzorcową a próbką badaną.
Dylatometr bezwzględny rejestruje bezpośrednio powiększoną zmianę wydłużenia próbki badanej. Celem badań dylatometrycznych
jest wyznaczenie temperaturowego i czasowego początku i końca przemian fazowych zachodzących podczas założonych zabiegów
cieplnych poprzez naśladowanie tych zabiegów w dylatometrze. Oznacza to np. możliwość opracowania wykresów kinetyki przemian
przechłodzonego austenitu oraz badanie przemian zachodzących podczas odpuszczania stali. Dylatometr jest także dobrym
urządzeniem do wyznaczania współczynników rozszerzalności liniowej ciał stałych. Tego rodzaju badania przeprowadza się w próbie
nagrzewania ze znormalizowaną szybkością.
V. Metody badania właściwości dielektrycznych, piezoelektrycznych
i ferroelektrycznych
28)
Czynniki określające właściwości dielektryczne materiałów
DIELEKTRYKI ciała bardzo słabo przewodzące prąd elektryczny, opór właściwy (rezystywność elektryczna) jest większy od 10
7
-
10
8
m; dielektryki mają bardzo mało swobodnych ładunków elektrycznych , a o ich właściwościach elektrycznych decydują ładunki
związane, mogące wykonywać tylko ograniczone ruchy względem położeń równowagi; zewn. pola elektrycznego powodują
polaryzację dielektryków — niewielkie przesunięcie ładunków dodatnich i ujemnych względem siebie; indukowane pole elektr.
częściowo kompensuje wewnątrz dielektryków zewnętrzne pole elektr.; najważniejszą wielkością charakteryzującą dielektryki jest
przenikalność elektryczna; przenikalność elektr. dielektryków zależy od częst. zmian zewn. pola elektr, a niektórych dielektryków,
np, kryształów jonowych, także od temperatury; dielektrykami mogą być zarówno ciała stale jak ciecze i gazy; wg teorii pasmowej
ciała stale są dielektrykami jeśli przerwa energ. między pasmami podstawowym i przewodnictwa jest większa od 2 eV; dielektryki
mają ogromne zastosowanie prakt., gł. w konstrukcjach elektro- i radiotechnicznych.
Ładunki związane w dielektrykach
W dielektrykach ładunki związane mogą wykonywać ograniczone względem położenia równowagi ruchy, ruchy te decydują o
własnościach elektrycznych dielektryka.
Jeżeli w polu elektrycznym (elektrostatycznym) znajdzie się przewodnik (w którym nie płynie prąd elektryczny), to ładunki
swobodne przesuną się tak, że wewnątrz ciała nie będzie pola elektrycznego.
W dielektryku ładunki nie mogą się swobodnie przesuwać ale może dojść do przesunięcia się ładunków elektrycznych dodatnich
względem ujemnych (powstaną dipole elektryczne), zjawisko to nazywamy polaryzacją dielektryka. Makroskopowo postrzegamy to
zjawisko jako gromadzenie się ładunków na powierzchni dielektryka (obojętnego jako całość), ładunki te zmniejszają pole
elektryczne w dielektryku w stosunku do zewnętrznego pola elektrycznego (wektor E), co można opisać jako występowanie w
dielektryku
dodatkowego
pola
elektrycznego
(wektor
D)
zwanego
polem
indukcji
elektrycznej.
Jeżeli dielektryk jest izotropowy, to wektory E i D mają ten sam kierunek i dla wielu substancji przy niezbyt dużym polu
elektrycznym i przy niezbyt dużych częstotliwościach zmian pola (E) indukowane pole (D) jest proporcjonalne do pola zewnętrznego,
współczynnik proporcjonalności (ε) jest nazywany przenikalnością dielektryczną substancji i jest wielkością charakterystyczną dla
danej substancji.
Własności dielektryków
Dielektryki charakteryzują się własnościami elektrycznymi, których wartości w głównej mierze określają ich przydatność do
spełniania zadań w aparaturze elektronicznej.
Są to:
-
Wytrzymałość dielektryczna
-
Oporność właściwa skrośna i powierzchniowa
-
Przenikalność elektryczna względna
-
Współ strat dielektrycznych
Inne własności dielektryków:
a)
Mechaniczne
- Wytrzymałość
-
Rozciąganie
-
Zginanie
-
Udarność
b) Fizyczne
-
Gęstość
-
Lepkość
-
Rozszerzalność cieplna
-
Odporność na temperaturę
c) Chemiczne
-
Odporność na utlenianie
-
odporność na działanie kwasów i zasad
d) Technologiczne
-
Podatność na procesy obróbkowe
-
Podatność na odkształcenia plastyczne
-
Skrawalność
23
-
Zdolność do spiekania
Własności cieplne
- ciepło właściwe
- przewodnictwo cieplne
-rozszerzalność termiczna
Wszystkie te własności określone są przez drgania atomów danego ciała.
29)
Dyspersja przenikalności elektrycznej
Dyspersja, rozproszenie, zmienność, zróżnicowanie jednostek zbiorowości statystycznej z uwagi na pewną cechę mierzalną. Im
bardziej wartości cechy jednostek są skupione dookoła swej średniej, tym mniejsza jest dyspersja i odwrotnie – im bardziej są
rozproszone, tym większa jest dyspersja.
Liczbową ocenę dyspersji przeprowadzamy za pomocą miar dyspersji, z których najpowszechniej stosowane są: wariancja,
odchylenie standardowe lub przeciętne, rozstęp (obszar zmienności), odchylenie ćwiartkowe (kwartylowe), współczynnik zmienności.
Dyspersja w światłowodzie
Impuls biegnący w falowodzie ulega wydłużeniu (rozmyciu), co ogranicza maksymalną częstotliwość sygnału przesyłanego przez
falowód. Zjawisko to jest wynikiem dyspersji, fale świetlne biegnące w falowodzie nie mają dokładnie jednakowej długości fali, ale
różnią się nieznacznie. W wyniku różnic w prędkości poruszania się fal o różnych długościach, fale wysłane jednocześnie nie
docierają do odbiornika w tym samym czasie. W rezultacie na wyjściu pojawia się szerszy impuls, który rośnie wraz ze wzrostem
długości światłowodu. Przepływność transmisyjna włókna jest więc określona przez to, jak blisko siebie można transmitować kolejne
impulsy bez ich wzajemnego nakładania się na siebie (przy zbyt bliskich impulsach zleją się one w światłowodzie w jedną ciągłą
falę). Dyspersja ogranicza długość światłowodu, przez który może być transmitowany sygnał. Rozróżnia się dwa typy dyspersji –
dyspersję międzymodową występującą w światłowodach wielomodowych oraz dyspersję chromatyczną występującą w włóknach
jednomodowych.
Dyspersja dielektryczna
Zależność podatności (i przenikalności) od częstotliwości pola elektrycznego nazywa się dyspersją dielektryczną. Pociąga ona za sobą
zależność od częstotliwości także współczynnika załamania, co jest przyczyną powstania zjawiska rozszczepienia światła.
Dyspersja Przewodnictwo
- krzywa przewodnictwa jest zwierciadlanym odbiciem krzywej dyspersji
30)
Metody badania właściwości dielektrycznych
Ważniejsze właściwości dielektryczne materiałów elektroizolacyjnych to:
A)
rezystywność skrośna i powierzchniowa,
B)
współczynnik strat dielektrycznych i przenikalność elektryczna
C)
wytrzymałość elektryczna,
D)
odporność na łuk elektryczny
Ad. A Rezystywność skrośna
ρ
v jest to stosunek napięcia stałego przyłożonego do elektrod, do wartości ustalonej natężenia
prądu płynącego między elektrodami na skroś próbki, z wyłączeniem tej części prądu, która płynie po powierzchni próbki, odniesiony
do 1 m2 powierzchni elektrody pomiarowej i 1 m grubości próbki.
(
)
∞
−
ε
ε
ε
τ
s
G
0
∞
∞
−
−
ε
ε
ε
ε
s
'
24
Rezystywność powierzchniowa
ρ
s – jest to stosunek napięcia stałego przyłozonego do elektrod, do wartości ustalonej
natęzenia prądu płynącego przez warstwę zaadsorbowanej na powierzchni próbki wilgoci, zanieczyszczeń i sadzy, odniesiony do 1m
długości elektrod i do 1m odległości między elektrodami.
W celu wyznaczenia rezystywności dielektryka, próbkę umieszcza się w odpowiednim układzie elektrod i przykłada napięcie
stałe o określonej wartości. Mierzy się cały prąd lub jego składowe: powierzchniową i skrośną. Mierzymy więc rezystancję skrośną
lub powierzchniową, a potem przeliczamy ją na wartości rezystywności.
Do pomiarów wykorzystujemy teraomomierz umożliwiający pomiar rezystancji w zakresie 10
8
-10
18
[
Ω
]. Pomiary
wykonujemy dla napięć 250 lub 500V. Do zacisków teraomomierza przyłącza się układ elektrod z próbką w środku, zgodnie z
rysunkiem. Przy pomiarze rezystancji skrośnej elektroda ochronna eliminuje wpływ rezystancji powierzchniowej, a przy pomiarze
rezystancji powierzchniowej wpływ rezystancji skrośnej. Dodatkowo spełnia ona role ekranu dla elektrody pomiarowej od pól
obcych. Rysunek przedstawia układ elektrod do pomiaru rezystancji próbek.
Układ do
pomiaru rezystancji skrośnej
E
1
– elektroda pomiarowa (krążek)
E
2
– elektroda ochronna (pierścień)
E
3
– elektroda napięciowa (krążek)
Układ do pomiaru rezystancji powierzchniowej
E
1
– elektroda pomiarowa (krążek)
E
2
– elektroda napięciowa (pierścień)
E
3
– elektroda ochronna (krążek)
Ad. B Współczynnik strat dielektrycznych tg δ - wielkość niemianowana charakteryzująca dielektryki. Wartość tę wyznacza tg δ -
tangens kąta strat dielektrycznych, czyli stosunek natężenia składowej rzeczywistej (czynnej) IR do składowej urojonej (biernej) IC
prądu elektrycznego płynącego przez dielektryk w zmiennym polu elektrycznym:
Na wykresie wektorowym prądu płynącego w dielektryku kąt ten
jest zawarty pomiędzy wektorem prądu i jego składową bierną. W praktyce posługujemy się tgjako współczynnikiem stratności
dielektrycznej. Jest on zależny od temperatury, częstotliwości oraznapięcia przyłożonego, gdy jego wartość zbliżona jest do
napięcia jonizacji. Poniższy przedstawia rysunekschemat zastępczy dielektryka rzeczywistego oraz wykres wektorowy prądów w
takim dielektryku.
Pomiary przenikalności elektrycznej
umieszczenie dielektryka między elektrodami kondensatora próżniowego o pojemności Co powoduje wzrost jego pojemności do
wartości Cx. Ze wzoru wynika, że względna przenikalność elektryczna:
25
ε
x
=
względna przenikalność elektryczna εr materiału izolacyjnego wyraża się stosunkiem pojemności Cx kondensatora, w którym
przestrzeń między elektrodami i wokół elektrod jest całkowicie wypełniona materiałem izolacyjnym, do pojemności Co tych samych
elektrod w próżni.
Metoda stałoprądowa czasowej odpowiedzi (Metoda Hamona )
Metoda Hamona time response (czasowej odpowiedzi) polega na badaniu w funkcji czasu przebiegu prądu ładowania dielektryka jako
odpowiedzi na jednostkowy skok napięcia stałego polaryzującego próbkę lub prądu rozładowania wskutek gwałtownego zaniku
napięcia stałego i zwarcia próbki. Metodę tę stosuje się w układzie przedstawionym na rysunku poniżej - powszechnie służącym do
pomiarów prądów absorpcji i resorpcji oraz rezystancji skrośnej.
Stosując przekształcenie Fouriera dla czasowej odpowiedzi prądowej dla dielektryków liniowych, można wyznaczyć dyspersyjne
(częstotliwościowe) zależności składowej czynnej ε′(ω) i biernej ε″(ω) przenikalności elektrycznej.
- Metoda zmiennoprądowa rejestracji wartości chwilowych
Rejestruje się chwilowe wartości prądu układzie pomiarowym przedstawionym na poniższym rysunku, zasilanym z funkcyjnego
generatora sinusoidalnego małej częstotliwości. Metoda jest oparta na rejestracji chwilowych wartości prądu, który przepływa przez
kondensator z badanym dielektrykiem między okładkami, oraz napięcia przyłożonego do elektrod.
Metody mostowe. Mostek Vince’a.
Pomiary przenikalności elektrycznej ε i współczynnika strat dielektrycznych tg
δ
w zakresie częstotliwości 0,1–10 Hz wykonuje się,
mierząc pojemność elektryczną mostkiem Vince’a którego schemat przedstawiono na poniższym rysunku. Mierzoną próbkę
reprezentują pojemność Cx i równolegle do niej przyłączona rezystancja R
x
.
26
Mostek jest zasilany z dwóch zsynchronizowanych generatorów niskoczęsto-tliwościowych o napięciach wyjściowych U
1
i U
2
o tej
samej fazie. W stanie równowagi:
Pomiary w zakresie częstotliwości akustycznych ( dalej metody mostkowe)
W zakresie częstotliwości akustycznych pomiary przenikalności elektrycznej i współczynnika strat dielektrycznych wykonuje się
zawsze metodą pośrednią, umieszczając badany materiał między elektrodami, które razem z nim tworzą kondensator.
Pomiary pojemności elektrycznej i współczynnika strat dielektrycznych wykonuje się metodami mostkowymi lub napięciowo-
prądowymi. Stosuje się mostki czteroramienne ze wszystkimi gałęziami biernymi i mostki transformatorowe.
Mostki czteroramienne bierne
Wszystkie układy mostków z gałęziami biernymi można sprowadzić do mostka czteroramiennego typu Wheatstone’a, zawierającego
gałęzie o impedancjach zespolonych Z
1
, Z
2
, Z
3
i Z
4
, źródło zasilające mostek napięciem przemiennym U oraz wskaźnik równowagi
WZ
W stanie równowagi mostka, gdy prąd w gałęzi wskaźnika zera I
o
= 0, impedancje zespolone gałęzi mostka spełniają warunek:
Z
1
Z
4
=Z
2
Z
3
oraz warunek równowagi argumentów: φ
1
+φ
4
=φ
2
+φ
3
Mostek Scheringa
27
Schemat wysokonapięciowego mostka Scheringa przedstawiono na rysunku poniżej. Mostek ten różni się od mostków
niskonapięciowych tym, że uziemione jest źródło zasilania, a gałąź wskaźnika zera nie. Wynika to stąd, że mostek pracuje przy
wysokim napięciu i na elementach R
3
, C
4
i R
4
, dostępnych dla obsługi, nie może pojawić się wysokie napięcie.
W stanie równowagi mostka spełnione są równania:
Mostki transformatorowe
Mostki transformatorowe mają zastosowanie w szerokim zakresie częstotliwości (15–250MHz) ze względu na:
•
małą liczbę elementów mostka wskutek wprowadzenia zasilania układu bezpośrednio do gałęzi mostka,
•
dużą dokładność pomiaru i jej bardzo małą zależność od czasu, temperatury i napięcia,
•
możliwość bezpośredniego uziemienia ekranów i pierścieni ochronnych, a więc pomiaru pojemności kondensatorów
trójelektrodowych bez dodatkowych obwodów ochronnych
Metody napięciowo-prądowe pomiaru impedancji
Metody napięciowo-prądowe pomiaru impedancji, nazywane też metodami wolto-amperomierzowymi, polegają na bezpośrednim
pomiarze miernikami fazoczułymi prądu przepływającego przez badany obiekt i spadku napięcia na tym obiekcie . Rozwój technik
mikroprocesorowych spowodował, że obecnie metody te należą do najnowocześniejszych i najczęściej stosowanych. W prawie
wszystkich współczesnych niskonapięciowych przyrządach do pomiarów impedancji w zakresie częstotliwości od ok. 10 Hz do 1
MHz wykorzystuje się tę metodę. Zasadę pomiaru impedancji pojemnościowej tymi metodami przedstawiono na rysunku poniżej
Układ z rysunku a) ma tę wadę, że potencjał napięcia U
x
jest podwyższony względem masy, co utrudnia jego pomiar woltomierzem
fazoczułym z jednym zaciskiem znajdującym się na masie. Wady tej nie ma układ przedstawiony na rysunku b), w którym
impedancję określa się, mierząc spadek napięcia U
x
na impedancji Z
x
i napięcie na generatorze U
g
,
28
Ad. C Wytrzymałość elektryczna – największa wartość natężenia pola elektrycznego, jaka może istnieć w dielektryku (izolatorze)
bez wywołania przebicia.
Wytrzymałość definiowana jest zgodnie z powyższą normą jako „utrata, przynajmniej chwilowa, właściwości elektroizolacyjnych
ośrodka pod wpływem natężenia pola elektrycznego”. Wytrzymałość elektryczna dielektryka jest określana jako stosunek wartości
napięcia przebicia Up do średniej grubości badanej próbki dielektryka d, zgodnie ze wzorem:
gdzie,
U
p
– jest napięciem przebicia wyrażonym w wartości skutecznej dla napięć sinusoidalnych lub wartością maksymalną dla napięć
nieokresowych, [V],
d – jest grubością próbki w miejscu przebicia, [mm]
Przy próbach wytrzymałości elektrycznej materiałów stałych wykonuje się zazwyczaj pomiary napięcia przebicia próbek nie
przekraczających 3 mm. Definiuje się również długotrwałą wytrzymałość elektryczną, gdzie napięcie jest zmieniane skokowo i
utrzymywane przez pewien okres, na przykład 1 min. W ten sposób napięcie jest podwyższane, aż do napięcia przebicia próbki
układu izolacyjnego.
Ad.D Odporność na łuk elektryczny
Jest to zdolność dielektryka do przeciwstawiania się powstawaniu mostków przewodzących trwale lub przejściowo, rozkładowi
chemicznemu lub zniszczeniu mechanicznemu (np. pęknięciom).
W zależności od metody badania odporności na działanie łuku, jest odpowiednio określany czas próby w sekundach (badanie
odporności na łuk elektryczny o małym natężeniu prądu przy wysokim napięciu) lub liczba uderzeń łuku elektrycznego,
zainicjowanego przewodem zapłonowym do powstania ścieżki przewodzącej (badanie przy dużym natężeniu prądu i niskim
napięciu).
31)
Spektometria dielektryczna
Spektroskopia dielektryczna oraz jej odmiana (spektroskopia impedancyjna) to metoda spektroskopowa pozwalającą badać
właściwości dielektryczne materiału w funkcji częstotliwości oraz amplitudy przyłożonego pola elektrycznego. Tym samym,
umożliwia ona badanie oddziaływania zewnętrznego pola elektrycznego ze stałymi bądź indukowanymi momentami dipolowymi w
badanej próbce.
Istotą spektroskopii dielektrycznej jest badanie efektów związanych z oddziaływaniem zewnętrznego, zmiennego pola
elektrycznego z badaną substancją (dielektryka polarnego) i pomiar wielkości charakteryzujących reakcję tego układu na przyłożone
pole (najczęściej zespolonej przenikalności dielektrycznej ε*(ω)). Ważne materiały takie jak lekarstwa, polimery, ciekłe kryształy,
układy biologiczne są najczęściej obdarzone momentem dipolowym o dużej wartości, dzięki czemu świetnie nadają się do badań za
pomocą spektrometru dielektrycznego.
Spektroskopia impedancyjna oznacza pomiar liniowej, elektrycznej odpowiedzi badanego materiału na pobudzenie małym
sygnałem elektromagnetycznym w szerokim paśmie częstotliwości i analizę tej odpowiedzi w celu uzyskania użytecznej informacji o
fizykochemicznych właściwościach badanego materiału.
definicji impedancji Z(ω) wynika że każdy pomiar będzie się sprowadzał do określenia wartości amplitudy prądu płynącego przez
obiekt i przesunięcia fazowego między tym prądem a przyłożonym napięciem
32)
Zjawisko piezoelektryczne i jego zastosowania
Piezoelektryczność to zjawisko generowania potencjału elektrycznego przez elementy poddawane mechanicznemu ściskaniu lub
rozciąganiu, lub na odwrót zmiany wymiarów tych elementów na skutek przykładania do nich potencjału elektrycznego. Wielkość
potencjału wytworzonego w ten sposób jest wprost proporcjonalna do wielkości przyłożonej siły. Zjawisko to jest odwracalne.
Zjawisko piezoelektryczne lub efekt piezoelektryczny – zjawisko fizyczne polegające na mechanicznej deformacji kryształu pod
wpływem zewnętrznego pola elektrycznego (zjawisko piezoelektryczne odwrotne), a także: na powstawaniu na przeciwległych
ś
cianach kryształów ładunków elektrycznych przeciwnego znaku w wyniku deformacji kryształu (zjawisko piezoelektryczne proste).
Piezoelektryczność występuje w tych kryształach, które nie mają swojego środka symetrii, np. w kryształach kwarcu. Materiały takie
nazywane są piezoelektrykami.
Proste zjawisko piezoelektryczne polega na indukowaniu ładunków elektrycznych Q na powierzchni dielektryka pod działaniem
naprężeń mechanicznych.
(14.1)
W równaniu (14.1) S oznacza powierzchnię elektrod nałożonych na dielektryk, d – moduł piezo-elektryczny, σ – naprężenie.
Naprężeniem nazywamy stosunek siły F działającej na powierzchnię S do wielkości tej powierzchni
(14.2)
Jednostką naprężenia jest N/m
2
czyli Pa.
29
Odwrotne zjawisko piezoelektryczne polega na deformacji piezoelektryka pod wpływem pola elektrycznego:
(14.3)
gdzie: η – deformacja względna, d – moduł piezoelektryczny (taki sam jak w zjawisku prostym), E – natężenie pola elektrycznego.
Deformacja względna jest to stosunek zmiany rozmiaru ciała do rozmiaru początkowego, np. przyrostu długości do długości
początkowej. Deformacja względna jest wielkością niemianowaną.
Z równań (14.1) oraz (14.3) wynika, że w zjawisku piezoelektrycznym związek między siłą i indukowanym przez tę siłę
ładunkiem elektrycznym oraz natężeniem pola elektrycznego i indukowaną tym polem deformacją jest liniowy.
Własności piezoelektryczne kryształów i ciekłych kryształów są wykorzystywane praktycznie w:
•
generowaniu dźwięków (np. głośniki oparte na elementach piezoelektrycznych)
•
rejestracji dźwięków (mikrofony oparte na elementach piezoelektrycznych)
•
detekcji drobnych drgań (np. w czujnikach sejsmicznych, alarmach samochodowych itp.)
•
do wytwarzania iskry elektrycznej (np. w zapalniczkach)
•
płytki piezoelektryczne wycięte z kwarcu, rzadziej z turmalinu znajdują zastosowanie w radiotechnicznej aparaturze
nadawczej do stabilizowania częstości drgań (rezonator kwarcowy), w aparatach do badania materiałów przy pomocy
ultradźwięków (defektoskopia)
33)
Metody badania właściwości piezoelektrycznych
Metody badania własności piezoelektrycznych materiałów można podzielić na statyczne, kwazistatyczne i dynamiczne.
– Metody statyczne polegają na bezpośrednim pomiarze ładunków piezoelektrycznych indukowanych na powierzchniach kryształu
pod wpływem zewnętrznych naprężeń mechanicznych, lub na pomiarze odkształcenia kryształu pod wpływem zewnętrznego
pola elektrycznego.
– Metody kwazistatyczne polegają na pomiarze deformacji kryształu pod wpływem periodycznie zmiennego pola elektrycznego
(odwrotne zjawisko piezoelektryczne) lub pomiarze ładunku generowanego na powierzchni kryształu pod wpływem zmiennych
naprężeń mechanicznych (zjawisko proste) o częstości znacznie mniejszej od częstości rezonansowych badanych próbek.
– Metody dynamiczne polegają na pomiarze częstości rezonansowych i antyrezonansowych drgań własnych płytek wyciętych z
materiałów piezoelektrycznych (kryształów, ceramik lub folii) oraz wyznaczaniu parametrów zastępczych obwodów
elektrycznych tych próbek (badaną probkę opisujemy jako obwód elektryczny złożony z pojemności elektrycznej C,
indukcyjności L rezystancji R
p
, oraz równolegle do niego dołączonej pojemności własnej próbki C
0
).
Wśród metod dynamicznych szczególne znaczenie ma metoda rezonansu-antyrezonansu. W płytce powstaje fala stojąca.
Częstotliwości rezonansowe płytek określone są rozmiarami i prędkością rozchodzenia się dźwięku w płytce, a prędkość
współczynnikiem sprężystości i gęstością.
W metodzie rezonansu-antyrezonansu wykorzystuje się fakt, że drgająca płytka piezoelektryczna pod względem elektrycznym
zachowuje się, jak szeregowy obwód RLC. Poniżej zostanie udowodnione, że tak rzeczywiście jest. Załóżmy, że płytka jest
piezoelektryczna, tj.powstaje ładunek Q proporcjonalny do wychylenia X, a przyłożeniu siły F towarzyszy powstanie napięcia U:
30
sin
'
2
:
1
1
1
:
'
2
2
m
U
Q
k
I
dt
dl
m
y
otrzymujem
dt
dI
dt
x
d
I
dt
dQ
dt
dx
Q
x
ą
c
podstawiaj
U
F
U
F
Q
x
x
Q
x
Q
⋅
=
+
⋅
+
⋅
⋅
=
⋅
=
⋅
=
=
⋅
=
=
=
α
α
α
β
α
α
α
α
α
α
α
α
α
α
VII. Metody badania właściwości magnetycznych i zastosowanie magnetyków w metodach badawczych
43) Metody badań struktury domenowej ferroelektryków
- Metoda mikroskopu polaryzacyjnego
Dla próbek przeźroczystych i dla monokryształu
S-źródło światła
P- polaryzator
K- kryształ (badana próbka)
A-analizator
O- obiektyw mikroskopu
Schemat metody mikroskopu polaryzacyjnego:
Schemat pokazuje wzajemne położenie polaryzatora P, analizatora A i kryształu K.
Zastosowanie: badanie przemian fazowych metodą mikroskopu polaryzacyjnego
- Metoda trawienia:
Kryształ zanurza się na pewien czas i do określonego kwasu. Dobiera się takie kwasy, aby dodatnie i ujemne końce domen trawiły
się z różną prędkością.
Wadą tej metody jest to, że jest to metoda niszcząca. Nadaje się tylko do badania statyki struktury domen.
Zalety: Mamy jednoznaczną inf. o domenach i granicach domen.
- metoda transmisyjnego mikroskopu elektronowy (TEM):
Służy do badania bardzo cienkich warstw (poniżej 0,1
µ
m grubości)
Inne metody badań struktury domenowej:
- metoda topografii rentgenowskiej
- metody osadzania naładowanych proszków
- metoda rosy
31
- metody z wykorzystaniem mat. Elektroluminescencyjnych i ciekłych kryształów
- metoda dekoracji
44) Statyczne metody magnetyczne
W polu jednorodnym dipole doznają obrotu bez przesunięcia.
W polu niejednorodnym:
Z
H
V
M
F
Z
H
F
∂
∂
⋅
⋅
=
∂
∂
α
Czynniki określające właściwości powierzchniowe:
Badania powierzchni ciała stałego dostarczają istotnych informacji na temat składu chemicznego, natury strukturalnej i zjawisk
fizycznych zachodzących na powierzchni struktury.
Metoda Magnetyczna
Zasada wykrywalności
Magnesowanie obiektów stałym, przemiennym polem magnetycznym. Wykrywanie zmiany strumienia magnetycznego: proszki
magnetyczne przetworniki indukcyjnościowe (efekt Faradaya)
Zastosowania
Wykrywanie nieciągłości powierzchniowych i podpowierzchniowych w obiektach z materiałów ferromagnetycznych. Pomiar
naprężeń i jakości materiałów
Ograniczenia
Brak możliwości zastosowania dla materiałów niemagnetycznych.
Naprężenia tylko na powierzchni
Zalety
Prostota prowadzenia badań metodami magnetycznymi.
Nieduże wymagania dotyczące stanu powierzchni
Materiały badane
Stale ferromagnetyczne, nikiel kobalt
Rodzaje wykrywanych nieciągłości
Wykrywanie nieciągłości powierzchniowych: pęknięć i nieciągłości podpowierzchniowych. Pomiar jakości materiału powierzchni
oraz stanu naprężeń.
VIII. Metody badania składu chemicznego i powierzchni
65) Czynniki określające właściwości powierzchniowe
Badania powierzchni ciała stałego dostarczają istotnych informacji natury poznawczej, jak również posiadają ważny aspekt
praktyczny (informacje dotyczą składu chemicznego, natury strukturalnej i zjawisk fizycznych zachodzących na powierzchni
struktury).
Przykłady zjawisk zachodzących na powierzchni kryształu:
a)
nowa struktura
b)
wydzielenie atomów jednego pierwiastka na powierzchni
c)
adsorpcja
d)
utworzenie na powierzchni nowego związku - chemisorpcja
66) Jonowa mikroskopia polowa (FIM – Field Ion Microskopy)
Metoda otrzymywania obrazów powierzchni.
Tylko do badania metali (wysoka próżnia).
Wytwarza się jony, które bombardują powierzchnię metalu, wyrywają z tej powierzchni inne jony. Przyspieszone jony trafiają w
ekran fluorescencyjny i powodują świecenie. Na ekranie -> układ plamek odpowiada strukturze powierzchni.
68) Mikroskop tunelowy
Mikroskop ze skanującą sondą. Uzyskanie obrazu powierzchni jest możliwe dzięki wykorzystaniu zjawiska tunelowego. Nad
powierzchnią próbki, która może być wykonana tylko z materiału przewodzącego prąd elektryczny, umieszczona jest sonda (igła),
którą można poruszać w sposób kontrolowany. Ramię trzymające igłę mocowane jest do aparatury poprzez odpowiednio
32
skonstruowany układ piezoelektryczny (tzw. skaner piezoelektryczny), który pod wpływem napięcia elektrycznego zmienia w
niewielkim stopniu swe wymiary, a tym samym zmienia położenie igły umożliwiając jej przesuwanie się nad próbką.
69) Mikroskop AFM i MFM
AFM
Do obrazowania powierzchni wykorzystuje się siły oddziaływania międzyatomowego, na zasadzie przemiatania ostrza nad lub pod
powierzchnią próbki. Umożliwia to obserwowanie powierzchni próbki.Drgająca sonda lekko „dziobie” powierzchnię próbki.Zmiany
amplitudy drgań dźwigienki związane z ukształtowaniem powierzchni próbki służą do wytworzenia obrazu topograficznego.
Zastosowanie do sporządzanie mikroskopowych map:
• ukształtowania powierzchni – topografia
• sił tarcia
• adhezji
MFM
Mikroskop sił magnetycznych (MFM: Magnetic Force Microscope). Ostrze pokryte cienką warstwą ferromagnetyka wibruje z
częstotliwością bliską rezonansowej poruszając się blisko badanej powierzchni. Poprzez modulację częstości z jaką wibruje dźwignia
mikroskop rejestruje namagnesowanie badanej powierzchni. Zmiany te są indukowane przez zależność pola magnetycznego od
odległości ostrze - próbka. Jest on używany do badania struktur domen magnetycznych powierzchni głowic i nośników
magnetycznych, np. dysków twardy.