WIDMO ABSORPCJI
1. Promieniowanie elektromagnetyczne (fala elektromagnetyczna) - rozchodzące się w przestrzeni zaburzenie pola elektromagnetycznego. Zaburzenie to ma charakter fali poprzecznej, w której składowa elektryczna i magnetyczna są prostopadłe do siebie, a obie są prostopadłe do kierunku rozchodzenia się promieniowania. Oba pola indukują się wzajemnie - zmieniające się pole elektryczne wytwarza zmienne pole magnetyczne, a zmieniające się pole magnetyczne wytwarza zmienne pole elektryczne. Źródłem zmiennego pola elektromagnetycznego jest przyspieszający ładunek elektryczny. Najczęściej źródłem tego promieniowania jest ładunek wykonujący drgania.
#Promieniowanie elektromagnetyczne rozchodząc się objawia swe własności falowe zachowując się jak każda fala, ulega interferencji, dyfrakcji, spełnia prawo odbicia i załamania.
#Rozchodzenie się fali w ośrodkach silnie zależy od właściwości tych ośrodków oraz częstotliwości fali. Fala rozchodząc się w ośrodku pobudza do drgań ładunki zawarte w cząsteczkach i atomach, najczęściej są to elektrony. Indukowane w ten sposób drgania elektronów są źródłem fal wtórnych, którą poprzez superpozycję z falą padającą zmieniają jej długość i prędkość rozchodzenia się.
ENERGIA KWANTU PROMIENIOWANIA ELEKTROMAGNETYCZNEGO
2. Aby przejść z jednego stanu do innego elektron musi wyemitować/zaabsorbować kwant energii odpowiadającej różnicy energii elektronu w tych stanach. Podczas tego procesu zostaje wyemitowany/zaabsorbowany kwant promieniowania elektromagnetycznego o energii E=hv, gdzie v jest częścią promieniowania. Stąd widmo adsorpcyjne atomów jest dyskretne.
3.ODDZIAŁYWANIE PROMIENIOWANIA ELEKTROMAGNETYCZNEGO Z MATERIĄ
Gdy rozważmy równoległą wiązkę fotonów przechodzącą przez warstwę materii. Fotony mogą oddziaływać z atomami warstwy na drodze czterech różnych procesów. Są to:
1.zjawisko fotoelektryczne(ogół zjawisk spowodowanych oddziaływaniem substancji z promieniowaniem świetlnym. Związane jest z przekazywaniem energii fotonów pojedynczym elektronom),
2.kreacja i anihilacja par/tworzenie par(Kreacja par zachodzi w górnych warstwach atmosfery pod działaniem promieniowania kosmicznego oraz w akceleratorach cząstek elementarnych, Anihilacja par cząstka-antycząstka. Antymateria to materia złożona z antycząstek. Antycząstka to cząstka mająca przeciwny zbiór właściwości i liczb kwantowych do zwykłej cząstki)
3.zjawisko Thomsona(Polega na wydzielaniu się lub pochłanianiu ciepła podczas przepływu prądu elektrycznego (tzw. ciepła Thomsona) w jednorodnym przewodniku, w którym istnieje gradient temperatury. Ilość wydzielonego/pochłoniętego ciepła jest proporcjonalna do różnicy temperatury, natężenia prądu i czasu jego przepływu, a także od rodzaju przewodnika)
4.zjawisko Comptona (zjawisko rozpraszania promieniowania X (rentgenowskiego) i promieniowania gamma, czyli promieniowania elektromagnetycznego o dużej częstotliwości, na swobodnych lub słabo związanych elektronach, w wyniku którego następuje zwiększenie długości fali promieniowania)
4.POZIOMY ELEKTRONOWE, OSCYLACYJNE I ROTACYJNE MOLEKUŁY
#Cząsteczka może przyjmować tylko ściśle określone poziomy energetyczne, a ich zmiana jest związana z pochłanianiem ( bądź emisją ) charakterystycznego dla danego przejścia kwantu energii. Zaabsorbowane ( wyemitowane może być tylko takie promieniowanie, którego energia odpowiada różnicy poziomów energetycznych cząsteczki . Prawdopodobieństwo danego przejścia na poziomach energetycznych cząsteczki, uwarunkowane jest tzw. regułami wyboru. Przejście elektronowe jest dozwolone gdy moment przejścia między stanami elektronowymi, określający prawdopodobieństwo absorpcji ( emisji ) dopasowanego fotonu jest różny od zera, gdy moment przejścia jest równy zeru - przejście jest wzbronione - czyli nie zachodzi.
#Na energię molekuły składa się energia związana ze stanem ruchu obrotowego (stan stan rotacyjny Er), ruchu drgającego (stan oscylacyjny Eo) i stanem jej elektronów (stan elektronowy (Ee). E=Er+Eo+Ee. Okazuje się, że słuszna jest relacja ∆Er<∆Eo<∆Ee. Stad wynika że największe odstępy są pomiędzy poziomami elektronowymi. Stąd różnica częstości odpowiadających im fal emitowanych/absorbowanych jest największa. Molekuły cechuje pasmowe widmo absorpcyjne/emisyjne. Badanie widma absorpcji polega na rejestrowaniu ekstynkcji jako funkcji długości fali padającej na próbkę. Cechą charakterystyczną jest jej analityczna długość fali, można ją określić wybierając λ, dla którego występuje maksimum ekstynkcji i minimum transmisji dla widm o charakterze gaussowskim.
5. widmo absorpcji, miara ilości światła o określonej długości fali, która ulega pochłonięciu podczas przechodzenia światła przez daną substancję; każdy związek chemiczny ma charakterystyczne dla siebie w.a.
Występowanie widma absorpcyjnego jest spowodowane pochłanianiem przez substancję fotonów tylko o określonych długościach fali - takich które mogą spowodować wzbudzenie atomu lub cząsteczki do stanu dopuszczanego przez prawa mechaniki kwantowej. Zmiany stanu wzbudzenia dotyczą zarówno elektronów jak i oscylacji i rotacji całych cząstek.
Długość fali λ - odległość mierzona między dwoma sąsiednimi punktami będącymi w tej samej fazie.
6.Przemiany w atomie podczas absorpcji
W procesie absorpcji światło zachowuje się jak strumień cząstek elementarnych i może być pochłaniane tylko w określonych porcjach, których wielkość zależy od częstotliwości światła Kwant światła, czyli foton niosący tę określoną porcję energii może oddziaływać z elektronem walencyjnym w atomie substancji ośrodka. Jeżeli energia fotonu równa jest różnicy energii pomiędzy dowolnym stanem wzbudzonym elektronu a stanem podstawowym, wówczas foton zostanie pochłonięty (następuje absorpcja fotonu). Gdy energia fotonu jest inna, wówczas albo przechodzi on przez substancję bez przeszkód, albo jest rozpraszany. Na skutek absorpcji fotonu atom przechodzi w stan wzbudzenia o wyższej energii. Wzbudzone atomy powracają do stanu podstawowego emitując foton o takiej samej lub mniejszej energii. Zmniejszenie energii emitowanego fotonu w porównaniu z energią fotonu absorbowanego nosi nazwę luminescencji. Układ poziomów energetycznych elektronów w atomach, czas życia stanów wzbudzonych i sam proces absorpcji wynika z praw mechaniki kwantowej.
ROZKŁAD GAUSSA
Parametry statystyczne - są to wielkości liczbowe, które służą do opisu struktury zbiorowości statystycznej w sposób systematyczny
MIARY POLOZENIA
Kwantyle - definiuje się jako wartości cechy badanej zbiorowości, przedstawionej w postaci szeregu statystycznego, które dzielą zbiorowość na określone części pod względem liczby jednostek, części te pozostają do siebie w określonych proporcjach.
Kwartyl pierwszy Q1
dzieli zbiorowość na dwie części w ten sposób, że 25% jednostek zbiorowości ma wartości cechy niższe bądź równe kwartylowi pierwszemu Q1, a 75% równe bądź wyższe od tego kwartyla
Kwartyl drugi (mediana Me) dzieli zbiorowość na dwie równe części; połowa jednostek ma wartości cechy mniejsze lub równe medianie, a połowa wartości cechy równe lub większe od Me; stąd nazwa wartość środkowa
Kwartyl trzeci Q3 dzieli zbiorowość na dwie części w ten sposób, że 75% jednostek zbiorowości ma wartości cechy niższe bądź równe kwartylowi pierwszemu Q3, a 25% równe bądź wyższe od tego kwartyla
Decyle np. decyl pierwszy oznacza, że 10% jednostek ma wartości cechy mniejsze bądź równe od decyla pierwszego, a 90% jednostek wartości cechy równe lub większe od decyla pierwszego
MIARY ROZPROSZENIA
Wariancja- jest to średnia arytmetyczna kwadratów odchyleń poszczególnych wartości cechy od średniej arytmetycznej zbiorowości.
odchylenie standardowe-(blad sredni kwadratowy) to pierwiastek z wariancji
-okresla o ile wszystkie jednostki statyst danej zbiorowości roznia się srednio od wartości średniej rytm. Badanej zmiennej
współczynnik zmienności
rozstęp= x max - x min
określa poziom zależności liniowej między zmiennymi losowymi
Zmienna losowa- zmienną, ktora przyjmuje wartości z pewnego (skończonego lub nieskończonego) przedziału w sposób przypadkowy, tzn. niemożliwy do przewidzenia z góry. Każda kolejna wartość nie jest zależna od wartości przyjętej poprzednio.
Zmiena losowa ciagla- Jeśli zmienna losowa może przyjmować dowolne wartości z pewnego przedziału
Parametry rozkładu
Rozkład cechy to opis wartości cechy statystycznej przy pomocy prawdopodobieństwa ich występowania.
Testem zgodności nazywamy test służący do weryfikacji hipotezy dotyczącej zgodności między typem rozkładu cechy w próbie a założonym rozkładem teoretycznym, np. rozkładem normalnym, określonym w hipotezie zerowej Ho. Należy rozstrzygnąć, czy badana cecha ma rozkład normalny, tzn. czy próbę można uważać za wybraną losowo z populacji o rozkładzie normalnym.
Weryfikując hipotezę zerową Ho: rozkład cechy jest rozkładem normalnym, dokonujemy porównania częstości doświadczalnych ( z próby) z częstościami teoretycznymi. Te ostatnie obliczamy z dystrybuanty teoretycznej rozkładu normalnego następująco: wyliczamy najpierw średnią Xs i odchylenie standardowe s dla szeregu rozdzielczego, a następnie wartości standaryzowanej zmiennej losowej Z ze wzoru: Zi = (xm - xs) /s, gdzie XiO -górna granica i-tej klasy. Z tabeli standaryzowanego rozkładu normalnego odczytujemy teoretyczne prawdopodobieństwa Pi (<D(z}) odpowiadające wyliczonym wartościom Zi. Następnie z zależności pj = <D(Zj}- cI»(Zj.l) obliczamy wartości prawdopodobieństwa teoretycznego dla każdej klasy, które.posłużąnam do określenia częstości (liczności) teoretycznych z zależności n-pi. gdzie n jest licznością całej próby. Po obliczeniu częstości teoretycznych njo = n-pi
podstawiamy je do wzoru na "1.2•
Porównujemy otrzymaną wartość "1.2 z wartością teoretyczną "1.2 o, przy poziomie istotności a. = 0,05 i odpowiedniej liczbie stopni swobody f =k-l-c, gdzie k- liczba klas, a c- liczba szacowanych parametrów rozkładu, najczęściej 2, tzn. średnia łl i odchylenie er. Jeśli "1.2 > X2 o, hipotezę zerową zakładającą, że badany rozkład jest rozkładem normalnym należy odrzucić. W przeciwnym przypadku należy uznać na poziomie ufności 95%, że badany rozkład jest rozkładem normalnym.
Histogram to jeden z graficznych sposobów przedstawiania rozkładu empirycznego cechy. Składa się z szeregu prostokątów umieszczonych na osi współrzędnych. Prostokąty te są z jednej strony wyznaczone przez przedziały klasowe (patrz: Szereg rozdzielczy) wartości cechy, natomiast ich wysokość jest określona przez liczebności (lub częstości, ewentualnie gęstość prawdopodobieństwa) elementów wpadających do określonego przedziału klasowego.
Hipoteza zerowa (H0) - Jest to hipoteza poddana procedurze weryfikacyjnej, w której zakładamy, że różnica między analizowanymi parametrami lub rozkładami wynosi zero.
Rozklad graniczny- srednia n niezależnych ustandaryzowanych zmiennych losowych z por zadanych rozkladow zbiega się do rozkładu normalnego N(0,1/n)
waga analityczna (dokładność 0,0001g),waga o zakresie 50g,
Rozkład Gaussa jest rozkładem gęstosci prawdopodobieństwa f(x) dla zmiennej losowej, która może przyjmować dowolne wartosci rzeczywiste. Oznacza to, że prawdopodobieństwo znalezienia wartosci zmiennej losowej w przedziale pomiędzy liczbami x1 i x2 dane jest wyrażeniem
Z rozkładem normalnym związana jest tzw. reguła trzech sigm, zgodnie z którą praktycznie wszystkie obserwacje dokonywane na zmiennej losowej o rozkładzie normalnym mieszczą się w przedziale (m-3σ, m+3σ). Obserwacje niewiarygodne to obserwacje, których wartość różni się od średniej o więcej niż trzy odchylenia standardowe. Dla realizacji zmiennej losowej o dowolnym rozkładzie normalnym około 68,3% obserwacji mieści się w granicach jednego odchylenia standardowego wokół średniej, 95,5% obserwacji mieści się w granicach dwóch odchyleń standardowych i 99,7% w granicach trzech odchyleń standardowych
TEST ZGODNOŚCI CHI-KWADRAT
Test zgodności chi-kwadrat służy do weryfikowania hipotezy, że obserwowana cecha X charakteryzuje się w populacji określonym rodzajem rozkładu.
Hipotezę zerową formułujemy słownie w zależności od tego, jakim rozkładem charakteryzuje się badana cecha.
Sprawdzianem hipotezy zerowej jest statystyka wyrażona w następujący sposób:
Statystyka testu ma rozkład χ2 o ν = k - r - 1 stopniach swobody, gdzie r to liczba szacowanych parametrów, od których zależy rozkład cechy w populacji, natomiast k to liczba przedziałów klasowych lub wariantów cechy X;
pi oznacza prawdopodobieństwo tego, że cecha X przyjmuje wartość należącą do i-tego przedziału klasowego, n⋅pi oznacza liczbę jednostek, które powinny znaleźć się w i-tym przedziale (przy założeniu, że cecha ma rozkład zgodny z hipotetycznym).
Jeśli X2> X2 o, hipotezę zerową zakładającą, że badany rozkład jest rozkładem normalnym należy odrzucić. W przeciwnym przypadku należy uznać na poziomie ufności 95%, że badany rozkład jest rozkładem normalnym.
ROZKŁAD POISSONA
Zmienna losowa-zmienna, ktora przyjmuje wartości z pewnego (skończonego lub nieskończonego) przedziału w sposób przypadkowy, tzn. niemożliwy do przewidzenia z góry. Każda kolejna wartość nie jest zależna od wartości przyjętej poprzednio
Zmienna losowa ciągła- jeśli zmienna losowa może przyjmować dowolne wartości z pewnego przedziału
Zmienna losowa dyskretna- jeśli zmienna losowa może przyjmować tylko niektóre wartości z pewnego przedziału
Rozkład Poissona- Opisuje on prawdopodobieństwo P(μ, N) tego, żer dyskretna (nieciągła) zmienna losowa przyjmie wartość N, jeśli średnia wartość przyjmowana przez tę zmienną wynosi μ i wyraża się wzorem:
Wartość średnia μ jest jedynym parametrem charakteryzującym rozkład Poissona.
Określa ona równiez jednoznacznie rozrzut wartości przyjmowanych przez zmienną losową, bowiem wariancja rozkładu Poissona rowna jest jego wartości średniej. Rozkład Poissona jest wyraźnie asymetryczny dla małych μ .Dla μ ≥ 10 staje się symetryczny i kształt krzywej, którą wyznaczają punkty tego (nieciągłego ) rozkładu, przybliza się do krzywej Gaussa o tej samej wartości średniej i dyspersji
Estymator-to wielkość wyznaczona na podstawie próby losowej, służąca do oceny wartości nieznanych parametrów rozkładu prawdopodobieństw
Liczba stopni swobody - liczba niezależnych wyników obserwacji pomniejszona o liczbę związków, które łączą te wyniki ze sobą.Liczbę stopni swobody można utożsamiać z liczbą niezależnych zmiennych losowych, które wpływają na wynik. Inną interpretacją liczby stopni swobody może być: liczba obserwacji minus liczba parametrów estymowanych przy pomocy tych obserwacji.
Parametr - prawdziwa (rzeczywista) wartość opisująca cechę danej populacji. Jest to wartość stała, służąca do opisu struktury danej zbiorowości statystycznej.
Średni błąd średniej-(dokładniej średni błąd kwadratowy wartości średniej lub odchylenie standardowe wartości średniej) jest to parametr obliczany dla serii pomiarów, które podlegają przypadkowym odchyleniom od wartości oczekiwanej, zgodnie ze wzorem
Rozkład cechy- to opis wartości cechy statystycznej przy pomocy prawdopodobieństwa ich występowania
MIARY POLOZENIA
Kwantyle - definiuje się jako wartości cechy badanej zbiorowości, przedstawionej w postaci szeregu statystycznego, które dzielą zbiorowość na określone części pod względem liczby jednostek, części te pozostają do siebie w określonych proporcjach.
Kwartyl pierwszy Q1
dzieli zbiorowość na dwie części w ten sposób, że 25% jednostek zbiorowości ma wartości cechy niższe bądź równe kwartylowi pierwszemu Q1, a 75% równe bądź wyższe od tego kwartyla
Kwartyl drugi (mediana Me) dzieli zbiorowość na dwie równe części; połowa jednostek ma wartości cechy mniejsze lub równe medianie, a połowa wartości cechy równe lub większe od Me; stąd nazwa wartość środkowa
Kwartyl trzeci Q3 dzieli zbiorowość na dwie części w ten sposób, że 75% jednostek zbiorowości ma wartości cechy niższe bądź równe kwartylowi pierwszemu Q3, a 25% równe bądź wyższe od tego kwartyla
Decyle np. decyl pierwszy oznacza, że 10% jednostek ma wartości cechy mniejsze bądź równe od decyla pierwszego, a 90% jednostek wartości cechy równe lub większe od decyla pierwszego
MIARY ROZPROSZENIA
Wariancja- jest to średnia arytmetyczna kwadratów odchyleń poszczególnych wartości cechy od średniej arytmetycznej zbiorowości.
odchylenie standardowe-(blad sredni kwadratowy) to pierwiastek z wariancji
-okresla o ile wszystkie jednostki statyst danej zbiorowości roznia się srednio od wartości średniej rytm. Badanej zmiennej
współczynnik zmienności- określa poziom zależności liniowej między zmiennymi losowymi.. współczynnik korelacji liniowej dwóch zmiennych jest ilorazem kowariancji i iloczynu odchyleń standardowych tych zmiennych
rozstęp= x max - x min
określa poziom zależności liniowej między zmiennymi losowymi
test chi kwadrat- służy do weryfikowania hipotezy, że obserwowana cecha X charakteryzuje się w populacji określonym rodzajem rozkładu.
Hipotezę zerową formułujemy słownie w zależności od tego, jakim rozkładem charakteryzuje się badana cecha.
Sprawdzianem hipotezy zerowej jest statystyka wyrażona w następujący sposób:
Jeżeli
, to nie ma podstaw do odrzucenia hipotezy zerowej, w przeciwnym przypadku istnieją podstawy do odrzucenia hipotezy zerowej.
Amfifilowość - zjawisko obserwowane w przypadku niektórych związków chemicznych polegające na jednoczesnej, niepełnej rozpuszczalności danego związku w dwóch różnych rozpuszczalnikach.
Związki amfifilowe są zwykle długimi cząsteczkami, które na jednym końcu posiadają grupy rozpuszczalne w jednym rozpuszczalniku, a na drugim grupy rozpuszczalne w drugim rozpuszczalniku. Powoduje te, że na granicy faz (w punkcie styku tych dwóch rozpuszczalników lub na powierzchni jednego z nich) cząsteczki takie samorzutnie tworzą monowarstwy, a w obrębie objętości jednego z rozpuszczalników tworzą sferyczne agregaty, w których jeden koniec cząsteczek (ten rozpuszczalny) jest skierowany na zewnątrz, a drugi do środka sfery.
Zjawisko amfifilowości jest bardzo ważne biologicznie i technologicznie:
-W biologii, dzięki temu zjawisku lipidy tworzą błony komórkowe, a także możliwe są niektóre przemiany enzymatyczne.
-W technologii - dzięki temu zjawisku można tworzyć stabilne emulsje, które są później wykorzystywane jako farby, kosmetyki, oraz lateksy. W technologii zjawisko to ma także duże znaczenie w produktach czystości, gdyż na powstawaniu emulsji mydło - tłuszcz oparte jest działanie większości tych produktów.
-Zjawisko amfifilowości jest też odpowiedzialne za powstawanie liotropowych (rozpuszczalnikowych) faz ciekłokrystalicznych.
Napięcie powierzchniowe ρ cieczy powstaje w wyniku wzajemnego oddziaływania cząsteczek we wnętrzu i na powierzchni cieczy. Cząsteczki położone w warstwie powierzchniowej znajdują się w zupełnie innych warunkach jak cząsteczki znajdujące się we wnętrzu cieczy. Siła wypadkowa działająca na cząsteczki położone na powierzchni jest skierowana w głąb cieczy i działa prostopadle do jej powierzchni i usiłuje zmniejszyć swobodną powierzchnię cieczy. Ciecz dąży zatem do zmniejszenia liczby cząsteczek na swojej powierzchni, a więc do osiągnięcia możliwie najmniejszej swobodnej powierzchni.
Obecność cząsteczek amfifilowych na swobodnej powierzchni wody obniża napięcie powierzchniowe, dlatego też substancje te nazywane są związkami powierzchniowo czynnymi lub surfaktantami.Związki amfifilowe samorzutnie gromadzą się na powierzchni cieczy, a dokładnie na jej styku z inną fazą, po to aby ich część hydrofobowa- "nie lubiąca" tej cieczy znajdowała się poza jej objętością, przy okazji "rozbijając" strukturę tego styku, co prowadzi do obniżenia napięcia powierzchniowego.
Gęstość (masa właściwa) - jest to stosunek masy pewnej porcji substancji do zajmowanej przez nią objętości.
W przypadku substancji jednorodnych porcja ta może być wybrana dowolnie; jeśli jej objętość wynosi V a masa m, to gęstość substancji wynosi:
i nie zależy od wyboru próbki.
W przypadku substancji niejednorodnych, gęstość nie jest stała w przestrzeni i określana jest dla każdego punktu z osobna; definiuje się ją jak wyżej, przy założeniu, że wybrana porcja substancji, obejmująca dany punkt, jest jak najmniejsza. Wybierając próbkę w otoczeniu danego punktu otrzymujemy gęstość w tym punkcie jako granicę stosunku masy próbki dm do jej objętości dv przy rozmiarach próbki dążących do zera:
Jednostką gęstości w układzie SI jest kilogram na metr sześcienny - kg/m³. Inne jednostki to m.in. kilogram na litr - kg/l, oraz gram na centymetr sześcienny - g/cm³ (w układzie CGS).
Gęstość większości substancji jest zależna od panujących warunków, w szczególności od temperatury i ciśnienia. W związku z tym, w tablicach opisujących właściwości materiałów podaje się ich gęstość zmierzoną w określonych warunkach; przeważnie są to warunki standardowe lub normalne. Znajomość gęstości pozwala na obliczenie masy określonej objętości substancji. Dla substancji jednorodnej zachodzi
,
a dla ciał niejednorodnych
.
Gęstość ciał stałych i ciekłych można wyznaczyć przez ważenie próbek o znanej objętości. Przy wyznaczaniu gęstości cieczy stosuje się również areometry. Areometry wypełnione cieczą o znanej gęstości mogą służyć do wyznaczania gęstości innych cieczy. Przy wyznaczaniu gęstości gazów stosuje się między innymi ważenie naczyń z gazem o różnym ciśnieniu gazu.
Gęstość większości substancji zmniejsza się wraz ze wzrostem temperatury (jednym z wyjątków jest woda w temperaturze poniżej 4°C). Zjawisko to wynika z rozszerzalności cieplnej ciał. Podczas przemian fazowych gęstość zmienia się skokowo (w temperaturze przemiany), podczas krzepnięcia zazwyczaj wzrasta (najbardziej znanymi wyjątkami są woda, żeliwo, a z pierwiastków bizmut, gal i german).
Ciężar właściwy
Ciężar właściwy definiuje się jako ciężar jednostki objętości danej substancji. Np. w układzie SI ciężar właściwy wyraża się w N/m3 (niutonach na metr sześcienny), co oznacza, że ciężar właściwy jest liczbą mówiącą o tym ile niutonów waży 1 metr sześcienny substancji.
Ciężar właściwy możemy obliczyć ze wzoru:
P - ciężar ciała (w układzie SI w Niutonach - N)
γ - ciężar właściwy substancji z której zrobione jest ciało (w układzie SI w Niutonach na metr sześcienny - N/m3)
V - objętość ciała (w układzie SI w metrach sześciennych - m3)
Z definicji wynika zależność ciężaru właściwego od gęstości danego ciała:
gdzie:
Q - ciężar,, m - masa ciała,, d - gęstość ciała, g - przyspieszenie ziemskie,, V - objętość.
Lepkość - zdolność płynu do przekazywania pędu pomiędzy warstwami poruszającymi się z różnymi prędkościami.
Różnice w prędkościach warstw często są charakteryzowane przez szybkość ścinania. Przekazywanie pędu zachodzi dzięki pojawieniu się na granicy tych warstw naprężeń ścinających. Wspomniane warstwy są pojęciem hipotetycznym, w rzeczywistości zmiana prędkości zachodzi w sposób ciągły (zobacz: gradient), a naprężenia można określić w każdym punkcie płynu.
Płyn nielepki to płyn o zerowej lepkości.
Istnieją dwie miary lepkości:
Lepkość dynamiczna wyrażająca stosunek naprężeń ścinających do szybkości ścinania:mu = {tau over {dot gamma}}Jednostką lepkości dynamicznej w układzie SI jest: kilogram•metr-1•sekunda-1
Lepkość kinematyczna jest stosunkiem lepkości dynamicznej do gęstości płynu:nu = {mu over rho}Jednostką lepkości kinematycznej w układzie SI jest: metr2•sekunda-1Jej nazwa pochodzi od tego, że jest wyrażona jedynie przez wielkości właściwe kinematyce.
Lepkość cieczy jest wynikiem sił tarcia wewnętrznego pomiędzy cząsteczkami cieczy.
Siły takie powstają przy ruchu jednej warstwy cieczy wzdłuż drugiej. Jest to wynikiem jakby zazębienia za pomocą cząsteczek, które przechodzą z jednej warstwy do drugiej przez pomyślane powierzchnie dzielące.
Wskutek tego wzajemnego przenikania powstają siły, które działają w kierunku wyrównania różnych predkości przepływu warstw. Wielkość tej siły wyraża równanie.
F = S(dv/dx)
gdzie; współczynnik lepkości dynamicznej lub lepkością dynamiczną. Jest to siła, która jest konieczna, aby dwie powierzchnie jednostkowe danego ośrodka przesunąć wzajemnie w odległość 1 cm z różnicą prękości 1 cm/s. Jednostką lepkości dynamicznej jest paskalosekunda (Pa*s). Tradycyjną jednostką w układzie CGS (centymetr-gram sekunda) jest puaz P:
1P = 10-1Pa*s
Lepkośc cieczy zależy od, rodzaju cieczy i temperatury cieczy. Wraz z podwyższeniem temperatury lepkość cieczy silnie maleje.
Mało ruchliwe płyny o dużej lepkości, jak oliwa lub gliceryna, to ciecze o dużym tarciu wewnętrznym.
Ciecze ruchliwe, jak eter, alkohol etylowy itp. to ciecze o małym tarciu wewnętrznym, czyli o małej lepkości.
WZÓR STOKESA
Wzór ten określa siłę oporu działającą na ciało kuliste poruszające się w danym ośrodku powolnym ruchem jednostajnym. Siła ta R wynosi:
(1)
gdzie n - lepkość ośrodka, r - promień kropli, v - prędkość kropli.
W polu grawitacyjnym w powietrzu po pewnym czasie kropelki kuliste poruszają się ruchem jednostajnym - w dół działa siła:
(2)
Masa pojedyńczej kropli wynosi:
(3)
gdzie f - gęstość kropli.
Siła ta równa jest sile oporu R działającego do góry. Po przyrównaniu obu sił przekształceniu wzoru otrzymuje się prędkość kropli równą:
(4)
Okresla ze prędkość opadania czasteczek kulistych jest wprost proporcjonalna do ich średnicy i gęstości wlasniwej i zalezy ponadto od tej gęstości, lepkości cieczy i od przyspieszenia ziemskiego.
WISKOZYMETR STOKESA
Lepkość, tarcie wewnętrzne, wiskoza, cecha płynów, pojawienie się siły tarcia (tarcie) pomiędzy warstwami cieczy lub gazu, poruszającymi się równolegle względem siebie z różnymi co do wartości prędkościami. Warstwa poruszająca się szybciej działa przyspieszająco na warstwę poruszającą się wolniej i odwrotnie. Pojawiające się wtedy siły tarcia wewnętrznego skierowane są stycznie do powierzchni styku tych warstw. Lepkość dynamiczna wyraża stosunek naprężeń ścinających do szybkości ścinania:
Jednostką lepkości dynamicznej w układzie SI jest paskal·sekunda o wymiarze kilogram·metr-1·sekunda-1Lepkość kinematyczna, nazywana też kinetyczną, jest stosunkiem lepkości dynamicznej do gęstości płynu:
Jednostką lepkości kinematycznej w układzie SI jest: metr2·sekunda-1.
Gęstość (masa właściwa) - jest to stosunek masy pewnej porcji substancji do zajmowanej przez nią objętości.W przypadku substancji jednorodnych porcja ta może być wybrana dowolnie; jeśli jej objętość wynosi V a masa m, to gęstość substancji wynosi:
i nie zależy od wyboru próbki.W przypadku substancji niejednorodnych, gęstość nie jest stała w przestrzeni i określana jest dla każdego punktu z osobna; definiuje się ją jak wyżej, przy założeniu, że wybrana porcja substancji, obejmująca dany punkt, jest jak najmniejsza. Wybierając próbkę w otoczeniu danego punktu otrzymujemy gęstość w tym punkcie jako granicę stosunku masy próbki dm do jej objętości dv przy rozmiarach próbki dążących do zera:
Jednostką gęstości w układzie SI jest kilogram na metr sześcienny - kg/m³.
Stokesa prawo, Stokesa równanie, hydrodynamiczne prawo opisujące siłę oporu F towarzyszącą jednostajnemu ruchowi ciała zanurzonego w lepkim płynie, prawdziwe w przypadku małych liczb Reynoldsa charakteryzujących przepływ (Re<<1).
Zgodnie ze Stokesa prawem siła ta, o zwrocie przeciwnym do zwrotu prędkości ciała, ma wartość określoną wzorem F=6πηru, gdzie: η - współczynnik lepkości dynamicznej cieczy (lepkość), r - promień ciała, u - prędkość ruchu ciała względem cieczy.
Stokesa prawo wykorzystuje się do określania prędkości sedymentacji cząstek i do wyznaczania lepkości cieczy (wiskozymetry).
Liczba Reynoldsa- jedna z bezwymiarowych liczb podobieństwa stosowanych w mechanice płynów (hydrodynamice, aerodynamice i reologii). Liczba ta pozwala oszacować występujący podczas ruchu płynu stosunek sił czynnych (sił bezwładności) do sił biernych związanych z tarciem wewnętrznym w płynie przejawiającym się w postaci lepkości.Liczba Reynoldsa stosowana jest jako podstawowe kryterium stateczności ruchu płynów.Liczba Reynoldsa zdefiniowana jest w sposób:
lub równoważnie:
gdzie: - gęstość płynu, - prędkość charakterystyczna płynu, - wymiar charakterystyczny zagadnienia, - lepkość dynamiczna płynu, - lepkość kinematyczna płynu.
Płyn newtonowski (doskonale lepki), model lepkości płynu wprowadzony przez Isaaca Newtona wykazujący liniową zależność naprężenia ścinającego od szybkości ścinania:
gdzie:τ - naprężenie,γ- szybkość ścinania, μ - lepkość dynamiczna, dla płynu newtonowskiego jest to wartość stała, u - prędkość warstwy płynu, U - prędkość przesuwanej płytki ścinającej płyn, dx - element grubości warstwy płynu.
Dla płynów newtonowskich lepkość nie zależy od szybkości ścinania, zależy natomiast od własności substancji tworzącej płyn i jego parametrów termodynamicznych takich jak temperatura i ciśnienie. Istnieją płyny, zwane płynami nienewtonowskimi, które nie spełniają powyższej zależności, dla nich naprężenia nie są proporcjonalne do gradientu prędkości, co jest równoznaczne z tym, że współczynnik lepkości nie jest stały lecz jest funkcją gradientu prędkości.
Zależność naprężeń od gradientu prędkości przedstawiona na wykresie nosi nazwę krzywej płynięcia. Dla płynu newtonowskiego krzywa płynięcia jest prostą przechodzącą przez początek układu współrzędnych.Jeżeli krzywa płynięcia jakiegoś płynu nie jest prostą przechodzącą przez początek układu współrzędnych płyn taki jest płynem nienewtonowskim, lecz płynem z granicą płynięcia.
1.zastosowanie pomiarów turbidymetrycznych i nefelometrycznych.
-w przemysle i biotechnologii, medycynie,bakteriologii(wzorce zmętnienia), do wyznaczania stężenia metnych roztworow, do okreslania stopnia rozdrobnienia koloidow, wyznaczania bialek surowicy krwi, oznaczenie siarki i siarczanów w postaci siarczanu barowego,
halogenków w postaci halogenków srebra, ołowiu w postaci siarczanu ołowiu itp. Ponadto stosuje się ją do oznaczania zanieczyszczeń zawartych w powietrzu (dymy, aerozole), gazów bojowych, niektórych bakterii, do oznaczania fazy rozproszonej w emulsjach koloidalnych (np. w mleku), do określenia efektywności procesu filtracyjnego, do oznaczania tłuszczówi smarów, do roznych analiz biochemicznych (moczu, krwi i innych płynów fizjologicznych)
2. opisz zaleznosc turbidymetrii do stężenia komórek
Turbidancja zawiesiny jest okreslana jako S=logI0/I gdzie I0-natezenie wiazki swiatla podajacej na metna próbkę, I-natezenie wiazki swiatla przechodzącej przez próbkę
Dla malych stezen substancji rozpraszającej S=kcdP3/P4+aλ4 gdzie c-stezenie czastek, d-grubosc warstwy rozpraszającej, P-pole przekroju poprzecznego czastki, λ-dlugosc fali swiatla, a,k-stale zalezne od geometrii układu rodzaju czastek rozpraszających i osrodka. W przypadku zawiesiny Komorek turbidancja powinna być poczatkowo proporcjonalna do stężenia Komorek. Dla wyzszych stezen obserwujemy jednak efekt wysycenia(zależność turbidancji od stez staje się slabsza). Zależność pomiedzy turbidancja a stężeniem Komorek umozliwia latwe wyznaczenie stężenia komorek w zawiesinie na podstawie pomiaru turbidancji zawiesiny
3.zasada pomiarów turbidymetrznych i nefelometrycznych.
Turbidymetria polega na oznaczaniu ilościowym zawiesiny koloidalnej w badanej próbce
przez pomiar natęzenia światła przepuszczanego przez tę próbkę; detektor jest umieszczony
na jednej linii z próbką i źródłem światła. Stąd tez turbidymetria nie rózni się w zasadzie od
absorpcjometrii i do celów turbidymetrycznych mozna z powodzeniem stosować zwykły
absorpcjometr lub spektrofotometr. Nefelometria natomiast polega na oznaczaniu ilościowym
zawiesiny koloidalnej w badanej próbce przez pomiar natęzenia światła przepuszczanego
przez tę próbkę; detektor jest umieszczony pod pewnym kątem (najczęściej 900) względem
kierunku biegu wiązki świetlnej wychodzącej ze źródła światła. Do celów nefelometrycznych
uzywa się natomiast przyrządów o nieco innej konstrukcji pozwalającej mierzyć natęzenie
światła rozproszonego (pod kątem 900), zwanych nefelometrami. Takiego typu przyrządem
jest stosowany w pracowni analizy instrumentalnej fotometr Pulfricha.
Do pomiaru duzych zmętnień (dość obfitych zawiesin) z powodzeniem mogą być stosowane
obie metody - obie są w tym wypadku równorzędne. Do pomiaru małych stęzeń lepiej nadaje
się metoda nefelometryczna - jest ona czulsza. Zaznaczyć nalezy, ze obie metody nalezą do
klasy najczulszych metod analitycznych.
4. Wykres zależności turbidancji od stężenia Komorek
5. rozproszenie swiatla
Rozpr swiatla (fal elektromagnetycznych) - zjawisko oddziaływania swiatla z materia, w wyniku którego nastepuje zmiana kierunku rozchodzenia się swiatla, z wyjątkiem zjawisk opisanych przez odbicie i zalamanie swiatla. Wywoluje zludzenie swiecenia osrodka
Rozroznia się rozproszenie swiatla:
-sprezyste-podczas rozpraszania nie nastepuje zmiana energii(częstotliwości) swiatla, bez zmiany długości fali swiatla: rozproszenie Rayleigha-swiatlo padające i rozproszone SA ze soba spojne
-niesprezyste-podczas rozpraszania zmienia się energia (częstotliwość) swiatla, ze zmiana długości fali swiatl ai jej fazy, np. zjawisko Ramana, efekt Camptona
Najbardziej typowe przypadki rozpraszania swiatla:
-rozproszenie na fluktuacjach gęstości osrodka (ropr molekularne, powstające w jego wyniku rozpór światło nie jest ze soba spojne)
-rozpr, na malych czastkach (efekt Tyndalla)
-rozpraszanie swiatla rezonansowe
6.rozproszenie rayleigha i ramana
-zjawisko Ramana, rozpraszanie Romanowskie- kombinacyjne zjawisko, rozpraszanie swiatla zachodzące ze zmiana częstotliwości. Na skutek zjawiska Ramana w widmie rozproszonego swiatla mogą pojawic się linie widmowe, przy czym odpowiadajaca im częstotliwość jest kombinacja (suma lub roznica) częstotliwości fali padającej i częstotliwości widm rotacyjnych lub oscylacyjnych molekuly rozpraszającej. Linie o częstotliwościach mniejszych od częstotliwości fali padającej nazywane SA liniami stokesowskimi, a o częstotliwościach wiekszych antystokesowskimi. Nateznie linii powstających w wyniku zjawiska Ramana jest Male, a ich szerokości SA względnie duze.zjawisko to wykorzystuje się do wykrywania obecności wybranych substancji w probce oraz do badania struktury molekul.
-roproszenie Rayleigha- rozpr molekularne, rozpraszanie elastyczne fotonow(swiatla, promieniowania rentgenowskiego lub promieniowania gamma). Zachodzi na niejednorodnościach ośrodków optycznych których rozmiary SA znacznie mniejsze od długości fali swiatla rozpraszanego. Wielkość zjawiska które tłumaczy się indukowaniem w czasteczce dipola elektrycznego (pod wpływem padającego swiatla) opisuje liczbowo współczynnik rozpraszania rayleighowskiego.