BIOFIZYKA ZAL, Biotechnologia


WIDMO ABSORPCJI

1. Promieniowanie elektromagnetyczne (fala elektromagnetyczna) - rozchodzące się w przestrzeni zaburzenie pola elektromagnetycznego. Zaburzenie to ma charakter fali poprzecznej, w której składowa elektryczna i magnetyczna są prostopadłe do siebie, a obie są prostopadłe do kierunku rozchodzenia się promieniowania. Oba pola indukują się wzajemnie - zmieniające się pole elektryczne wytwarza zmienne pole magnetyczne, a zmieniające się pole magnetyczne wytwarza zmienne pole elektryczne. Źródłem zmiennego pola elektromagnetycznego jest przyspieszający ładunek elektryczny. Najczęściej źródłem tego promieniowania jest ładunek wykonujący drgania.
#Promieniowanie elektromagnetyczne rozchodząc się objawia swe własności falowe zachowując się jak każda fala, ulega interferencji, dyfrakcji, spełnia prawo odbicia i załamania.
#Rozchodzenie się fali w ośrodkach silnie zależy od właściwości tych ośrodków oraz częstotliwości fali. Fala rozchodząc się w ośrodku pobudza do drgań ładunki zawarte w cząsteczkach i atomach, najczęściej są to elektrony. Indukowane w ten sposób drgania elektronów są źródłem fal wtórnych, którą poprzez superpozycję z falą padającą zmieniają jej długość i prędkość rozchodzenia się.

ENERGIA KWANTU PROMIENIOWANIA ELEKTROMAGNETYCZNEGO

2. Aby przejść z jednego stanu do innego elektron musi wyemitować/zaabsorbować kwant energii odpowiadającej różnicy energii elektronu w tych stanach. Podczas tego procesu zostaje wyemitowany/zaabsorbowany kwant promieniowania elektromagnetycznego o energii E=hv, gdzie v jest częścią promieniowania. Stąd widmo adsorpcyjne atomów jest dyskretne.

3.ODDZIAŁYWANIE PROMIENIOWANIA ELEKTROMAGNETYCZNEGO Z MATERIĄ

Gdy rozważmy równoległą wiązkę fotonów przechodzącą przez warstwę materii. Fotony mogą oddziaływać z atomami warstwy na drodze czterech różnych procesów. Są to:

1.zjawisko fotoelektryczne(ogół zjawisk spowodowanych oddziaływaniem substancji z promieniowaniem świetlnym. Związane jest z przekazywaniem energii fotonów pojedynczym elektronom),

2.kreacja i anihilacja par/tworzenie par(Kreacja par zachodzi w górnych warstwach atmosfery pod działaniem promieniowania kosmicznego oraz w akceleratorach cząstek elementarnych, Anihilacja par cząstka-antycząstka. Antymateria to materia złożona z antycząstek. Antycząstka to cząstka mająca przeciwny zbiór właściwości i liczb kwantowych do zwykłej cząstki)

3.zjawisko Thomsona(Polega na wydzielaniu się lub pochłanianiu ciepła podczas przepływu prądu elektrycznego (tzw. ciepła Thomsona) w jednorodnym przewodniku, w którym istnieje gradient temperatury. Ilość wydzielonego/pochłoniętego ciepła jest proporcjonalna do różnicy temperatury, natężenia prądu i czasu jego przepływu, a także od rodzaju przewodnika)

4.zjawisko Comptona (zjawisko rozpraszania promieniowania X (rentgenowskiego) i promieniowania gamma, czyli promieniowania elektromagnetycznego o dużej częstotliwości, na swobodnych lub słabo związanych elektronach, w wyniku którego następuje zwiększenie długości fali promieniowania)

4.POZIOMY ELEKTRONOWE, OSCYLACYJNE I ROTACYJNE MOLEKUŁY

#Cząsteczka może przyjmować tylko ściśle określone poziomy energetyczne, a ich zmiana jest związana z pochłanianiem ( bądź emisją ) charakterystycznego dla danego przejścia kwantu energii. Zaabsorbowane ( wyemitowane może być tylko takie promieniowanie, którego energia odpowiada różnicy poziomów energetycznych cząsteczki . Prawdopodobieństwo danego przejścia na poziomach energetycznych cząsteczki, uwarunkowane jest tzw. regułami wyboru. Przejście elektronowe jest dozwolone gdy moment przejścia między stanami elektronowymi, określający prawdopodobieństwo absorpcji ( emisji ) dopasowanego fotonu jest różny od zera, gdy moment przejścia jest równy zeru - przejście jest wzbronione - czyli nie zachodzi.

#Na energię molekuły składa się energia związana ze stanem ruchu obrotowego (stan stan rotacyjny Er), ruchu drgającego (stan oscylacyjny Eo) i stanem jej elektronów (stan elektronowy (Ee). E=Er+Eo+Ee. Okazuje się, że słuszna jest relacja ∆Er<∆Eo<∆Ee. Stad wynika że największe odstępy są pomiędzy poziomami elektronowymi. Stąd różnica częstości odpowiadających im fal emitowanych/absorbowanych jest największa. Molekuły cechuje pasmowe widmo absorpcyjne/emisyjne. Badanie widma absorpcji polega na rejestrowaniu ekstynkcji jako funkcji długości fali padającej na próbkę. Cechą charakterystyczną jest jej analityczna długość fali, można ją określić wybierając λ, dla którego występuje maksimum ekstynkcji i minimum transmisji dla widm o charakterze gaussowskim.

5. widmo absorpcji, miara ilości światła o określonej długości fali, która ulega pochłonięciu podczas przechodzenia światła przez daną substancję; każdy związek chemiczny ma charakterystyczne dla siebie w.a.

Występowanie widma absorpcyjnego jest spowodowane pochłanianiem przez substancję fotonów tylko o określonych długościach fali - takich które mogą spowodować wzbudzenie atomu lub cząsteczki do stanu dopuszczanego przez prawa mechaniki kwantowej. Zmiany stanu wzbudzenia dotyczą zarówno elektronów jak i oscylacji i rotacji całych cząstek.

Długość fali λ - odległość mierzona między dwoma sąsiednimi punktami będącymi w tej samej fazie.

6.Przemiany w atomie podczas absorpcji
W procesie absorpcji światło zachowuje się jak strumień cząstek elementarnych i może być pochłaniane tylko w określonych porcjach, których wielkość zależy od częstotliwości światła Kwant światła, czyli foton niosący tę określoną porcję energii może oddziaływać z elektronem walencyjnym w atomie substancji ośrodka. Jeżeli energia fotonu równa jest różnicy energii pomiędzy dowolnym stanem wzbudzonym elektronu a stanem podstawowym, wówczas foton zostanie pochłonięty (następuje absorpcja fotonu). Gdy energia fotonu jest inna, wówczas albo przechodzi on przez substancję bez przeszkód, albo jest rozpraszany. Na skutek absorpcji fotonu atom przechodzi w stan wzbudzenia o wyższej energii. Wzbudzone atomy powracają do stanu podstawowego emitując foton o takiej samej lub mniejszej energii. Zmniejszenie energii emitowanego fotonu w porównaniu z energią fotonu absorbowanego nosi nazwę luminescencji. Układ poziomów energetycznych elektronów w atomach, czas życia stanów wzbudzonych i sam proces absorpcji wynika z praw mechaniki kwantowej.

ROZKŁAD GAUSSA

Parametry statystyczne - są to wielkości liczbowe, które służą do opisu struktury zbiorowości statystycznej w sposób systematyczny

MIARY POLOZENIA

Kwantyle - definiuje się jako wartości cechy badanej zbiorowości, przedstawionej w postaci szeregu statystycznego, które dzielą zbiorowość na określone części pod względem liczby jednostek, części te pozostają do siebie w określonych proporcjach.

Kwartyl pierwszy Q1

dzieli zbiorowość na dwie części w ten sposób, że 25% jednostek zbiorowości ma wartości cechy niższe bądź równe kwartylowi pierwszemu Q1, a 75% równe bądź wyższe od tego kwartyla

Kwartyl drugi (mediana Me) dzieli zbiorowość na dwie równe części; połowa jednostek ma wartości cechy mniejsze lub równe medianie, a połowa wartości cechy równe lub większe od Me; stąd nazwa wartość środkowa

Kwartyl trzeci Q3 dzieli zbiorowość na dwie części w ten sposób, że 75% jednostek zbiorowości ma wartości cechy niższe bądź równe kwartylowi pierwszemu Q3, a 25% równe bądź wyższe od tego kwartyla

Decyle np. decyl pierwszy oznacza, że 10% jednostek ma wartości cechy mniejsze bądź równe od decyla pierwszego, a 90% jednostek wartości cechy równe lub większe od decyla pierwszego

MIARY ROZPROSZENIA

Wariancja- jest to średnia arytmetyczna kwadratów odchyleń poszczególnych wartości cechy od średniej arytmetycznej zbiorowości.

odchylenie standardowe-(blad sredni kwadratowy) to pierwiastek z wariancji

-okresla o ile wszystkie jednostki statyst danej zbiorowości roznia się srednio od wartości średniej rytm. Badanej zmiennej

współczynnik zmienności

rozstęp= x max - x min

określa poziom zależności liniowej między zmiennymi losowymi

0x01 graphic

0x01 graphic

Zmienna losowa- zmienną, ktora przyjmuje wartości z pewnego (skończonego lub nieskończonego) przedziału w sposób przypadkowy, tzn. niemożliwy do przewidzenia z góry. Każda kolejna wartość nie jest zależna od wartości przyjętej poprzednio.

Zmiena losowa ciagla- Jeśli zmienna losowa może przyjmować dowolne wartości z pewnego przedziału

Parametry rozkładu

wartość oczekiwana: 0x01 graphic

mediana: 0x01 graphic

wariancja: 0x01 graphic

odchylenie standardowe: 0x01 graphic

skośność: 0x01 graphic

kurtoza: 0x01 graphic

Rozkład cechy to opis wartości cechy statystycznej przy pomocy prawdopodobieństwa ich występowania.

Testem zgodności nazywamy test służący do weryfikacji hipotezy dotyczącej zgodności między typem rozkładu cechy w próbie a założonym rozkładem teoretycznym, np. rozkładem normalnym, określonym w hipotezie zerowej Ho. Należy rozstrzygnąć, czy badana cecha ma rozkład normalny, tzn. czy próbę można uważać za wybraną losowo z populacji o rozkładzie normalnym.

Weryfikując hipotezę zerową Ho: rozkład cechy jest rozkładem normalnym, dokonujemy porównania częstości doświadczalnych ( z próby) z częstościami teoretycznymi. Te ostatnie obliczamy z dystrybuanty teoretycznej rozkładu normalnego następująco: wyliczamy najpierw średnią Xs i odchylenie standardowe s dla szeregu rozdzielczego, a następnie wartości standaryzowanej zmiennej losowej Z ze wzoru: Zi = (xm - xs) /s, gdzie XiO -górna granica i-tej klasy. Z tabeli standaryzowanego rozkładu normalnego odczytujemy teoretyczne prawdopodobieństwa Pi (<D(z}) odpowiadające wyliczonym wartościom Zi. Następnie z zależności pj = <D(Zj}- cI»(Zj.l) obliczamy wartości prawdopodobieństwa teoretycznego dla każdej klasy, które.posłużąnam do określenia częstości (liczności) teoretycznych z zależności n-pi. gdzie n jest licznością całej próby. Po obliczeniu częstości teoretycznych njo = n-pi

podstawiamy je do wzoru na "1.2

Porównujemy otrzymaną wartość "1.2 z wartością teoretyczną "1.2 o, przy poziomie istotności a. = 0,05 i odpowiedniej liczbie stopni swobody f =k-l-c, gdzie k- liczba klas, a c- liczba szacowanych parametrów rozkładu, najczęściej 2, tzn. średnia łl i odchylenie er. Jeśli "1.2 > X2 o, hipotezę zerową zakładającą, że badany rozkład jest rozkładem normalnym należy odrzucić. W przeciwnym przypadku należy uznać na poziomie ufności 95%, że badany rozkład jest rozkładem normalnym.

Histogram to jeden z graficznych sposobów przedstawiania rozkładu empirycznego cechy. Składa się z szeregu prostokątów umieszczonych na osi współrzędnych. Prostokąty te są z jednej strony wyznaczone przez przedziały klasowe (patrz: Szereg rozdzielczy) wartości cechy, natomiast ich wysokość jest określona przez liczebności (lub częstości, ewentualnie gęstość prawdopodobieństwa) elementów wpadających do określonego przedziału klasowego.

Hipoteza zerowa (H0) - Jest to hipoteza poddana procedurze weryfikacyjnej, w której zakładamy, że różnica między analizowanymi parametrami lub rozkładami wynosi zero.

Rozklad graniczny- srednia n niezależnych ustandaryzowanych zmiennych losowych z por zadanych rozkladow zbiega się do rozkładu normalnego N(0,1/n)

waga analityczna (dokładność 0,0001g),waga o zakresie 50g,

Rozkład Gaussa jest rozkładem gęstosci prawdopodobieństwa  f(x) dla zmiennej losowej, która może przyjmować dowolne wartosci rzeczywiste. Oznacza to, że prawdopodobieństwo znalezienia wartosci zmiennej losowej w przedziale pomiędzy liczbami  xx2 dane jest wyrażeniem

Z rozkładem normalnym związana jest tzw. reguła trzech sigm, zgodnie z którą praktycznie wszystkie obserwacje dokonywane na zmiennej losowej o rozkładzie normalnym mieszczą się w przedziale (m-3σ, m+3σ). Obserwacje niewiarygodne to obserwacje, których wartość różni się od średniej o więcej niż trzy odchylenia standardowe. Dla realizacji zmiennej losowej o dowolnym rozkładzie normalnym około 68,3% obserwacji mieści się w granicach jednego odchylenia standardowego wokół średniej, 95,5% obserwacji mieści się w granicach dwóch odchyleń standardowych i 99,7% w granicach trzech odchyleń standardowych

TEST ZGODNOŚCI CHI-KWADRAT

Test zgodności chi-kwadrat służy do weryfikowania hipotezy, że obserwowana cecha X charakteryzuje się w populacji określonym rodzajem rozkładu.

Hipotezę zerową formułujemy słownie w zależności od tego, jakim rozkładem charakteryzuje się badana cecha.

Sprawdzianem hipotezy zerowej jest statystyka wyrażona w następujący sposób:

0x01 graphic

Statystyka testu ma rozkład χ2 o ν = k - r - 1 stopniach swobody, gdzie r to liczba szacowanych parametrów, od których zależy rozkład cechy w populacji, natomiast k to liczba przedziałów klasowych lub wariantów cechy X;

pi oznacza prawdopodobieństwo tego, że cecha X przyjmuje wartość należącą do i-tego przedziału klasowego, npi oznacza liczbę jednostek, które powinny znaleźć się w i-tym przedziale (przy założeniu, że cecha ma rozkład zgodny z hipotetycznym).

Jeśli X2> X2 o, hipotezę zerową zakładającą, że badany rozkład jest rozkładem normalnym należy odrzucić. W przeciwnym przypadku należy uznać na poziomie ufności 95%, że badany rozkład jest rozkładem normalnym.

ROZKŁAD POISSONA

Zmienna losowa-zmienna, ktora przyjmuje wartości z pewnego (skończonego lub nieskończonego) przedziału w sposób przypadkowy, tzn. niemożliwy do przewidzenia z góry. Każda kolejna wartość nie jest zależna od wartości przyjętej poprzednio

Zmienna losowa ciągła- jeśli zmienna losowa może przyjmować dowolne wartości z pewnego przedziału

Zmienna losowa dyskretna- jeśli zmienna losowa może przyjmować tylko niektóre wartości z pewnego przedziału

Rozkład Poissona- Opisuje on prawdopodobieństwo P(μ, N) tego, żer dyskretna (nieciągła) zmienna losowa przyjmie wartość N, jeśli średnia wartość przyjmowana przez tę zmienną wynosi μ i wyraża się wzorem:

Wartość średnia μ jest jedynym parametrem charakteryzującym rozkład Poissona.

Określa ona równiez jednoznacznie rozrzut wartości przyjmowanych przez zmienną losową, bowiem wariancja rozkładu Poissona rowna jest jego wartości średniej. Rozkład Poissona jest wyraźnie asymetryczny dla małych μ .Dla μ ≥ 10 staje się symetryczny i kształt krzywej, którą wyznaczają punkty tego (nieciągłego ) rozkładu, przybliza się do krzywej Gaussa o tej samej wartości średniej i dyspersji

Estymator-to wielkość wyznaczona na podstawie próby losowej, służąca do oceny wartości nieznanych parametrów rozkładu prawdopodobieństw

Liczba stopni swobody - liczba niezależnych wyników obserwacji pomniejszona o liczbę związków, które łączą te wyniki ze sobą.Liczbę stopni swobody można utożsamiać z liczbą niezależnych zmiennych losowych, które wpływają na wynik. Inną interpretacją liczby stopni swobody może być: liczba obserwacji minus liczba parametrów estymowanych przy pomocy tych obserwacji.

Parametr - prawdziwa (rzeczywista) wartość opisująca cechę danej populacji. Jest to wartość stała, służąca do opisu struktury danej zbiorowości statystycznej.

Średni błąd średniej-(dokładniej średni błąd kwadratowy wartości średniej lub odchylenie standardowe wartości średniej) jest to parametr obliczany dla serii pomiarów, które podlegają przypadkowym odchyleniom od wartości oczekiwanej, zgodnie ze wzorem

Rozkład cechy- to opis wartości cechy statystycznej przy pomocy prawdopodobieństwa ich występowania

MIARY POLOZENIA

Kwantyle - definiuje się jako wartości cechy badanej zbiorowości, przedstawionej w postaci szeregu statystycznego, które dzielą zbiorowość na określone części pod względem liczby jednostek, części te pozostają do siebie w określonych proporcjach.

Kwartyl pierwszy Q1

dzieli zbiorowość na dwie części w ten sposób, że 25% jednostek zbiorowości ma wartości cechy niższe bądź równe kwartylowi pierwszemu Q1, a 75% równe bądź wyższe od tego kwartyla

Kwartyl drugi (mediana Me) dzieli zbiorowość na dwie równe części; połowa jednostek ma wartości cechy mniejsze lub równe medianie, a połowa wartości cechy równe lub większe od Me; stąd nazwa wartość środkowa

Kwartyl trzeci Q3 dzieli zbiorowość na dwie części w ten sposób, że 75% jednostek zbiorowości ma wartości cechy niższe bądź równe kwartylowi pierwszemu Q3, a 25% równe bądź wyższe od tego kwartyla

Decyle np. decyl pierwszy oznacza, że 10% jednostek ma wartości cechy mniejsze bądź równe od decyla pierwszego, a 90% jednostek wartości cechy równe lub większe od decyla pierwszego

MIARY ROZPROSZENIA

Wariancja- jest to średnia arytmetyczna kwadratów odchyleń poszczególnych wartości cechy od średniej arytmetycznej zbiorowości.

odchylenie standardowe-(blad sredni kwadratowy) to pierwiastek z wariancji

-okresla o ile wszystkie jednostki statyst danej zbiorowości roznia się srednio od wartości średniej rytm. Badanej zmiennej

współczynnik zmienności- określa poziom zależności liniowej między zmiennymi losowymi.. współczynnik korelacji liniowej dwóch zmiennych jest ilorazem kowariancji i iloczynu odchyleń standardowych tych zmiennych

rozstęp= x max - x min

określa poziom zależności liniowej między zmiennymi losowymi

test chi kwadrat- służy do weryfikowania hipotezy, że obserwowana cecha X charakteryzuje się w populacji określonym rodzajem rozkładu.

Hipotezę zerową formułujemy słownie w zależności od tego, jakim rozkładem charakteryzuje się badana cecha.

Sprawdzianem hipotezy zerowej jest statystyka wyrażona w następujący sposób:

Jeżeli 0x01 graphic
, to nie ma podstaw do odrzucenia hipotezy zerowej, w przeciwnym przypadku istnieją podstawy do odrzucenia hipotezy zerowej.

Amfifilowość - zjawisko obserwowane w przypadku niektórych związków chemicznych polegające na jednoczesnej, niepełnej rozpuszczalności danego związku w dwóch różnych rozpuszczalnikach.
Związki amfifilowe są zwykle długimi cząsteczkami, które na jednym końcu posiadają grupy rozpuszczalne w jednym rozpuszczalniku, a na drugim grupy rozpuszczalne w drugim rozpuszczalniku. Powoduje te, że na granicy faz (w punkcie styku tych dwóch rozpuszczalników lub na powierzchni jednego z nich) cząsteczki takie samorzutnie tworzą monowarstwy, a w obrębie objętości jednego z rozpuszczalników tworzą sferyczne agregaty, w których jeden koniec cząsteczek (ten rozpuszczalny) jest skierowany na zewnątrz, a drugi do środka sfery.
Zjawisko amfifilowości jest bardzo ważne biologicznie i technologicznie:
-W biologii, dzięki temu zjawisku lipidy tworzą błony komórkowe, a także możliwe są niektóre przemiany enzymatyczne.
-W technologii - dzięki temu zjawisku można tworzyć stabilne emulsje, które są później wykorzystywane jako farby, kosmetyki, oraz lateksy. W technologii zjawisko to ma także duże znaczenie w produktach czystości, gdyż na powstawaniu emulsji mydło - tłuszcz oparte jest działanie większości tych produktów.
-Zjawisko amfifilowości jest też odpowiedzialne za powstawanie liotropowych (rozpuszczalnikowych) faz ciekłokrystalicznych.
Napięcie powierzchniowe ρ cieczy powstaje w wyniku wzajemnego oddziaływania cząsteczek we wnętrzu i na powierzchni cieczy. Cząsteczki położone w warstwie powierzchniowej znajdują się w zupełnie innych warunkach jak cząsteczki znajdujące się we wnętrzu cieczy. Siła wypadkowa działająca na cząsteczki położone na powierzchni jest skierowana w głąb cieczy i działa prostopadle do jej powierzchni i usiłuje zmniejszyć swobodną powierzchnię cieczy. Ciecz dąży zatem do zmniejszenia liczby cząsteczek na swojej powierzchni, a więc do osiągnięcia możliwie najmniejszej swobodnej powierzchni.
Obecność cząsteczek amfifilowych na swobodnej powierzchni wody obniża napięcie powierzchniowe, dlatego też substancje te nazywane są związkami powierzchniowo czynnymi lub surfaktantami.Związki amfifilowe samorzutnie gromadzą się na powierzchni cieczy, a dokładnie na jej styku z inną fazą, po to aby ich część hydrofobowa- "nie lubiąca" tej cieczy znajdowała się poza jej objętością, przy okazji "rozbijając" strukturę tego styku, co prowadzi do obniżenia napięcia powierzchniowego.

Gęstość (masa właściwa) - jest to stosunek masy pewnej porcji substancji do zajmowanej przez nią objętości.

W przypadku substancji jednorodnych porcja ta może być wybrana dowolnie; jeśli jej objętość wynosi V a masa m, to gęstość substancji wynosi:

0x01 graphic

i nie zależy od wyboru próbki.

W przypadku substancji niejednorodnych, gęstość nie jest stała w przestrzeni i określana jest dla każdego punktu z osobna; definiuje się ją jak wyżej, przy założeniu, że wybrana porcja substancji, obejmująca dany punkt, jest jak najmniejsza. Wybierając próbkę w otoczeniu danego punktu otrzymujemy gęstość w tym punkcie jako granicę stosunku masy próbki dm do jej objętości dv przy rozmiarach próbki dążących do zera:

0x01 graphic

Jednostką gęstości w układzie SI jest kilogram na metr sześcienny - kg/m³. Inne jednostki to m.in. kilogram na litr - kg/l, oraz gram na centymetr sześcienny - g/cm³ (w układzie CGS).

Gęstość większości substancji jest zależna od panujących warunków, w szczególności od temperatury i ciśnienia. W związku z tym, w tablicach opisujących właściwości materiałów podaje się ich gęstość zmierzoną w określonych warunkach; przeważnie są to warunki standardowe lub normalne. Znajomość gęstości pozwala na obliczenie masy określonej objętości substancji. Dla substancji jednorodnej zachodzi

0x01 graphic
,

a dla ciał niejednorodnych

0x01 graphic
.

Gęstość ciał stałych i ciekłych można wyznaczyć przez ważenie próbek o znanej objętości. Przy wyznaczaniu gęstości cieczy stosuje się również areometry. Areometry wypełnione cieczą o znanej gęstości mogą służyć do wyznaczania gęstości innych cieczy. Przy wyznaczaniu gęstości gazów stosuje się między innymi ważenie naczyń z gazem o różnym ciśnieniu gazu.

Gęstość większości substancji zmniejsza się wraz ze wzrostem temperatury (jednym z wyjątków jest woda w temperaturze poniżej 4°C). Zjawisko to wynika z rozszerzalności cieplnej ciał. Podczas przemian fazowych gęstość zmienia się skokowo (w temperaturze przemiany), podczas krzepnięcia zazwyczaj wzrasta (najbardziej znanymi wyjątkami są woda, żeliwo, a z pierwiastków bizmut, gal i german).

Ciężar właściwy

Tym czym dla masy jest gęstość, tym dla ciężaru jest ciężar właściwy

Ciężar właściwy definiuje się jako ciężar jednostki objętości danej substancji. Np. w układzie SI ciężar właściwy wyraża się w N/m3 (niutonach na metr sześcienny), co oznacza, że ciężar właściwy jest liczbą mówiącą o tym ile niutonów waży 1 metr sześcienny substancji

Ciężar właściwy możemy obliczyć ze wzoru:

0x01 graphic

P - ciężar ciała (w układzie SI w Niutonach - N)
γ
- ciężar właściwy substancji z której zrobione jest ciało (w układzie SI w Niutonach na metr sześcienny - N/m3)
V
- objętość ciała (w układzie SI w metrach sześciennych - m3)

Ciężar właściwy γ - stosunek ciężaru ciała do jego objętości:

0x01 graphic

Z definicji wynika zależność ciężaru właściwego od gęstości danego ciała:

0x01 graphic

gdzie:

Q - ciężar,, m - masa ciała,, d - gęstość ciała, g - przyspieszenie ziemskie,, V - objętość.

Lepkość - zdolność płynu do przekazywania pędu pomiędzy warstwami poruszającymi się z różnymi prędkościami.
Różnice w prędkościach warstw często są charakteryzowane przez szybkość ścinania. Przekazywanie pędu zachodzi dzięki pojawieniu się na granicy tych warstw naprężeń ścinających. Wspomniane warstwy są pojęciem hipotetycznym, w rzeczywistości zmiana prędkości zachodzi w sposób ciągły (zobacz: gradient), a naprężenia można określić w każdym punkcie płynu.
Płyn nielepki to płyn o zerowej lepkości.
Istnieją dwie miary lepkości:
Lepkość dynamiczna wyrażająca stosunek naprężeń ścinających do szybkości ścinania:mu = {tau over {dot gamma}}Jednostką lepkości dynamicznej w układzie SI jest: kilogrammetr-1sekunda-1
Lepkość kinematyczna jest stosunkiem lepkości dynamicznej do gęstości płynu:nu = {mu over rho}Jednostką lepkości kinematycznej w układzie SI jest: metr2sekunda-1Jej nazwa pochodzi od tego, że jest wyrażona jedynie przez wielkości właściwe kinematyce.

Lepkość cieczy jest wynikiem sił tarcia wewnętrznego pomiędzy cząsteczkami cieczy.
Siły takie powstają przy ruchu jednej warstwy cieczy wzdłuż drugiej. Jest to wynikiem jakby zazębienia za pomocą cząsteczek, które przechodzą z jednej warstwy do drugiej przez pomyślane powierzchnie dzielące.

Wskutek tego wzajemnego przenikania powstają siły, które działają w kierunku wyrównania różnych predkości przepływu warstw. Wielkość tej siły wyraża równanie.

F = S(dv/dx)

gdzie;  współczynnik lepkości dynamicznej lub lepkością dynamiczną. Jest to siła, która jest konieczna, aby dwie powierzchnie jednostkowe danego ośrodka przesunąć wzajemnie w odległość 1 cm z różnicą prękości 1 cm/s. Jednostką lepkości dynamicznej jest paskalosekunda (Pa*s). Tradycyjną jednostką w układzie CGS (centymetr-gram sekunda) jest puaz P:

1P = 10-1Pa*s

Lepkośc cieczy zależy od, rodzaju cieczy i temperatury cieczy. Wraz z podwyższeniem temperatury lepkość cieczy silnie maleje.

Mało ruchliwe płyny o dużej lepkości, jak oliwa lub gliceryna, to ciecze o dużym tarciu wewnętrznym.
Ciecze ruchliwe, jak eter, alkohol etylowy itp. to ciecze o małym tarciu wewnętrznym, czyli o małej lepkości.

WZÓR STOKESA


    Wzór ten określa siłę oporu działającą na ciało kuliste poruszające się w danym ośrodku powolnym ruchem jednostajnym. Siła ta R wynosi:

  0x01 graphic
        (1)


gdzie n - lepkość ośrodka, r - promień kropli, v - prędkość kropli.
W polu grawitacyjnym w powietrzu po pewnym czasie kropelki kuliste poruszają się ruchem jednostajnym - w dół działa siła:

  0x01 graphic
        (2)


Masa pojedyńczej kropli wynosi:

  0x01 graphic
        (3)


gdzie f - gęstość kropli.
Siła ta równa jest sile oporu R działającego do góry. Po przyrównaniu obu sił przekształceniu wzoru otrzymuje się prędkość kropli równą:

  0x01 graphic
        (4)

Okresla ze prędkość opadania czasteczek kulistych jest wprost proporcjonalna do ich średnicy i gęstości wlasniwej i zalezy ponadto od tej gęstości, lepkości cieczy i od przyspieszenia ziemskiego.

WISKOZYMETR STOKESA

Lepkość, tarcie wewnętrzne, wiskoza, cecha płynów, pojawienie się siły tarcia (tarcie) pomiędzy warstwami cieczy lub gazu, poruszającymi się równolegle względem siebie z różnymi co do wartości prędkościami. Warstwa poruszająca się szybciej działa przyspieszająco na warstwę poruszającą się wolniej i odwrotnie. Pojawiające się wtedy siły tarcia wewnętrznego skierowane są stycznie do powierzchni styku tych warstw. Lepkość dynamiczna wyraża stosunek naprężeń ścinających do szybkości ścinania:

Jednostką lepkości dynamicznej w układzie SI jest paskal·sekunda o wymiarze kilogram·metr-1·sekunda-1Lepkość kinematyczna, nazywana też kinetyczną, jest stosunkiem lepkości dynamicznej do gęstości płynu:

Jednostką lepkości kinematycznej w układzie SI jest: metr2·sekunda-1.
Gęstość (masa właściwa) - jest to stosunek masy pewnej porcji substancji do zajmowanej przez nią objętości.W przypadku substancji jednorodnych porcja ta może być wybrana dowolnie; jeśli jej objętość wynosi V a masa m, to gęstość substancji wynosi:0x01 graphic
i nie zależy od wyboru próbki.W przypadku substancji niejednorodnych, gęstość nie jest stała w przestrzeni i określana jest dla każdego punktu z osobna; definiuje się ją jak wyżej, przy założeniu, że wybrana porcja substancji, obejmująca dany punkt, jest jak najmniejsza. Wybierając próbkę w otoczeniu danego punktu otrzymujemy gęstość w tym punkcie jako granicę stosunku masy próbki dm do jej objętości dv przy rozmiarach próbki dążących do zera:0x01 graphic
Jednostką gęstości w układzie SI jest kilogram na metr sześcienny - kg/m³.

Stokesa prawo, Stokesa równanie, hydrodynamiczne prawo opisujące siłę oporu F towarzyszącą jednostajnemu ruchowi ciała zanurzonego w lepkim płynie, prawdziwe w przypadku małych liczb Reynoldsa charakteryzujących przepływ (Re<<1).
Zgodnie ze Stokesa prawem siła ta, o zwrocie przeciwnym do zwrotu prędkości ciała, ma wartość określoną wzorem F=6πηru, gdzie: η - współczynnik lepkości dynamicznej cieczy (lepkość), r - promień ciała, u - prędkość ruchu ciała względem cieczy.
Stokesa prawo wykorzystuje się do określania prędkości sedymentacji cząstek i do wyznaczania lepkości cieczy (wiskozymetry).

Liczba Reynoldsa- jedna z bezwymiarowych liczb podobieństwa stosowanych w mechanice płynów (hydrodynamice, aerodynamice i reologii). Liczba ta pozwala oszacować występujący podczas ruchu płynu stosunek sił czynnych (sił bezwładności) do sił biernych związanych z tarciem wewnętrznym w płynie przejawiającym się w postaci lepkości.Liczba Reynoldsa stosowana jest jako podstawowe kryterium stateczności ruchu płynów.Liczba Reynoldsa zdefiniowana jest w sposób:

lub równoważnie:

gdzie: - gęstość płynu, - prędkość charakterystyczna płynu, - wymiar charakterystyczny zagadnienia, - lepkość dynamiczna płynu, - lepkość kinematyczna płynu.

Płyn newtonowski (doskonale lepki), model lepkości płynu wprowadzony przez Isaaca Newtona wykazujący liniową zależność naprężenia ścinającego od szybkości ścinania:

gdzie:τ - naprężenie,γ- szybkość ścinania, μ - lepkość dynamiczna, dla płynu newtonowskiego jest to wartość stała, u - prędkość warstwy płynu, U - prędkość przesuwanej płytki ścinającej płyn, dx - element grubości warstwy płynu.

Dla płynów newtonowskich lepkość nie zależy od szybkości ścinania, zależy natomiast od własności substancji tworzącej płyn i jego parametrów termodynamicznych takich jak temperatura i ciśnienie. Istnieją płyny, zwane płynami nienewtonowskimi, które nie spełniają powyższej zależności, dla nich naprężenia nie są proporcjonalne do gradientu prędkości, co jest równoznaczne z tym, że współczynnik lepkości nie jest stały lecz jest funkcją gradientu prędkości.

Zależność naprężeń od gradientu prędkości przedstawiona na wykresie nosi nazwę krzywej płynięcia. Dla płynu newtonowskiego krzywa płynięcia jest prostą przechodzącą przez początek układu współrzędnych.Jeżeli krzywa płynięcia jakiegoś płynu nie jest prostą przechodzącą przez początek układu współrzędnych płyn taki jest płynem nienewtonowskim, lecz płynem z granicą płynięcia.

1.zastosowanie pomiarów turbidymetrycznych i nefelometrycznych.

-w przemysle i biotechnologii, medycynie,bakteriologii(wzorce zmętnienia), do wyznaczania stężenia metnych roztworow, do okreslania stopnia rozdrobnienia koloidow, wyznaczania bialek surowicy krwi, oznaczenie siarki i siarczanów w postaci siarczanu barowego,

halogenków w postaci halogenków srebra, ołowiu w postaci siarczanu ołowiu itp. Ponadto stosuje się ją do oznaczania zanieczyszczeń zawartych w powietrzu (dymy, aerozole), gazów bojowych, niektórych bakterii, do oznaczania fazy rozproszonej w emulsjach koloidalnych (np. w mleku), do określenia efektywności procesu filtracyjnego, do oznaczania tłuszczówi smarów, do roznych analiz biochemicznych (moczu, krwi i innych płynów fizjologicznych)

2. opisz zaleznosc turbidymetrii do stężenia komórek

Turbidancja zawiesiny jest okreslana jako S=logI0/I gdzie I0-natezenie wiazki swiatla podajacej na metna próbkę, I-natezenie wiazki swiatla przechodzącej przez próbkę

Dla malych stezen substancji rozpraszającej S=kcdP3/P4+aλ4 gdzie c-stezenie czastek, d-grubosc warstwy rozpraszającej, P-pole przekroju poprzecznego czastki, λ-dlugosc fali swiatla, a,k-stale zalezne od geometrii układu rodzaju czastek rozpraszających i osrodka. W przypadku zawiesiny Komorek turbidancja powinna być poczatkowo proporcjonalna do stężenia Komorek. Dla wyzszych stezen obserwujemy jednak efekt wysycenia(zależność turbidancji od stez staje się slabsza). Zależność pomiedzy turbidancja a stężeniem Komorek umozliwia latwe wyznaczenie stężenia komorek w zawiesinie na podstawie pomiaru turbidancji zawiesiny

3.zasada pomiarów turbidymetrznych i nefelometrycznych.

Turbidymetria polega na oznaczaniu ilościowym zawiesiny koloidalnej w badanej próbce

przez pomiar natęzenia światła przepuszczanego przez tę próbkę; detektor jest umieszczony

na jednej linii z próbką i źródłem światła. Stąd tez turbidymetria nie rózni się w zasadzie od

absorpcjometrii i do celów turbidymetrycznych mozna z powodzeniem stosować zwykły

absorpcjometr lub spektrofotometr. Nefelometria natomiast polega na oznaczaniu ilościowym

zawiesiny koloidalnej w badanej próbce przez pomiar natęzenia światła przepuszczanego

przez tę próbkę; detektor jest umieszczony pod pewnym kątem (najczęściej 900) względem

kierunku biegu wiązki świetlnej wychodzącej ze źródła światła. Do celów nefelometrycznych

uzywa się natomiast przyrządów o nieco innej konstrukcji pozwalającej mierzyć natęzenie

światła rozproszonego (pod kątem 900), zwanych nefelometrami. Takiego typu przyrządem

jest stosowany w pracowni analizy instrumentalnej fotometr Pulfricha.

Do pomiaru duzych zmętnień (dość obfitych zawiesin) z powodzeniem mogą być stosowane

obie metody - obie są w tym wypadku równorzędne. Do pomiaru małych stęzeń lepiej nadaje

się metoda nefelometryczna - jest ona czulsza. Zaznaczyć nalezy, ze obie metody nalezą do

klasy najczulszych metod analitycznych.

4. Wykres zależności turbidancji od stężenia Komorek

5. rozproszenie swiatla

Rozpr swiatla (fal elektromagnetycznych) - zjawisko oddziaływania swiatla z materia, w wyniku którego nastepuje zmiana kierunku rozchodzenia się swiatla, z wyjątkiem zjawisk opisanych przez odbicie i zalamanie swiatla. Wywoluje zludzenie swiecenia osrodka

Rozroznia się rozproszenie swiatla:

-sprezyste-podczas rozpraszania nie nastepuje zmiana energii(częstotliwości) swiatla, bez zmiany długości fali swiatla: rozproszenie Rayleigha-swiatlo padające i rozproszone SA ze soba spojne

-niesprezyste-podczas rozpraszania zmienia się energia (częstotliwość) swiatla, ze zmiana długości fali swiatl ai jej fazy, np. zjawisko Ramana, efekt Camptona

Najbardziej typowe przypadki rozpraszania swiatla:

-rozproszenie na fluktuacjach gęstości osrodka (ropr molekularne, powstające w jego wyniku rozpór światło nie jest ze soba spojne)

-rozpr, na malych czastkach (efekt Tyndalla)

-rozpraszanie swiatla rezonansowe

6.rozproszenie rayleigha i ramana

-zjawisko Ramana, rozpraszanie Romanowskie- kombinacyjne zjawisko, rozpraszanie swiatla zachodzące ze zmiana częstotliwości. Na skutek zjawiska Ramana w widmie rozproszonego swiatla mogą pojawic się linie widmowe, przy czym odpowiadajaca im częstotliwość jest kombinacja (suma lub roznica) częstotliwości fali padającej i częstotliwości widm rotacyjnych lub oscylacyjnych molekuly rozpraszającej. Linie o częstotliwościach mniejszych od częstotliwości fali padającej nazywane SA liniami stokesowskimi, a o częstotliwościach wiekszych antystokesowskimi. Nateznie linii powstających w wyniku zjawiska Ramana jest Male, a ich szerokości SA względnie duze.zjawisko to wykorzystuje się do wykrywania obecności wybranych substancji w probce oraz do badania struktury molekul.

-roproszenie Rayleigha- rozpr molekularne, rozpraszanie elastyczne fotonow(swiatla, promieniowania rentgenowskiego lub promieniowania gamma). Zachodzi na niejednorodnościach ośrodków optycznych których rozmiary SA znacznie mniejsze od długości fali swiatla rozpraszanego. Wielkość zjawiska które tłumaczy się indukowaniem w czasteczce dipola elektrycznego (pod wpływem padającego swiatla) opisuje liczbowo współczynnik rozpraszania rayleighowskiego.



Wyszukiwarka

Podobne podstrony:
SPRAWOZDANIE Z LABOLATORIUM Z FIZYKI I BIOFIZYKI cw.5, biotechnologia inż, sem2, FiB, laborki, spraw
BIOFIZYKA- rozwiązania, Biotechnologia PWR, Semestr 5, Biofizyka - Wykład, Biofizyka - materiały
Biofizyka zal wykład
fiza tematy cw, Biotechnologia i, Rok I, Fizyka i biofizyka
2, Biotechnologia, Fizyka i biofizyka
fiza2;4, Biotechnologia i, Rok I, Fizyka i biofizyka
fiz36, Biotechnologia i, Rok I, Fizyka i biofizyka
40 Wpływ oporu, Biotechnologia, Fizyka i biofizyka
sprawozdanie 36, Biotechnologia, Fizyka i biofizyka
Biofizyka pytania z kola, Biotechnologia PWR, Semestr 5, Biofizyka - Wykład, Biofizyka - materiały
Sprawozdanko, Biotechnologia i, Rok I, Fizyka i biofizyka, fiza
Informacje Ogolne - fizlab biotechnologia 2008, biofizyka, Fizyka i Biofizyka
pytania z fizyki, Biotechnologia i, Rok I, Fizyka i biofizyka, pytania z fizyki
Stan podstawowy, Szkoła Rolnictwo studia, Szkoła, Materiały studia, materialy - biotechnologia, Biof
Napięcie powierzchniowe 13 14, Biotechnologia i, Rok I, Fizyka i biofizyka
Biofizyka 1-12 - Kopia, Szkoła Rolnictwo studia, Szkoła, Materiały studia, materialy - biotechnologi
bry-a, Szkoła Rolnictwo studia, Szkoła, Materiały studia, materialy - biotechnologia, Biofizyka
Gęstość sprawozdanie 2.4, Biotechnologia i, Rok I, Fizyka i biofizyka

więcej podobnych podstron