eksperymenty


Simplex:

Uniwersalna metoda programowania liniowego. Istota metody Simplex polega na badaniu rozwiązań bazowych programu kanonicznego w taki sposób, że znajdujemy wyjściowe rozwiązanie bazowe programu liniowego. Mając rozwiązanie bazowe sprawdzamy czy jest ono optymalne czy nie. Jeśli dane rozwiązanie bazowe nie jest optymalne budujemy następne rozwiązanie bazowe lepsze lub przynajmniej nie gorsze od poprzedniego, z którym to rozwiązaniem postępujemy tak samo jak z rozwiązaniem wyjściowym bazowych. Aż do momentu znalezienia rozwiązania optymalnego.

Metoda najmniejszych kwadratów:

Metoda statystyki matematycznej (teorii błędów) zakładająca, że wyniki kolejnych pomiarów obarczone są pewnym błędem statystycznym. Istotą metody jest znalezienie minimum dla sumy kwadratów różnic wartości eksperymentalnych i nieznanej wartości prawdziwej danej mierzonej wielkości.

W ogólności metodę najmniejszych kwadratów można stosować dla wielu zmiennych (zmiennej wielowymiarowej). W najprostszym przypadku, dla jednej zmiennej wartość mierzona jest stała, najczęściej jednak metodę najmniejszych kwadratów stosuje się, gdy zmiany mierzonej wielkości opisane są funkcją liniową postaci y=ax+b (regresja), a także wtedy, gdy mierzona wielkość podlega zmianie opisanej dowolną funkcją ciągłą. Wówczas najczęściej usiłuje się sprowadzić zagadnienie do zależności liniowej, stosując odpowiednie transformacje zmiennych lub rozwijając funkcję w szereg Taylora (i zaniedbując człony wyższe od liniowych).

Cel badań:

Celem badań jest rozstrzygnięcie problemu, poznawczego lub użytkowego, dotyczącego obiektu badań oraz uzyskanie nowej wiedzy, formy modelu matematycznego . Przykładowe cele eksperymentu to: -zbadanie istnienia przedmiotu badań -zbadanie przynależności do danej klasy obiektów -zbadanie struktury wewnętrznej przedmiotu badań -zbadanie sposobu zachowania przedmiotu badań w określonych sytuacjach lub ustalenie przyczyny określonego zachowania w danej sytuacji -zbadanie roli przedmiotu badań w kontekście jego powiązań z innymi obiektami

Obiekt badań:

Obiektem może być każdy istniejący lub przypuszczalny fragment świata rzeczywistego np.: substancja, zjawisko, przedmiot lub proces. Musi on mieć z założenia ustalone cechy które umożliwią wyróżnienie go ze zbioru innych fragmentów świata. Dodatkowo musi być możliwość przekazania informacji od obiektu do podmiotu prowadzącego badania.

Poziom ufności:

Poziom ufności - stopień prawdopodobieństwa, iż wynik badania zarejestrowany w próbie, jest zgodny ze stanem faktycznym w całej badanej zbiorowości (populacji). Pojęcie poziomu ufności związane jest ze statystyczną teorią analizy danych reprezentatywnych i łączy się ściśle z terminem przedział ufności.

1-α gdzie 0x01 graphic

Powyższe równanie mówi, że prawdopodobieństwo tego, że wartość Q leży w przedziale (q1, q2) jest równe 1 - a. Wartość a przyjmuje się dowolnie, jednakże w pomiarach fizycznych wybiera się ją tak, aby 1 - a było równe lub większe od 0,95. Oznacza to, że będziemy twierdzili coś z prawdopodobieństwem 95 % lub większym. Szerokość przedziału (q1,q2) zwanego przedziałem ufności zależy oczywiście od poziomu ufności. Im wyższy poziom ufności, tym szerszy przedział ufności.

Model obiektu:

Model odwzorowuje tylko niektóre zjawiska lub właściwości obiektu (istotne z punktu widzenia przeznaczenia obiektu), przedstawiając je w postaci równania modelu; na zjawiska i właściwości mają wpływ także inne zjawiska zachodzące w obiekcie i jego otoczeniu; poznanie zjawisk w obiekcie ma zawsze ograniczony charakter - ograniczoną poznawalność obiektu modeluje się za pomocą czynników zakłócających. Dążąc do prostoty modelu pomijamy zwykle wiele czynników, których oddziaływanie na zachowanie obiektu jest drugorzędne lub trudne do opisania w języku wielkości i równań. Konsekwencją tego faktu są rozbieżności między odpowiedzią modelu Y=G(X) i odpowiedzią obiektu na to samo wymuszenie X. Rozbieżności te modeluje się zazwyczaj probabilistycznie za pomocą wektora zmiennych losowych zwanego zakłóceniem addytywnym sprowadzonym do wyjścia modelu.

Korelacja zmiennych

Zależność statystyczna zmiennych losowych (korelacja) - związek pomiędzy dwiema zmiennymi losowymi X i Y. Intuicyjnie, zależność dwóch zmiennych oznacza, że znając wartość jednej z nich, dałoby się przynajmniej w niektórych sytuacjach dokładniej przewidzieć wartość drugiej zmiennej, niż bez tej informacji.

Eksperyment obliczeniowy:

Aby przeprowadzić eksperyment obliczeniowy wykonujemy model matematyczny następnie model dyskretny, opracowujemy algorytm następnie programujemy opracowany algorytm. Po oprogramowaniu dostajemy wyniki obliczeń na podstawie których przeprowadzamy eksperyment fizyczny lub dokonujemy korelacji modelu matematycznego poprawiając model matematyczny i wykonując wszystkie poprzednio wymienione czynność. Wykonanie eksperymentu fizycznego daje nam wyniki, na tym kończy się eksperyment obliczeniowy. Błędy eksperymentu obliczeniowego powstają w wyniku niewłaściwego doboru modelu matematycznego, dyskretyzowania oraz zaokrąglania

Statystyczna obróbka danych pomiarowych:

Dość częstym zjawiskiem w praktyce pomiarowej jest rozrzut wyników, który może mieć różne przyczyny i różną skalę. Ujawnienie tego rozrzutu nie zawsze jest potrzebne, ale również nie zawsze możliwe. Zależnie od rozdzielczości pomiaru oraz od skali rozrzutu w serii wyników, rozrzut może ale nie musi się ujawniać. Istnieją dwie typowe sytuacje, w których uzyskuje się wyniki losowe pomiarów obarczone dyspersją:

Gdy wielokrotnie powtarza się pomiar tego samego parametru, dla jednego określonego obiektu w nominalnie nie zmienionym podstawowym układzie warunków fizycznych, czyli przy nie zmieniających się znacząco wielkościach wpływowych (np.: temperatura, ciśnienie, wilgotność, itp.).

Gdy dokonuje się pomiarów tego samego parametru dla serii obiektów tworzących klasę (np.: gdy mierzymy pojemność takich samych kondensatorów, czyli o tej samej pojemności znamionowej, tolerancji oraz technologii wykonania).

Wyniki pomiarów wykonanych w seriach o dużej liczebności nie umożliwiają łatwego wyciągania wniosków na temat całej populacji, którą reprezentują serie pomiarowe. Dlatego dąży się do określenia minimalnej liczebności serii, która będzie reprezentatywna, czyli której parametry będą takie same jak całej populacji. Z drugiej strony, dąży się do obliczenia na podstawie serii takich parametrów, które będą najlepiej charakteryzować całą populację. Narzędzi do takiej kompresji wyników pomiarów dostarcza statystyka matematyczna, a zagadnienie poszukiwania parametrów charakteryzujących całą populację (zbiór pełny) na podstawie serii, nazywane jest estymacją.

Do najczęściej obliczanych statystyk z serii należą:

Wartość średnia, obliczana jako średnia arytmetyczna jest estymatorem zgodnym, nieobciążonym i najefektywniejszym wartości oczekiwanej.

Wartość modalna (moda, dominanta), która jest wartością najczęściej powtarzającego się w serii wyniku pomiaru. Jeśli niektóre wyniki w serii powtarzają się równie często mamy do czynienia z rozkładem wielomodalnym zmiennej losowej jaką jest wynik pomiaru. Wartość modalna jest oznaczana przez Mo(x)

Mediana (wartość środkowa) jest środkową wartością uporządkowanych rosnąco (szereg rozdzielczy) wyników w serii. Gdy liczebność serii jest wyrażona liczbą nieparzystą medianę można określić bezpośrednio, natomiast dla serii o parzystej liczbie elementów medianę wylicza się jako wartość średnią z dwóch elementów środkowych.

Statystyki pozycyjne, które są określane jako minimalna i maksymalna wartość wyników w danej serii, czyli występują jako pierwszy i ostatni element szeregu rozdzielczego. Statystyki te są oznaczane jako xmin i xmax.

Wariancja empiryczna jest obliczana dla serii długich (n > 30) jako suma kwadratów odchyleń poszczególnych wyników w serii od wartości średniej, podzielona przez liczbę wyników pomiarowych.

Odchylenie standardowe (średniokwadratowe) - jest miarą rozproszenia wyników pomiarów w serii.

Grupowanie wyników pomiaru: ??

Jak już wspomniano metodami wyznaczania parametrów populacji za pomocą parametrów próby (serii) zajmuje się teoria estymacji. W ramach tej teorii opracowana jest:

Estymacja punktowa, która polega na określeniu na podstawie wyników z serii pomiarowej jednej wartości (estymatora punktowego), która jest oszacowaniem odpowiedniego parametru populacji. Przykładowo, wartość średnia x wyliczona na podstawie serii wyników jest estymatorem punktowym wartości oczekiwanej całej populacji.

Estymacja przedziałowa, która ma na celu określenie przedziału, w którym z określonym prawdopodobieństwem (poziomem ufności) znajduje się badany parametr populacji. Jako środek wspomnianego przedziału przyjmuje się wartość średnią a jako granice pewną krotność odchylenia standardowego, zależną od poziomu ufności. W ten sposób możemy określić niepewność z dla serii długich wyników o rozkładzie normalnym.

Teoremat Buckinghama

Teoremat Buckinghama (znany również jako teoremat Π) mówi, że liczba modułów bezwymiarowych równa jest liczbie niezależnych parametrów fizycznych pomniejszonych o liczbę wymiarów podstawowych (metr, sekunda, kilogram, kelwin, amper, kandela).

Równanie o n zmiennych, można zapisać w postaci:

0x01 graphic

Jeżeli liczbę parametrów podstawowych występującym w tym równaniu oznaczymy przez r, to zgodnie z teorematem Π liczba modułów bezwymiarowych będzie równa n-r, co można zapisać:

0x01 graphic

W omówionym przykładzie liczba parametrów niezależnych (n) równa jest 6, liczba wartości podstawowych występującym w tym równaniu (r) jest równa 3 (m, kg, s) tak więc liczba modułów bezwymiarowych (Π) równa jest 3.

Niepewność statystyczna pomiarów pośrednich:

Międzynarodowa Norma rozróżnia pomiary skorelowane i nieskorelowane wielkości mierzonych bezpośrednio.

W pomiarach nieskorelowanych każdą wielkość xi mierzy się w innym, niezależnym doświadczeniu.

Pomiary skorelowane to takie, w których wielkości xi mierzone są w jednym doświadczeniu. W praktyce oznacza to, że większość pomiarów wielkości elektrycznych jest pomiarami skorelowanymi.

Niepewność standardową dla pomiarów pośrednich nieskorelowanych oblicza się ze wzoru:

0x08 graphic

Natomiast w celu wyznaczenia niepewność standardowej dla pomiarów pośrednich skorelowanych należy uwzględnić korelacje zachodzące pomiędzy wielkościami mierzonymi bezpośrednio:

0x08 graphic

Metoda złotego przedziału:

Metoda złotego podziału charakteryzuje się dobrą zbieżnością przy prostocie obliczeń, co znacznie przyspiesza jej działanie w porównaniu do pozostałych opisanych metod. Jednak przy dużej dokładności szybkość zbieżności jest niewielka.

Dla ciągłej funkcji f(x) w przedziale (a,b) posiadającej w tym przedziale jedno ekstremum (czyli unimodalnej) można je określić przez znalezienie z określoną dokładnością przedziału, w którym ono się znajduje. W tym celu należy obliczyć wartości funkcji w dwóch punktach wewnątrz tego przedziału, gdyż wyznaczenie tylko jednego nie wystarcza do stwierdzenia, w którym przedziale znajduje się szukane minimum. Po obliczeniu wartości funkcji w drugim punkcie można już jednoznacznie określić ten przedział - na rysunku odpowiednio przedziały (x2,b) oraz (x1,x2). Ze względu na to, iż jeden z wcześniej wyliczonych punktów znajduje się zawsze wewnątrz nowego podprzedziału, w następnym kroku wystarczy już obliczyć wartość funkcji w jednym nowym punkcie.

0x01 graphic

Algorytm złotego podziału zakłada zmniejszanie wielkości podprzedziałów o stały współczynnik k w przeciwieństwie do metody połowienia, która jest oparta na tej samej zasadzie, lecz tam określana jest zawsze wartość funkcji w środkowym punkcie przedziału.

Metoda wzdłuż osi współrzędnych:

Metoda spadku względem współrzędnych o stałym kroku polega na takim poruszaniu się w dziedzinie funkcji, aby osiągnąć szukane minimum za pomocą zmiany tylko jednej współrzędnej w jednym kroku. Dla ustalenia uwagi przyjmiemy funkcję dwóch zmiennych (x,y).

Algorytm obliczeń przedstawia się następująco:

1) W punkcie startowym (x0,y0) obliczamy wartość funkcji f(x0,y0)

2) Zmieniamy pierwszą współrzędną (x) o stały krok k (xj+1 = xj + k) i sprawdzamy, czy wartość funkcji maleje. Jeśli nie, to poruszamy się w stronę przeciwną (xj+2 = xj+1 - 2*k). Jeżeli wartość funkcji nie maleje w żadną ze stron, to zostajemy w miejscu i zmieniamy drugą współrzędną (y). Można również osiągnąć to samo obliczając gradient funkcji.

3) Zmieniamy kolejną współrzędną (y) na tych samych zasadach.

4) Obliczenia kończymy, gdy wrócimy po raz drugi do tego samego punktu. Można wówczas przyjąć, iż minimum zostało wyznaczone z dokładnością kroku k.

 

0x01 graphic

Jak widać z rysunku metoda ta jest dość wolno zbieżna, a przy tym stosunkowo mało dokładna (zależy to od długości kroku). W celu zwiększenia dokładności można zmniejszyć krok, lecz to z kolei prowadzi do wydłużenia czasu działania procedury (większa ilość iteracji).

Metoda gradientowa:

Inaczej niż w metodzie bezgradientowej, zamiast szukać minimum wykonywany jest krok o długości e.

Warunki początkowe :

x0    - arbitralnie wybrany punkt startowy

e     - początkowa długość skoku

     - współczynnik zmniejszenia kroku

      - wymagana dokładność obliczeń minimum

n     - liczba zmienych niezależnych

Algorytm obliczeń :

Obliczanie w punkcie startowym x0 wartość funkcji celu F0 = f(x0) oraz jej gradientu g0 = g(x0)

Wyznaczanie kirunku poszukiwań =-g0

Wzdłuż kierunku  wykonaj krok o ługości e oraz określ współrzędne nowego punktu : xi+1=xi+e* przy czym dla pierwszej iteracji   xi = x0

Obliczenie w nowym punkcie wartość funkcji F = f(xi+1) oraz gradientu g = g(xi+1)  jeżeli krok był pomyślny F < F 0 to powtarzaj od punktu 2 podstawiając g (gradient) w miejsce g0

Jeżeli nie osiągnięto minimum, należy wrócić do punktu 4 podstawiając : xi=xi+1-e*  oraz trzeba zmniejszyć krok o  i przejść do punktu 3.

0x01 graphic

Metoda simplexu Neldera i Meada:

Metoda ta polega na utworzeniu w przestrzeni En+1 n-wymiarowego simplexu o n+1 wierzchołkach tak, aby można było go wpisać w powierzchnię reprezentującą badaną funkcję celu. Jednowymiarowym simplexem jest odcinek o dwóch wierzchołkach, simplexem dwuwymiarowym jest trójkąt i ogólnie simplexem n-wymiarowym o n+1 wierzchołkach jest zbiór wszystkich punktów określonych przez wektory:

0x01 graphic

czyli jest to wielościan o n+1 wierzchołkach rozpiętych na n+1 wektorach bazowych (Sj). Współrzędne punktów simplexu oznaczono jako xj.

Na początku procedury wylicza się współrzędne punktów wierzchołkowych simplexu Pj (dla j = 1 .. n+1) przy założeniu pewnej odległości między tymi wierzchołkami (czyli kroku). W następnych iteracjach dokonuje się przekształceń simplexu aż odległość pomiędzy jego wierzchołkami w pobliżu poszukiwanego ekstremum będzie mniejsza od założonej dokładności obliczeń e. To właśnie zostało przyjęte jako kryterium zbieżności dla tej metody.

Podczas wykonywania algorytmu metody simplex stosuje się trzy podstawowe operacje:

odbicie punktu Ph względem P': P* = (1 + a)P' - aPh

ekspansja punktu P** względem P': P** = (1 - c)P* - cP'

kontrakcja punktu Ph względem P': P*** = bPh + (1 - b)P'

Oznaczenia:

x0 - punkt startowy

e - wymagana dokładność obliczeń

Ph - wybrany punkt wierzchołkowy simplexu spośród n+1 wierzchołków Pi, w którym wartośćbadanej funkcji osiąga maksimum.

PL - wybrany punkt wierzchołkowy simplexu spośród n+1 wierzchołków Pi, w którym wartość badanej funkcji osiąga minimum.

P' - środek symetrii simplexu z wyłączeniem punktu Ph zdefiniowany jako:

d - początkowa odległość pomiędzy wierzchołkami wyjściowego simplexu

a - współczynnik odbicia (a>0)

b - współczynnik kontrakcji (0<b<1)

c - współczynnik ekspansji (c>1)

n - liczba zmiennych niezależnych

0x01 graphic

Wartości współczynników a, b, c dobiera się w sposób eksperymentalny, choć w przykładach rozpatrywanych przez autorów metody jako optymalne przyjęto wartości a = 1, b = 0,5 oraz c = 2.

0x01 graphic

0x01 graphic



Wyszukiwarka

Podobne podstrony:
Diagnoza i ekspertyza psychologiczna Stemplewska Żakowicz wykład 3 Diagnoza zaburzeń poznaw
Access 2002 Projektowanie baz danych Ksiega eksperta ac22ke
uzyskiwanie barw eksperyment(1), Doświadczenia(1)
EKSPERTYZA KRYMINALISTYCZNO - PSYCHIATRYCZNA, Edukacja, Kryminologia, HOŁYST
tranda, na studia, systemy ekspertowe
Eksperyment Rosenthala
EKSPERYMENTY Z POMIARAMI DYSTANSOWYMI WARTOŚCIAMI ZMIENNEJ ZALEŻNEJ
Eksperyment pedagogiczny
Badania eksperyment (2)
C 3 0 dla NET 3 5 Ksiega eksperta csh3ke
ekspertyza
Deindywiduacja i jej konsekwencje Eksperymenty Zimbardo
EKSPERYMENTY ASTROFIZYCZNE
43, ciekawostki, Linux - Ksiega Eksperta, Linux - ksiega eksperta, Linux - księga eksperta
34, ciekawostki, Linux - Ksiega Eksperta, Linux - ksiega eksperta, Linux - księga eksperta
Wyznaczanie niepewności pomiarów, PWr W9 Energetyka stopień inż, II Semestr, Podstawy metrologii i t
opengl ksiega eksperta wydanie iii UZFSAM5UH2NWETWCPGG2PS3RHAX75LU5XCNZJJI
Badania eksperymentalne przesiewowe

więcej podobnych podstron