2 Informacja a entropia























 

2.     
Informacja a entropia (demon Maxwella)

 

Entropia jest miarą nieuporządkowania
układu, a informacja jest miarą nieokreśloności. Przyjęto średnią ilość
informacji I nazwać entropią H zbioru zdarzeń, czyli I=H,
wtedy wzorem na entalpię H jest poniższy wzór:

 

H= -
p1log2p1
p2log2p2 ..-pnlog2pn

 

Gdy zjawisko jest
pewne(jedna możliwość) to entropia ma wartość zerową. Natomiast ma wartość
maksymalną gdy zjawisko jest najbardziej niepewne, tj. gdy prawdopodobieństwo
poszczególnych zdarzeń są sobie równe.

 







Wyszukiwarka

Podobne podstrony:
entropia informacji
Entropia (teoria informacji)
Teoria i metodologia nauki o informacji
plan nauczania technik informatyk wersja 1
t informatyk12[01] 02 101
informatyka w prawnicza testy
Wyk6 ORBITA GPS Podstawowe informacje
Informacja komputerowa
Podstawowe informacje o Rybnie
Zagrożenia bezpieczeństa informacji
INFORMACJA O FIRMIE
informacje dla szkolnej komisji
Informatyka rej
jak odczytywać informacje nazw Photoshopa

więcej podobnych podstron