2013-01-23
Jest to niepokój całkowicie nieuzasadniony, gdyż wszystko się tu zgadza. |
Również przy przesyłaniu informacji | |
W technice komputerowej nazwą bit |
używa się pojęcia bit do określenia takiego fragmentu sygnału, który może | |
określana jest taka część |
być zerem lub jedynką. | |
mikroprocesora, rejestru lub pamięci cyfrowej, w której można zapisać albo 0 albo 1. |
Zastanówmy się, jaką ilość informacji (w myśl podanych wyżej definicji) może przechować lub przenieść taki element systemu informatycznego, w którym możliwe są dwa stany?
Początkowe prawdopodobieństwo, że w tym elemencie będzie zero (lub jedynka) wynosi dokładnie 0,5.
Zatem niepewność zdarzenia, jakim jest wpisanie do tego elementu takiej lub innej cyfry wynosi:
H = - log2 0,5 = 1
A zatem ilość informacji, jaka mieści się |
Wiemy już, jak się obliczą H(Z). | |
w jednym bicie wynosi dokładnie 1 bit! |
A co z H(Z/W) ? | |
Czyli te tradycyjne znaczenia słowa bit nie kłócą się z wyżej zdefiniowaną |
Potrzebne jest to nam do wzoru: | |
jednostką miary stopnia niepewności i miary ilości informacji i wszystko |
l(W/Z) = H(Z) - H(Z/W) | |
pięknie się zgadza! |
16