5/26/2014
Również przy przesyłaniu informacji używa się pojęcia bit do określenia takiego fragmentu sygnału, który może być zerem lub jedynką.
Zastanówmy się, jaką ilość informacji (w myśl podanych wyżej definicji) może przechować lub przenieść taki element systemu informatycznego, w którym możliwe są dwa stany?
Początkowe prawdopodobieństwo, że w tym elemencie będzie zero (lub jedynka) wynosi dokładnie 0,5.
Zatem niepewność zdarzenia, jakim jest wpisanie do tego elementu takiej lub innej cyfry wynosi:
H = - log2 0,5 = 1
A zatem ilość informacji, jaka mieści się w jednym bicie wynosi dokładnie 1 bit!
Czyli te tradycyjne znaczenia słowa bit nie kłócą się z wyżej zdefiniowaną jednostką miary stopnia niepewności i miary ilości informacji i wszystko pięknie się zgadza!
Dygresja: |
Potrzebna będzie odrobina wiedzy na | |
Dlaczego w informatyce wszystkie |
temat pozycyjnych systemów liczenia, | |
informacje wyraża się za pomocą bitów? |
więc od tego zaczniemy |
16