- Bit. jednostka ilości informacji odpowiadająca informacji uzyskanej po zajściu zdarzeniu, którego prawdopodobieństwo wynosi Vi\
-log:(l/2)*log: 2 = 1
- Entropia informacji: miara nieoznaczoności źródła równa średniemu przyrostowi informacji przypadającej na jedno z k zdarzeń
# = -/ylogi(P\)~Pi ,lotóW“K ~Pk ’l°2'.(Pk)
- Gdy kolejne zdarzenia są niezależne i jednakowo prawdopodobne: p=lk: