5/26/2014
Definicja jednostki miary niepewności (i miary ilości informacji) ma ścisły związek z symbolem B który pojawił się we wzorze
H(Z) = - logB p(Z)
jako podstawa logarytmu, którym się chcemy posłużyć.
Gdy Shannon tworzył zręby swojej teorii w powszechnym użyciu były logarytmy dziesiętne, które zastępowały współczesne kalkulatory.
W związku z tym w pierwszych pracach przyjmowano B = 10 i na tej podstawie stworzono jednostkę ilości informacji nazwaną decimal information unit - w skrócie dit.
Potem do badania podstaw teorii informacji zabrali się matematycy, którzy cenią zalety logarytmów naturalnych, to znaczy takich, dla których B = e = 2,7182818...
Po wprowadzeniu tej podstawy logarytmów pojawiła się inna jednostka określana jako natural information unit - w skrócie nit.
Jednak rozwój techniki komputerowej i związana z tym rozwojem „kariera" systemu dwójkowego spowodowały, że coraz częściej zaczęto używać B = 2 w wyniku czego zaczęła zyskiwać na popularności jednostka określana jako binary information unit - w skrócie bit.
Być może niektórzy z Państwa w tym |
Jest to niepokój całkowicie nieuzasadniony, gdyż wszystko się tu zgadza. | |
momencie się zaniepokoili - wszak bit oznacza w informatyce coś zupełnie |
W technice komputerowej nazwą bit | |
innego! |
określana jest taka część | |
mikroprocesora, rejestru lub pamięci cyfrowej, w której można zapisać albo 0 albo 1. |
15