Entropia jest miarą nieuporządkowania układu, a informacja jest miarą nieokreśloności. Przyjęto średnią ilość informacji I nazwać entropią H zbioru zdarzeń, czyli I=H, wtedy wzorem na entalpię H jest poniższy wzór:
H= - p1log2p1 p2log2p2 ..-pnlog2pn
Gdy zjawisko jest pewne(jedna możliwość) to entropia ma wartość zerową. Natomiast ma wartość maksymalną gdy zjawisko jest najbardziej niepewne, tj. gdy prawdopodobieństwo poszczególnych zdarzeń są sobie równe.