Definicja
Formalnie dla dyskretnych zmiennych losowych
i
entropia
warunkowana przez
może być zdefiniowana jako:

gdzie:

A zatem:

Wzór ten można zapisać również jako:

W przypadku ciągłych rozkładów sumowanie należy zastąpić przez całkowanie:

gdzie
oznacza funkcję gęstości prawdopodobieństwa pary zmiennych, a
jest gęstością prawdopodobieństwa 
Alternatywnie tę samą definicję można zapisać jako

gdzie
oznacza entropię produktową
i
a
oznacza entropię 
Jeśli
i
są niezależne, poznanie
nie daje żadnych informacji o
Wtedy entropia warunkowa jest po prostu równa entropii

Z drugiej strony, jeśli
jest funkcją
to poznanie
całkowicie determinuje wartość
Wtedy 
Własności
Dla dowolnych
i
zachodzi[1]:
(reguła łańcuchowa dla entropii)

(twierdzenie Bayesa dla entropii)



gdzie
to informacja wzajemna między
i
Jeśli
i
są zdarzeniami niezależnymi:

Pomimo iż wartość wyrażenia
może być zarówno większa, jak i mniejsza od
entropia warunkowa
jest zawsze niewiększa niż
Wartość
równa jest zero w szczególnym przypadku, gdy
jest funkcją zmiennej 