Формула для вычисления энтропии при равномерном распределении вероятностей выглядит следующим образом:
H = -Σ(p_i * log2(p_i))
Где p_i - вероятность появления i-го символа.
В данном случае у нас 32 символа в алфавите и все они равновероятны, что означает, что вероятность появления каждого символа 1/32.
Таким образом, энтропия сообщения из 5 букв будет:
H = -5 (1/32 log2(1/32)) = -5 (1/32 -5) = 5
Таким образом, количество информации в сообщении из 5 букв равно 5 бит, а энтропия сообщения равна 5.
Формула для вычисления энтропии при равномерном распределении вероятностей выглядит следующим образом:
H = -Σ(p_i * log2(p_i))
Где p_i - вероятность появления i-го символа.
В данном случае у нас 32 символа в алфавите и все они равновероятны, что означает, что вероятность появления каждого символа 1/32.
Таким образом, энтропия сообщения из 5 букв будет:
H = -5 (1/32 log2(1/32)) = -5 (1/32 -5) = 5
Таким образом, количество информации в сообщении из 5 букв равно 5 бит, а энтропия сообщения равна 5.