Теория информации |
Конспект лекций |
2. ВЕРОЯТНОСТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ КОЛИЧЕСТВА ИНФОРМАЦИИ
2.7 Тестовые вопросы
1. Сколько битов потребуется, чтобы размесить в памяти
компьютера фразу
«Тили-тили
тесто!»?
a)
16
b)
128
c)
32
Правильный ответ: b)
2. Максимальное значение
энтропии источника, который порождает 16 различных символов равно
a)
4
b)
1
c)
нельзя определить
Правильный ответ: a)
3. Коэффициент сжатия для
источника с вероятностями ,
,
,
равен
a)
0.875
b)
0.125
c)
1.338
Правильный ответ: a)
4. Энтропия Шеннона обладает
свойством
a) аддитивности
b) ассоциативности
c) социальности
Правильный ответ: a)
5. Количество информации,
содержащееся в двух статистически зависимых сообщениях, оценивается величиной
a) энтропии Шеннона
b) условной энтропии
c) относительной энтропии
Правильный ответ: b)