Теория информации
Конспект лекций
назад | содержание | вперед

2. ВЕРОЯТНОСТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ КОЛИЧЕСТВА ИНФОРМАЦИИ

 

2.7 Тестовые вопросы

1.     Сколько битов  потребуется, чтобы размесить в памяти компьютера фразу

«Тили-тили тесто!»?

a)     16

b)    128

c)     32

Правильный ответ: b)

 

2.     Максимальное значение энтропии источника, который порождает 16 различных символов равно

a)     4

b)    1

c)     нельзя определить

Правильный ответ: a)

 

3.     Коэффициент сжатия для источника с вероятностями  , , ,  равен

a)     0.875

b)    0.125

c)     1.338

Правильный ответ: a)

 

4.     Энтропия Шеннона обладает свойством

a)     аддитивности

b)    ассоциативности

c)     социальности

Правильный ответ: a)

5.     Количество информации, содержащееся в двух статистически зависимых сообщениях, оценивается величиной

a)     энтропии Шеннона

b)    условной энтропии

c)     относительной энтропии

Правильный ответ: b)

 

 

 

наверх

 


назад | содержание | вперед