URSS.ru Магазин научной книги
Обложка Верещагин Н.К., Щепин Е.В. Информация, кодирование и предсказание: Введение в прикладную теорию информации. Информация по Хартли, энтропия Шеннона и колмогоровская сложность Обложка Верещагин Н.К., Щепин Е.В. Информация, кодирование и предсказание: Введение в прикладную теорию информации. Информация по Хартли, энтропия Шеннона и колмогоровская сложность
Id: 319405
1479

ИНФОРМАЦИЯ, КОДИРОВАНИЕ И ПРЕДСКАЗАНИЕ:
Введение в прикладную теорию информации. Информация по Хартли, энтропия Шеннона и колмогоровская сложность. Изд. 2, испр.

Информация, кодирование и предсказание: Введение в прикладную теорию информации. Информация по Хартли, энтропия Шеннона и колмогоровская сложность 2025. 248 с.
Белая офсетная бумага
  • Твердый переплет

Аннотация

Предлагаемая книга — это одновременно учебник и оригинальная монография по теории информации. Две независимые друг от друга части, составляющие книгу, написаны авторами на основе собственных лекций, читающихся в Школе анализа данных Яндекса.

Автор первой части, Е. В. Щепин, рассматривает понятия теории информации как базу для решения задач машинного обучения, и прежде всего — задач построения классификатора по эмпирическим данным.

Особое внимание... (Подробнее)


Содержание
top
Предисловие к серии «Учебник Школы прикладной математики и информатики МФТИ»5
Часть 1. Введение в прикладную теорию информации7
Предисловие7
Лекция 1. Информационная емкость символа8
1.1. Двоичные коды8
1.2. Оптимальное кодирование9
1.3. Блокировка10
1.4. Бит и трит11
1.5. Формула Хартли13
1.6. Задача сжатия файла13
1.7. Равночастотное кодирование14
1.8. Задача поиска15
1.9. Количество информации по Хартли17
Лекция 2. Энтропия18
2.1. Вывод формулы Шеннона из формулы Хартли18
2.2. Информативность двоичного слова с произвольной декомпозицией19
2.3. Вывод формулы Шеннона19
2.4. Асимптотические оценки20
2.5. Сжатие файла с данной декомпозицией21
2.6. Вероятностный подход22
2.7. Префиксный код23
2.8. Алгоритм Хаффмана24
2.9. Свойства функции энтропия25
2.10. Энтропия как мера неопределенности26
2.11. Отгадывание слов. Вариант 126
2.12. Отгадывание слов. Вариант 228
Задания к лекциям 1 и 229
Лекция 3. Информационная зависимость41
3.1. Энтропия и информация41
3.2. Совместное распределение41
3.3. Условная и взаимная информация42
3.4. Функциональная зависимость42
3.5. Критерий независимости44
3.6. Относительное кодирование46
3.7. Расщепляющее кодирование47
3.8. Случайные последовательности48
3.9. Суперпозиция неопределенностей49
3.10. Задания к лекции51
Лекция 4. Защита от шума54
4.1. Ошибки при передаче информации54
4.2. Контроль четности54
4.3. Контрольная сумма55
4.4. Локализация ошибки55
4.5. Кодирование56
4.6. Декодирование56
4.7. Определение фальшивой монеты57
4.8. Дерево алгоритма57
Лекция 5. Информативность классификатора62
5.1. Задача распознавания логов интернет-сессии62
5.2. Точность-покрытие64
5.3. Информативность классификатора65
5.4. Неравенство Фано66
5.5. Закон геометрической прогрессии (ЗГП)68
5.6. Проверка закона геометрической прогрессии69
5.7. Задания к лекции69
Лекция 6. Проблема недостаточной статистики71
6.1. Вычисления H171
6.2. Байесовская регуляризация72
6.3. Вторичная статистика73
6.4. Типичные вероятности75
6.5. Третичная статистика76
6.6. Алгоритм Малыхина77
6.7. Закон сложения вероятностей80
Часть 2. Лекции по теории информации81
Предисловие81
Лекция 7. Информация по Хартли82
7.1. Игра в 10 вопросов83
7.2. Упорядочивание n чисел: верхняя и нижняя оценки84
7.3. Упорядочение 5 различных чисел с помощью 7 сравнений85
7.4. Поиск фальшивой монетки из 81 за 4 взвешивания88
7.5. Поиск фальшивой монетки из 12 за 3 взвешивания88
7.6. Цена информации91
7.7. Задачи для самостоятельной работы94
Лекция 8. Логика знания98
8.1. Сообщения и увеличение знаний99
8.2. Карточки с цифрами101
8.3. Задача о шляпах102
8.4. Задачи для самостоятельной работы103
8.5. Отступление: парадокс неожиданной контрольной104
Лекция 9. Коммуникационная сложность107
9.1. Среднее арифметическое и медиана мультимножества109
9.2. Предикат равенства110
9.3. Метод трудных множеств и метод размера прямоугольников112
9.4. Метод ранга матрицы114
9.5. Вероятностные протоколы115
Лекция 10. Энтропия Шеннона118
10.1. Определение118
10.2. Коды119
10.3. Коммуникационная сложность в среднем и энтропия Шеннона131
10.4. Неравенство Макмиллана132
10.5. Энтропия пары случайных величин133
10.6. Условная энтропия135
10.7. Независимость и энтропия139
10.8. «Релятивизация» и информационные неравенства141
10.9. Задачи для самостоятельной работы146
Лекция 11. Кодирование текстов с учетом частотных закономерностей148
11.1. Кодирование текста с известными частотами букв149
11.2. Сбалансированные слова152
11.3. Учет частот пар, троек и т. д.155
11.4. Неинъективные кодирования162
11.5. Передача информации при наличии дополнительной информации у принимающей стороны.Теорема Вольфа—Слепяна.168
11.6. Каналы с помехами171
Лекция 12. Предсказания180
12.1. Предсказания в казино180
12.2. Предсказания с экспертами185
Лекция 13. Колмогоровская сложность197
13.1. Что такое колмогоровская сложность?197
13.2. Оптимальные способы описания199
13.3. Сложность и случайность202
13.4. Невычислимость KS и парадокс Берри204
13.5. Перечислимость сверху колмогоровской сложности206
13.6. Сложность и информация208
13.7. Сложность пары слов210
13.8. Условная колмогоровская сложность214
13.9. Сложность и энтропия225
13.10. Применения колмогоровской сложности228
Задания к лекциям 7–13234
Литература242

Об авторах
top
photoВерещагин Николай Константинович
Доктор физико-математических наук, профессор кафедры математической логики и теории алгоритмов механико-математического факультета МГУ имени М. В. Ломоносова. Профессор факультета компьютерных наук НИУ ВШЭ и Школы анализа данных ООО «Яндекс». Учился в МГУ на механико-математическом факультете, который окончил в 1981 г. Там же окончил аспирантуру и защитил кандидатскую диссертацию под руководством В. А. Успенского в 1986 г. В 1996 г. защитил диссертацию на степень доктора физико-математических наук по теме «Релятивизуемость в структурной теории сложности вычислений». Специализируется в теории алгоритмов. Член Европейской академии по секции информатики. Автор и соавтор более 100 публикаций в международных рецензируемых научных изданиях и 8 книг.
photoЩепин Евгений Витальевич
Член-корреспондент РАН, доктор физико-математических наук, главный научный сотрудник математического института имени В. А. Стеклова РАН. Окончил механико-математический факультет МГУ в 1973 г. Основная математическая специальность — геометрия и топология. Его цикл работ по общей топологии был отмечен премией Московского математического общества для молодых математиков в 1977 г. В 1979 г. защитил докторскую диссертацию на тему «Метод обратных спектров в топологии бикомпактов». В 1980-е гг. его интересы сместились к геометрической топологии; он доказал гипотезу Гильберта—Смита для липшицевых отображений, и вместе со своим учеником А. Н. Дранишниковым решил старую проблему теории размерности, построив двумерное подмножество трехмерного евклидова пространства, которое остается двумерным после домножения на континуум. В 1990-е гг. увлекся приложениями топологии к распознаванию образов; под его руководством была разработана программа оптического распознавания символов Крипт, основанная на открытом им топологическом коде (ПРС-код).

Е. В. Щепин многие годы преподавал в Колмогоровском интернате (выпускником которого является) математический анализ. В Интернете известен курс анализа Щепина, прочитанный им в 2001 г. в Швеции — «Uppsala lectures on Calculus». Работа в «Яндексе» и Школе анализа данных (2007–2013) привели его к разработке метода вторичной статистики, позволяющего определять количество полезной информации в логах интернет-сессий. В 2011 г. избран членом-корреспондентом РАН.