Часть I. Общие методы статистического обучения |
Глава 1. | Напоминание |
1.1. | Постановка задач распознавания и обучения распознавателя |
| 1.1.1. | Входы и выходы |
| 1.1.2. | Классификация и регрессия |
| 1.1.3. | Пример: распознавание методом ближайших соседей |
| 1.1.4. | Формальная постановка задачи обучения распознавателя: минимизация эмпирического риска |
| 1.1.5. | Пример: распознающие деревья |
| 1.1.6. | Способность распознавателя к обобщению и регуляризация |
| 1.1.7. | Подбор параметров регуляризации |
1.2. | Обучение распознавателей и вероятностные модели |
| 1.2.1. | Байесовский классификатор и байесовская регрессия |
| 1.2.2. | Пример: асимптотика ошибок метода ближайшего соседа |
| 1.2.3. | Классификация моделей и методов обучения |
| | | Параметрические и непараметрические модели и методы обучения |
| | | Дискриминантные и порождающие модели и методы обучения |
| 1.2.4. | Обучение порождающих и дискриминантных моделей |
| | | Порождающие модели |
| | | Байесовское обучение |
| | | Максимизация апостериорной вероятности |
| | | Максимизация правдоподобия |
| | | Обучение порождающих моделей и минимизация штрафа |
| | | Дискриминантные модели |
| 1.2.5. | Пример: наивный байесовский метод |
| | | Байесовское обучение дискретной наивной байесовской модели с равномерным априорным распределением |
| | | Обучение дискретной наивной байесовской модели с равномерным априорным распределением максимизацией апостериорной вероятности |
| | | Сравнение методов обучения дискретной наивной байесовской модели |
| | | Непрерывные наивные байесовские модели |
| | | Применимость наивного байесовского метода |
| 1.2.6. | Обучение дискриминантных моделей (продолжение) |
| 1.2.7. | Пример: регрессия методом наименьших квадратов |
| 1.2.8. | Пример: применение регрессии для классификации с оценкой вероятностей классов |
1.3. | Другие задачи статистического обучения |
| 1.3.1. | Обучение с учителем и без |
| 1.3.2. | Оценка плотности и обнаружение выбросов |
| 1.3.3. | Кластеризация |
| 1.3.4. | Векторное квантование и понижение размерности |
Часть II. Вероятностные модели, учитывающие специфику данных |
Глава 2. | Пропущенные данные и метод максимизации ожидания |
2.1. | Пропущенные данные |
2.2. | Распознавание и обучение с пропущенными данными |
| 2.2.1. | Пример: наивное байесовское обучение с пропущенными данными |
| 2.2.2. | Порождающие модели и пропущенные данные |
2.3. | Метод максимизации ожидания |
| 2.3.1. | Обозначения |
| 2.3.2. | Алгоритм EM для обучения порождающей модели |
| | | Историко-литературное замечание |
| 2.3.3. | Примеры обучения с помощью алгоритма EM |
| 2.3.4. | Сходимость алгоритма EM |
| 2.3.5. | Обобщения алгоритма EM |
Глава 3. | Цензурированные данные и анализ выживаемости |
3.1. | Постановка задачи анализа выживаемости и специфика терминологии |
3.2. | Цензурированные данные |
3.3. | Параметрические оценки выживаемости |
3.4. | Оценка Каплана–Майера |
| | | В отсутствии цензурирования |
3.5. | Модель Кокса |
| 3.5.1. | Пропорциональный риск |
| 3.5.2. | Частичное правдоподобие |
| 3.5.3. | Обучение зависимости от признаков |
| 3.5.4. | Обучение зависимости от времени |
| 3.5.5. | Прогнозирование |
Глава 4. | Анализ последовательностей; марковские модели |
4.1. | Задачи статистического анализа последовательностей |
| | | Прогнозирование |
| | | Восстановление порождающей последовательности той же длины |
| | | Восстановление порождающей последовательности несколько другой длины |
| | | Классификация последовательностей |
| | | Сегментация с классификацией сегментов |
4.2. | Вероятностные модели последовательностей, применяемые для статистического обучения |
4.3. | Скрытая марковская модель (HMM, Hidden Markov Model) |
| 4.3.1. | Скрытая марковская модель с дискретным временем, конечным пространством состояний и конечным пространством наблюдаемых |
| | | Построение конкретных HMM |
| | | Вычисления вероятностей с помощью HMM |
| | | Применение HMM |
| | | Обучение HMM |
| | | Прогнозирование (стр.123) |
| | | Классификация (стр.124) |
| | | Восстановление последовательности ответов (стр.123) |
| | | Сегментация с классификацией сегментов (стр.124) |
| | | Для обучения HMM максимизацией правдоподобия последовательностей наблюдений (4.20) |
| 4.3.2. | Обобщения скрытых марковских моделей и объединение их с нейронными сетями и другими распознавателями |
| | | Непрерывное пространство наблюдаемых состояний |
| | | Непрерывное время |
| | | Непрерывное пространство скрытых состояний |
| | | Частично наблюдаемые состояния |
| | | Неоднородность |
| | | Модели конечных последовательностей |
| | | Ненаблюдаемая эмиссия |
4.4. | Анализ последовательностей в целом |
| 4.4.1. | Базисные функции на последовательностях |
| 4.4.2. | Метрики на последовательностях |
| 4.4.3. | Ядра на последовательностях |
Глава 5. | Анализ изображений; марковские и условные случайные поля |
5.1. | Модельные задачи статистического анализа изображений |
| | | Очистка изображения от шума |
| | | Поиск подозрительных областей |
| | | Разметка изображения (image labeling) |
5.2. | Случайные поля |
| 5.2.1. | Марковские случайные поля (MRF, Markov Random Fields) |
| 5.2.2. | Модель Изинга и другие примеры |
| 5.2.3. | Условные случайные поля (CRF, Conditional Random Fields) |
5.3. | Применение случайных полей для анализа изображений |
| 5.3.1. | Поиск наиболее вероятного поля ответов |
| | | Выборка Гиббса (Gibbs sampler) |
| 5.3.2. | Оценка распределения поля в точке |
| | | Метод Монте–Карло для марковских цепей (MCMC, Markov Chain Monte Carlo) |
| 5.3.3. | Обучение CRF |
| 5.3.4. | Оценки свободной энергии |
| | | Приближение распределения Гиббса с помощью минимизации свободной энергии |
| | | Аппроксимация усредненного поля (mean field approximation) |
| | | Аппроксимация Бете: анонс |
| | | Аппроксимация Кикучи: анонс |
| | | Аппроксимация Бете бывает точной |
| | | Минимизация свободной энергии Бете: применение |
| 5.3.5. | CRF со скрытыми переменными и их обучение |
5.4. | Историко-литературные ссылки |
Приложение Напоминание о ядрах |
Литература |
Предметный указатель |