URSS.ru - Издательская группа URSS. Научная и учебная литература
Об издательстве Интернет-магазин Контакты Оптовикам и библиотекам Вакансии Пишите нам
КНИГИ НА РУССКОМ ЯЗЫКЕ


 
Вернуться в:
Обложка Мерков А.Б. Распознавание образов: Построение и обучение вероятностных моделей
Id: 169378
 
399 руб.

Распознавание образов: Построение и обучение вероятностных моделей

URSS. 2014. 240 с. Твердый переплет. ISBN 978-5-9710-0564-3.

В книге рассматриваются несколько практически важных примеров решения задач статистического обучения, в которых пространства признаков и ответов и обучающие наборы устроены слишком сложно и нерегулярно, так что стандартные методы статистического обучения в них нельзя применить буквально, но можно применять после построения адекватных вероятностных моделей.

Данная работа является продолжением книги А.Б.Меркова "Распознавание образов: Введение в методы статистического обучения" (М.: URSS, 2011). Она выдержана в том же стиле. Значительная часть описываемых методов строго обоснована: простые технические детали доказательств сформулированы и предложены в качестве упражнений, более сложные, но не слишком громоздкие доказательства предъявлены. Ради компактности изложения количество примеров минимизировано, зато приводятся многочисленные литературные ссылки, в том числе и ссылки на доступные электронные копии статей.


Оглавление
Часть I. Общие методы статистического обучения
Глава 1.Напоминание
1.1.Постановка задач распознавания и обучения распознавателя
 1.1.1.Входы и выходы
 1.1.2.Классификация и регрессия
 1.1.3.Пример: распознавание методом ближайших соседей
 1.1.4.Формальная постановка задачи обучения распознавателя: минимизация эмпирического риска
 1.1.5.Пример: распознающие деревья
 1.1.6.Способность распознавателя к обобщению и регуляризация
 1.1.7.Подбор параметров регуляризации
1.2.Обучение распознавателей и вероятностные модели
 1.2.1.Байесовский классификатор и байесовская регрессия
 1.2.2.Пример: асимптотика ошибок метода ближайшего соседа
 1.2.3.Классификация моделей и методов обучения
  Параметрические и непараметрические модели и методы обучения
  Дискриминантные и порождающие модели и методы обучения
 1.2.4.Обучение порождающих и дискриминантных моделей
  Порождающие модели
  Байесовское обучение
  Максимизация апостериорной вероятности
  Максимизация правдоподобия
  Обучение порождающих моделей и минимизация штрафа
  Дискриминантные модели
 1.2.5.Пример: наивный байесовский метод
  Байесовское обучение дискретной наивной байесовской модели с равномерным априорным распределением
  Обучение дискретной наивной байесовской модели с равномерным априорным распределением максимизацией апостериорной вероятности
  Сравнение методов обучения дискретной наивной байесовской модели
  Непрерывные наивные байесовские модели
  Применимость наивного байесовского метода
 1.2.6.Обучение дискриминантных моделей (продолжение)
 1.2.7.Пример: регрессия методом наименьших квадратов
 1.2.8.Пример: применение регрессии для классификации с оценкой вероятностей классов
1.3.Другие задачи статистического обучения
 1.3.1.Обучение с учителем и без
 1.3.2.Оценка плотности и обнаружение выбросов
 1.3.3.Кластеризация
 1.3.4.Векторное квантование и понижение размерности
Часть II. Вероятностные модели, учитывающие специфику данных
Глава 2.Пропущенные данные и метод максимизации ожидания
2.1.Пропущенные данные
2.2.Распознавание и обучение с пропущенными данными
 2.2.1.Пример: наивное байесовское обучение с пропущенными данными
 2.2.2.Порождающие модели и пропущенные данные
2.3.Метод максимизации ожидания
 2.3.1.Обозначения
 2.3.2.Алгоритм EM для обучения порождающей модели
  Историко-литературное замечание
 2.3.3.Примеры обучения с помощью алгоритма EM
 2.3.4.Сходимость алгоритма EM
 2.3.5.Обобщения алгоритма EM
Глава 3.Цензурированные данные и анализ выживаемости
3.1.Постановка задачи анализа выживаемости и специфика терминологии
3.2.Цензурированные данные
3.3.Параметрические оценки выживаемости
3.4.Оценка Каплана--Майера
  В отсутствии цензурирования
3.5.Модель Кокса
 3.5.1.Пропорциональный риск
 3.5.2.Частичное правдоподобие
 3.5.3.Обучение зависимости от признаков
 3.5.4.Обучение зависимости от времени
 3.5.5.Прогнозирование
Глава 4.Анализ последовательностей; марковские модели
4.1.Задачи статистического анализа последовательностей
  Прогнозирование
  Восстановление порождающей последовательности той же длины
  Восстановление порождающей последовательности несколько другой длины
  Классификация последовательностей
  Сегментация с классификацией сегментов
4.2.Вероятностные модели последовательностей, применяемые для статистического обучения
4.3.Скрытая марковская модель (HMM, Hidden Markov Model)
 4.3.1.Скрытая марковская модель с дискретным временем, конечным пространством состояний и конечным пространством наблюдаемых
  Построение конкретных HMM
  Вычисления вероятностей с помощью HMM
  Применение HMM
  Обучение HMM
  Прогнозирование (стр.123)
  Классификация (стр.124)
  Восстановление последовательности ответов (стр.123)
  Сегментация с классификацией сегментов (стр.124)
  Для обучения HMM максимизацией правдоподобия последовательностей наблюдений (4.20)
 4.3.2.Обобщения скрытых марковских моделей и объединение их с нейронными сетями и другими распознавателями
  Непрерывное пространство наблюдаемых состояний
  Непрерывное время
  Непрерывное пространство скрытых состояний
  Частично наблюдаемые состояния
  Неоднородность
  Модели конечных последовательностей
  Ненаблюдаемая эмиссия
4.4.Анализ последовательностей в целом
 4.4.1.Базисные функции на последовательностях
 4.4.2.Метрики на последовательностях
 4.4.3.Ядра на последовательностях
Глава 5.Анализ изображений; марковские и условные случайные поля
5.1.Модельные задачи статистического анализа изображений
  Очистка изображения от шума
  Поиск подозрительных областей
  Разметка изображения (image labeling)
5.2.Случайные поля
 5.2.1.Марковские случайные поля (MRF, Markov Random Fields)
 5.2.2.Модель Изинга и другие примеры
 5.2.3.Условные случайные поля (CRF, Conditional Random Fields)
5.3.Применение случайных полей для анализа изображений
 5.3.1.Поиск наиболее вероятного поля ответов
  Выборка Гиббса (Gibbs sampler)
 5.3.2.Оценка распределения поля в точке
  Метод Монте--Карло для марковских цепей (MCMC, Markov Chain Monte Carlo)
 5.3.3.Обучение CRF
 5.3.4.Оценки свободной энергии
  Приближение распределения Гиббса с помощью минимизации свободной энергии
  Аппроксимация усредненного поля (mean field approximation)
  Аппроксимация Бете: анонс
  Аппроксимация Кикучи: анонс
  Аппроксимация Бете бывает точной
  Минимизация свободной энергии Бете: применение
 5.3.5.CRF со скрытыми переменными и их обучение
5.4.Историко-литературные ссылки
Приложение Напоминание о ядрах
Литература
Предметный указатель

Об авторе
Мерков Александр Борисович

Окончил механико-математический факультет МГУ им.М.В.Ломоносова в 1979 г. и поступил на работу во Всесоюзный научно-исследовательский институт системных исследований (ныне -- Институт системного анализа РАН), где работает по настоящее время. Занимался системным программированием, качественной теорией уравнений в частных производных, разработкой систем управления базами данных (СУБД), маломерной топологией. С 2000 г. -- заведующий учебной лабораторией распознавания в Московском центре непрерывного математического образования.

 

© URSS 2017.

Информация о Продавце