URSS.ru - Издательская группа URSS. Научная и учебная литература
Об издательстве Интернет-магазин Контакты Оптовикам и библиотекам Вакансии Пишите нам
КНИГИ НА РУССКОМ ЯЗЫКЕ


 
Вернуться в: Каталог  
Обложка Мерков А.Б. Распознавание образов: Построение и обучение вероятностных моделей
Id: 169378
 
399 руб.

Распознавание образов: Построение и обучение вероятностных моделей

URSS. 2014. 240 с. Твердый переплет. ISBN 978-5-9710-0564-3.

 Аннотация

В книге рассматриваются несколько практически важных примеров решения задач статистического обучения, в которых пространства признаков и ответов и обучающие наборы устроены слишком сложно и нерегулярно, так что стандартные методы статистического обучения в них нельзя применить буквально, но можно применять после построения адекватных вероятностных моделей.

Данная работа является продолжением книги А.Б.Меркова "Распознавание образов: Введение в методы статистического обучения" (М.: URSS, 2011). Она выдержана в том же стиле. Значительная часть описываемых методов строго обоснована: простые технические детали доказательств сформулированы и предложены в качестве упражнений, более сложные, но не слишком громоздкие доказательства предъявлены. Ради компактности изложения количество примеров минимизировано, зато приводятся многочисленные литературные ссылки, в том числе и ссылки на доступные электронные копии статей.


 Оглавление

Часть I. Общие методы статистического обучения

Глава 1. Напоминание
1.1. Постановка задач распознавания и обучения распознавателя
 1.1.1.Входы и выходы
 1.1.2.Классификация и регрессия
 1.1.3.Пример: распознавание методом ближайших соседей
 1.1.4.Формальная постановка задачи обучения распознавателя: минимизация эмпирического риска
 1.1.5.Пример: распознающие деревья
 1.1.6.Способность распознавателя к обобщению и регуляризация
 1.1.7.Подбор параметров регуляризации
1.2. Обучение распознавателей и вероятностные модели
 1.2.1.Байесовский классификатор и байесовская регрессия
 1.2.2.Пример: асимптотика ошибок метода ближайшего соседа
 1.2.3.Классификация моделей и методов обучения
  Параметрические и непараметрические модели и методы обучения
  Дискриминантные и порождающие модели и методы обучения
 1.2.4.Обучение порождающих и дискриминантных моделей
  Порождающие модели
  Байесовское обучение
  Максимизация апостериорной вероятности
  Максимизация правдоподобия
  Обучение порождающих моделей и минимизация штрафа
  Дискриминантные модели
 1.2.5.Пример: наивный байесовский метод
  Байесовское обучение дискретной наивной байесовской модели с равномерным априорным распределением
  Обучение дискретной наивной байесовской модели с равномерным априорным распределением максимизацией апостериорной вероятности
  Сравнение методов обучения дискретной наивной байесовской модели
  Непрерывные наивные байесовские модели
  Применимость наивного байесовского метода
 1.2.6.Обучение дискриминантных моделей (продолжение)
 1.2.7.Пример: регрессия методом наименьших квадратов
 1.2.8.Пример: применение регрессии для классификации с оценкой вероятностей классов
1.3. Другие задачи статистического обучения
 1.3.1.Обучение с учителем и без
 1.3.2.Оценка плотности и обнаружение выбросов
 1.3.3.Кластеризация
 1.3.4.Векторное квантование и понижение размерности

Часть II. Вероятностные модели, учитывающие специфику данных

Глава 2. Пропущенные данные и метод максимизации ожидания
2.1. Пропущенные данные
2.2. Распознавание и обучение с пропущенными данными
 2.2.1.Пример: наивное байесовское обучение с пропущенными данными
 2.2.2.Порождающие модели и пропущенные данные
2.3. Метод максимизации ожидания
 2.3.1.Обозначения
 2.3.2.Алгоритм EM для обучения порождающей модели
  Историко-литературное замечание
 2.3.3.Примеры обучения с помощью алгоритма EM
 2.3.4.Сходимость алгоритма EM
 2.3.5.Обобщения алгоритма EM
Глава 3. Цензурированные данные и анализ выживаемости
3.1. Постановка задачи анализа выживаемости и специфика терминологии
3.2. Цензурированные данные
3.3. Параметрические оценки выживаемости
3.4. Оценка Каплана--Майера
  В отсутствии цензурирования
3.5. Модель Кокса
 3.5.1.Пропорциональный риск
 3.5.2.Частичное правдоподобие
 3.5.3.Обучение зависимости от признаков
 3.5.4.Обучение зависимости от времени
 3.5.5.Прогнозирование
Глава 4. Анализ последовательностей; марковские модели
4.1. Задачи статистического анализа последовательностей
  Прогнозирование
  Восстановление порождающей последовательности той же длины
  Восстановление порождающей последовательности несколько другой длины
  Классификация последовательностей
  Сегментация с классификацией сегментов
4.2. Вероятностные модели последовательностей, применяемые для статистического обучения
4.3. Скрытая марковская модель (HMM, Hidden Markov Model)
 4.3.1.Скрытая марковская модель с дискретным временем, конечным пространством состояний и конечным пространством наблюдаемых
  Построение конкретных HMM
  Вычисления вероятностей с помощью HMM
  Применение HMM
  Обучение HMM
  Прогнозирование (стр.123)
  Классификация (стр.124)
  Восстановление последовательности ответов (стр.123)
  Сегментация с классификацией сегментов (стр.124)
  Для обучения HMM максимизацией правдоподобия последовательностей наблюдений (4.20)
 4.3.2.Обобщения скрытых марковских моделей и объединение их с нейронными сетями и другими распознавателями
  Непрерывное пространство наблюдаемых состояний
  Непрерывное время
  Непрерывное пространство скрытых состояний
  Частично наблюдаемые состояния
  Неоднородность
  Модели конечных последовательностей
  Ненаблюдаемая эмиссия
4.4. Анализ последовательностей в целом
 4.4.1.Базисные функции на последовательностях
 4.4.2.Метрики на последовательностях
 4.4.3.Ядра на последовательностях
Глава 5. Анализ изображений; марковские и условные случайные поля
5.1. Модельные задачи статистического анализа изображений
  Очистка изображения от шума
  Поиск подозрительных областей
  Разметка изображения (image labeling)
5.2. Случайные поля
 5.2.1.Марковские случайные поля (MRF, Markov Random Fields)
 5.2.2.Модель Изинга и другие примеры
 5.2.3.Условные случайные поля (CRF, Conditional Random Fields)
5.3. Применение случайных полей для анализа изображений
 5.3.1.Поиск наиболее вероятного поля ответов
  Выборка Гиббса (Gibbs sampler)
 5.3.2.Оценка распределения поля в точке
  Метод Монте--Карло для марковских цепей (MCMC, Markov Chain Monte Carlo)
 5.3.3.Обучение CRF
 5.3.4.Оценки свободной энергии
  Приближение распределения Гиббса с помощью минимизации свободной энергии
  Аппроксимация усредненного поля (mean field approximation)
  Аппроксимация Бете: анонс
  Аппроксимация Кикучи: анонс
  Аппроксимация Бете бывает точной
  Минимизация свободной энергии Бете: применение
 5.3.5.CRF со скрытыми переменными и их обучение
5.4. Историко-литературные ссылки
Приложение Напоминание о ядрах
Литература
Предметный указатель

 Об авторе

Мерков Александр Борисович

Окончил механико-математический факультет МГУ им.М.В.Ломоносова в 1979 г. и поступил на работу во Всесоюзный научно-исследовательский институт системных исследований (ныне -- Институт системного анализа РАН), где работает по настоящее время. Занимался системным программированием, качественной теорией уравнений в частных производных, разработкой систем управления базами данных (СУБД), маломерной топологией. С 2000 г. -- заведующий учебной лабораторией распознавания в Московском центре непрерывного математического образования.

 
© URSS 2016.

Информация о Продавце