URSS.ru - Издательская группа URSS. Научная и учебная литература
Об издательстве Интернет-магазин Контакты Оптовикам и библиотекам Вакансии Пишите нам
КНИГИ НА РУССКОМ ЯЗЫКЕ


 
Вернуться в: Каталог  
Обложка Кульбак С. Теория информации и статистика: Пер. с англ.
Id: 19655
 
999 руб.

Теория информации и статистика: Пер. с англ.

1967. 408 с. Твердый переплет. Букинист. Состояние: 4+. Есть погашенная библиотечная печать.

 Оглавление

Предисловие редактора перевода

Предисловие

Глава 1. Определение информации

1. Введение (11). 2. Определения (13). 3. Расхождение (16). 4. Примеры (17). 5. Задачи (20)

Глава 2. Свойства информации

1. Введение (23). 2. Аддитивность (23). 3. Выпуклость (25). 4. Инвариантность (29). 5. Расхождение (33). 6. Информация по Фишеру (37). 7. Информация и достаточность (ЗЭ). 8. Задачи (42)

Глава 3. Неравенства теории информации

1. Введение (47). 2. Минимум различающей информации (47). 3. Достаточные статистики (55). 4. Экспоненциальное семейство (57)

5. Близкие значения параметров (67). 6. Эффективность (75). 7. Задачи (79)

Глава 4. Предельные свойства

1. Введение (82). 2. Предельные свойства (82). 3. Ошибки первого и второго рода (86). 4. Задачи (90)

Глава 5. Информационные статистики

1. Оценка / (*: 2) (93). 2. Классификация (95). 3. Проверка гипотез (97). 4. Обсуждение (105). 5. Асимптотические свойства (109)

6. Оценка J (*, 2) (118). 7. Задачи (119)

Глава 6. Полиномиальные популяции

1. Введение (120). 2. Предпосылки (121). 3. Сопряженные распределения (122). 4. Одна выборка (124). 5. Две выборки (140). 6. г выборок (146). 7. Задачи (152)

Глава 7. Популяции Пуассона

1. Предпосылки (155). 2. Сопряженные распределения (156). 3. г выборок (157). 4. <Односторонняя> гипотеза, одна выборка (161). 5. «Односторонняя> гипотеза, две выборки (164). 6. Задачи (166)

Глава 8. Таблицы сопряженности признаков

1. Введение (167). 2. Таблицы с двумя входами (167). 3. Таблицы с тремя входами (171). 4. Однородность таблиц с двумя входами (181). 5. Условная однородность (182). 6. Однородность (183). 7. Взаимодеиствие (184). 8. Отрицательное взаимодействие (186). 9. Разбиения (186). 10. Параметрический случай (190). 11. Симметрия (192). 12. Примеры (194). 13. Задачи (200)

Глава 9. Многомерные нормальные популяции

1. Введение (203). 2. Компоненты информации (205). 3. Каноническая форма (208). 4. Линейные дискриминантные функции (209). 5. Случай равенства ковариационных матриц (210). 6. Главные компоненты (211). 7. Каноническая корреляция (214). 8. Ковариационные величины (217). 9. Общий случай (219). 10. Задачи (220)

Глава 10. Линейная гипотеза

1. Введение (224). 2. Предпосылки (224). 3. Линейная гипотеза (225). 4. Статистика минимума различающей информации (225). 5. Под-гипотезы (227). 6. Регрессионный анализ: однофакторная классификация, k категорий (232). 7. Подгипотеза с разбиением на две части (237). 8. Пример (242). 9. Репараметризация (248). 10. Регрессионный анализ, двуфакторная классификация (251). 11. Задачи (263)

Глава 11. Многомерный анализ; многомерная линейная гипотеза

1. Введение (264). 2. Предпосылки (264). 3. Многомерная линейная гипотеза (264). 4. Статистика минимума различающей информации (266). 5. Подгипотезы (268). 6. Специальные случаи (272). 7. Каноническая корреляция (285). 8. Линейные дискриминантные функции (286). 9. Примеры (289). 10. Репараметризация (299). 11. Замечание (305). 12. Задачи (305)

Глава 12. Многомерный анализ; другие гипотезы

1. Введение (308). 2. Предпосылки (308). 3. Одна выборка (310). 4. Однородность средних значений (320). 5. Однородность ковариационных матриц (326). 6. Асимптотические распределения (336). 7. Критерий Стюарта однородности частных распределений при дву-факторной классификации (345). 8. Задачи (346)

Глава 13. Линейные дискриминантные функции

1. Введение (353). 2. Итерация (353). 3. Пример (355). 4. Замечание (358). 5. Другие линейные дискриминантные функции (359)

6. Сравнение различных линейных дискриминантных функций (361)

7. Задачи (363)

Литература

Приложение

Таблица I. Log,, п и п loge п для значений я от 1 до 1000

Таблица II. F (ри р2) =Pi log

Таблица III. Нецентральное x2-распределение

Словарь специальных терминов

Алфавитный указатель

 
© URSS 2016.

Информация о Продавце