Предисловие | 12
|
Глава 1. Введение | 15
|
1.1. Сигнал как носитель состояний | 16
|
1.1.1. Различимые состояния в сигнале | 17
|
1.2. Ссылка на состояния в виде символа или знака | 18
|
1.2.1. Ссылки на ссылки | 21
|
1.3. Данные как иерархия ссылок на состояния | 22
|
1.4. Информация как иерархия ссылок на интенсивность состояний | 25
|
1.4.1. Количество знаков в иерархической ссылке | 28
|
1.5. Информация как мера непредсказуемости | 29
|
1.6. Информация как средство обобщения | 30
|
1.6.1. Обобщение – тип и экземпляр | 30
|
1.7. Выводы по структуре понятия информации | 31
|
Глава 2. Классические сигналы | 33
|
2.1. Классический сигнал и его параметры | 33
|
2.1.1. Фурье-спектр сигнала | 34
|
2.1.2. Виды классических сигналов | 40
|
2.1.2.1. Ограничения по форме спектра | 41
|
2.1.2.2. Модели «точечных» сигналов и их прообразы | 44
|
2.1.3. Функция отсчетов, выделяющая «события» в сигнале | 48
|
2.1.3.1. Функция отсчетов как элемент разложения | 49
|
2.1.3.2. Интерференция в спектре элементов разложения | 50
|
2.1.3.3. Опорные и пустые точки каузального сигнала | 51
|
2.1.3.4. Порядок разложения и определенности сигнала | 54
|
2.1.3.5. Теорема отсчетов в спектральной области | 55
|
2.1.3.6. Сигналы и спектры, состоящие только из опорных точек | 56
|
2.1.4. Классический сигнал – носитель трижды бесконечной информации | 56
|
2.2. Классический шум | 58
|
2.2.1. Классический шум в сигнале | 58
|
2.2.1.1. Условие непрерывности шума и сигнала | 59
|
2.2.2. Собственная информация шума | 62
|
2.3. Выводы по классической теории сигналов | 64
|
Глава 3. Реальные сигналы | 67
|
3.1. Сложение и разложение реальных сигналов | 67
|
3.1.1. Интерференция (сложение) реальных сигналов | 68
|
3.1.1.1. Двухкомпонентные сигналы | 69
|
3.1.2. Разложение (дифракция) однокомпонентных реальных сигналов | 69
|
3.1.2.1. Колебания Гиббса при разложении сигналов | 71
|
3.1.2.2. Локальный дисбаланс энергии | 72
|
3.1.3. Физическое интегрирование сигналов и их сложение | 73
|
3.2. Информационные ограничения реального сигнала | 76
|
3.2.1. Пороговое ограничение по спектральной плотности | 77
|
3.2.1.1. Пороговая и предельная асимптоты сигнала | 78
|
3.2.1.2. Особенности реальных сигналов вблизи порога | 80
|
3.2.2. Пороговые ограничения при детектировании сигналов | 81
|
3.2.2.1. Определение чувствительности приемника | 82
|
3.2.2.2. Функциональная схема дискриминатора сигналов | 83
|
3.2.2.3. Интервал обнаружения порогового сигнала | 85
|
3.2.2.4. «Невидимость» коротких биполярных сигналов | 85
|
3.3. Выводы по свойствам реальных сигналов | 87
|
Глава 4. Классические, реальные и виртуальные состояния в событиях | 89
|
4.1. Порядок над хаосом – состояния сигнала с шумом | 89
|
4.1.1. Информационные ограничения, создаваемые шумом | 90
|
4.1.1.1. Быстрый чувствительный сенсор | 90
|
4.1.1.2. Медленный чувствительный сенсор, граница классического шума | 91
|
4.2. Состояния, порождаемые информационным порогом | 93
|
4.2.1. «Быстрый» дискриминатор | 93
|
4.2.2. «Медленный» дискриминатор | 95
|
4.2.3. Пороговое соотношение неопределимости | 95
|
4.2.3.1. Количество «пороговых» состояний | 96
|
4.2.3.2. Информационная пропускная способность | 96
|
4.2.3.3. Информация за пределами основной полосы среды передачи | 97
|
4.3. Дискретные координаты и функция отображения | 99
|
4.3.1. События и состояния как основа функции отображения | 99
|
4.3.1.1. Дискретизация состояний | 100
|
4.3.2. Информационный приоритет событий над состояниями | 101
|
4.3.3. Многозначные состояния и их функции | 105
|
4.3.3.1. Информационная емкость многозначных состояний | 106
|
4.3.3.2. Информационная емкость многозначных функций отображения | 107
|
4.3.4. Функция отображения нескольких переменных | 108
|
4.3.4.1. Иерархическая дискретная переменная для отсчетов | 109
|
4.4. Виртуальные (подпороговые) состояния | 110
|
4.4.1. Классические комбинационные состояния | 110
|
4.4.2. Комбинационные виртуальные состояния | 112
|
4.4.2.1. Случайность виртуальных логических состояний | 114
|
4.4.2.2. Классический и виртуальный регистры | 119
|
4.4.3. Моделирование комбинационных виртуальных состояний | 120
|
4.4.3.1. Разряд виртуального регистра | 120
|
4.4.3.2. Оценка затрат на реализацию | 122
|
4.5. Функции классических и виртуальных состояний | 123
|
4.5.1. Табличное представление логических состояний | 123
|
4.5.2. Функции иерархических переменных | 124
|
4.5.3. Вычисления без компьютера | 125
|
4.5.3.1. Антропогенные состояния и их погрешности | 128
|
4.5.3.2. Информационные состояния в точных числах | 130
|
4.5.4. Функции комбинационных виртуальных состояний | 132
|
4.5.4.1.Ограничения вероятностных комбинационных функций | 133
|
4.6. Состояния в нелинейной среде | 133
|
4.6.1. Образование логических состояний | 134
|
4.6.1.1. Помехоустойчивость состояний | 135
|
4.6.2. Два критерия быстроты логических элементов | 136
|
4.6.2.1. Медленный сигнал | 136
|
4.6.2.2. Медленный приемник, порог по действию | 136
|
4.6.2.3. Четная и нечетная обратная связь | 139
|
4.6.3. Потребляемая мощность | 140
|
4.7. Выводы по состояниям и переходам между ними | 141
|
Глава 5. Данные – получение, кодирование и управление | 143
|
5.1. Иерархии объектов, событий, и состояния состояний | 143
|
5.1.1. Иерархия циклических сложений | 143
|
5.1.1.1. Структуры, соответствующие уровням сложений | 144
|
5.1.2. Виды иерархий | 148
|
5.1.2.1. Информационная независимость уровней порогового дерева | 150
|
5.1.3. Идентификаторы элементов и узлов иерархических структур | 151
|
5.1.3.1. Упорядочивание иерархических имен | 152
|
5.2. Данные измерения | 153
|
5.2.1. Фантомы состояний при неполноте данных | 154
|
5.2.2. Способы сокращения длины кода при измерении | 155
|
5.3. Кодирование состояний | 157
|
5.3.1. Возможные коды состояний | 159
|
5.3.1.1. Неразграниченный код | 159
|
5.3.1.2. Код априорно известной длины | 160
|
5.3.1.3. Коды с указанием длины | 161
|
5.3.1.4. Код заданной конфигурации | 163
|
5.3.3. Выбор основания в иерархии знаков | 164
|
5.3.3.1. Оптимизация количества знаков | 165
|
5.3.3.2. Эффективность использования знакомест | 167
|
5.4. Компактное представление функций и данных | 168
|
5.4.1. Компактная форма функции отображения | 168
|
5.4.1.1. Устранение неоднозначности от пустых полос | 170
|
5.4.1.2. Резкие переходы реального сигнала | 170
|
5.4.1.3. Оперативные данные для снижения числа знаков | 173
|
5.4.2. Компактное представление данных | 174
|
5.4.2.1. Язык описания данных | 174
|
5.4.2.2. Группирование однотипных действий управления | 176
|
5.5. Данные управления | 177
|
5.5.1. Основные типы данных управления | 177
|
5.5.2. Управление интерфейсом при обмене данными | 178
|
5.5.2.1. Локальные и глобальные интерфейсы | 179
|
5.5.2.2. Ожидание доступа к среде связи | 181
|
5.5.2.3. Мнемонический код операций в протоколах интерфейса | 182
|
5.5.2.4. Общий алгоритм взаимодействия объектов | 184
|
5.5.2.5. Виды объектов, участвующих во взаимодействии | 187
|
5.5.2.6. Режимы связи | 190
|
5.6. Выводы по кодированию и передаче данных | 192
|
Глава 6. Информация – минимизация кода | 194
|
6.1. Информация как носитель сведений | 194
|
6.2. Роль случайности в информации | 196
|
6.2.1. Случайность, непредсказуемость и шум | 196
|
6.2.1.1. Шум случайности и «случайность» незнания | 197
|
6.2.2. Вероятность и интенсивность | 200
|
6.2.2.1. Вероятность | 200
|
6.2.2.2. Интенсивность | 202
|
6.2.3. Ожидаемые и реализованные классические состояния | 203
|
6.2.4. Случайность и регистрация того, чего нет | 204
|
6.2.4.1. Просчеты и присчеты | 206
|
6.3. Информация при повторах состояний в событиях | 208
|
6.3.1. Кодирование интервалов повторения состояний | 208
|
6.3.1.1. Непрерывный повтор состояний | 211
|
6.3.1.2. Сравнение S-кодирования и L-кодирования | 212
|
6.3.2. Макро и микросостояния | 213
|
6.3.3. Информация как мера непредсказуемости поведения | 214
|
6.3.3.1. Локализация состояний в событиях | 214
|
6.3.3.2. Циклическое повторение состояний | 216
|
6.4. Практические приемы кодирования информации | 218
|
6.4.1. Гистограмма и количество информации | 218
|
6.4.2. Компрессия данных | 220
|
6.4.2.1. Коды Хаффмана | 221
|
6.4.2.2. Коды LZW | 223
|
6.4.2.3. Арифметическое кодирование | 223
|
6.4.2.4. Задача о факсе | 225
|
6.4.2.5. Телевизор будущего | 227
|
6.4.3. Подвергается ли случайность компрессии | 229
|
6.5. Информация и математика | 231
|
6.5.1. Бесконечные циклы действий в математике | 232
|
6.5.2. Разрешения проблемы бесконечностей в математике | 233
|
6.5.2.1. Переход от суммирования к интегрированию | 234
|
6.5.2.2. «Пустые» циклы | 235
|
6.5.2.3. Отсутствие информационного порога | 235
|
6.5.2.4. «Пустые» точки функций | 237
|
6.5.2.5. Отсутствие информационного предела | 237
|
6.5.2.6. Бесконечности, вытесняющие иерархии | 238
|
6.5.3. Не реализуемые математические действия | 238
|
6.6. Выводы по анализу информации и математики | 240
|
Глава 7. Информация и физика | 242
|
7.1. Физические особенности сложения и разложения сигналов | 243
|
7.1.1. Принудительная и свободная интерференция | 243
|
7.1.1.1. Встречные и попутные, правые и левые сигналы | 244
|
7.1.2. Интерференция сигналов в кабелях | 245
|
7.1.2.1. Короткий импульс (однократная интерференция) | 246
|
7.1.2.2. Ступенчатый перепад (многократная интерференция) | 248
|
7.1.3. Свободная интерференция гармонических сигналов | 249
|
7.1.4. Свободная интерференция сигналов в пространстве | 251
|
7.1.5. Дифракция частиц и теорема отсчетов | 252
|
7.1.5.1. Дифракция волн | 253
|
7.1.5.2. Дифракция микрочастиц | 253
|
7.2. Процессы с тепловым шумом | 254
|
7.2.1. Энтропия как максимум беспорядка | 254
|
7.2.1.1. Натуральные распределения по энергии | 255
|
7.2.1.2. Энтропия равномерного и экспоненциального распределений | 259
|
7.2.1.2.1. Парадокс Гиббса | 261
|
7.2.2. Условная энтропия по Шеннону и «негэнтропия» | 262
|
7.3. Реальные сигналы в микромире | 267
|
7.3.1. Оценка предельной скорости переключения сигналов | 269
|
7.3.2. Порог для излучения в полости | 271
|
7.3.2.1. Начальная неопределимость частоты | 274
|
7.3.3. Энергия как сигнал | 275
|
7.3.4. Неопределимость как следствие порога восприятия | 277
|
7.3.4.1. Эволюция подпорогового сигнала | 277
|
7.3.4.2. В чем проявляется порог восприятия | 278
|
7.3.4.3. Причина появления туннельного эффекта | 279
|
7.3.5. Неопределенность как следствие случайности – шума | 281
|
7.3.5.1. Порядок в хаосе – характер шума в микромире | 282
|
7.3.5.2. Эффективность измерений при виртуальном шуме | 283
|
7.3.5.3. Связь вероятности с подпороговым действием | 285
|
7.3.5.4. Вероятности совместных (суперпозиционных) состояний | 287
|
7.3.6. Сравнение комбинационных и совместных состояний | 288
|
7.4. Физическое проявление пороговых и предельных свойств | 290
|
7.4.1. Пороговые интервалы при движении | 290
|
7.4.2. Дискретизация энергии в пороговых точках | 292
|
7.4.2.1. Порог как условие пространственной дискретности | 293
|
7.4.3. Предельные постоянные центрально-симметричного поля | 294
|
7.4.3.1. Предельные постоянные | 295
|
7.4.3.2. Старение порогового сигнала | 296
|
7.4.3.3. Достижимый темп переноса информации | 301
|
7.4.4. Порог и предел как физическая основа иерархий | 302
|
7.5. Вычисления на основе совместных состояний | 305
|
7.5.1. Управление вероятностями совместных состояний | 305
|
7.5.2. Функции состояний вероятности | 307
|
7.5.2.1. Влияние интерференции на Get-состояния | 308
|
7.5.3. Квантовый «компьютер» | 311
|
7.5.3.1. Случайность возможного и возможности случайного | 312
|
7.5.4. Задача факторизации чисел | 313
|
7.5.4.1. Особенности разложения Фурье | 317
|
7.5.4.2. Цифровой метод нахождения периода | 319
|
7.6. Приложение | 320
|
7.6.1. Пороговые переменные в волновом уравнении КМ | 320
|
7.6.1.1. Получение волновых уравнений КМ | 321
|
7.7. Выводы по анализу информации и физики | 324
|
Заключение | 327
|
Литература | 337
|