| Предисловие | 11
|
| Глава 1. Введение | 15
|
| 1.1. Сигнал как носитель состояний | 16
|
| 1.1.1. Различимые состояния в сигнале | 17
|
| 1.2. Ссылка на состояния в виде символа или знака | 18
|
| 1.2.1. Ссылки на ссылки | 21
|
| 1.3. Данные как иерархия ссылок на состояния | 22
|
| 1.4. Информация как иерархия ссылок на интенсивность состояний | 25
|
| 1.4.1. Количество знаков в иерархической ссылке | 28
|
| 1.5. Информация как мера непредсказуемости | 29
|
| 1.6. Информация как средство обобщения | 29
|
| 1.6.1. Обобщение - тип и экземпляр | 30
|
| 1.7. Выводы по структуре понятия информации | 30
|
| Глава 2. Классические сигналы | 33
|
| 2.1. Классический сигнал и его параметры | 33
|
| 2.1.1. Фурье-спектр сигнала | 34
|
| 2.1.2. Виды классических сигналов | 41
|
| 2.1.2.1. Ограничения по форме спектра | 42
|
| 2.1.2.2. Модели "точечных" сигналов и их прообразы | 43
|
| 2.1.3. Функция отсчетов, выделяющая "события" в сигнале | 48
|
| 2.1.3.1. Функция отсчетов как элемент разложения | 48
|
| 2.1.3.2. Интерференция в спектре элементов разложения | 49
|
| 2.1.3.3. Опорные и пустые точки каузального сигнала | 50
|
| 2.1.3.4. Порядок разложения и определенности сигнала | 53
|
| 2.1.3.5. Теорема отсчетов в спектральной области | 54
|
| 2.1.3.6. Сигналы и спектры, состоящие только из опорных точек | 55
|
| 2.1.4. Классический сигнал - носитель трижды бесконечной информации | 56
|
| 2.2. Классический шум | 57
|
| 2.2.1. Классический шум в сигнале | 58
|
| 2.2.1.1. Всегда ли шум ограничивает восприятие сигнала | 59
|
| 2.2.1.2. Условие непрерывности шума и сигнала | 60
|
| 2.2.2. Собственная информация шума | 62
|
| 2.3. Выводы по классической теории сигналов | 64
|
| Глава 3. Реальные сигналы | 67
|
| 3.1. Сложение и разложение реальных сигналов | 67
|
| 3.1.1. Интерференция (сложение) реальных сигналов | 68
|
| 3.1.1.1. Двухкомпонентные сигналы | 69
|
| 3.1.2. Разложение (дифракция) однокомпонентных реальных сигналов | 69
|
| 3.1.2.1. Колебания Гиббса при разложении сигналов | 71
|
| 3.1.2.2. Локальный дисбаланс энергии | 72
|
| 3.1.3. Физически интегрированные сигналы и их сложение | 73
|
| 3.2. Информационные ограничения реального сигнала | 76
|
| 3.2.1. Пороговое ограничение по спектральной плотности | 77
|
| 3.2.1.1. Пороговая и предельная асимптоты сигнала | 78
|
| 3.2.1.2. Особенности реальных сигналов вблизи порога | 80
|
| 3.2.2. Пороговые ограничения при детектировании сигналов | 81
|
| 3.2.2.1. Определение чувствительности приемника | 82
|
| 3.2.2.2. Функциональная схема дискриминатора сигналов | 83
|
| 3.2.2.3. Интервал обнаружения порогового сигнала | 85
|
| 3.2.2.4. "Невидимость" биполярных коротких сигналов | 85
|
| 3.3. Выводы по свойствам реальных сигналов | 87
|
| Глава 4. Классические, реальные и виртуальные состояния в событиях | 89
|
| 4.1. Состояния сигнала с шумом | 89
|
| 4.1.1. Ограничения точности состояний и событий | 89
|
| 4.1.1.1. Характерные особенности классического шума | 90
|
| 4.1.2. Порядок над хаосом | 91
|
| 4.1.3. Информационные ограничения, создаваемые шумом | 92
|
| 4.1.3.1. Быстрый чувствительный сенсор | 92
|
| 4.1.3.2. Медленный чувствительный сенсор | 93
|
| 4.1.3.3. Граница классического шума | 94
|
| 4.2. Состояния, порождаемые информационным порогом | 94
|
| 4.2.1. "Быстрый" дискриминатор | 95
|
| 4.2.2. "Медленный" дискриминатор | 96
|
| 4.2.3. Пороговое соотношение неопределимости | 97
|
| 4.2.3.1. Количество "пороговых" состояний | 97
|
| 4.2.3.2. Информационная пропускная способность | 98
|
| 4.2.3.3. Информация за пределами основной полосы среды передачи | 98
|
| 4.3. Дискретные координаты и функция отображения | 100
|
| 4.3.1. События и состояния как основа функции отображения | 101
|
| 4.3.1.1. Дискретизация состояний | 101
|
| 4.3.2. Информационный приоритет событий над состояниями | 103
|
| 4.3.3. Многозначные состояния и их функции | 106
|
| 4.3.3.1. Информационная емкость многозначных состояний | 107
|
| 4.3.3.2. Информационная емкость многозначных функций отображения | 108
|
| 4.3.4. Функция отображения нескольких переменных | 109
|
| 4.3.4.1. Иерархическая дискретная переменная для отсчетов | 109
|
| 4.4. Виртуальные (подпороговые) состояния | 111
|
| 4.4.1. Классические комбинационные состояния | 111
|
| 4.4.2. Комбинационные виртуальные состояния | 112
|
| 4.4.2.1. Случайность виртуальных логических состояний | 115
|
| 4.4.2.2. Классический и виртуальный регистры | 120
|
| 4.5. Функции классических и виртуальных состояний | 121
|
| 4.5.1. Табличное представление состояний | 121
|
| 4.5.2. Функции иерархических переменных | 122
|
| 4.5.3. Вычисления без вычислителя | 122
|
| 4.5.3.1. Практические виды состояний и их погрешности | 124
|
| 4.5.3.2. Информационные состояния в суб-точных числах | 127
|
| 4.5.4. Функции комбинационных виртуальных состояний | 128
|
| 4.5.4.1. Ограничения вероятностных комбинационных функций | 129
|
| 4.6. Состояния в нелинейной среде | 130
|
| 4.6.1. Образование логических состояний | 130
|
| 4.6.1.1. Помехоустойчивость состояний | 132
|
| 4.6.2. Два критерия быстроты логических элементов | 132
|
| 4.6.2.1. Медленный сигнал | 132
|
| 4.6.2.2. Медленный приемник, порог по действию | 132
|
| 4.6.2.3. Четная и нечетная обратная связь | 136
|
| 4.6.3. Потребляемая мощность | 136
|
| 4.6.4. Логические устройства на ячейках памяти | 138
|
| 4.6.5. Моделирование комбинационных виртуальных состояний | 141
|
| 4.6.5.1. Разряд виртуального регистра | 141
|
| 4.6.5.2. Оценка затрат на реализацию | 144
|
| 4.7. Выводы по состояниям и переходам между ними | 144
|
| Глава 5. Данные - получение, кодирование и управление | 147
|
| 5.1. Иерархии объектов, событий и состояния состояний | 147
|
| 5.1.1. Иерархия циклических сложений | 147
|
| 5.1.1.1. Структуры, соответствующие уровням сложений | 149
|
| 5.1.2. Виды иерархий | 153
|
| 5.1.2.1. Информационная независимость уровней порогового дерева | 154
|
| 5.1.3. Идентификаторы элементов и узлов иерархических структур | 155
|
| 5.1.3.1. Упорядочивание иерархических имен | 156
|
| 5.2. Данные измерения | 157
|
| 5.2.1. Фантомы состояний при неполноте данных | 159
|
| 5.2.2. Способы сокращения длины кода при измерении | 159
|
| 5.3. Кодирование состояний | 161
|
| 5.3.1. Возможные коды состояний | 163
|
| 5.3.1.1. Неразграниченный код | 163
|
| 5.3.1.2. Код априорно известной длины | 164
|
| 5.3.1.3. Коды с указанием длины | 165
|
| 5.3.1.4. Код заданной конфигурации | 167
|
| 5.3.3. Выбор основания в иерархии знаков | 168
|
| 5.3.3.1. Оптимизация количества знаков | 169
|
| 5.3.3.2. Эффективность использования знакомест | 171
|
| 5.4. Компактное представление функций и данных | 172
|
| 5.4.1. Компактная форма функции отображения | 172
|
| 5.4.1.1. Устранение неоднозначности от пустых полос | 174
|
| 5.4.1.2. Резкие переходы реального сигнала | 175
|
| 5.4.1.3. Оперативные данные для снижения числа знаков | 176
|
| 5.4.2. Компактное представление данных | 178
|
| 5.4.2.1. Язык описания данных | 178
|
| 5.4.2.2. Группирование однотипных действий управления | 179
|
| 5.5. Данные управления | 180
|
| 5.5.1. Основные типы данных управления | 181
|
| 5.5.2. Управление интерфейсом при обмене данными | 181
|
| 5.5.2.1. Локальные и глобальные интерфейсы | 183
|
| 5.5.2.2. Ожидание доступа к среде связи | 184
|
| 5.5.2.3. Мнемонический код операций в протоколах интерфейса | 186
|
| 5.5.2.4. Общий алгоритм взаимодействия объектов | 187
|
| 5.5.2.5. Виды объектов, участвующих во взаимодействии | 191
|
| 5.5.2.6. Режимы связи | 193
|
| 5.6. Выводы по кодированию и передаче данных | 197
|
| Глава 6. Информация - минимизация кода | 199
|
| 6.1. Информация как носитель сведений | 199
|
| 6.2. Роль случайности в информации | 201
|
| 6.2.1. Случайность, непредсказуемость и шум | 201
|
| 6.2.1.1. Шум случайности и "случайность" незнания | 202
|
| 6.2.2. Вероятность или интенсивность | 205
|
| 6.2.2.1. Вероятность | 205
|
| 6.2.2.2. Интенсивность | 207
|
| 6.2.3. Ожидаемые и реализованные классические состояния | 208
|
| 6.2.4. Случайность и регистрация того, чего нет | 209
|
| 6.2.4.1. Просчеты и присчеты | 210
|
| 6.3. Информация при повторах состояний в событиях | 212
|
| 6.3.1. Кодирование интервалов повторения состояний | 212
|
| 6.3.1.1. Непрерывный повтор состояний | 215
|
| 6.3.1.2. Сравнение S-кодирования и L-кодирования | 216
|
| 6.3.2. Макро и микросостояния | 217
|
| 6.3.3. Информация как мера непредсказуемости поведения | 218
|
| 6.3.3.1. Локализация состояний в событиях | 218
|
| 6.3.3.2. Циклическое повторение состояний | 220
|
| 6.4. Практические приемы кодирования информации | 222
|
| 6.4.1. Гистограмма и количество информации | 222
|
| 6.4.2. Компрессия данных | 224
|
| 6.4.2.1. Коды Хаффмана | 224
|
| 6.4.2.2. Коды LZW | 226
|
| 6.4.2.3. Арифметическое кодирование | 227
|
| 6.4.2.4. Задача о факсе | 229
|
| 6.4.2.5. Телевизор будущего | 231
|
| 6.4.3. Подвергается ли случайность компрессии | 232
|
| 6.5. Информация и математика | 234
|
| 6.5.1. Бесконечные циклы действий в математике | 235
|
| 6.5.2. Разрешения проблемы бесконечностей в математике | 236
|
| 6.5.2.1. Переход от суммирования к интегрированию | 237
|
| 6.5.2.2. "Пустые" циклы | 238
|
| 6.5.2.3. Отсутствие информационного порога | 238
|
| 6.5.2.4. "Пустые" точки функций | 239
|
| 6.5.2.5. Отсутствие информационного предела | 240
|
| 6.5.2.6. Бесконечности, вытесняющие иерархии | 241
|
| 6.5.3. Не реализуемые математические действия | 241
|
| 6.6. Выводы по анализу информации и математики | 243
|
| Глава 7. Информация и физика | 245
|
| 7.1. Физические особенности сложения и разложения сигналов | 246
|
| 7.1.1. Принудительная и свободная интерференция | 246
|
| 7.1.1.1. Встречные и попутные, правые и левые сигналы | 247
|
| 7.1.2. Интерференция сигналов в кабелях | 248
|
| 7.1.2.1. Короткий импульс (однократная интерференция) | 249
|
| 7.1.2.2. Ступенчатый перепад (многократная интерференция) | 251
|
| 7.1.3. Свободная интерференция гармонических сигналов | 252
|
| 7.1.4. Свободная интерференция сигналов в пространстве | 253
|
| 7.1.5. Дифракция частиц и теорема отсчетов | 255
|
| 7.1.5.1. Дифракция волн | 255
|
| 7.1.5.2. Дифракция микрочастиц | 256
|
| 7.2. Процессы с тепловым шумом | 256
|
| 7.2.1. Энтропия как максимум беспорядка | 257
|
| 7.2.1.1. Натуральные распределения по энергии | 258
|
| 7.2.1.2. Энтропия равномерного и экспоненциального распределений | 260
|
| 7.2.1.3. Парадокс Гиббса | 263
|
| 7.2.2. Объединение Планком тепловой и лучистой энтропии | 265
|
| 7.2.2.1. Энтропия Планка и шум в реальных сигналах | 268
|
| 7.2.3. Суб-энтропия по Шеннону и "негэнтропия" | 269
|
| 7.3. Реальные сигналы в микромире | 274
|
| 7.3.1. Оценка предельной быстроты переключения сигналов | 276
|
| 7.3.2. Опорные точки спектра при излучении в полости | 278
|
| 7.3.2.1. Начальная неопределимость частоты | 282
|
| 7.3.3. Энергия как сигнал | 283
|
| 7.3.4. Неопределимость как следствие порога восприятия | 284
|
| 7.3.4.1. Эволюция подпорогового сигнала | 284
|
| 7.3.4.2. В чем проявляется порог восприятия | 285
|
| 7.3.4.3. Причина появления туннельного эффекта | 286
|
| 7.3.5. Усреднение интегрированных микросостояний | 288
|
| 7.3.5.1. Неопределенность как следствие шума случайности | 289
|
| 7.3.5.2. Порядок в хаосе - характер шума в микромире | 291
|
| 7.3.5.3. Эффективность измерений при виртуальном шуме | 292
|
| 7.3.5.4. Связь вероятности с подпороговым действием | 293
|
| 7.3.5.5. Вероятности совместных (суперпозиционных) состояний | 296
|
| 7.3.6. Сравнение комбинационных и совместных состояний | 297
|
| 7.4. Физическое проявление пороговых и предельных свойств | 298
|
| 7.4.1. Пороговые интервалы при движении | 299
|
| 7.4.2. Дискретизация энергии в пороговых точках | 301
|
| 7.4.2.1. Порог как условие пространственной дискретности | 302
|
| 7.4.3. Характерные точки эволюции реальных сигналов | 302
|
| 7.4.3.1. Предельные постоянные центрально-симметричного поля | 303
|
| 7.4.3.2. Старение порогового сигнала | 305
|
| 7.4.3.3. Достижимый темп переноса информации | 310
|
| 7.4.4. Порог и предел как физическая основа иерархий | 311
|
| 7.5. Вычисления на основе совместных состояний | 313
|
| 7.5.1. Управление вероятностями совместных состояний | 315
|
| 7.5.2. Функции состояний вероятности | 316
|
| 7.5.2.1. Влияние интерференции на Get-состояния | 318
|
| 7.5.3. Квантовый "компьютер" | 320
|
| 7.5.3.1. Случайность возможного и возможности случайного | 321
|
| 7.5.4. Задача факторизации чисел | 322
|
| 7.5.4.1. Особенности разложения Фурье | 322
|
| 7.5.4.2. Цифровой метод нахождения периода | 326
|
| 7.6. Приложение | 327
|
| 7.6.1. Пороговые переменные в волновом уравнении КМ | 327
|
| 7.6.1.1. Получение волновых уравнений КМ | 328
|
| 7.7. Выводы по анализу информации в физике сигналов | 330
|
| Заключение | 335
|
| Литература | 346
|
Последовательность средств, с помощью которых получаются и передаются новые сведения об окружающем нас мире, начинается с сигналов и кончается информацией.
Существующая теория сигналов появилась благодаря открытию радио, и была создана в середине прошлого века в процессе работы над аналоговыми техническими средствами с относительным уровнем погрешности 10-2 ÷10-4. Сам человек каждодневно связан с сигналами с незапамятных времен своего появления на Земле. Имея органы чувств, он воспринимает окружающую действительность, пользуется речью, жестами, рисунками и знаками для общения. Сигналы, тем не менее, являются объективной категорией, а не привилегией живой природы; мир неживой природы еще более переполнен сигналами, чем та среда, которую мы создаем себе для обитания. Каждый атом, а их в наблюдаемой Вселенной, как утверждается, более 1040, является источником и приемником сигналов, тогда как человеком создано вряд ли более 1010 технических “сигнальных” устройств.
Обратная величина упомянутой выше технической погрешности задает диапазон значений гарантировано различимых состояний аналоговых сигналов (до 104 ) В природе диапазоны состояний несравнимо больше, например спектр электромагнитного излучения меняется по частоте в 1024 раз.
Что такое информация в настоящее время известно каждому, как и то, что такое сигнал. Если все уже описано и известно, то почему читателю предлагается еще одна книга? Для начала, можно предложить ответить на следующие простые вопросы.
1. Можно ли в реальном времени передавать по линии связи серии сигналов с полосой частот существенно большей, чем полоса пропускания линии?
2. Информация, как известно, измеряется в “кусочках” (битах – 1,2,3,…), может ли количество информации, получаемое при одном измерении, быть много меньше одного бита?
3. Может ли в совокупности равномерно распределенных отсчетов (например, по измерительной линейке) содержаться пренебрежимо малое количество информации?
4. Увеличится ли количество информации, если в текстовом сообщении (или в книге) переставить буквы местами случайным образом, т.е. превратить его в шум?
5. Любое число можно записать цифрами или буквами, например: 15 или пятнадцать.
Правильный ответ на все вопросы один: “да”; причем даже в пятом вопросе, где смысловое значение обоих способов обозначения чисел явно одинаково. Поэтому, если, хотя бы на один вопрос, ваш ответ: “нет” или “не знаю”, то вам… стоит прочесть эту книгу.
Во-первых, предлагаемая книга будет полезна потому, что в широком значении слова “информация” явно смешиваются три понятия. Первое связано с количеством полученных приемником состояний сигналов; второе – с вероятностью появления этих состояний, а третье – с объемом полученных смысловых знаний.
Первое исторически получило название “данные”, второе является собственно информацией, а третье является смысловыми сведениями. Особенность данных и информации состоит в том, что сведения в них закодированы. Информация, в отличие от данных, является минимизированным кодом, что обеспечивает скорейшую передачу и минимальный объем ее хранения. Однако, например, компьютер работает с данными, а не с информацией, как обычно считается.
Во-вторых, имеющиеся публикации распадаются на две, или даже три, слабо связанные группы. Одни посвящены теории кодирования и берут понятие состояния (сигнала) как заданность, не особенно заботясь о том, в чем же смысл и особенность его появления. Другие, в основном, руководства по радиотехнике, посвящены теории генерации, передачи и приема аналоговых сигналов и не доходят до понятия состояния. Особняком находятся публикации по программированию, его информационные аспекты обсуждаются сравнительно мало. Это же можно сказать и про информационные аспекты естественных языков.
В-третьих, созданные к настоящему времени теория сигналов, и теория информации построены по образцу классической науки и используют в качестве средства своего описания “язык” классического математического анализа. Вне всяких сомнений появление классической математики оказало огромное влияние на развитие количественных и логических представлений людей об окружающем мире и впоследствии явилось одним из мощных факторов прогресса. Однако, двадцатый век начался с появления двух новых научных направлений – теории относительности и квантовой механики. Рождение этих дисциплин было предопределено тем, что парадигма “мгновенного перехода между бесконечно малыми точками” перестала соответствовать наблюдаемой реальности, по мере расширения границ изучаемого мира, как в направлении больших, так и микро-масштабов. Уже сейчас видно, что классические теории сигналов и информации не охватывают всех свойств существующих в реальном мире сигналов и их состояний. Весьма характерно, что в физике микромира появилось понятие “квантовой информации”, в определенной степени противопоставляемой “классической” информации. Дело, однако, вовсе не в новом виде информации, а в неполноте существующей теории, в ней просто недостает необходимых исходных понятий.
В предлагаемой книге дается единое и, по возможности, цельное описание получения сведений, начиная с физического уровня – получения сигнала, выделения его состояний, включая логический уровень – кодирование, компрессию и кончая проявлением информационных закономерностей в тех или иных природных явлениях и видах человеческой деятельности.
Особое внимание уделено процессу распознавания состояний сигналов. Вместо классических сигналов, не имеющих в теории ограничений на ширину спектра, скорость переключения и информационную емкость, введено понятие реальных сигналов с определенным порогом (восприятия) и пределом (существования).
Рассматриваются физические основы указанных ограничений, которые задают минимально возможное время смены состояний сигналов и максимальный темп передачи информации в природе.
Обсуждаются также алгоритмы интерфейса – управления данными при обмене информацией.
Имея в виду массовость применения понятий, связанных с информацией, издание рассчитано на широкий круг читателей, что отражается в форме и стиле изложения. Автор стремился к тому, чтобы доступно показать истоки существующего формализма в теории и возникающие отсюда проблемы; чтобы дать простое и компактное представление новый идей и положений, расширяющих сферу применимости теорий сигналов и информации. Материал излагается, насколько возможно, в форме, не требующей от читателя большого объема специальных знаний – основные главы содержат вспомогательную вводную часть, формулы просты, а изложение поддерживается рисунками с подробными пояснениями.
Специалистов, профессионально близких к описываемым вопросам, могут заинтересовать: детальный анализ интерференции, дифракции, дельта-функций и действия сигналов; устранение бесконечностей из традиционной теории сигналов и вытекающее из этого требование плавности переходов между состояниями. А также: появление шума по действию, возникающего при физическом интегрировании, т.е. сужении верхней части спектра реальных сигналов, что ведет к появлению виртуальных состояний. Последнее, в свою очередь, порождает необходимость введения “алгебраической” логики, более общей, чем булева логика. В результате использования реальных сигналов, некоторые постулированные свойства частиц в микромире такие, как “туннельный” эффект, становятся вполне объяснимыми.
В данном – втором издании книги, более детально рассмотрен переход от относительно медленных макро-сигналов, суммируемых по энергии, к сравнительно быстрым интегрированным микро-сигналам, что делает их совместными по действию. В обоих случаях рассматриваются реальные сигналы – имеющие порог восприятия, предел роста и без скачков переходящие из одного состояния к другому.
В практическом плане, в этом издании подробней и проще рассматриваются управление и обмен данными в компьютерных и антропогенных системах.