Помехоустойчивые и линейные коды Код ы Хэмминга БЧХ Способы декодирования Математическая модель Моделирование Сложные системы Метод суперпозиции Метод Неймана Уравнения Колмогорова Вычисление интегралов Варианты курсовых работ Цифровые сети для передачи речи и данных
В дисциплине рассматриваются теоретические основы описания информационных процессов и систем. Изучается аппарат теории цепей Маркова (в частности процессы размножения и гибели) для представления элементов информационно-вычислительных систем, например совокупностей процессоров, буферов обмена данными, дисководов, серверов и различных сетевых архитектур.


КОЛИЧЕСТВЕННЫЕ ИНФОРМАЦИОННЫЕ ХАРАКТЕРИСТИКИ ДИСКРЕТНЫХ ИСТОЧНИКОВ СООБЩЕНИЙ И КАНАЛОВ

Производительность источника дискретных сообщений. Скорость передачи информации

Обычно источники передают сообщения, с некоторой скоростью, затрачивая в среднем время Т на передачу одного сообщения. Производительность источника назовем суммарную энтропию сообщений переданных за единицу времени

(1.21).

Производительность измеряется в битах на секунду. Если сообщение может быть представлено в виде последовательности элементарных дискретных сообщений источника с энтропией следующих со скоростью элементов в секунду, то (1.22). Аналогичным образом, т.е. разделив формулы (1.11)-(1.19) на Т и обозначая , получим соответственные равенства для условных энтропии и количества информации, рассчитанных на одно сообщение в единицу времени. Величина называется скоростью передачи информации от U к Z или наоборот. Если, например U ансамбль сигналов на входе дискретного канала, а Z ансамбль сигналов на его выходе то скорость передачи информации по каналу (1.23). Это соотношение наглядно иллюстрируется на рисунке 1.1. Кластерные вычисления кластерный компьютер
Здесь H'(U) производительность источника передаваемого сигнала U, а "производительность" канала,
т.е. полная собственная информация в принятом сигнале за единицу времени. Величина представляет собой потерю информации или ненадежность канала в единицу времени, а скорость создания ложной, посторонней информации в канале не имеющей отношение к U и обусловленная присутствующими в канале помехами. По определению Шеннона ненадежность канала является энтропией входа, когда выход известен, т.е. ее можно считать мерой средней неопределенности принятого сигнала. Величина же есть энтропия выхода, когда вход известен и служит мерой средней неопределенности передаваемого сигнала.
Соотношение между и зависит от свойств канала. Так, например, при передаче звукового сигнала по каналу с узкой полосой пропускания недостаточный для качественного воспроизведения сигнала и с низким уровнем помех. Теряется часть полезной информации, но почти не получается бесполезной, в этом случае . Если же сигнал воспроизводится качественно, но при этом прослушиваются наводки от сосе5днего радиоканала, то это означает, что почти не теряя полезной информации мы получили много лишней мешающей информации и

.

 


Физика Атомная энергетика http://kurspr.ru/
Информатика Помехоустойчивые коды и их основные параметры Цифровые сети для передачи речи и данных
Информационные модели принятия решений. Многообразие задач выбора. Критериальный язык выбора. Описание выбора на языке бинарных отношений. Выбор в условиях неопределенности. Выбор в условиях статистической неопределенности. Динамическое программирование как многошаговый информационный процесс принятия решений.