Эта матрица отражает статистические характеристики действия помех. Канальная матрица источника является матрицей прямых переходов переданных сигналов
Каждая строка КМИ представляет собой распределение условных вероятностей принятых сигналов
Канальная матрица приемника (КМП)
Дискретный канал полностью задан, если известны безусловные вероятности приема сигналов
Условные вероятности р(ai /bj) приёма сигналов
Канальная матрица объединения (КМО)
Дискретный канал полностью задан канальной матрицей объединения (КМО).
КМО состоит из совместных вероятностей появления сигналов
Элементами матрицы являются совместные вероятности:
Взаимосвязь канальных матриц
Из КМО в КМИ
p(bi/aj) =
p(ai) =
Из КМИ в КМО
Из КМО в КМП
p(ai/bj) =
p(bj) =
Из КМП в КМО
p(ai, bj) = p(bj) ·p(ai/bj)
Свойства канальной матрицы источника (КМИ):
1. КМИ – квадратная матрица, то есть её размер nxn ;
2. Сумма условных вероятностей каждой строки равна 1, то есть образует полную группу:
3. Условные вероятности главной диагонали КМИ отражают вероятность правильного приема сигналов
4. Остальные условные вероятности канальной матрицы (кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;
5. Для идеального канала, на котором нет помех, канальная матрица имеет вид:
Свойства канальной матрицы приемника (КМП):
1. КМП – это квадратная матрица, то есть её размер nxn ;
2. Сумма условных вероятностей каждого столбца равна 1, то есть образует полную группу:
3. Условные вероятности главной диагонали КМП отражают вероятность правильного приема сигналов
4. Остальные условные вероятности канальной матрицы приемника(кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;
5. Для идеального канала, на котором нет помех, КМП имеет вид:
Свойства канальной матрицы объединения (КМО):
1. Сумма совместных вероятностей каждой строки равна безусловной вероятности источника:
дискретный матрица приемник кодирование
Σ p(ai) = 1
2. Сумма совместных вероятностей каждого столбца равна соответствующей безусловной вероятности приемника:
3. Сумма всех элементов канальной матрицы объединения равна 1.
Σ p(bj) = 1
Для того, чтобы понять что такое информационные характеристики, нужно вначале дать определение таким терминам, как алфавит сообщения, кортеж упорядоченных уникальных символов и дискретный ансамбль сообщения (ДАС).
Алфавитом сообщения называются символы, которые входят в сообщение. Например:
A={a1, a2,…,an}
Кортеж упорядоченных уникальных символов – это упорядоченная последовательность символов.
Х={х1, х2,…, хn} – сообщение – кортеж символов
Дискретный ансамбль сообщения (ДАС) – сообщение с вероятностями символов ДАС {Х, p(хi) или A, p(ai)}
Количество информации
Количеством информации символа сообщения определяется:
I(ai) = - log2(p(ai)) = - log(p(ai)) [бит] (i=1,2…n)
В Шенноновской теории информации количество информации источника определяется вероятностью появления символа.
I(ai) = - ln(p(ai)) [нат]
I(ai) = - lg(p(ai)) [дит]
Каждый символ сообщения содержит своё количество информации.
Свойства количества информации источника сообщений
1. Количество информации неотрицательно:
I(ai) >= 0
2. Чем выше вероятность, тем меньшее количество информации содержит символ.
3. Если вероятность символа равна 1, то количество информации этого символа равно 0.
р(ai) = 1 ⇒I(ai) = 0
4. Аддитивность. Количество информации нескольких символов равно сумме количеств информаций каждого.
I(a1, a2, a3) = I(a1) + I(a2) + I(a3)
Энтропия – среднее количество информации на символ сообщения (средневзвешенное).
Свойства энтропии
1. Энтропия неотрицательна: Н(А) ≥ 0
2. Энтропия равна нулю тогда и только тогда, когда вероятность символа равна 1: Н(ai) = 0 ⇔р(ai) =1
3. Энтропия ограничена: H (ai) ≤ log n[бит/символ]
где n – количество символов в сообщении.
4. Максимальная энтропия равна: Hmax(А) = log n[бит/символ]
Существует два вида условной энтропии, которые определяют действия помех на дискретном канале – это частная условная энтропия (ЧУЭ) и общая условная энтропия (ОУЭ).
Частная условная энтропия источника (ЧУЭИ) сообщений отображает количество потерь информации при передаче каждого сигнала аi:
H(В/аi) = −
Общая условная энтропия источника (ОУЭИ) определяет средние потери количества информации на принятый сигнал
Количество информации
Количеством информации символа сообщения определяется:
I(bj) = - log2(p(bj)) = - log(p(bj)) [бит] (j=1,2…n)
В Шенноновской теории информации количество информации приемника определяется вероятностью появления символа.
I(bj) = - ln(p(bj)) [нат]
I(bj) = - lg(p(bj)) [дит]
Каждый символ сообщения содержит своё количество информации.
Свойства количества информации приемника сообщений
1. Количество информации неотрицательно: I(bj) ≥ 0
2. Чем выше вероятность, тем меньшее количество информации содержит символ.
3. Если вероятность символа равна 1, то количество информации этого символа равно 0.
р(bj) = 1 ⇒I(bj) = 0