Студопедия
Новини освіти і науки:
МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах


РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання


ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ"


ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ


Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків


Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні


Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах


Гендерна антидискримінаційна експертиза може зробити нас моральними рабами


ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ


ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів



Контакти
 


Тлумачний словник
Авто
Автоматизація
Архітектура
Астрономія
Аудит
Біологія
Будівництво
Бухгалтерія
Винахідництво
Виробництво
Військова справа
Генетика
Географія
Геологія
Господарство
Держава
Дім
Екологія
Економетрика
Економіка
Електроніка
Журналістика та ЗМІ
Зв'язок
Іноземні мови
Інформатика
Історія
Комп'ютери
Креслення
Кулінарія
Культура
Лексикологія
Література
Логіка
Маркетинг
Математика
Машинобудування
Медицина
Менеджмент
Метали і Зварювання
Механіка
Мистецтво
Музика
Населення
Освіта
Охорона безпеки життя
Охорона Праці
Педагогіка
Політика
Право
Програмування
Промисловість
Психологія
Радіо
Регилия
Соціологія
Спорт
Стандартизація
Технології
Торгівля
Туризм
Фізика
Фізіологія
Філософія
Фінанси
Хімія
Юриспунденкция






Розв'язання

Умовні ймовірності p(yj/xi) при i=j характеризують вплив завад у каналі зв'язку.

Часткова умовна ентропія спостерігача Y щодо джерела Xвизначається за формулою

.

Знайдемо часткові умовні ентропії для всіх xi, i=1, …,3

(біт/сим);

(біт/сим);

(біт/сим).

Знаходимо загальну умовну ентропію дискретної випадкової величини (д. в. в.) Y стосовнод. в. в. X:

(біт/сим).

 

Скориставшись формулою множення ймовірностей

p(xi, yj)=p(xip(yj/xi),

побудуємо матрицю ймовірностей системи д. в. в. X, Y:

Перевіряємо умову нормування: = 0,6305+0,013+0,0065+

+0,03+0,258+0,012+0,0015+0,004+0,0445=1.

З матриці сумісних ймовірностей p(x, y) знаходимо взаємну ентропію д. в. в. X, Y:

(біт/сим).

Скориставшись заданим рядом розподілу ймовірностей д. в. в. X, знайдемо ентропію X:

 

(біт/сим).

Перевірка: H(X, Y)=HX+H(Y/X)=1,142+0,385»1,527(біт/сим).

Виконавши в матриці сумісних ймовірностей pij= p(x, y)згортку за i, отримаємо приблизний безумовний розподіл д. в. в. Y:

;

;

.

Перевіряємо умову нормування

p(y1)+ p(y2)+ p(y3)=0,662+0,275+0,063=1.

 

Знаючи приблизний безумовний закон розподілу Py={0,662; 0,275; 0,063}, знайдемо матрицю умовних ймовірностей p(x/ y), скориставшись формулою

.

.

Перевіряємо умови нормування:

;

;

.

Виходячи з розподілу безумовних ймовірностей д. в. в. Y, знайдемо ентропію Y:

(біт/сим).

З матриці умовних ймовірностей p(x/ y) знайдемо часткові умовні ентропії д. в. в. X стосовно д. в. в. Y:

(біт/сим);

(біт/сим);

(біт/сим).

 

Тоді загальна умовна ентропія X стосовно Y

(біт/сим).

Перевірка: H(X, Y)=HY+H(X/Y)=1,157+0,369=1,527(біт/сим).

Відповідь: H(Y/x1)»0,222 (біт/сим); H(Y/x2)»0,705 (біт/сим);

H(Y/x3)»0,593 (біт/сим); H(Y/X)»0,385 (біт/сим); H(X/y1)»0,289 (біт/сим); H(X/y2)»0,383 (бітим); H(X/y3)»1,148 (біт/сим); H(X/Y)»0,369 (біт/сим).

Приклад 2Матриця сумісних ймовірностей каналу зв'язку має вигляд

.

Знайти інформаційні втрати, пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.




Переглядів: 927

<== попередня сторінка | наступна сторінка ==>
Ентропія д. в. в. X | Розв'язання

Не знайшли потрібну інформацію? Скористайтесь пошуком google:

 

© studopedia.com.ua При використанні або копіюванні матеріалів пряме посилання на сайт обов'язкове.


Генерація сторінки за: 0.008 сек.