Студопедия
Новини освіти і науки:
МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах


РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання


ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ"


ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ


Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків


Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні


Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах


Гендерна антидискримінаційна експертиза може зробити нас моральними рабами


ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ


ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів



Розв'язання

Умовні ймовірності p(yj/xi) при i=j характеризують вплив завад у каналі зв'язку.

Часткова умовна ентропія спостерігача Y щодо джерела Xвизначається за формулою

.

Знайдемо часткові умовні ентропії для всіх xi, i=1, …,3

(біт/сим);

(біт/сим);

(біт/сим).

Знаходимо загальну умовну ентропію дискретної випадкової величини (д. в. в.) Y стосовнод. в. в. X:

(біт/сим).

 

Скориставшись формулою множення ймовірностей

p(xi, yj)=p(xip(yj/xi),

побудуємо матрицю ймовірностей системи д. в. в. X, Y:

Перевіряємо умову нормування: = 0,6305+0,013+0,0065+

+0,03+0,258+0,012+0,0015+0,004+0,0445=1.

З матриці сумісних ймовірностей p(x, y) знаходимо взаємну ентропію д. в. в. X, Y:

(біт/сим).

Скориставшись заданим рядом розподілу ймовірностей д. в. в. X, знайдемо ентропію X:

 

(біт/сим).

Перевірка: H(X, Y)=HX+H(Y/X)=1,142+0,385»1,527(біт/сим).

Виконавши в матриці сумісних ймовірностей pij= p(x, y)згортку за i, отримаємо приблизний безумовний розподіл д. в. в. Y:

;

;

.

Перевіряємо умову нормування

p(y1)+ p(y2)+ p(y3)=0,662+0,275+0,063=1.

 

Знаючи приблизний безумовний закон розподілу Py={0,662; 0,275; 0,063}, знайдемо матрицю умовних ймовірностей p(x/ y), скориставшись формулою

.

.

Перевіряємо умови нормування:

;

;

.

Виходячи з розподілу безумовних ймовірностей д. в. в. Y, знайдемо ентропію Y:

(біт/сим).

З матриці умовних ймовірностей p(x/ y) знайдемо часткові умовні ентропії д. в. в. X стосовно д. в. в. Y:

(біт/сим);

(біт/сим);

(біт/сим).

 

Тоді загальна умовна ентропія X стосовно Y

(біт/сим).

Перевірка: H(X, Y)=HY+H(X/Y)=1,157+0,369=1,527(біт/сим).

Відповідь: H(Y/x1)»0,222 (біт/сим); H(Y/x2)»0,705 (біт/сим);

H(Y/x3)»0,593 (біт/сим); H(Y/X)»0,385 (біт/сим); H(X/y1)»0,289 (біт/сим); H(X/y2)»0,383 (бітим); H(X/y3)»1,148 (біт/сим); H(X/Y)»0,369 (біт/сим).

Приклад 2Матриця сумісних ймовірностей каналу зв'язку має вигляд

.

Знайти інформаційні втрати, пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.




Переглядів: 975

<== попередня сторінка | наступна сторінка ==>
Ентропія д. в. в. X | Розв'язання

Не знайшли потрібну інформацію? Скористайтесь пошуком google:

  

© studopedia.com.ua При використанні або копіюванні матеріалів пряме посилання на сайт обов'язкове.


Генерація сторінки за: 0.003 сек.