МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах
РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ" ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах Гендерна антидискримінаційна експертиза може зробити нас моральними рабами ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів Контакти
Тлумачний словник |
|
|||||||
Розв'язанняУмовні ймовірності p(yj/xi) при i=j характеризують вплив завад у каналі зв'язку. Часткова умовна ентропія спостерігача Y щодо джерела Xвизначається за формулою . Знайдемо часткові умовні ентропії для всіх xi, i=1, …,3 (біт/сим); (біт/сим); (біт/сим). Знаходимо загальну умовну ентропію дискретної випадкової величини (д. в. в.) Y стосовнод. в. в. X: (біт/сим).
Скориставшись формулою множення ймовірностей p(xi, yj)=p(xi)×p(yj/xi), побудуємо матрицю ймовірностей системи д. в. в. X, Y: Перевіряємо умову нормування: = 0,6305+0,013+0,0065+ +0,03+0,258+0,012+0,0015+0,004+0,0445=1. З матриці сумісних ймовірностей p(x, y) знаходимо взаємну ентропію д. в. в. X, Y: (біт/сим). Скориставшись заданим рядом розподілу ймовірностей д. в. в. X, знайдемо ентропію X:
(біт/сим). Перевірка: H(X, Y)=HX+H(Y/X)=1,142+0,385»1,527(біт/сим). Виконавши в матриці сумісних ймовірностей pij= p(x, y)згортку за i, отримаємо приблизний безумовний розподіл д. в. в. Y: ; ; . Перевіряємо умову нормування p(y1)+ p(y2)+ p(y3)=0,662+0,275+0,063=1.
Знаючи приблизний безумовний закон розподілу Py={0,662; 0,275; 0,063}, знайдемо матрицю умовних ймовірностей p(x/ y), скориставшись формулою . . Перевіряємо умови нормування: ; ; . Виходячи з розподілу безумовних ймовірностей д. в. в. Y, знайдемо ентропію Y:
(біт/сим). З матриці умовних ймовірностей p(x/ y) знайдемо часткові умовні ентропії д. в. в. X стосовно д. в. в. Y:
(біт/сим);
(біт/сим);
(біт/сим).
Тоді загальна умовна ентропія X стосовно Y (біт/сим). Перевірка: H(X, Y)=HY+H(X/Y)=1,157+0,369=1,527(біт/сим). Відповідь: H(Y/x1)»0,222 (біт/сим); H(Y/x2)»0,705 (біт/сим); H(Y/x3)»0,593 (біт/сим); H(Y/X)»0,385 (біт/сим); H(X/y1)»0,289 (біт/сим); H(X/y2)»0,383 (біт/сим); H(X/y3)»1,148 (біт/сим); H(X/Y)»0,369 (біт/сим). Приклад 2Матриця сумісних ймовірностей каналу зв'язку має вигляд . Знайти інформаційні втрати, пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.
|
||||||||
|