![]()
МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах
РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ" ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах Гендерна антидискримінаційна експертиза може зробити нас моральними рабами ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів
Контакти
Тлумачний словник Авто Автоматизація Архітектура Астрономія Аудит Біологія Будівництво Бухгалтерія Винахідництво Виробництво Військова справа Генетика Географія Геологія Господарство Держава Дім Екологія Економетрика Економіка Електроніка Журналістика та ЗМІ Зв'язок Іноземні мови Інформатика Історія Комп'ютери Креслення Кулінарія Культура Лексикологія Література Логіка Маркетинг Математика Машинобудування Медицина Менеджмент Метали і Зварювання Механіка Мистецтво Музика Населення Освіта Охорона безпеки життя Охорона Праці Педагогіка Політика Право Програмування Промисловість Психологія Радіо Регилия Соціологія Спорт Стандартизація Технології Торгівля Туризм Фізика Фізіологія Філософія Фінанси Хімія Юриспунденкция |
|
|||||||
Розв'язанняУмовні ймовірності p(yj/xi) при i=j характеризують вплив завад у каналі зв'язку. Часткова умовна ентропія спостерігача Y щодо джерела Xвизначається за формулою
Знайдемо часткові умовні ентропії для всіх xi, i=1, …,3
Знаходимо загальну умовну ентропію дискретної випадкової величини (д. в. в.) Y стосовнод. в. в. X:
Скориставшись формулою множення ймовірностей p(xi, yj)=p(xi)×p(yj/xi), побудуємо матрицю ймовірностей системи д. в. в. X, Y:
+0,03+0,258+0,012+0,0015+0,004+0,0445=1. З матриці сумісних ймовірностей p(x, y) знаходимо взаємну ентропію д. в. в. X, Y:
Скориставшись заданим рядом розподілу ймовірностей д. в. в. X, знайдемо ентропію X:
Перевірка: H(X, Y)=HX+H(Y/X)=1,142+0,385»1,527(біт/сим). Виконавши в матриці сумісних ймовірностей pij= p(x, y)згортку за i, отримаємо приблизний безумовний розподіл д. в. в. Y:
Перевіряємо умову нормування p(y1)+ p(y2)+ p(y3)=0,662+0,275+0,063=1.
Знаючи приблизний безумовний закон розподілу Py={0,662; 0,275; 0,063}, знайдемо матрицю умовних ймовірностей p(x/ y), скориставшись формулою
Перевіряємо умови нормування:
Виходячи з розподілу безумовних ймовірностей д. в. в. Y, знайдемо ентропію Y:
З матриці умовних ймовірностей p(x/ y) знайдемо часткові умовні ентропії д. в. в. X стосовно д. в. в. Y:
Тоді загальна умовна ентропія X стосовно Y
Перевірка: H(X, Y)=HY+H(X/Y)=1,157+0,369=1,527(біт/сим). Відповідь: H(Y/x1)»0,222 (біт/сим); H(Y/x2)»0,705 (біт/сим); H(Y/x3)»0,593 (біт/сим); H(Y/X)»0,385 (біт/сим); H(X/y1)»0,289 (біт/сим); H(X/y2)»0,383 (біт/сим); H(X/y3)»1,148 (біт/сим); H(X/Y)»0,369 (біт/сим). Приклад 2Матриця сумісних ймовірностей каналу зв'язку має вигляд
Знайти інформаційні втрати, пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.
|
||||||||
|