МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах
РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ" ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах Гендерна антидискримінаційна експертиза може зробити нас моральними рабами ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів Контакти
Тлумачний словник |
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Розв'язанняПобудуємо розподіл ймовірностей д. в. в. X1(або X2) (табл. 1): Таблиця 1
Звідси знаходимо ентропію д. в. в X1, що у даному випадку буде максимальною, оскільки значення рівноймовірні: HX1=HX2=log26=1+log23»1+1,585»2,585 (біт/сим). Оскільки X1 та X2 незалежні д. в. в., то їх сумісна ймовірність визначається так: P(X1=i, X2=j)=P(X1=i)×P(X2=j)=1/36; i=1...6, j=1...6. Побудуємо допоміжною таблицю значень д. в. в. Y =X1+X2 (табл.2): Таблиця 2
Обчислимо ймовірності P(Y=j) (j=2, 3, …, 12): P(Y=2)=1/36; P(Y=3)=2×1/36=1/18; P(Y =4)=3×1/36=1/12; P(Y=5)=4×1/36=1/9; P(Y=6)=5×1/36=5/36; P(Y=7)=6×1/36=1/6; P(Y=8)=5×1/36=5/36;P(Y=9)=4×1/36=1/9; P(Y=10)=3×1/36=1/12; P(Y=11)=2×1/36=1/18; P(Y=12)=1/36; Скориставшись допоміжною таблицею (табл.2), запишемо безумовний закон розподілу д. в. в. Y (табл. 3): Таблиця 3
Звідси знаходимо ентропію д. в. в. Yтак: (біт/сим) Побудуємо таблицю розподілу ймовірностей системи д. в. в. (X1, Y) pij=P(X1=i, Y=j) (табл. 4). Таблиця 4
Тоді взаємна ентропія д. в. в. X1, Y =log236=2log26=2(1+log23)»2+ +2×1,585»5,17 (біт/сим). Кількість інформації, що містить д. в. в. Y стосовно д. в. в. X1, обчислимо за формулою . Отже, (біт/сим). Кількість інформаціїI(Y, X1) здебільшого зручніше знайти, скориставшись властивістю 4 кількості інформації і ентропії: . Оскільки Y=X1+X2, де X1 та X2 – незалежні д. в. в., то . (біт/сим). Відповідь: (біт/сим); (біт/сим); (біт/сим). Приклад 2Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z та кількість інформації, що містить д. в. в. стосовно X та Y. X, Y – незалежні д. в. в., які задаються такими розподілами (табл. 1, табл. 2): Таблиця 1 Таблиця 2
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|