Студопедия
Новини освіти і науки:
МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах


РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання


ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ"


ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ


Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків


Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні


Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах


Гендерна антидискримінаційна експертиза може зробити нас моральними рабами


ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ


ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів



Розв'язання

Побудуємо розподіл ймовірностей д. в. в. X1(або X2) (табл. 1):

Таблиця 1

X1
pi 1/6 1/6 1/6 1/6 1/6 1/6

 

Звідси знаходимо ентропію д. в. в X1, що у даному випадку буде максимальною, оскільки значення рівноймовірні:

HX1=HX2=log26=1+log23»1+1,585»2,585 (біт/сим).

Оскільки X1 та X2 незалежні д. в. в., то їх сумісна ймовірність визначається так:

P(X1=i, X2=j)=P(X1=iP(X2=j)=1/36; i=1...6, j=1...6.

Побудуємо допоміжною таблицю значень д. в. в. Y =X1+X2 (табл.2):

Таблиця 2

X2   X1

 

Обчислимо ймовірності P(Y=j) (j=2, 3, …, 12):

P(Y=2)=1/36; P(Y=3)=2×1/36=1/18; P(Y =4)=3×1/36=1/12;

P(Y=5)=4×1/36=1/9; P(Y=6)=5×1/36=5/36; P(Y=7)=6×1/36=1/6; P(Y=8)=5×1/36=5/36;P(Y=9)=4×1/36=1/9; P(Y=10)=3×1/36=1/12; P(Y=11)=2×1/36=1/18; P(Y=12)=1/36;

Скориставшись допоміжною таблицею (табл.2), запишемо безумовний закон розподілу д. в. в. Y (табл. 3):

Таблиця 3

Yj
qj 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36

 

Звідси знаходимо ентропію д. в. в. Yтак:

(біт/сим)

Побудуємо таблицю розподілу ймовірностей системи д. в. в. (X1, Y) pij=P(X1=i, Y=j) (табл. 4).

Таблиця 4

X1 Y
1/36 1/36 1/36 1/36 1/36 1/36
1/36 1/36 1/36 1/36 1/36 1/36
1/36 1/36 1/36 1/36 1/36 1/36
1/36 1/36 1/36 1/36 1/36 1/36
1/36 1/36 1/36 1/36 1/36 1/36
1/36 1/36 1/36 1/36 1/36 1/36
  1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36

 

Тоді взаємна ентропія д. в. в. X1, Y

=log236=2log26=2(1+log23)»2+

+2×1,585»5,17 (біт/сим).

Кількість інформації, що містить д. в. в. Y стосовно д. в. в. X1, обчислимо за формулою . Отже,

(біт/сим).

Кількість інформаціїI(Y, X1) здебільшого зручніше знайти, скориставшись властивістю 4 кількості інформації і ентропії:

.

Оскільки Y=X1+X2, де X1 та X2 – незалежні д. в. в., то

.

(біт/сим).

Відповідь: (біт/сим);

(біт/сим);

(біт/сим).

Приклад 2Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z та кількість інформації, що містить д. в. в. стосовно X та Y. X, Y – незалежні д. в. в., які задаються такими розподілами (табл. 1, табл. 2):

Таблиця 1 Таблиця 2

X   Y
p 1/8 1/8 1/4 1/2 q 1/4



Переглядів: 701

<== попередня сторінка | наступна сторінка ==>
Загальні правила роботи в аналітичній лабораторії. Техніка безпеки. | Ентропія д. в. в. X

Не знайшли потрібну інформацію? Скористайтесь пошуком google:

  

© studopedia.com.ua При використанні або копіюванні матеріалів пряме посилання на сайт обов'язкове.


Генерація сторінки за: 0.004 сек.