Студопедия
Новини освіти і науки:
МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах


РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання


ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ"


ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ


Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків


Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні


Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах


Гендерна антидискримінаційна експертиза може зробити нас моральними рабами


ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ


ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів



Умовна ентропія

Повідомлення а і b, є статистично залежними, якщо існує ймовірність появи повідомлення b за умови, що вже з’явилось повідомлення а або навпаки. Мірою порушення статистичної незалежності між повідомленнями а і b є умовна ймовірність появи повідомлення а за умови, що вже з'явилося повідомлення b: p(a/b),або умовна ймовірність появи повідомлення b, коли вже з'явилося повідомлення а: р(b/а),причому взагалі p(a/b) ≠ р(b/а).

Теорія математичної статистики визначає умовну ймовірність через безумовні ймовірності p(а), р(b) тасумісну безумовну ймовірність p(ab) за законом множення ймовірностей:

р (ab) = p (a) p (b/a) = p (b) p (a/b). (7)

 

Звідси випливає, що

р (b/а) = р (ab) / р (а); р (a/b) = р (ab) / p (b). (8)

Умовною називають ентропію джерела повідомлень, яке містить статистично залежні повідомлення.

Розрізняють два різновиди умовної ентропії: часткову та загальну.

Для алфавітів (джерел) повідомлень

A = {a1, a2, ..., ai, ...,ak} та B= {b1, b2, ..., bj, ..., bl}

часткова умовна ентропія:

(9)

(10)

де аі — конкретне повідомлення, відносно якого визначається часткова умовна ентропія Н(B/ai) алфавіту В за умови вибору попереднього повідомлення ai, bj — конкретне повідомлення, відносно якого обчислюється часткова умовна ентропія Н(A/bj) алфавіту А за умови вибору попереднього повідомлення bj, і — номер повідомлення з алфавіту A; j — номер повідомлення з алфавіту В; р(a/b), р(b/а) — умовні ймовірності.

Алфавіти А та В можуть бути однакового (k = l) і різного (kl) обсягів.

При умові співпадання алфавітів А та В (А = В), часткову ентропію використовують для аналізу взаємозв’язку повідомлень одного і того ж джерела. Такі послідовності зумовлених повідомлень називають ланцюгами Маркова.

Статистична залежність джерела В від джерела А описується матрицею прямих переходів повідомлень aі(і = 1 ... k) джерела А в повідомлення bj (j = 1 ... k) джерела В:

Матриця відбиває вплив завад у каналі між джерелом А та спостерігачем В. Якщо завади непомітні або зовсім відсутні, то маємо однозначну відповідність аibi з умовної ймовірності p(bi/ai) = 1 для i = 1 ... k. Решта ймовірностей p(bj/ai) = 0 для всіх j ≠ і.

Кожний рядок матриці є спотвореним розподілом імовірностей РВ появи повідомлення bj В. Джерело В має розподіл безумовних імовірностей РВ. Врахування статистичного впливу повідомлення аi А спотворює цей розподіл (або уточнює його) і дає новий розподіл імовірностей Р (В/аі) для і-горядка матриці. Саме тому виконується закон нормування

, і = 1…k. (11)


Читайте також:

  1. А — позитивна умовна реакція натискання на клавішу, В — бурхлива емоційно-рухова реакція за відсутності харчового підкріплення сигналу.
  2. Абсолютна ентропія
  3. Джерело дискретних повідомлень і його ентропія
  4. Ентропія
  5. Ентропія д. в. в. X
  6. Ентропія дискретної величини
  7. Ентропія є мірою розсіяної (знеціненої) енергії, ентропія системи – це міра невпорядкованості її стану.
  8. Ентропія і імовірність
  9. Ентропія, енергія Гіббса та напрямленість процесів
  10. Кількість інформації по Шенону. Ентропія, як міра невизначеності інформації, та її властивості
  11. Самодовільних процесів. Ентропія
  12. У випадку відкритих систем ентропія може змінюватися як завгодно.




Переглядів: 2673

<== попередня сторінка | наступна сторінка ==>
Основні властивості ентропії | Властивості умовної ентропії

Не знайшли потрібну інформацію? Скористайтесь пошуком google:

  

© studopedia.com.ua При використанні або копіюванні матеріалів пряме посилання на сайт обов'язкове.


Генерація сторінки за: 0.003 сек.