Студопедия
Новини освіти і науки:
МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах


РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання


ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ"


ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ


Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків


Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні


Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах


Гендерна антидискримінаційна експертиза може зробити нас моральними рабами


ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ


ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів



Контакти
 


Тлумачний словник
Авто
Автоматизація
Архітектура
Астрономія
Аудит
Біологія
Будівництво
Бухгалтерія
Винахідництво
Виробництво
Військова справа
Генетика
Географія
Геологія
Господарство
Держава
Дім
Екологія
Економетрика
Економіка
Електроніка
Журналістика та ЗМІ
Зв'язок
Іноземні мови
Інформатика
Історія
Комп'ютери
Креслення
Кулінарія
Культура
Лексикологія
Література
Логіка
Маркетинг
Математика
Машинобудування
Медицина
Менеджмент
Метали і Зварювання
Механіка
Мистецтво
Музика
Населення
Освіта
Охорона безпеки життя
Охорона Праці
Педагогіка
Політика
Право
Програмування
Промисловість
Психологія
Радіо
Регилия
Соціологія
Спорт
Стандартизація
Технології
Торгівля
Туризм
Фізика
Фізіологія
Філософія
Фінанси
Хімія
Юриспунденкция






Умовна ентропія

Повідомлення а і b, є статистично залежними, якщо існує ймовірність появи повідомлення b за умови, що вже з’явилось повідомлення а або навпаки. Мірою порушення статистичної незалежності між повідомленнями а і b є умовна ймовірність появи повідомлення а за умови, що вже з'явилося повідомлення b: p(a/b),або умовна ймовірність появи повідомлення b, коли вже з'явилося повідомлення а: р(b/а),причому взагалі p(a/b) ≠ р(b/а).

Теорія математичної статистики визначає умовну ймовірність через безумовні ймовірності p(а), р(b) тасумісну безумовну ймовірність p(ab) за законом множення ймовірностей:

р (ab) = p (a) p (b/a) = p (b) p (a/b). (7)

 

Звідси випливає, що

р (b/а) = р (ab) / р (а); р (a/b) = р (ab) / p (b). (8)

Умовною називають ентропію джерела повідомлень, яке містить статистично залежні повідомлення.

Розрізняють два різновиди умовної ентропії: часткову та загальну.

Для алфавітів (джерел) повідомлень

A = {a1, a2, ..., ai, ...,ak} та B= {b1, b2, ..., bj, ..., bl}

часткова умовна ентропія:

(9)

(10)

де аі — конкретне повідомлення, відносно якого визначається часткова умовна ентропія Н(B/ai) алфавіту В за умови вибору попереднього повідомлення ai, bj — конкретне повідомлення, відносно якого обчислюється часткова умовна ентропія Н(A/bj) алфавіту А за умови вибору попереднього повідомлення bj, і — номер повідомлення з алфавіту A; j — номер повідомлення з алфавіту В; р(a/b), р(b/а) — умовні ймовірності.

Алфавіти А та В можуть бути однакового (k = l) і різного (k l) обсягів.

При умові співпадання алфавітів А та В (А = В), часткову ентропію використовують для аналізу взаємозв’язку повідомлень одного і того ж джерела. Такі послідовності зумовлених повідомлень називають ланцюгами Маркова.

Статистична залежність джерела В від джерела А описується матрицею прямих переходів повідомлень aі(і = 1 ... k) джерела А в повідомлення bj (j = 1 ... k) джерела В:

Матриця відбиває вплив завад у каналі між джерелом А та спостерігачем В. Якщо завади непомітні або зовсім відсутні, то маємо однозначну відповідність аibi з умовної ймовірності p(bi/ai) = 1 для i = 1 ... k. Решта ймовірностей p(bj/ai) = 0 для всіх j ≠ і.

Кожний рядок матриці є спотвореним розподілом імовірностей РВ появи повідомлення bj В. Джерело В має розподіл безумовних імовірностей РВ. Врахування статистичного впливу повідомлення аi А спотворює цей розподіл (або уточнює його) і дає новий розподіл імовірностей Р (В/аі) для і-горядка матриці. Саме тому виконується закон нормування

, і = 1…k. (11)


Читайте також:

  1. А — позитивна умовна реакція натискання на клавішу, В — бурхлива емоційно-рухова реакція за відсутності харчового підкріплення сигналу.
  2. Абсолютна ентропія
  3. Джерело дискретних повідомлень і його ентропія
  4. Ентропія
  5. Ентропія д. в. в. X
  6. Ентропія дискретної величини
  7. Ентропія є мірою розсіяної (знеціненої) енергії, ентропія системи – це міра невпорядкованості її стану.
  8. Ентропія і імовірність
  9. Ентропія, енергія Гіббса та напрямленість процесів
  10. Кількість інформації по Шенону. Ентропія, як міра невизначеності інформації, та її властивості
  11. Самодовільних процесів. Ентропія
  12. У випадку відкритих систем ентропія може змінюватися як завгодно.




Переглядів: 2601

<== попередня сторінка | наступна сторінка ==>
Основні властивості ентропії | Властивості умовної ентропії

Не знайшли потрібну інформацію? Скористайтесь пошуком google:

 

© studopedia.com.ua При використанні або копіюванні матеріалів пряме посилання на сайт обов'язкове.


Генерація сторінки за: 0.004 сек.