МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах
РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ" ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах Гендерна антидискримінаційна експертиза може зробити нас моральними рабами ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів Контакти
Тлумачний словник |
|
|||||||
Умовна ентропіяПовідомлення а і b, є статистично залежними, якщо існує ймовірність появи повідомлення b за умови, що вже з’явилось повідомлення а або навпаки. Мірою порушення статистичної незалежності між повідомленнями а і b є умовна ймовірність появи повідомлення а за умови, що вже з'явилося повідомлення b: p(a/b),або умовна ймовірність появи повідомлення b, коли вже з'явилося повідомлення а: р(b/а),причому взагалі p(a/b) ≠ р(b/а). Теорія математичної статистики визначає умовну ймовірність через безумовні ймовірності p(а), р(b) тасумісну безумовну ймовірність p(ab) за законом множення ймовірностей: р (ab) = p (a) p (b/a) = p (b) p (a/b). (7)
Звідси випливає, що р (b/а) = р (ab) / р (а); р (a/b) = р (ab) / p (b). (8) Умовною називають ентропію джерела повідомлень, яке містить статистично залежні повідомлення. Розрізняють два різновиди умовної ентропії: часткову та загальну. Для алфавітів (джерел) повідомлень A = {a1, a2, ..., ai, ...,ak} та B= {b1, b2, ..., bj, ..., bl} часткова умовна ентропія: (9) (10) де аі — конкретне повідомлення, відносно якого визначається часткова умовна ентропія Н(B/ai) алфавіту В за умови вибору попереднього повідомлення ai, bj — конкретне повідомлення, відносно якого обчислюється часткова умовна ентропія Н(A/bj) алфавіту А за умови вибору попереднього повідомлення bj, і — номер повідомлення з алфавіту A; j — номер повідомлення з алфавіту В; р(a/b), р(b/а) — умовні ймовірності. Алфавіти А та В можуть бути однакового (k = l) і різного (k ≠ l) обсягів. При умові співпадання алфавітів А та В (А = В), часткову ентропію використовують для аналізу взаємозв’язку повідомлень одного і того ж джерела. Такі послідовності зумовлених повідомлень називають ланцюгами Маркова. Статистична залежність джерела В від джерела А описується матрицею прямих переходів повідомлень aі(і = 1 ... k) джерела А в повідомлення bj (j = 1 ... k) джерела В: Матриця відбиває вплив завад у каналі між джерелом А та спостерігачем В. Якщо завади непомітні або зовсім відсутні, то маємо однозначну відповідність аi → bi з умовної ймовірності p(bi/ai) = 1 для i = 1 ... k. Решта ймовірностей p(bj/ai) = 0 для всіх j ≠ і. Кожний рядок матриці є спотвореним розподілом імовірностей РВ появи повідомлення bj В. Джерело В має розподіл безумовних імовірностей РВ. Врахування статистичного впливу повідомлення аi А спотворює цей розподіл (або уточнює його) і дає новий розподіл імовірностей Р (В/аі) для і-горядка матриці. Саме тому виконується закон нормування , і = 1…k. (11) Читайте також:
|
||||||||
|