МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах
РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ" ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах Гендерна антидискримінаційна експертиза може зробити нас моральними рабами ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів Контакти
Тлумачний словник |
|
|||||||
Основні властивості ентропіїРозглянемо вироджене дискретне джерело з єдиним повідомленням а А з р(а) = 1. Тоді Н(А) = 0 згідно з (1). Якщо р(а) = 0, то Н(А) теж дорівнюватиме нулю. Таким чином, ентропія завжди додатна або дорівнює нулю,тобто невід'ємна — це перша властивість. Друга властивість ентропії випливає з виразу (1), згідно з яким вона є величиною адитивною. Якщо N-вимірні послідовності повідомлень а1, а2, ..., aN розглядати як збільшені повідомлення нового джерела, то його ентропія буде в N разів більшою від початкової. Якщо алфавіт А = { а1, а2, ..., ak } має k різних повідомлень, то Н(А) ≤ log k. Тут рівність стосується тільки рівноймовірних і статистично незалежних повідомлень аі А. Число k називається обсягом алфавіту повідомлень.
Безумовна ентропія — це кількість інформації, яка припадає на одне повідомлення джерела із статистично незалежними повідомленнями. Якщо є дискретне джерело статистично незалежних повідомлень з ансамблем А = {а1, а2, ..., aі, ..., ak} та р = {pl, p2, ..., pі,..., рк},то кількість інформації (середня), що припадає на одне повідомлення aі А й визначається формулою Шеннона , (3) є характеристикою цього джерела в цілому. Наприклад, джерело з k = 8 незалежними та рівноймовірними повідомленнями має ентропію біт/повідомлення.
Якщо р = 1 або 0, то до ансамблю А не може входити більш як одне повідомлення. Таким чином, або (4) , де невизначеність 0 · ∞, якщо її розкрити за правилом Лопіталя через граничний перехід, дає Н0(А) = 0.(5)
Безумовна ентропія K рівноймовірних повідомлень завжди максимальна і обчислюється за формулою Хартлі: . (6)
Основні властивості безумовної ентропії дискретних повідомлень: – ентропія — величина дійсна, обмежена та невід'ємна; – ентропія вірогідних повідомлень дорівнює нулю; – ентропія максимальна, якщо повідомлення рівно ймовірні та статистично незалежні; – ентропія джерела з двома альтернативними подіями може змінюватися від 0 до 1; – ентропія складеного джерела, повідомлення якого складаються з часткових повідомлень кількох статистично незалежних джерел, дорівнює сумі ентропії цих джерел.
Читайте також:
|
||||||||
|