МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах
РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ" ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах Гендерна антидискримінаційна експертиза може зробити нас моральними рабами ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів
Контакти
Тлумачний словник Авто Автоматизація Архітектура Астрономія Аудит Біологія Будівництво Бухгалтерія Винахідництво Виробництво Військова справа Генетика Географія Геологія Господарство Держава Дім Екологія Економетрика Економіка Електроніка Журналістика та ЗМІ Зв'язок Іноземні мови Інформатика Історія Комп'ютери Креслення Кулінарія Культура Лексикологія Література Логіка Маркетинг Математика Машинобудування Медицина Менеджмент Метали і Зварювання Механіка Мистецтво Музика Населення Освіта Охорона безпеки життя Охорона Праці Педагогіка Політика Право Програмування Промисловість Психологія Радіо Регилия Соціологія Спорт Стандартизація Технології Торгівля Туризм Фізика Фізіологія Філософія Фінанси Хімія Юриспунденкция |
|
|||||||
Кількість інформації, яка отримується при вимірюванніВластивості ентропії 1. Ентропія Н(Х) дискретної вимірюваної величини Х при даному числі n її можливих значень x1, x2, ..., xn досягає максимуму, який дорівнює logn, якщо ці значення рівноймовірні. 2. Ентропія Н(Х) не залежить від послідовності підсумовування в (3.1).
Результат вимірювань звичайно характеризують числовим значенням одержаним при вимірюванні. При цьому використовують поняття абсолютної, відносної та зведеної похибки. Якщо засіб вимірювань має діапазон вимірювання від Х1 до Х2, а його абсолютна похибка ±Dх не залежить від поточного значення х вимірюваної величини, то отримавши результат вимірювання у вигляді показу ХП, записують його як ХП±Dх і характеризують зведеною похибкою
Розгляд цих же дій з позиції теорії інформації носить дещо інший характер. Він відрізняється тим, що всім згаданим вище поняттям надається імовірнісний статистичний характер. Результат проведеного вимірювання трактується як скорочення області невизначеності вимірюваної величини. В теорії інформації той факт, що засіб вимірювання має діапазон вимірювань від Х1 до Х2 означає, що при використанні цього засобу може бути отриманий показ ХП тільки в межах від Х1 до Х2. Іншими словами, ймовірність показу ХП<Х1 або ХП>Х2 дорівнює нулю. Ймовірність одержання результату Х1<ХП<Х2 дорівнює одиниці. Якщо припустити, що щільність функції розподілу різних значень вимірюваної величини вздовж всієї шкали засобу вимірювання однакова, то з точки зору теорії інформації наше знання про значення вимірюваної величини до вимірювання може бути представлено графіком розподілу щільності ймовірності р(х) вздовж шкали значень х, що вказані на рис.3.1. Нехай після проведення вимірювання показ засобу вимірювання склав ХП. Внаслідок похибки засобу вимірювання, яка дорівнює ±Dх, ми не можемо стверджувати, що вимірювана величина точно дорівнює хП. Само тому результат вимірювання і записують у вигляді ХП±Dх, тобто дійсне значення вимірюваної величини лежить десь в межах від ХП-Dх до ХП+Dх, тобто в межах інтервалу 2Dх, як показано на рис.3.1. З точки зору теорії інформації результат вимірювання полягає в тому, що до вимірювання область невизначеності поширювалась від Х1 до Х2 і характеризувалась малою щільністю ймовірності р(х)=1/(Х2-Х1), а після вимірювання вона зменшилась до величини 2Dх і характеризується набагато більшою щільністю ймовірності р(х)=1/2Dх. Згідно з положеннями ентропійної теорії інформації її кількість, яка отримується при вимірюванні визначається як різниця в ентропіях вимірюваної величини до і після вимірювання
де H(X) - початкова ентропія вимірюваної величини; H(X|XП)- залишкова ентропія вимірюваної величини після того, як показ приладу склав XП; В даному прикладі
а залишкова умовна ентропія результату вимірювання після одержання відліку XП дорівнює
Кількість інформації, отримана при вимірюванні, дорівнює різниці
Таким чином, чим точніше проведене вимірювання, тобто, чим менше значення має похибка вимірювання D, тим більше інформації дає вимірювання.
Читайте також:
|
||||||||
|