МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах
РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ" ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах Гендерна антидискримінаційна експертиза може зробити нас моральними рабами ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів Контакти
Тлумачний словник |
|
||||||||||||||||||||||||||
Інформація. Інформаційні потоки в живих системахІнформація (від лат. informatio - роз'яснення, освідомлення) - це один із широко використовуваних на сьогодні термінів, що вживає людину в процесі діяльності. Створюються інформаційні центри, передаються інформаційні програми, говорять про лавинний ріст інформаційних потоків, повідомляється інформація «для міркування» і т.д. Практично одночасно і взаємозалежно з появою кібернетики в XX сторіччі створюється теорія інформації - роздягнув кібернетики, присвячений математичному описові процесів одержання, збереження, переробки і передачі інформації. Ця теорія виникла в ході рішення задач передачі потоків повідомлень по каналах зв'язку в технічних системах, і перша фундаментальна праця належить К.Шеннону «Математична теорія зв'язку» (1948 р.). Сьогодні поняття «інформація» є однієї з основних філософських категорій, поряд з такими категоріями, як матерія, енергія, без яких неможливе опис функціонування живих систем. До основних понять теорії інформації відносяться: повідомлення, сигнал, кількість інформації, ентропія, кодування, пропускна здатність каналу зв'язку. Повідомлення - це деяка інформація про події, закодована у формі визначеного сигналу. Сигнал - фізичний носій інформації. Сигналом може бути звук, світло, буква, механічний удар і ін. Перш ніж розглянути питання про кількість інформації, необхідно відзначити наступні її властивості: 1. Інформація має сенс тільки при наявності її приймача (споживача). Якщо приймаючий об'єкт відсутній, то не можна говорити про існування інформації. Так, якщо в кімнаті працює телевізор, але в ній немає людини, те усе, що показується і говориться, не є інформацією. 2. Наявність сигналу не обов'язково говорить про те, що передається деяка інформація. Інформативно тільки таке повідомлення, що несе в собі щось невідоме раніше, у чому бідує об'єкт, якому воно передається. 3. Інформація може передаватися не обов'язково тільки через нашу свідомість. Вона передається і на підсвідомому рівні, і на рівні внутрішніх процесів в організмі. Для м'язів рухового апарата нервові імпульси, що прийшли до нього, несуть інформацію про необхідні дії; для серця обсяг крові в діастолу несе інформацію про необхідну силу наступного скорочення, перебудова конформації ферменту несе інформацію для процесів переносу іонів і ін. 4. Якщо подія достовірне (тобто його імовірність Р=1), те повідомлення про те, що воно відбулося, не несе ніякої інформації для споживача. Так, якщо ви в даний момент читаєте цю сторінку підручника і вам хтось про це повідомляє, те в цьому повідомленні для вас немає нічого нового, тобто не утримується абсолютно ніякої інформації. 5. Повідомлення про подію, імовірність якого р<1, містить у собі інформацію, і тим більшу, ніж менше імовірність події, що відбулося. Таким чином, чим менше імовірність деякої події, тим більша кількість інформації містить повідомлення про те, що воно відбулося. Так, наприклад, якщо у Всесвіті з'явилася супернова зірка, подія вкрай малоймовірне, про це повідомляють усі світові інформаційні агентства і газети, тому що в цьому повідомленні утримується величезна кількість інформації. Шеннон дав наступне визначення інформації: «Інформація, що утримується в повідомленні, є міра тієї кількості невизначеності, що ліквідується після одержання даного повідомлення». Кількість інформації I (хi), що утримується в повідомленні хi, дорівнює логарифмові величини, зворотної імовірності Р(хi) цієї події: (10.1) За одиницю інформації прийнята кількість інформації, що утримується в повідомленні про те, що відбулося одне з двох рівноможливих подій, тобто якщо Р(А) = Р(У) = 0,5, те IA = IB = –log20,5 = 1. Це кількість інформації називають біт. Приклад: Скільки біт інформації містить довільне тризначне число? Перша цифра має 9 різних значень від 1 до 9 (тому що 0 на початку числа незначне), друга і третя - по 10 значень (від 0 до 9). Тоді I = log29 + 2log210 = 9,28 біт. У теорії інформації джерело інформації задається у виді безлічі повідомлень Х1, Х2, ..., Хn, з імовірностями відповідно P1, P2, ..., Pn. У цьому випадку середня кількість інформації, що приходиться на одне повідомлення, визначається по формулі Шеннона: (10.2) де i = 1, 2, ..., n. Приклад: Розрахуємо кількість інформації IА й IВ у повідомленнях про події А и В, імовірності яких: Ρ (А) = 3/4 і Ρ (В) = 1/4. Для повідомлення А: IА = –log2(3/4) = 0,42 біт. Для повідомлення В: IВ = –log2(1/4) = 2,0 біт. Середня кількість інформації на одне повідомлення: Величина I розглядається як міра невизначеності зведень про джерело інформації, що мала місце до прийому повідомлень і було усунуто після їхнього одержання. Цю міру невизначеності називають ентропією (Н) джерела інформації, що приходиться на одне повідомлення. У такий спосіб: (10.3) Середня кількість інформації й ентропія Η чисельно рівні, але мають протилежний сенс. Чим з більшого числа повідомлень одержувач інформації повинний зробити вибір, тим більше значення має інформаційна ентропія. Для джерела з єдино можливим повідомленням, імовірність якого прагне в 1 (Рà1), ентропія прагне до нуля (Нà0). Якщо всі k можливих повідомлень джерела рівноможливі ( Р(хi) = 1/k), то його ентропія Η максимальна: Hmax = log2k. (10.4) Передбачається, що кожному повідомленню відповідає тільки один з можливих станів джерела. У цьому випадку величина може служити мірою неорганізованості системи, що є джерелом інформації. Ніж менш організована система, тим більше число її можливих станів і величина максимальної ентропії. Для приклада розглянемо три джерела інформації А, В и С, характеризуються трьома повідомленнями кожний: I, II і III з імовірностями, зазначеними нижче:
Обчислимо ентропії джерел А, В и С на одне повідомлення: = 0,92 біт. = 1,50 біт. Hc = log23 = 1,50 біт.
Як бачимо, джерело інформації З, що характеризується повідомленнями з однаковими імовірностями (Р = 0,33), має найбільшу Η = Hmax, тобто найбільший ступінь невизначеності. Рівень визначеності (детермінованості) джерела інформації характеризується величиною де Η - ентропія на один стан джерела інформації, Ηmax - максимальна ентропія на одне повідомлення, коли всі повідомлення рівноможливі. У нашому прикладі RC = 0, RB = 0,02, Якщо R = 1,0-0,3, джерело інформації вважається детерміноване, R = 0,3-0,1 – можливо детерміноване, R < 0,1 можливим (стохастичним). Таким чином, джерела В и С - стохастичні, а джерело А - детерміноване. Середня кількість інформації, що може одержати об'єкт, залежить від характеристик каналу зв'язку. Каналом зв'язку може бути провід, світловий промінь, хвилевід, нервові волокна, кровоносні судини й ін. Основною характеристикою каналу зв'язку є його пропускна здатність. Вона буде визначатися граничною швидкістю передачі інформації, вимірюваної в біт/с. Для передачі повідомлення по каналі інформація кодується, наприклад, положення прапора на флоті, абетка Морзе, послідовність, частота, тривалість імпульсів у нервовій мережі й ін. На прийомній стороні необхідний декодер, що здійснює зворотне кодеру перетворення: код сигналу перетвориться в зміст повідомлення. Блок-схема каналу зв'язку показана на мал. 10.6. При передачі інформації з каналу зв'язку можуть відбуватися її перекручування за рахунок перешкод із зовнішнього середовища і порушень у самій лінії. Ефективними способами боротьби з перекручуваннями інформації є створення її надмірності і передача сигналів по великому числу рівнобіжних каналів. Обоє ці способу широко використовуються в організмі людини. У нервових мережах завжди забезпечується дублювання основного повідомлення великим числом рівнобіжних сигналів, тому кількість рецепторів значно перевищує кількість нейронів, до яких від них надходять сигнали. Пропускна здатність будь-яких рецепторних апаратів істотно вище можливостей усвідомлення сенсорної інформації. Людська свідомість користується дуже малою часткою інформації, що поставляється в мозок периферичними відділами аналізаторів - сенсорними входами. Так наприклад, максимальний потік інформації в процесі зорового сприйняття, усвідомлюваного людиною, складає всього 40 біт/з, тоді як інформаційна ємність потоку нервових імпульсів у зорових нервах оцінюється величиною 107 біт/с. За рахунок настільки величезної надмірності досягається висока надійність процесів в організмі. Читайте також:
|
|||||||||||||||||||||||||||
|