Студопедия
Новини освіти і науки:
МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах


РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання


ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ"


ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ


Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків


Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні


Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах


Гендерна антидискримінаційна експертиза може зробити нас моральними рабами


ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ


ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів



Контакти
 


Тлумачний словник
Авто
Автоматизація
Архітектура
Астрономія
Аудит
Біологія
Будівництво
Бухгалтерія
Винахідництво
Виробництво
Військова справа
Генетика
Географія
Геологія
Господарство
Держава
Дім
Екологія
Економетрика
Економіка
Електроніка
Журналістика та ЗМІ
Зв'язок
Іноземні мови
Інформатика
Історія
Комп'ютери
Креслення
Кулінарія
Культура
Лексикологія
Література
Логіка
Маркетинг
Математика
Машинобудування
Медицина
Менеджмент
Метали і Зварювання
Механіка
Мистецтво
Музика
Населення
Освіта
Охорона безпеки життя
Охорона Праці
Педагогіка
Політика
Право
Програмування
Промисловість
Психологія
Радіо
Регилия
Соціологія
Спорт
Стандартизація
Технології
Торгівля
Туризм
Фізика
Фізіологія
Філософія
Фінанси
Хімія
Юриспунденкция






Інформація. Інформаційні потоки в живих системах

Інформація (від лат. informatio - роз'яснення, освідомлення) - це один із широко використовуваних на сьогодні термінів, що вживає людину в процесі діяльності. Створюються інформаційні центри, передаються інформаційні програми, говорять про лавинний ріст інформаційних потоків, повідомляється інформація «для міркування» і т.д. Практично одночасно і взаємозалежно з появою кібернетики в XX сторіччі створюється теорія інформації - роздягнув кібернетики, присвячений математичному описові процесів одержання, збереження, переробки і передачі інформації.

Ця теорія виникла в ході рішення задач передачі потоків повідомлень по каналах зв'язку в технічних системах, і перша фундаментальна праця належить К.Шеннону «Математична теорія зв'язку» (1948 р.). Сьогодні поняття «інформація» є однієї з основних філософських категорій, поряд з такими категоріями, як матерія, енергія, без яких неможливе опис функціонування живих систем.

До основних понять теорії інформації відносяться: повідомлення, сигнал, кількість інформації, ентропія, кодування, пропускна здатність каналу зв'язку.

Повідомлення - це деяка інформація про події, закодована у формі визначеного сигналу.

Сигнал - фізичний носій інформації. Сигналом може бути звук, світло, буква, механічний удар і ін.

Перш ніж розглянути питання про кількість інформації, необхідно відзначити наступні її властивості:

1. Інформація має сенс тільки при наявності її приймача (споживача). Якщо приймаючий об'єкт відсутній, то не можна говорити про існування інформації. Так, якщо в кімнаті працює телевізор, але в ній немає людини, те усе, що показується і говориться, не є інформацією.

2. Наявність сигналу не обов'язково говорить про те, що передається деяка інформація. Інформативно тільки таке повідомлення, що несе в собі щось невідоме раніше, у чому бідує об'єкт, якому воно передається.

3. Інформація може передаватися не обов'язково тільки через нашу свідомість. Вона передається і на підсвідомому рівні, і на рівні внутрішніх процесів в організмі. Для м'язів рухового апарата нервові імпульси, що прийшли до нього, несуть інформацію про необхідні дії; для серця обсяг крові в діастолу несе інформацію про необхідну силу наступного скорочення, перебудова конформації ферменту несе інформацію для процесів переносу іонів і ін.

4. Якщо подія достовірне (тобто його імовірність Р=1), те повідомлення про те, що воно відбулося, не несе ніякої інформації для споживача. Так, якщо ви в даний момент читаєте цю сторінку підручника і вам хтось про це повідомляє, те в цьому повідомленні для вас немає нічого нового, тобто не утримується абсолютно ніякої інформації.

5. Повідомлення про подію, імовірність якого р<1, містить у собі інформацію, і тим більшу, ніж менше імовірність події, що відбулося.

Таким чином, чим менше імовірність деякої події, тим більша кількість інформації містить повідомлення про те, що воно відбулося.

Так, наприклад, якщо у Всесвіті з'явилася супернова зірка, подія вкрай малоймовірне, про це повідомляють усі світові інформаційні агентства і газети, тому що в цьому повідомленні утримується величезна кількість інформації.

Шеннон дав наступне визначення інформації:

«Інформація, що утримується в повідомленні, є міра тієї кількості невизначеності, що ліквідується після одержання даного повідомлення».

Кількість інформації I (хi), що утримується в повідомленні хi, дорівнює логарифмові величини, зворотної імовірності Р(хi) цієї події:

(10.1)

За одиницю інформації прийнята кількість інформації, що утримується в повідомленні про те, що відбулося одне з двох рівноможливих подій, тобто якщо Р(А) = Р(У) = 0,5, те

IA = IB = –log20,5 = 1.

Це кількість інформації називають біт.

Приклад: Скільки біт інформації містить довільне тризначне число?

Перша цифра має 9 різних значень від 1 до 9 (тому що 0 на початку числа незначне), друга і третя - по 10 значень (від 0 до 9). Тоді

I = log29 + 2log210 = 9,28 біт.

У теорії інформації джерело інформації задається у виді безлічі повідомлень Х1, Х2, ..., Хn, з імовірностями відповідно P1, P2, ..., Pn. У цьому випадку середня кількість інформації, що приходиться на одне повідомлення, визначається по формулі Шеннона:

(10.2)

де i = 1, 2, ..., n.

Приклад: Розрахуємо кількість інформації IА й IВ у повідомленнях про події А и В, імовірності яких: Ρ (А) = 3/4 і Ρ (В) = 1/4.

Для повідомлення А: IА = –log2(3/4) = 0,42 біт.

Для повідомлення В: IВ = –log2(1/4) = 2,0 біт.

Середня кількість інформації на одне повідомлення:

Величина I розглядається як міра невизначеності зведень про джерело інформації, що мала місце до прийому повідомлень і було усунуто після їхнього одержання.

Цю міру невизначеності називають ентропією (Н) джерела інформації, що приходиться на одне повідомлення. У такий спосіб:

(10.3)

Середня кількість інформації й ентропія Η чисельно рівні, але мають протилежний сенс.

Чим з більшого числа повідомлень одержувач інформації повинний зробити вибір, тим більше значення має інформаційна ентропія.

Для джерела з єдино можливим повідомленням, імовірність якого прагне в 1 (Рà1), ентропія прагне до нуля (Нà0).

Якщо всі k можливих повідомлень джерела рівноможливі ( Р(хi) = 1/k), то його ентропія Η максимальна:

Hmax = log2k. (10.4)

Передбачається, що кожному повідомленню відповідає тільки один з можливих станів джерела. У цьому випадку величина може служити мірою неорганізованості системи, що є джерелом інформації. Ніж менш організована система, тим більше число її можливих станів і величина максимальної ентропії.

Для приклада розглянемо три джерела інформації А, В и С, характеризуються трьома повідомленнями кожний: I, II і III з імовірностями, зазначеними нижче:

 

повідомлення   джерело I II III
A 0,8 0,1 0,1
B 0,4 0,4 0,2
C 0,33 0,33 0,33

 

Обчислимо ентропії джерел А, В и С на одне повідомлення:

= 0,92 біт.

= 1,50 біт.

Hc = log23 = 1,50 біт.

 

Як бачимо, джерело інформації З, що характеризується повідомленнями з однаковими імовірностями (Р = 0,33), має найбільшу Η = Hmax, тобто найбільший ступінь невизначеності.

Рівень визначеності (детермінованості) джерела інформації характеризується величиною

де Η - ентропія на один стан джерела інформації, Ηmax - максимальна ентропія на одне повідомлення, коли всі повідомлення рівноможливі. У нашому прикладі RC = 0, RB = 0,02,
RA = 0,4.

Якщо R = 1,0-0,3, джерело інформації вважається детерміноване, R = 0,3-0,1 – можливо детерміноване, R < 0,1 можливим (стохастичним). Таким чином, джерела В и С - стохастичні, а джерело А - детерміноване.

Середня кількість інформації, що може одержати об'єкт, залежить від характеристик каналу зв'язку. Каналом зв'язку може бути провід, світловий промінь, хвилевід, нервові волокна, кровоносні судини й ін. Основною характеристикою каналу зв'язку є його пропускна здатність. Вона буде визначатися граничною швидкістю передачі інформації, вимірюваної в біт/с.

 
 

Для передачі повідомлення по каналі інформація кодується, наприклад, положення прапора на флоті, абетка Морзе, послідовність, частота, тривалість імпульсів у нервовій мережі й ін. На прийомній стороні необхідний декодер, що здійснює зворотне кодеру перетворення: код сигналу перетвориться в зміст повідомлення. Блок-схема каналу зв'язку показана на мал. 10.6.

При передачі інформації з каналу зв'язку можуть відбуватися її перекручування за рахунок перешкод із зовнішнього середовища і порушень у самій лінії.

Ефективними способами боротьби з перекручуваннями інформації є створення її надмірності і передача сигналів по великому числу рівнобіжних каналів. Обоє ці способу широко використовуються в організмі людини. У нервових мережах завжди забезпечується дублювання основного повідомлення великим числом рівнобіжних сигналів, тому кількість рецепторів значно перевищує кількість нейронів, до яких від них надходять сигнали.

Пропускна здатність будь-яких рецепторних апаратів істотно вище можливостей усвідомлення сенсорної інформації. Людська свідомість користується дуже малою часткою інформації, що поставляється в мозок периферичними відділами аналізаторів - сенсорними входами. Так наприклад, максимальний потік інформації в процесі зорового сприйняття, усвідомлюваного людиною, складає всього 40 біт/з, тоді як інформаційна ємність потоку нервових імпульсів у зорових нервах оцінюється величиною 107 біт/с. За рахунок настільки величезної надмірності досягається висока надійність процесів в організмі.


Читайте також:

  1. Автоматизація водорозподілу на відкритих зрошувальних системах. Методи керування водорозподілом. Вимірювання рівня води. Вимірювання витрати.
  2. Автомати­зовані інформаційні систе­ми для техніч­ного аналізу товар­них, фондових та валют­них ринків.
  3. Арифметичні операції в різних системах числення
  4. Біоценоз – це сукупність усіх живих організмів в рамках даної екосистеми.
  5. Бюлетені та інші інформаційні матеріали, електронні видання
  6. В системах електропостачання.
  7. Вантажопотоки
  8. Вантажопотоки, їх види та формування.
  9. Види звітів про грошові потоки.
  10. Визначення переміщень у статично невизначуваних системах
  11. Вимірювальні інформаційні системи та задачі, які вони вирішують.
  12. Вимірювання потужності у трифазних системах




Переглядів: 945

<== попередня сторінка | наступна сторінка ==>
Принцип автоматичної регуляції в живих системах | Речовина і поле – складові єдиного матеріального світу.

Не знайшли потрібну інформацію? Скористайтесь пошуком google:

 

© studopedia.com.ua При використанні або копіюванні матеріалів пряме посилання на сайт обов'язкове.


Генерація сторінки за: 0.007 сек.