МАРК РЕГНЕРУС ДОСЛІДЖЕННЯ: Наскільки відрізняються діти, які виросли в одностатевих союзах
РЕЗОЛЮЦІЯ: Громадського обговорення навчальної програми статевого виховання ЧОМУ ФОНД ОЛЕНИ ПІНЧУК І МОЗ УКРАЇНИ ПРОПАГУЮТЬ "СЕКСУАЛЬНІ УРОКИ" ЕКЗИСТЕНЦІЙНО-ПСИХОЛОГІЧНІ ОСНОВИ ПОРУШЕННЯ СТАТЕВОЇ ІДЕНТИЧНОСТІ ПІДЛІТКІВ Батьківський, громадянський рух в Україні закликає МОН зупинити тотальну сексуалізацію дітей і підлітків Відкрите звернення Міністру освіти й науки України - Гриневич Лілії Михайлівні Представництво українського жіноцтва в ООН: низький рівень культури спілкування в соціальних мережах Гендерна антидискримінаційна експертиза може зробити нас моральними рабами ЛІВИЙ МАРКСИЗМ У НОВИХ ПІДРУЧНИКАХ ДЛЯ ШКОЛЯРІВ ВІДКРИТА ЗАЯВА на підтримку позиції Ганни Турчинової та права кожної людини на свободу думки, світогляду та вираження поглядів
Контакти
Тлумачний словник Авто Автоматизація Архітектура Астрономія Аудит Біологія Будівництво Бухгалтерія Винахідництво Виробництво Військова справа Генетика Географія Геологія Господарство Держава Дім Екологія Економетрика Економіка Електроніка Журналістика та ЗМІ Зв'язок Іноземні мови Інформатика Історія Комп'ютери Креслення Кулінарія Культура Лексикологія Література Логіка Маркетинг Математика Машинобудування Медицина Менеджмент Метали і Зварювання Механіка Мистецтво Музика Населення Освіта Охорона безпеки життя Охорона Праці Педагогіка Політика Право Програмування Промисловість Психологія Радіо Регилия Соціологія Спорт Стандартизація Технології Торгівля Туризм Фізика Фізіологія Філософія Фінанси Хімія Юриспунденкция |
|
|||||||
ЕлектроенергетикаНа основі ШНМ ГП з додатковими латеральними зв’язками між нейронами прихованого шару за допомогою методу “часових вікон” було здійснене прогнозування споживання електричної енергії у Львівській області на основі даних знятих засобами телеметрії у ЕПК ВАТ “Львівобленерго”. Вхідні статистичні дані попередньо доповнювалися і апроксимувалися за допомогою методу найменших квадратів. На етапі навчаня ШНМ входами навчальної вибірки приймають векторну множину , до якої входять: - місяць, - декада, - день в декаді, - тип дня в декаді, - мінімальна нічна температура повітря, - максимальна нічна температура повітря, - мінімальна денна температура повітря, - максимальна денна температура повітря, - мінімальна швидкість вітру, - максимальна швидкість вітру, - напрямок вітру, - погодинні значення потужностей навантаження. Виходами ШНМ (векторна множина ) є - погодинні зпрогнозовані значення потужностей навантаження. Тобто навчання здійснюється за схемою: Реалізація моделі здійснюється шляхом заміни навчальних входів на реальні дані телеметрії , якими є значення телевимірів (ТВ), що надходять на концентратор інформації оперативного інформаційно-керуючого комплексу ВАТ “Львівобленерго”. Тоді виходами будуть погодинні зпрогнозовані значення потужностей навантаження. Вхідні дані кодуються наступним чином: Місяць – 1, 2, ..., 11,12; Декада – 1,2,3; День в декаді – 1, 2,..., 10, 11; Тип дня – (+1 – будній день, -1 –вихідний або святковий день ); Температура повітря – (-30,...,+40); Швидкість вітру – (1,...,16); Напрямок вітру згідно схеми зображеної на Рис. 20.7. Рис. 20.7. Кодування напрямків вітру.
ШНМ навчалася на основі даних ТМ за період 1999-2000 роки з середньоквадратичною зведеною похибкою відтворення 3,4%, максимальною зведеною похибкою11,2%. При тестуванні ШНМ на реальних даних, що були отримані за період 2001-2002 років з середньоквадратичною зведеною похибкою 5,4%, та максимальною зведеною похибкою 15,9% (див. Рис. 20.8. навчання 240 год, далі прогноз), що цілком задовільняє вимогам практики. Рис. 20.8. Результати прогнозування споживання електричної енергії Львівською областю за допомогою ФМТФ ШНМ на: а) добу; б) дві доби; в) п’ять діб; г) тиждень. (1-прогноз, 2-реальні дані). Контрольні запитання 1. Приклади застосування ШНМ у сфері фінансів. 2. Інформативні параметри при прогнозуванні економічних показників. 3. Можлива точність прогнозів при прогнозуванні у фінансовій сфері. 4. Особливості прогнозування фізичних процесів. 5. Точність прогнозування показників енергоспоживання.
Лекція № 21.Застосування засобів ШІ для опрацювання зображень. Розпізнавання цифр Серед різних конфігурацій нейронних мереж для розпізнавання образів зустрічаються такі, для яких не підходять ні навчання з вчителем, ні навчання без вчителя. У таких мережах вагові коефіцієнти обчислюються тільки один раз перед початком функціонування мережі на основі інформації про оброблювані дані. Такі мережі одержали назву статичних. З подібних мереж найбільш відомі мережа Гопфілда і мережа Гемінга, що звичайно використовуються для організації асоціативної пам'яті. Нижче показано мережу Гемінга (Рис. 21.1). Вона характеризується, у порівнянні з мережею Гопфілда, меншими витратами на пам'ять і обсяг обчислень. Ця мережа складається з двох шарів. Кожен шар має по m нейронів , де m - число образів. Нейрони першого шару мають по n синапсів, з'єднаних із входами мережі. Нейрони другого шару зв'язані між собою негативними зворотніми (інгібіторними) зв'язками. Єдиний синапс із позитивним зворотнім зв'язком, який утворює торсійне поле для кожного нейрона з'єднаний з його ж аксоном. Ідея роботи мережі полягає в оцінці величини зворотньої відстані Гемінга від образу що тестується до всіх еталонних зразків (відстанню Гемінга називається число що відрізняється бітом у двох бінарних векторах). Мережа повинна вибрати зразок з мінімальною відстанню Гемінга до невідомого вхідного сигналу - і буде активізований тільки один вихід мережі, що відповідає цьому зразку. Рис. 21.1.Структура мережі Гемінга.
Активаційна функція нейронів першого і другого шару має вигляд лінійного порога: де: Ініціалізація і загальний алгоритм функціонування На стадії ініціалізації ваговим коефіцієнтам першого шару присвоюються наступні значення: де: Xik приймає значення -1 для одного типу вхідних крапок і 1 для іншого типу. Порогові активаційної функції першого шару T присвоюється значення n/2. Вагові коефіцієнти гальмуючих синапсів у другому шарі беруть рівними деякій величині 0 < e < 1/m , взятих зі зворотнім знаком. Синапс нейрона, зв'язаний з його ж аксоном має вагу +1 (див. Рис. 21.1). Алгоритм функціонування мережі Гемінга наступний: На входи мережі подається невідомий вектор X, виходячи з якого розраховуються стани нейронів першого шару, що передаються на вхід другого шару. Обчислюються стани нейронів другого шару. Перевіряється, чи змінилися виходи нейронів другого шару за останню ітерацію. Якщо так - перейди до кроку 2. Інакше - виходи стабілізувалися і робота мережі завершена. Результат роботи даної мережі продемонстрований для розпізнавання рукописних і друкованих цифр від 0 до 9. На прикладі Рис.21.2 розпізнається п’ятірка . Рис.21.2. Приклад розпізнавання цифр. Аналогічним чином здійснюється розпізнавання тексту, опрацьовуючи його ще додатковими словниками і більш складних образів з багатокольоровими гамами. Розпізнавання друкованого тексту Перцептрон навчають, подаючи множину образів по одному на його вхід і налаштовуючи ваги доти, поки для всіх образів не буде досягнуть необхідний вихід. Допустимо, що вхідні образи нанесені на демонстраційні карти. Кожна карта розбита на квадрати і від кожного квадрата на перцептрон подається вхід. Якщо в квадраті є лінія, то від нього подається одиниця, в іншому випадку - нуль. Множина квадратів на карті задає, таким чином, множину нулів і одиниць, яка і подається на входи перцептрону. Мета полягає в тому, щоб навчити перцептрон включати індикатор при подачі на нього множини входів, що задають непарне число, і не включати у разі парного. Рис. 21.3. Перцептронна система розпізнавання зображень На рис. 21.3 показана перцептронная конфігурація. Припустимо, що вектор Х є образом розпізнаваної демонстраційної карти. Кожна компонента (квадрат) Х - (x1, x2, ..., xn) множиться на відповідну компоненту вектора ваг W - (w1, w2,..., wn). Ці добутки підсумовуються. Якщо сума перевищує поріг Θ, тоді вихід нейрона Y рівний одиниці (індикатор запалюється), в іншому випадку він - нуль. Як ми бачили в розділі 1, ця операція компактно записується у векторній формі як Y = XW, а після неї слідує порогова операція. Для навчання мережі зразок Х подається на вхід і обчислюється вихід Y. Якщо Y правильний, то нічого не міняється. Однак якщо вихід неправильний, то ваги, приєднані до входів, що підсилюють помилковий результат, модифікуються, щоб зменшити похибку. Щоб побачити, як це здійснюється, припустимо, що демонстраційна карта з цифрою 3 подана на вхід і вихід Y рівний 1 (показуючи непарність). Оскільки це правильна відповідь, то ваги не змінюються. Якщо, однак, на вхід подається карта з номером 4 і вихід Y рівний одиниці (непарний), то ваги, приєднані до одиничних входів, повинні бути зменшені, оскільки вони прагнуть дати невірний результат. Аналогічно, якщо карта з номером 3 дає нульовий вихід, то ваги, приєднані до одиничних входів, повинні бути збільшені, щоб скоректувати похибку. Цей метод навчання може бути підсумований таким чином: 1. Подати вхідний зразок і обчислити Y. 2. Якщо вихід правильний, то перейти на крок 1; · Якщо вихід неправильний і рівний нулю, то додати всі входи до відповідної ним ваги;або · Якщо вихід неправильний і рівний одиниці, то відняти кожний вхід з відповідної йому ваги. · Перейти на крок 1. За кінцеве число кроків мережа навчиться розділяти карти на парні і непарні при умові, що множина цифр лінійно роздільна. Це означає, що для всіх непарних карт вихід буде більшим за поріг, а для всіх парних менше. Зазначимо, що це навчання глобальне, тобто мережа навчається на всій множині карт.
|
||||||||
|