Catastrophic Forgetting

Оновлено: 31.07.2023

Машинне навчання оточує нас, і з такою великою кількістю інформації на кінчиках наших пальців, моделі, які ми створюємо, є надзвичайно глибокими та складними. Швидше з'єднання та більша обчислювальна потужність призвели до революції в галузі ШІ.

Алгоритми рекомендацій, прогнозування, технології розпізнавання зображень і мови - це лише кілька прикладів технологій, які створюються щодня. Ви здивуєтеся, дізнавшись, скільки технологій машинного навчання впливають на ваше життя вже зараз.

Штучний інтелект не є досконалим. Вони, як і люди, здатні помилятися і забувати. Забування може бути катастрофічним у контексті NN, подібно до важкого випадку амнезії.

Тож як нейромережі забувають?

  • Під час фази навчання нейронна мережа розробляє вищезгадані шляхи між вузлами динамічно. Ці шляхи будуються на основі даних, що надаються машині. Коли в неї подається свіжа інформація, встановлюються нові шляхи, змушуючи алгоритм "забути" попередні завдання, для яких він був навчений. Часом похибка зростає, а іноді комп'ютер взагалі забуває про мету. Нейромережеве катастрофічне забування (або інтерференція) - ось що це таке.
.

Наскільки серйозним є катастрофічне забування?

В даний час катастрофічне забування в глибокому навчанні не є серйозною проблемою, оскільки більшість сучасних нейронних мереж навчаються за допомогою керованого навчання. Іншими словами, інженери ретельно відбирають інформацію, яку вони надають мережі, щоб усунути упередження та інші труднощі, які можуть виникнути через необроблені дані.

Однак, коли машинне навчання стане складнішим, ми зможемо забезпечити нашим агентам незалежне безперервне навчання. Нейронні мережі можуть продовжувати вчитися, обробляючи нові дані без нагляду людини.

Як ви вже здогадалися, одна з найсерйозніших проблем автономного навчання полягає в тому, що ми не знаємо, які саме дані мережа використовує для навчання. Якщо вона вирішить мати справу з даними, які занадто далекі від її фундаментальної підготовки, вона може зіткнутися з катастрофічним забуванням ШІ.

Отже, все, що нам потрібно зробити, щоб уникнути катастрофічного забування в нейронних мережах, - це уникати автономних мереж, так? Не зовсім так. Нові робочі набори суттєво не відрізнялися від попередніх, проте це призвело до виникнення інтерференції.

Навіть порівнювані набори даних можуть спричинити катастрофічні перешкоди. Ми не будемо знати напевно, поки це не станеться. Приховані шари нейронної мережі - це щось на кшталт чорної скриньки між входом і виходом, тому ми не знаємо, чи порушать дані важливий маршрут і спричинять збій.

Як боротися з катастрофічним забуванням?

Хоча ймовірність катастрофічних перешкод нікуди не зникне, це досить незначна проблема. Існує багато проектних рішень для зменшення ризику - Node Sharpening і Latent Learning.

  • Створення копії перед перенавчанням мережі - це розумний метод, щоб мати захист на випадок, якщо щось трапиться зі стратегічної точки зору.
  • Інший поширений метод - це створення навчальної нейронної мережі з усіма даними одразу. Коли нова інформація перериває те, що мережа вже вивчила, проблема виникає лише при послідовному навчанні.
.

Катастрофічне забування в навчанні з підкріпленням - лише одна з численних проблем, над вирішенням яких працюють фахівці з машинного навчання. Хоча штучний інтелект має величезні перспективи, ми все ще відкриваємо і тестуємо його. Штучний чи природний інтелект ніколи не був легкою темою для вирішення, але ми докладаємо великих зусиль, щоб краще його зрозуміти.

Машинне навчання - це захоплююча сфера не лише з точки зору її застосування, але й тому, що вона змушує нас досліджувати нашу людську природу. Погляньмо на це. Головним критерієм для Тьюринга було створення машини, яку неможливо було б відрізнити від людини.