Model-Based Machine Learning

Оновлено: 31.07.2023

Що таке машинне навчання на основі моделей?

У галузі машинного навчання розроблено сотні алгоритмів навчання. Зазвичай науковці обирають з-поміж них алгоритми для вирішення конкретних завдань. Їхні можливості часто обмежені їхнім досвідом роботи з цими системами. У цій класичній/традиційній системі машинного навчання вчені змушені робити певні припущення, щоб використовувати існуючий алгоритм.

  • Навчання на основі моделей у машинному навчанні - це техніка, яка намагається генерувати індивідуальне рішення для кожної нової задачі

Мета MBML - запропонувати єдине середовище розробки, яке полегшує створення різноманітних користувацьких моделей. Ця парадигма розвинулася в результаті значного злиття трьох основних ідей:

  • Факторні графи
  • Байєсова перспектива,
  • Імовірнісне програмування,

Основний принцип полягає в тому, що у формі моделі всі припущення про проблемну область стають зрозумілими. Глибоке навчання на основі моделей - це просто набір припущень, викладених у графічній формі.

Факторні графіки

Використання PGM - імовірнісних графічних моделей, зокрема факторних графіків, є основою MBML. PGM - це графічне представлення спільного розподілу ймовірностей для всіх випадкових величин у моделі.

Вони є різновидом PGM з круглими і квадратними вузлами, що представляють змінні розподіли ймовірностей (фактори), і вершинами, що виражають умовні зв'язки між вузлами. Вони пропонують широкі можливості для моделювання комбінованої дисперсії набору випадкових величин.

У факторних графах ми розглядаємо неявні параметри як випадкові величини і визначаємо їхній розподіл ймовірностей по всій мережі за допомогою методів байєсівського висновку. Висновок/навчання - це просто добуток факторів на підмножину змінних графа. Це спрощує розробку локальних алгоритмів пересилання повідомлень.

Байєсівські методи

Першою важливою концепцією, що забезпечує цю нову архітектуру машинного навчання, є байєсівський висновок/навчання. Приховані/приховані параметри представлені в MBML як випадкові величини з розподілом ймовірностей. Це забезпечує послідовний і раціональний підхід до кількісної оцінки невизначеності параметрів моделі. Знову ж таки, коли спостережувані змінні в моделі зафіксовані на своїх значеннях, теорема Байєса використовується для оновлення попередньо припущених розподілів ймовірностей.

На противагу цьому, класична система ML присвоює параметрам моделі середні значення, отримані шляхом максимізації цільової функції. Байєсівський висновок на великих моделях з мільйонами змінних виконується аналогічно, але більш складним способом, використовуючи теорему Байєса. Це пов'язано з тим, що теорія Байєса - це підхід до точного виведення, який важко застосувати до величезних наборів даних. Зростання обчислювальної потужності комп'ютерів за останнє десятиліття уможливило дослідження та інновації алгоритмів, які можуть масштабуватися до величезних наборів даних.

Імовірнісне програмування

Імовірнісне програмування (ІП) - це прорив у комп'ютерних науках, в якому мови програмування тепер створені для обчислень з невизначеністю на додаток до логіки. Сучасні мови програмування вже можуть працювати з випадковими величинами, обмеженнями на змінні та пакетами висновків. Тепер ви можете виразити навчання з підкріпленням на основі моделі вашої проблеми лаконічно за допомогою декількох рядків коду, використовуючи мову програмування РР. Таким чином, викликається механізм виведення для створення процедур виведення для автоматичного розв'язання проблеми.

Етапи розробки ML на основі моделей

Він складається з трьох моделей машинного навчання, заснованих на правилах:

  • Опишіть модель: Використовуючи факторні графіки, опишіть процес, який створив дані.
  • Умова щодо звітних даних: Зробіть так, щоб спостережувані змінні дорівнювали їхнім відомим значенням.
  • Зворотні міркування використовуються для оновлення попереднього розподілу між латентними конструктами або параметрами. Оцініть байєсівський розподіл ймовірностей латентних конструктів на основі спостережуваних змінних.
.