Bayes Theorem for Machine Learning
Оновлено: 31.07.2023
Що таке теорема Байєса?
Використовуючи теорему Байєса, ви можете обчислити умовну ймовірність настання події. Для обчислення умовної ймовірності Байєса зазвичай використовується формула ймовірності, яка включає обчислення спільної ймовірності одночасного настання обох подій, а потім ділення її на ймовірність настання другої події. Можна обчислити умовну ймовірність машинного навчання, використовуючи теорему Байєса.
Виконайте наступні кроки, щоб обчислити умовну ймовірність за допомогою теореми Байєса:
- Вважати, що умова A виконується, а потім обчислити ймовірність того, що умова B також виконується.
- Вміти обчислювати ймовірність події A.
- Двоїти дві ймовірності для отримання кінцевого результату.
- Віднімати ймовірність події B від загальної суми.
Цей розрахунок особливо корисний, коли обчислення умовної ймовірності є простим.
- Naive Bayes використовується для розв'язання широкого спектру задач класифікації та регресії в різних галузях.
Реалізації для теореми Байєса
Наївний метод Байєса є найпопулярнішим застосуванням теореми Байєса в машинному навчанні. Ця теорема часто використовується в обробці природної мови або як інструмент байєсівського аналізу в машинному навчанні.
Як випливає з назви, наївний Байєс припускає, що значення, присвоєні свідченням/атрибутам свідка - Bs в P(B1, B2, B3*A) - є незалежними один від одного. Припущення, що ці атрибути не впливають один на одного, спрощує модель і робить обчислення можливими, замість того, щоб намагатися розрахувати складні взаємодії між атрибутами. Якщо це припущення невірне (що, ймовірно, так і є), наївна теорема Байєса для класифікації, як правило, працює добре.
- Мультиноміальні, бернуллівські та гаусові варіації наївного байєсівського класифікатора також широко застосовуються для класифікації.
Існує безліч методів класифікації текстів, включаючи багаточленний алгоритм Naive Bayes, який особливо корисний для розуміння частоти вживання слів у документах.
Наївний Байєс Бернуллі - це метод, схожий на багаточленний наївний Байєс, але передбачення є булевими. Це означає, що при прогнозуванні класу значення будуть двійковими, ні або так. Використовуючи метод наївного Байєса Бернуллі, система класифікації тексту визначатиме, чи є слово в тексті, чи ні.
Гауссівський наївний Байєс можна використовувати, якщо значення предикторів/ознак не є дискретними, а скоріше неперервними. Вважається, що значення неперервних ознак були вибрані з гаусівського розподілу.
Теорема Байєса про практичне застосування
Давайте розглянемо приклад застосування теореми Байєса в машинному навчанні, щоб це було легше зрозуміти. Уявімо, що ви граєте в гру на вгадування, в якій численні гравці розповідають вам дещо різні історії, і вам потрібно з'ясувати, хто з них говорить вам правду. Тепер давайте заповнимо змінні в цьому сценарії гри в здогадки, щоб завершити байєсівське навчання в машинному навчанні.
Отже, якщо крім вас є ще четверо гравців, категоріальні змінні P1, P2, P3 і P4 можна використовувати, щоб передбачити, чи бреше кожен учасник гри, чи говорить правду. Те, що вони роблять, є доказом того, що вони брешуть або говорять правду.
Існують різні способи з'ясувати, чи бреше певна людина, так само, як і під час гри в покер. Будь-які докази того, що їхня історія не відповідає дійсності, будуть корисними, якщо ви зможете їх допитати. Доказ брехні людини можна позначити як L.
Пояснення: Ми хочемо спрогнозувати ймовірність. Отже, ми скажемо, що особа P# бреше, виходячи з її поведінки. Отже, нашою метою буде визначити ймовірність L для P, або ймовірність того, що їхня поведінка відбудеться незалежно від того, бреше людина чи ні. Спробуйте з'ясувати, за яких обставин поведінка, яку ви спостерігали, мала б найбільший сенс.
Цей розрахунок буде зроблено для кожної дії, за якою ви спостерігаєте, якщо ви спостерігаєте за трьома моделями поведінки. В результаті вам доведеться повторити процес для кожного екземпляра людини і для кожного гравця в грі, окрім вас.
Наша ймовірнісна модель буде оновлюватися на основі будь-якої нової інформації, яку ми отримаємо про фактичні шанси в цьому рівнянні. Ваші попередні ймовірності оновлюються, і це називається оновленням ваших попередніх ймовірностей.