Shapley Values

Оновлено: 31.07.2023

Що таке цінності Шейплі?

Значення Шейплі в машинному навчанні використовуються для пояснення прогнозів моделі, призначаючи релевантність кожного вхідного символу для остаточного прогнозу.

  • Регресія за значеннями Шеплі - це метод оцінювання важливості ознак у регресійній моделі шляхом обчислення значень Шеплі для цих ознак.

Значення Шаплі для ознаки - це середня різниця між прогнозом з ознакою, включеною в підмножину ознак, і без неї.

Основний принцип, що лежить в основі аналізу Шейплі, полягає в оцінці граничного внеску кожної ознаки в прогноз, беручи до уваги всі можливі комбінації ознак. Наприклад, для даного прогнозу внесок кожної ознаки обчислюється шляхом віднімання прогнозованого значення з урахуванням і без урахування цієї ознаки. Потім ця різниця множиться на кількість способів включення ознаки в модель.

Вони дуже корисні для визначення значущості окремих характеристик у складній моделі, такій як нейронна мережа або випадковий ліс. Крім того, вони можуть допомогти виявити, які характеристики є найбільш важливими для отримання точних прогнозів, а які можна безпечно відкинути, призначивши релевантність кожного елемента для остаточного прогнозу.

SHAP

Прогнози моделей машинного навчання можна зрозуміти за допомогою методу SHAP (SHapley Additive exPlanations). Метод ґрунтується на припущенні, що обчислення значень Шаплі для ознаки дозволяє кількісно оцінити внесок ознаки в загальний прогноз.

Для того, щоб зрозуміти результати багатьох типів моделей машинного навчання, таких як глибокі нейронні мережі, машини з градієнтним підсиленням та лінійні моделі, SHAP пропонує послідовну структуру. З її допомогою можна пояснити окремі прогнози та виокремити ключові аспекти і взаємозв'язки в даних.

Основна концепція SHAP полягає у використанні зваженої лінійної моделі для оцінки аналізу Шейплі. Модель навчається на основі вибірки "фонових" точок даних, які характеризують розподіл вхідних ознак. Потім модель порівнює свій результат для конкретного входу з середнім результатом по всьому набору фонових даних, щоб визначити відносну важливість кожної ознаки для остаточного прогнозу.

Модель можна інтерпретувати як у глобальному, так і в локальному контексті, що є однією з головних переваг SHAP. Значущість кожної ознаки для всього набору даних підсумовується в глобальній інтерпретації, в той час як її роль у конкретному прогнозі уточнюється в локальній інтерпретації.

  • SHAP, завдяки своїй універсальності та ефективності, швидко став основною технікою для осмислення моделей машинного навчання.
.

XGBoost, Scikit-Learn і TensorFlow - це лише деякі з основних фреймворків машинного навчання, що входять до їхніх бібліотек. Його також застосовують у сферах медицини, фінансів та НЛП.

Значення цінностей Шейплі

  • Справедливість

    Щоб переконатися, що моделі машинного навчання є неупередженими, ми можемо використовувати дані Шейплі, щоб визначити, яку вагу слід надати кожному атрибуту в остаточному прогнозі. Це може допомогти виявити та пом'якшити упередженість моделі, а також гарантувати, що модель справедливо ставиться до різних груп людей.

  • Інтерпретованість

    Вони можуть бути використані для аналізу результатів роботи складних алгоритмів машинного навчання. Крім того, вони можуть допомогти виявити, які характеристики є найбільш важливими для створення точних прогнозів, визначаючи внесок кожного елемента в остаточний прогноз. Це може допомогти користувачам зрозуміти обґрунтування вибору моделі та отримати уявлення про те, як працює модель.

  • Налаштування моделі

    Використовуйте їх, щоб допомогти користувачам оптимізувати гіперпараметри моделі та загальну продуктивність.

  • Вибір ознак

    Нарешті, вони можуть допомогти в керуванні вибором ознак, визначаючи, які ознаки є найбільш важливими для створення правильних прогнозів. Це може допомогти зменшити розмірність моделі та підвищити її продуктивність.

.

Висновок

Загалом, значення Шейплі корисні для розуміння внутрішньої роботи моделей машинного навчання та перевірки на упередженість. Вони дають кількісну оцінку релевантності окремих ознак, яку можна використовувати для вибору ознак, налаштування моделі та інших частин процесу машинного навчання.