Local Interpretable Model-Agnostic Explanations (LIME)
Оновлено: 31.07.2023
Що таке LIME?
LIME - це методика для пояснення прогнозів будь-якого класифікатора "чорної скриньки", такого як нейронні мережі та дерева рішень, і підтримує векторні машини. Вона не залежить від конкретної архітектури моделі ML, тому називається "модельно-діагностичною".
- Мета LIME - створити базову модель, яку можна інтерпретувати, навчаючи її на локальній підмножині вхідних даних, щоб імітувати поведінку класифікатора чорної скриньки.
Для цього LIME навчає лінійну модель на збуреній версії вхідних даних, де збурення підібрані так, щоб їх можна було порівняти з вихідними даними. Класифікатор "чорної скриньки" покладається на ваги, згенеровані лінійною моделлю, щоб привернути увагу до тих аспектів вхідних даних, які є найбільш важливими для точного прогнозування.
Вапно та LLR
Локалізована лінійна регресія (ЛЛР) - це інтерпретована модель, яка може бути використана в LIME для наближеного моделювання межі рішення моделі чорної скриньки.
Наприклад, LLR підбирає лінійну модель до збурених примірників в околі примірника. Характеристики збурених прикладів використовуються в навчанні лінійної моделі для прогнозування їхнього класу. Характеристикам вхідних даних надаються ваги на основі їх релевантності, використовуючи ваги лінійної моделі. Характеристики з високою вагою є пріоритетними в процесі прогнозування класифікатора чорного ящика.
Межа рішення моделі чорної скриньки може бути наближена в невеликій області вхідного простору за допомогою LLR, простої та зрозумілої моделі. Підкреслюючи елементи вхідних даних, які є найбільш важливими для прогнозу класифікатора чорної скриньки, LIME здатна надати пояснення, які є простими.
Алгоритм LIME
Алгоритм LIME складається з наступних етапів:
- Зразок: Для створення набору даних збурених прикладів LIME бере вибірку вхідного простору навколо прикладу, який потрібно пояснити. Ці приклади цілком ідентичні описуваному, але з деякими незначними, довільними змінами.
- Навчання: LIME тренує модель, яку можна інтерпретувати, наприклад, лінійну модель, на прикладах, які було порушено. Потім модель, яку можна інтерпретувати, використовується для прогнозування класу порушених екземплярів за допомогою доступних їй характеристик.
- Призначити: Ваги з моделі, яку можна інтерпретувати, використовуються LIME для присвоєння оцінок релевантності аспектам вхідних даних. Оцінка кожної ознаки тут відображає її важливість для остаточного прогнозу класифікатора чорної скриньки.
- Пояснити: Щоб забезпечити контекст для прогнозу, LIME ізолює елементи вхідних даних, які зробили найбільший внесок в остаточний висновок класифікатора чорної скриньки. Рейтинг релевантності з попереднього етапу використовується для вибору, які з цих ознак використовувати.
- Повторити: LIME може ітеративно розробляти пояснення для низки прогнозів, повторюючи процедуру для різних прикладів.
Важливість вапна
За допомогою LIME можна простою мовою пояснити причини вибору моделі "чорної скриньки". LIME генерує локальне наближення границі рішення моделі навколо прикладу, що пояснюється, а потім підкреслює властивості прикладу, які є найбільш важливими для вибору моделі.
LIME можна застосовувати в охороні здоров'я, банківській справі та інших чутливих сферах, де відкритість та інтерпретованість висновків моделі є дуже важливими.
LIME - це стратегія надання контексту для результатів будь-якого класифікатора з чорним ящиком шляхом попереднього навчання базової моделі, яку можна інтерпретувати, на обмеженій околиці вхідних даних.
Переваги та недоліки вапна
- Локальні пояснення. Коли ми говоримо, що LIME дає локальні пояснення, ми маємо на увазі, що він генерує пояснення для певних прогнозів, а не для всієї моделі в цілому. Це прояснює аргументацію вибору моделі в певних випадках.
- Гнучкість. Адаптивність LIME означає, що його можна використовувати з багатьма типами даних, від зображень і тексту до табличної інформації.
- Інтерпретованість. Ситуації, де цінується прозорість та інтерпретованість, значно виграють від здатності LIME надавати пояснення, які є простими для розуміння.
- Діагностика моделі. Оскільки вона не є специфічною для будь-якої конкретної архітектури моделі, модель LIME може бути використана для деконструкції широкого спектру моделей машинного навчання з чорним ящиком.
- Обмежено моделями. Оскільки LIME використовує лінійну модель для апроксимації границі рішення моделі чорної скриньки, вона може неточно відображати складність базової моделі, особливо якщо границя нелінійна.
- Обмежено околицями. Пояснення LIME обмежуються безпосереднім оточенням досліджуваного явища. Цей метод може погано узагальнювати нові набори даних або області вхідного простору.
- Чутливий. Продуктивність LIME чутлива до вибору параметрів, таких як розмір околиці та ступінь збурення, що застосовується до вхідних даних, обидва з яких можуть бути складними для вибору у реальності.
- Складність. LIME може мати проблеми з такими типами даних, як зображення, де кількість ознак велика, а зв'язки між ними складні.
Отже, LIME забезпечує гнучкий та інтерпретований підхід до розуміння прогнозів моделі "чорної скриньки", хоча він має певні обмеження, такі як залежність від лінійних моделей, чутливість до вибору параметрів та обмеженість певними областями.