Out-of-distribution

Оновлено: 31.07.2023

Нейронні мережі та дані поза розподілом

Вирішальним критерієм для розгортання сильного класифікатора в багатьох реальних програмах машинного навчання є статистичне або несприятливе виявлення тестових зразків, вибраних досить далеко від розподілу навчання. Багато завдань класифікації, таких як розпізнавання мови, виявлення об'єктів і класифікація зображень, вирішуються з високою точністю за допомогою нейронних мереж (DNN). Однак визначення невизначеності прогнозу все ще залишається складним завданням. Добре відкалібрована невизначеність прогнозу має важливе значення, оскільки вона може бути використана в різноманітних програмах машинного навчання.

З іншого боку, нейронні мережі, що використовують класифікатор softmax, як відомо, дають надто самовпевнені результати. Втрати підходять для додатків, що вимагають толерантності, таких як пропозиції продуктів, але ризиковано використовувати такі системи в нетолерантних сферах, таких як робототехніка або медицина, оскільки вони можуть призвести до фатальних помилок. Коли це можливо, ефективна система ШІ повинна мати можливість узагальнювати випадки OOD, позначаючи ті, що виходять за межі її можливостей, і вимагати втручання людини.

Хоча приклади розподілу, ймовірно, мають ті ж помилкові шаблони, що й приклади OOD, нейромережеві моделі можуть значною мірою покладатися на помилкові підказки та артефакти анотації, притаманні непарним навчальним даним.

Оскільки навчальні дані не можуть охопити всі аспекти розподілу, здатність моделі до узагальнення обмежена.

Поза межами розповсюдження (ODD)

Для мовної та візуальної діяльності термін "розподіл" має дещо інше значення. Розглянемо завдання класифікувати фотографії порід котів; фотографії котів будуть у розподілі, тоді як фотографії собак, людей, м'ячів та інших об'єктів будуть поза розподілом.

Розподіл даних у реальній діяльності, як правило, змінюється з часом, а відстеження розподілу даних, що змінюється, є дорогим задоволенням.

  • Ідентифікація ODD має вирішальне значення для запобігання помилковим прогнозам систем штучного інтелекту.
.

Різні методи виявлення передозування

Ця модель використовується для створення прогнозів для кожної точки даних в Ensemble Learning, а рішення, прийняті цими моделями, об'єднуються для покращення загальної продуктивності. Існує кілька методів об'єднання рішень:

Усереднення - для задач регресії усереднення прогнозів всіх моделей є простим, але для задач класифікації ми можемо усереднити ймовірності softmax.

Зважене усереднення - у цій методології моделям присвоюються різні ваги, а остаточний прогноз обчислюється за допомогою середньозваженого значення.

Максимальне голосування - остаточний прогноз базується на більшості прогнозів моделей.

Об'єднання суджень у цьому випадку означає розрахунок достовірності прогнозу за різними моделями.

Він передбачає тестування навченої моделі на наборі даних, який було надано, і позначення прикладів з правильними відповідями як позитивних, а прикладів з неправильними відповідями - як негативних (зверніть увагу, що цей крок не залежить від фактичного позначення прикладів). Потім, використовуючи цей анотований набір даних, можна навчити модель бінарної класифікації передбачати, чи належать вхідні зразки до позитивного або негативного класу.

Хоча ця методологія краще підходить для проблеми прогнозування успіху та помилок, її можна просто пристосувати для виявлення нерозповсюдження, включивши приклади OOD у програму підготовки калібраторів.

Складність прогнозування оцінок ймовірності, які вказують на ймовірність правильності базової істини, відома як калібрування. Модель повинна давати прогноз, а також міру довіри до нього.

Результатом роботи нейромережевої моделі для задач класифікації є вектор, відомий як логіти. Для отримання ймовірностей класів вектор логів обробляється за допомогою функції softmax. Достовірність прогнозу обчислюється за найбільшою ймовірністю softmax.

  • Це один з найпростіших, але ефективних методів виявлення нерозповсюдження →

Функція softmax використовується для обчислення достовірності прогнозу для MaxProb. Температурне масштабування - це модифікація масштабування Платта, яка використовує один скалярний параметр T > 0. Достовірність прогнозу обчислюється за допомогою функції q, яка проілюстрована нижче.

При T > 1 він "пом'якшує" softmax. В результаті мережа стає значно менш впевненою, а оцінки впевненості починають відображати реальні ймовірності.

Ймовірність наближається до 1/J, що вказує на найбільшу невизначеність, зі збільшенням T.

Початкова ймовірність softmax відновлюється при T = 1.

На валідаційній множині параметр T вивчається з урахуванням від'ємної лог-правдоподібності.

Масштабування температури не впливає на точність моделі, оскільки параметр T не змінює максимум функції softmax (тобто передбачення класів, оскільки ймовірність всіх класів масштабується).