Observation ML

Оновлено: 31.07.2023

У машинному навчанні приклади - це спостереження, ознаки - пояснювальні фактори (згруповані у вектор ознак), а класи - ймовірні категорії для прогнозування.

Якими властивостями володіє машинне навчання в цьому плані?

Завдяки цьому бухгалтерська діяльність стає швидшою, аналітичнішою та точнішою. Машинне навчання вже використовується для відповідей на фінансові питання за допомогою чат-ботів, прогнозування, управління витратами, оптимізації виставлення рахунків та автоматизації звірки банківських рахунків, і це лише декілька прикладів.

Крім того, яка саме мета машинного навчання? Машинне навчання - це галузь штучного інтелекту (ШІ), яка дозволяє комп'ютерам навчатися і розвиватися самостійно, без необхідності спеціального кодування. Машинне навчання займається створенням комп'ютерних програм, які можуть отримувати доступ до даних і навчатися самостійно.

Машинне навчання можна розділити на три типи:

  • Навчання під наглядом - потребує навчання.
  • Навчання без нагляду - здатна навчатися самостійно.
  • Навчання з підкріпленням - "вдарив і спробував".
.

На основі екземплярів

Системи машинного навчання, які класифікуються як навчання на основі прикладів, вивчають навчальний набір даних вручну, а потім поширюють його на нові випадки, використовуючи певну метрику схожості. Цей метод називається навчанням на основі прикладів, оскільки гіпотези будуються на основі навчальних даних. Він також відомий як повільне навчання або навчання на основі пам'яті. Кількість навчальних даних визначає часову складність цього методу. Найгірша часова складність цього алгоритму становить O (n), де n - кількість навчальних прикладів.

Замість того, щоб просто позначати імейли, які раніше були визначені як спам, наш спам-фільтр буде запрограмований додатково виявляти імейли, які дуже схожі на них, якщо ми створимо спам-фільтр за допомогою алгоритму навчання на основі примірників. Для цього необхідна певна ступінь схожості між двома електронними листами. Показником схожості між двома листами може бути той самий відправник, повторне використання тих самих термінів або щось інше.

Фреймворк

Ідеальний опис - це основний результат роботи алгоритмів IBL. Це функція, яка зіставляє приклади з категоріями: вона повертає класифікацію для прикладу, вибраного з простору прикладів, яка є очікуваним значенням для атрибуту категорії прикладу. Колекція збережених прикладів і, можливо, деяка інформація про їхні історичні результати під час категоризації включаються в опис концепції на основі примірників. Після обробки кожного навчального прикладу цей список прикладів може змінюватися. Алгоритми IBL, з іншого боку, не створюють розширених описів понять. Замість цього вибрані функції подібності та класифікації алгоритму IBL використовують поточну колекцію збережених прикладів для визначення описів концептів. Ці функції складають дві з трьох частин фреймворку, який визначає всі алгоритми IBL:

  • Функція подібності: Обчислює схожість між навчальним прикладом і прикладами опису концепції. Подібності присвоюються числові значення.
  • Результати функції подібності надсилаються до цієї функції разом із записами про ефективність класифікації прикладів в описі концепту.
  • Оновлення опису концепту: Ця програма відстежує ефективність класифікації і визначає, які випадки слід включити в опис концепту. Серед вхідних даних є я, результати пошуку схожості, результати класифікації та поточний опис ідеї. Результатом є оновлений опис ідеї.
.

На відміну від більшості інших підходів до навчання, алгоритми IBL не створюють специфічних абстракцій, таких як дерева рішень або правила. Коли надаються приклади, більшість алгоритмів навчання генерують на їх основі узагальнення і використовують базові процеси зіставлення для категоризації наступних прикладів. В даний час це інтегрує наміри узагальнень. Оскільки алгоритми IBL не зберігають явні узагальнення, вони виконують набагато менше роботи під час презентації. Однак, коли вони отримують більше випадків для класифікації, їхнє робоче навантаження зростає, оскільки вони обчислюють схожість раніше збережених екземплярів з новим представленим екземпляром. Це позбавляє алгоритми IBL необхідності зберігати негнучкі узагальнення в описах понять, оновлення яких може коштувати великих грошей, щоб врахувати помилки прогнозування.

Переваги:

  • Замість того, щоб оцінювати цільову функцію для повного набору прикладів, можна отримати менші наближення.
  • Цю методику легко адаптувати до нових даних, які ми отримуємо в процесі роботи.
.

Слабкі місця:

  • Витрати на класифікацію є значними.
  • Для зберігання даних потрібні великі обсяги пам'яті, а кожен запит вимагає створення нової локальної моделі.
.