LIME, акронім для локальних інтерпретованих модельно-агностичних пояснень техніка, яка апроксимує будь-яку модель машинного навчання чорної скриньки з локальною інтерпретованою моделлю для пояснення кожного окремого прогнозу.
Типова інтерпретована модель, яку використовує LIME, є лінійною моделлю. Його вивчають із зважених вибірок і надають пояснення для конкретного прогнозу, у цьому випадку x'. Незважаючи на те, що модель чорної скриньки може бути нелінійною, ми очікуємо, що поблизу x' межа рішення може бути розумно апроксимована лінією.
LIME, абревіатура від локальних інтерпретованих модельно-агностичних пояснень, є технікою, яка апроксимує будь-яку модель машинного навчання чорної скриньки локальною інтерпретованою моделлю для пояснення кожного окремого прогнозу.
LIME генерує новий набір даних, що складається зі збурених вибірок і відповідних прогнозів моделі чорного ящика. На цьому новому наборі даних LIME потім навчає модель, яку можна інтерпретувати, яка зважується на основі близькості вибіркових екземплярів до екземпляра, що цікавить.
Пояснення, створене LIME у локальній точці x, отримується за такою загальною формулою: ξ(x) = argmin L(f,g,πx) + Ω(g) g∈G, де f — це наша реальна функція (така ж основна правда), g — сурогатна функція, яку ми використовуємо для апроксимації f у близькості до x, а πx визначає локальність.
Обмеження LIME Глобальна інтерпретованість: LIME надає пояснення для окремих передбачень, які можуть не відображати загальну поведінку моделі. Лінійне припущення: LIME припускає лінійну залежність у локальному наближенні, що може надто спростити межі складних рішень.