Homepage
Open in app
Sign in
Get started
CV&CNN
NLP
GAN
XAI
Industry
FL
XAI
可解釋 AI (XAI) 系列 — SHAP
可解釋 AI (XAI) 系列 — SHAP
SHAP (SHapley Additive exPlanations) 是一種機器學習的可解釋方法,再介紹 SHAP 之前需要先介紹什麼是 Shapley Values
張家銘
Jul 7, 2021
可解釋 AI (XAI) 系列 — 03 基於傳播的方法 (Propagation-Based): Layer-Wise Relevance Propagation
可解釋 AI (XAI) 系列 — 03 基於傳播的方法 (Propagation-Based): Layer-Wise Relevance Propagation
在可解釋 AI 系列中,我們前兩篇分別介紹了基於遮擋的方法 (Perturbation-Based) 和基於梯度的方法 (Gradient-Based),接著我們來介紹基於傳播的方法 (Propagation-Based),如果還沒看過前兩篇的,強烈建議先看一下。
張家銘
Feb 15, 2021
可解釋 AI (XAI) 系列 — 04 基於CAM的方法 (CAM-Based): CAM, Grad-CAM, Grad-CAM++, Score-CAM
可解釋 AI (XAI) 系列 — 04 基於CAM的方法 (CAM-Based): CAM, Grad-CAM, Grad-CAM++, Score-CAM
在可解釋 AI 系列中,我們前三篇分別介紹了基於遮擋的方法 (Perturbation-Based) 、基於梯度的方法 (Gradient-Based)和基於傳播的方法 (Propagation-Based),接著我們來介紹基於 CAM 的方法…
張家銘
Feb 24, 2021
可解釋 AI (XAI) 系列 — 02 基於梯度的方法 (Gradient-Based)
可解釋 AI (XAI) 系列 — 02 基於梯度的方法 (Gradient-Based)
我們先來看簡單的線性模型,我們可以很直觀的透過權重與輸入的特徵來決定 attribution。
張家銘
Feb 8, 2021
張家銘
Feb 3, 2021
可解釋 AI (XAI) 系列 — 01 基於遮擋的方法 (Perturbation-Based): Occlusion Sensitivity, Meaningful Perturbation
Read more…
57
Hsiao-En Sun
Jul 4, 2020
了解 CNN 關注的區域:CAM 與 Grad-CAM 的介紹分享
前言
Read more…
157
湯沂達(Yi-Dar, Tang)
Jun 17, 2020
為什麼模型會這樣認為?解釋的深度學習方法的介紹-視覺化篇
深度學習在近年來已經成為機器學習中最主流的技巧。影像分類、物件偵測、語者識別、語音輸入…等等數不清的應用都有深度學習蹤跡。
Read more…
151
2 responses
Cyan
Jun 9, 2020
Explainable AI(1) — LIME (Local Interpretable Model-Agnostic Explanations)
Read more…
58
陳宗彥
Mar 24, 2020
利用Feature Visualization 了解CNN到底在看什麼
Read more…
55
Kinna Chen
Oct 1, 2019
探討 CNN 的視角__part1
Class Activation Mapping
Read more…
118
Yu-Ru Tsai
Jun 4, 2019
Explain Your Machine Learning Model by Shap. (Part 2)
Shap 第二篇
前言 Intro
Read more…
80
1 response
Yu-Ru Tsai
Jan 31, 2019
Explain Your Machine Learning Model by Shap. (part 1)
An introduction of Shap value and demo how to…
Read more…
338
About Taiwan AI Academy
Latest Stories
Archive
About Medium
Terms
Privacy
Teams