インプレス[コンピュータ・IT]ムック 実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング
インプレス / 2023年06月20日 / 全321ページ
ビジネス上の意思決定につながる機械学習の予測には、解釈・説明が求められます。そこで、そうした解釈・説明を行うための手法を紹介していきます。Pythonライブラリを使って、線形・非線形・時系列モデルやアンサンブルモデルを解釈・説明する方法を解説。自然言語処理、ディープラーニング、エキスパートシステム、コンピュータービジョンについても焦点を当てています。本書は、解釈・説明のためのさまざまな方法を包括的に取り上げており、機械学習を実際に活用しようとする方にぜひ手に取っていただきたい一冊です。
目次
- 口絵
- 本扉
- サンプルコード・正誤表・Copyright
- 献辞
- 著者紹介テクニカルレビュー担当者紹介
- 謝辞
- まえがき
- 目次
- 第1章 モデルの説明可能性と解釈可能性1.1 フレームワークの確立
- 1.2 AI
- 1.2.1 XAIの必要性
- 1.2.2 説明可能性と解釈可能性
- 1.2.3 説明(解釈)可能性の種類
- 1.2.4 モデルの説明可能性のためのツール1.2.5 SHAP
- 1.2.6 LIME
- 1.2.7 ELI5
- 1.2.8 Skater
- 1.2.9 skope-rules
- 1.2.10 機械学習のためのXAIの手法
- 1.2.11 XAI互換のモデル
- 口絵
- 本扉
- サンプルコード・正誤表・Copyright
- 献辞
- 著者紹介テクニカルレビュー担当者紹介
- 謝辞
- まえがき
- 目次
- 第1章 モデルの説明可能性と解釈可能性1.1 フレームワークの確立
- 1.2 AI
- 1.2.1 XAIの必要性
- 1.2.2 説明可能性と解釈可能性
- 1.2.3 説明(解釈)可能性の種類
- 1.2.4 モデルの説明可能性のためのツール1.2.5 SHAP
- 1.2.6 LIME
- 1.2.7 ELI5
- 1.2.8 Skater
- 1.2.9 skope-rules
- 1.2.10 機械学習のためのXAIの手法
- 1.2.11 XAI互換のモデル
- 1.2.12 XAIと責任あるAI
- 1.2.13 XAIの評価
- 1.3 まとめ
- 第2章 AIの倫理、偏見、信頼性2.1 速習:AIの倫理
- 2.2 AIの偏見2.3 データのバイアス
- 2.4 アルゴリズムのバイアス
- 2.5 バイアスを減らすプロセス2.6 解釈のバイアス2.7 訓練のバイアス
- 2.8 AIの信頼性
- 2.9 まとめ
- 第3章 線形モデルの説明可能性3.1 線形モデル3.2 線形回帰
- 3.3 発生する可能性がある問題とVIF
- 3.3.1 最終的なモデル
- 3.3.2 モデルの説明可能性3.4 機械学習モデルへの信頼:SHAP
- 3.4.1 機械学習モデルでの局所的な説明と個々の予測値
- 3.4.2 機械学習モデルでの大域的な説明と全体的な予測値
- 3.5 LIMEによる説明と機械学習モデル
- 3.6 Skaterによる説明と機械学習モデル
- 3.7 ELI5による説明と機械学習モデル
- 3.8 ロジスティック回帰
- 3.8.1 解釈3.8.2 LIMEの推論
- 3.9 まとめ
- 第4章 非線形モデルの説明可能性4.1 非線形モデル
- 4.2 決定木の説明
- 4.3 決定木モデルのデータを準備する
- 4.3.1 決定木モデルを作成する
- 4.4 決定木:SHAP
- 4.5 SHAPを使ったPDP
- 4.6 scikit-learnを使ったPDP
- 4.7 非線形モデルの説明:LIME
- 4.8 非線形モデルの説明:skope-rules
- 4.9 まとめ
- 第5章 アンサンブルモデルの説明可能性5.1 アンサンブルモデル
- 5.1.1 アンサンブルモデルの種類5.2 アンサンブルモデルを使うのはなぜか
- 5.3 アンサンブルモデルでSHAPを使う
- 5.4 InterpretMLを使ってブースティングモデルを説明する
- 5.5 アンサンブル分類モデル:SHAP
- 5.6 SHAPを使ってCatBoostモデルを説明する
- 5.7 SHAPを使ってCatBoostベースの多クラス分類モデルを説明する
- 5.8 SHAPを使ってLightGBMモデルを説明する
- 5.9 まとめ
- 第6章 時系列モデルの説明可能性6.1 時系列モデル
- 6.2 どのモデルが適切かを知る6.2.1 予測のための戦略
- 6.2.2 予測の信頼区間6.3 信頼はどうなる?
- 6.4 時系列モデル:LIME
- 6.5 まとめ
- 第7章 自然言語処理の説明可能性7.1 自然言語処理のタスク
- 7.2 テキスト分類の説明可能性
- 7.3 テキスト分類用のデータセット
- 7.4 ELI5を使って説明する
- 7.5 局所的な説明に対する特徴量の重みを計算する7.5.1 局所的な説明:例1
- 7.5.2 局所的な説明:例2
- 7.5.3 ストップワードを取り除いた後の説明
- 7.6 n-gramベースのテキスト分類
- 7.7 複数ラベルの多クラステキスト分類の説明可能性
- 7.7.1 局所的な説明:例1
- 7.7.2 局所的な説明:例2
- 7.7.3 局所的な説明:例3
- 7.8 まとめ
- 第8章 What-Ifシナリオを使ったモデルの公平性8.1 WITとは何か
- 8.2 WITのインストールと活用
- 8.2.1 評価指標8.3 まとめ
- 第9章 ディープラーニングモデルの説明可能性9.1 ディープラーニングモデルを説明する
- 9.2 ディープラーニングでSHAPを使う
- 9.2.1 Deep SHAPを使う9.2.2 画像分類でSHAP DeepExplainerを使う:例1
- 9.2.3 画像分類でSHAP DeepExplainerを使う:例2
- 9.2.4 表形式データでSHAP DeepExplainerを使う
- 9.3 まとめ
- 第10章 XAIモデルの反実仮想説明10.1 反実仮想説明とは何か10.2 反実仮想説明を実装する
- 10.3 Alibiを使った反実仮想説明
- 10.4 回帰タスクでの反実仮想説明
- 10.5 まとめ
- 第11章 機械学習での対比的説明11.1 機械学習での対比的説明とは何か
- 11.2 Alibiを使ったモデルの対比的説明
- 11.2.1 元の画像とオートエンコーダが生成した画像を比較する
- 11.2.2 表形式データでのCEM
- 11.3 まとめ
- 第12章 予測不変性の特定によるモデル不可知の説明12.1 モデル不可知とは何か12.2 アンカーとは何か
- 12.3 Alibiを使ったアンカー説明
- 12.4 テキスト分類でAnchorTextを使う
- 12.5 画像分類でAnchorImageを使う
- 12.6 まとめ
- 第13章 ルールベースのエキスパートシステムでのモデルの説明可能性13.1 エキスパートシステムとは何か
- 13.1.1 前向き連鎖と後ろ向き連鎖
- 13.2 scikit-learnを使ったルール抽出
- 13.3 ルールベースのシステムが必要な理由
- 13.4 エキスパートシステムの課題13.5 まとめ
- 第14章 コンピュータビジョンでのモデルの説明可能性14.1 画像データでの説明可能性
- 14.1.1 コンピュータビジョンでアンカー画像を使う14.2 勾配積分法
- 14.3 まとめ
- 索引
- 訳者紹介
- 奥付
※このデジタル雑誌には目次に記載されているコンテンツが含まれています。それ以外のコンテンツは、本誌のコンテンツであっても含まれていません のでご注意ください。
※電子版では、紙の雑誌と内容が一部異なる場合や、掲載されないページがある場合があります。