Python

【Isolation Forest】決定木で説明性・解釈性を考慮した異常検知

決定木

こんにちは。現役エンジニアの”はやぶさ”@Cpp_Learningです。

今回は説明性・解釈性を考慮した機械学習による異常検知について紹介します。

機械学習モデルの説明性・解釈性とは

モデルの説明性・解釈性については、以下の記事で説明済みなので割愛します。

モデル解釈性
機械学習モデルの説明性・解釈性について -SHAPによる実践あり-こんにちは。 現役エンジニアの”はやぶさ”@Cpp_Learningです。仕事でもプライベートでも機械学習で色々やってます。 ...

本記事では Isolation Forest による異常検知について紹介します。

Isolation Forestとは

Isolation Forest は Random Forest と同様、ランダムに生成される複数の決定木(森)から異常値を推測するアルゴリズムです。

Isolation Forestのアルゴリズム概要
  1. ランダムに2つの特徴量を選択
  2. 各特徴量の最小値~最大値の範囲でランダムな値を選定し、データを分割
  3. 全データが孤立するまで❷を繰り返しながら、決定木を作成
  4. 分岐の早い段階で孤立したデータを異常と判定

このアルゴリズムの図解が下図です。決定木を生成し、分岐の早い段階で孤立した赤データを外れ値(≒異常値)として検知します。

決定木

上図では1つの決定木しか生成していませんが、実際には大量の決定木を生成して、異常検知を実現します。

スポンサーリンク

実践!Isolation Forestによる異常検知

sklearn.ensemble モジュールが Isolation Forest もサポートしています。なので、skleanユーザーであれば、比較的簡単に Isolation Forestによる異常検知を試すことができます。

問題設定

今回は機械学習チュートリアルでお馴染みの irisデータセットに対し、分類ではなく異常検知を実践します。以降からソースコードを書いてきます。

本記事のソースコードはGoogle Colaboratoryで動作確認しました(2021/01/15)

Import

まずはimportから

データセット

irisデータセットをデータフレーム形式で読込みます。

データ可視化

サクッとデータを可視化できるように散布図作成用の関数を作っておきます。

irisデータセットの散布図

Isolation Forestの学習

Isolation Forestの各パラメータをセットして学習します。

n_estimators=100 なので、100個の決定木を生成します

推論 -異常検知とスコア算出-

以下のコードで推論…つまりはデータセット内の異常データを検知します。

異常と判定されたデータのみを抽出し、表で確認してみます。

index sepal length (cm) sepal width (cm) petal length (cm) petal width (cm) target anomaly_label scores
13 4.3 3.0 1.1 0.1 0 -1 -0.039104
15 5.7 4.4 1.5 0.4 0 -1 -0.003895
41 4.5 2.3 1.3 0.3 0 -1 -0.038639
60 5.0 2.0 3.5 1.0 1 -1 -0.008813
109 7.2 3.6 6.1 2.5 2 -1 -0.037663
117 7.7 3.8 6.7 2.2 2 -1 -0.046873
118 7.7 2.6 6.9 2.3 2 -1 -0.055233
131 7.9 3.8 6.4 2.0 2 -1 -0.064742

「anomaly_label == -1 が異常、anomaly_label == 1 が正常」と判定されたデータです。 scoresの詳細は割愛しますが、スコアが低いほど異常なことを表現しており、スコアが負の場合は外れ値となります。今回は計8つの異常データが検知されました。

異常検知の説明性・解釈性

表だけでなく、散布図で異常を可視化します。

Isolation Forestでirisデータセットの異常検知

3Dで可視化するなら、plotlyでグリグリ動かせるグラフを作成するのがオススメです。

Isolation Forestでirisデータセットの異常検知

決定木の構造を可視化することで、どんな根拠で異常検知したのか確認できます。

Isolation Forest

上図の色が濃いのが samples=1 です。つまり以下の早い段階の分岐で孤立し、異常と判定されたデータです。

  • petal length (cm) <= 1.24 で True
  • sepal length (cm) <= 4.49 で True

異常データのみを抽出した表の内、最初の行のみを改めて確認してみると、上記の分岐で異常と判定されたデータだと分かります。

index sepal length (cm) sepal width (cm) petal length (cm) petal width (cm) target anomaly_label scores
13 4.3 3.0 1.1 0.1 0 -1 -0.039104

他の異常データについても決定木の構造を可視化することで、根拠を確認できます。

以上が Isolation Forest による説明性・解釈性を考慮した異常検知の実践でした。

まとめ

Isolation Forestのアルゴリズム概要から、説明性・解釈性を考慮した異常検知の実践までをソースコード付きで紹介しました。

くるる
くるる
機械学習による異常検知はできたものの、どんな根拠で異常検知したのか説明できない…

などと悩んでいるフクロウや人にとって、本記事が参考になれば嬉しく思います。

はやぶさ
はやぶさ
説明可能なAI(XAI:Explainable Artificial Intelligence)に関する情報共有しながら、一緒に成長できると嬉しいです。よろしくお願いします。

以下 本の紹介

Amazonギフト券チャージで最大2.5%ポイント還元
Amazonはチャージがお得

Amazonプライム会員なら、Amazonギフト券を現金でチャージ(コンビニ・銀行払い)すると最大2.5%ポイント還元!

クレジットカード払いでもキャンペーンエントリー0.5%ポイント還元中です。

Amazonでお得に買い物をするならまずはチャージから。

\チャージがお得/

詳細をチェックする

Amazonプライム無料体験中でもOK!

PICK UP BOOKS

  • 数理モデル入門
    数理モデル
  • Jetoson Nano 超入門
    Jetoson Nano
  • 図解速習DEEP LEARNING
    DEEP LEARNING
  • Pythonによる因果分析
    Python