決定木(学習結果を木構造で表現)

1 min 203 views

決定木(decision tree)は、とてもよく使われる分類のアルゴリズムです。

決定木は、以下のとおりとても単純です。

  • 不純度が最も現象(情報利益がもっとも増加)するように、条件分岐を作りデータを振り分ける(枝分かれする)
  • これを繰り返し

ランダムフォレスト

決定木の応用に、「ランダムフォレスト」があります。

ランダムフォレストは決定木にバギングといわれる「アンサンブル学習」の一種で複数のモデルを用いて平均の多数決をとってそれを予測結果とします。

データの前処理が少なくて済むことや安定した精度がでることからよく使われるアルゴリズムなので覚えておきましょう。

参考 決定木は、木構造で結果を表示してくれるためドキュメントに貼り付けて利用することで説明変数と目的変数の因果関係がわかりやすく、説明性が上がり実用性の高くなります。
このような計算モデルを「解釈性の高いモデル」と呼ぶことがあります。
関連記事

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です