- 機械学習を Python を用いて実装したことがある方
- 機械学習の内容をより深く理解したいが、数学的な理論の理解が苦手な方
- 機械学習の学習結果を Python を使って可視化したい方
こんにちは、機械学習講師の竹内です。
近年、AI の技術のひとつである「機械学習」に関するニュースや活用事例を耳にすることが多く、こうした流れから、機械学習の技術を身に着けたいと考えている方も多いのではないでしょうか。
2021 年現在では、機械学習を活用する環境はかなり整ってきており、複雑な数学の理論を知らなくても簡単に機械学習を扱えるようになっています。簡単に扱えることにより、多くの人が機械学習を使えるようになるというメリットはありますが、その反面、正しくない使い方をしてしまう可能性も出てきてしまいます。
機械学習を学習し始めた時、このような疑問を抱いたことはないでしょうか。
上記は、私自身が機械学習を学んでいた時に感じた疑問です。これらの疑問を解決するには、各アルゴリズムについて理解を深める必要があり、そのためには数学的な理論を理解する必要があります。
しかし、数学が苦手な方にとっては数式を見ても何も伝わってこないどころか、机から離れてしまう要因になってしまっているかもしれません。
そこで今回は、数式なしでアルゴリズムの理解を深めるために、アルゴリズムの挙動を可視化してみます!少しでも読者の皆様の理解の助けとなれば幸いです。
決定木とは
決定木 (dicision tree)とは、木構造(樹形図)を用いてデータを分析する手法です。以下の図を御覧ください。
図のようにその日の気温と天気が晴れか雨かを表すデータがあり、各データに対してアイスクリームを買ったかどうかといった答えが与えられています。そして、アイスクリームを買った場合と買わなかった場合の分岐点を見つけ、以下のような樹形図を作成します。
上記の樹形図を、データを使って自動的に作成してくれるのが決定木です。それでは決定木の挙動を可視化してみましょう。
可視化の実装は以下の手順で行います。
Python の実装は GoogleColaboratory を使用すると、環境構築不要で行えます。GoogleColaboratory を使用したことがない方は以下の記事を参考にしてみてください。
【最新版】Google Colaboratory とは?使い方・メリット・設定などを徹底解説!
ライブラリやモジュールのインポート
まず始めに、今回の実装に使用するライブラリやモジュールをインポートしておきましょう。
import numpy as np # 多次元配列用の数値演算モジュール
import matplotlib.pyplot as plt # グラフ等の描画用モジュール
from matplotlib.colors import ListedColormap # 描画時のカラー指定に使用
from sklearn.datasets import make_moons # サンプルのデータセット
from sklearn.model_selection import train_test_split # データを学習用とテスト用に分割する関数
from sklearn.tree import DecisionTreeClassifier # 決定木(分類)
本記事の実装では、上記のモジュール等を使用します。本記事作成時の Python やモジュール等のバージョンは以下です。
- Python : 3.7.12
- NumPy : 1.21.2
- Matplotlib : 3.4.3
- scikit-learn : 1.0
データの準備
今回は scikit-learn のサンプルデータセットである make_moons を使用します。
# データの準備
moons = make_moons(n_samples=200, noise=0.1, random_state=0)
x = moons[0] # 説明変数を取得
t = moons[1] # 目的変数を取得
make_moons()
関数を使用することで月の形のようなデータを作成できます。作成するサンプル数は n_samples
という引数で指定できます。またデータを生成する際に乱数が絡むため、再現性を確保するために random_state=0
も指定しておきましょう。
make_moons()
で作成したデータを可視化してみましょう。データの可視化には matplotlib の plot()
関数を使用します。
# データの可視化
def plot_dataset(x, t):
plt.plot(x[:, 0][t==0], x[:, 1][t==0], 'bo') # 目的変数が 0 のデータを可視化
plt.plot(x[:, 0][t==1], x[:, 1][t==1], 'r^') # 目的変数が 1 のデータを可視化
plt.xlabel('x') # x 軸方向に x を表示
plt.ylabel('y', rotation=0) # y 軸方向に y を表示
# moons を可視化
plt.figure(figsize=(12, 8)) # 描画範囲のサイズを指定
plot_dataset(x, t)
上図のデータを、決定木を用いて分類してみましょう。まずはデータを学習用とテスト用に分割します。なぜ学習用とテスト用に分割する必要があるのかわからない方は以下の記事の「学習用データセットとテスト用データセットへ分割」を参考にしてください。
参考 機械学習の基礎 | 機械学習 実践(教師あり学習:回帰)キカガク# 学習用とテスト用に分割
x_train, x_test, t_train, t_test = train_test_split(x, t,
stratify=t,
random_state=0)
上記のコードにより、make_moons()
関数で用意したデータを学習用とテスト用に分割できました。stratify=t
と指定することで、学習用データとテスト用データで目的変数(0 と 1)の割合が均等になるように分割できます。
またデータを分割する際、上から順番に取り出すのではなくランダムにデータを取り出すため、ランダム性(乱数)を固定するために random_state=0
を入れて再現性を確保しています。
モデルの定義
それでは、学習用のデータを使用し、決定木を学習させましょう。決定木は scikit-learn の DecisionTreeClassifier()
クラスで使用可能です。
まずはクラスをインスタンス化し、tree_2
という変数にインスタンス化したもの(オブジェクト)を格納しておきましょう。
# モデルの定義
tree_2 = DecisionTreeClassifier(max_depth=2, random_state=0)
また、今回 DecisionTreeClassifier()
の引数にて、max_depth=2
を設定しています。この引数を指定することにより、木構造が最大 2 段階までしか作成されなくなります。
後程、max_depth
の値を変えた際の挙動の違いも確認してみましょう。
モデルの学習
それでは決定木の学習を行います。学習には、学習用データである x_train
と t_train
を使用します。また学習には、オブジェクトの fit()
メソッドを使用します。
# モデルの学習
tree_2.fit(x_train, t_train)
モデルの検証
学習の結果を可視化する前に、テストデータ (x_test
, t_test
) における精度(正解率)を確認し、学習していないデータへの精度を検証しておきます。テストデータにおける精度は score()
メソッドで確認可能です。
# テストデータで正解率の確認
tree_2.score(x_test, t_test)
--- 以下実行結果 ---
0.94
0.94 になりました。score()
メソッドで確認できる値は正解率です。今回の正解率は 94% となりました。
学習結果を可視化
それでは今回の学習結果を可視化してみましょう。
# 学習結果の可視化
def plot_decision_boundary(model, x, t):
# サンプルデータのプロット
plt.plot(x[:, 0][t==0], x[:, 1][t==0], 'bo')
plt.plot(x[:, 0][t==1], x[:, 1][t==1], 'r^')
plt.xlabel('x') # x 軸方向に x を表示
plt.ylabel('y', rotation=0) # y 軸方向に y を表示
# 描画範囲の設定
x1_min, x1_max = x[:, 0].min()-1, x[:, 0].max()+1
x2_min, x2_max = x[:, 1].min()-1, x[:, 1].max()+1
# 用意した間隔を使用してグリッドを作成
_x, _y = np.meshgrid(np.arange(x1_min, x1_max, 0.01),
np.arange(x2_min, x2_max, 0.01))
# 多次元配列の結合
xy = np.array([_x.ravel(), _y.ravel()]).T
# 予測結果を算出し、分類境界線を図示
y_pred = model.predict(xy).reshape(_x.shape)
custom_cmap = ListedColormap(['mediumblue', 'orangered'])
plt.contourf(_x, _y, y_pred, cmap=custom_cmap, alpha=0.2)
plt.figure(figsize=(12, 8))
plot_decision_boundary(tree_2, x, t)
学習結果を可視化できました。94% の正解率は良い精度に感じましたが、可視化してみるとうまく分類できていないところがありそうです。
今回は max_depth=2
にして条件分岐の回数を減らしていたため、うまく学習ができなかった可能性が高いです。次は max_depth=6
に変更して、再度学習と結果の可視化を行ってみましょう。
モデルの条件を変えて、再度結果を可視化
max_depth
を 2 から 6 へ変更し、再度、決定木の学習を行います。まずはモデルの学習とテストデータに対する正解率を確認します。
# モデルを定義
tree_6 = DecisionTreeClassifier(max_depth=6, random_state=0) # 2 -> 6 へ変更
# モデルの学習
tree_6.fit(x_train, t_train)
# テストデータで正解率の確認
tree_6.score(x_test, t_test)
--- 以下実行結果 ---
1.0
正解率が 100% になりました!max_depth=2
のときよりも精度が向上しています!それではこちらも可視化してみましょう。
可視化には先程、定義した plot_decision_boundary()
関数を使用します。
# 学習結果を可視化
plt.figure(figsize=(12, 8))
plot_decision_boundary(tree_6, x, t)
学習結果を可視化できました。100% の正解率はとてもよかったのですが、可視化の結果を見てみると、違和感のある学習の仕方をしていることがわかります。
上図の細く赤い領域は、青い領域になっていた方が汎用性の高い分類方法となりそうです。このように、用意したデータに過剰に適合してしまう状況のことを過学習と呼びます。
過学習を防ぐためには、先程変更した max_depth
のような人間側で設定できる値(ハイパーパラメータと呼びます)を調整したり、アルゴリズム自体を変える作業等が必要となります。
最後に : 学習結果のまとめ
今回の結果をまとめておきます。
いかがでしょうか。精度だけ見ると、正解率 100% のモデルはとても優れているように見えますが、可視化してみると少し変な予測をしていることがわかります。
このように結果を可視化してみるだけでもアルゴリズムの挙動を把握できますので、余力のある方は他のアルゴリズムでも試してみてください!