全3297文字
PR

 本特集の前回までで、乳がんの判定に関するモデルを作り、予測結果を出すことまでできました。こうやって作ったモデルが実際に業務で使えるかどうかは、予測結果がどの程度信頼に足るかによってきます。そこで重要になるのが、「評価」です。今回はどのような考え方でモデルの評価をしたらよいか確認し、モデル構築の最終ステップである「チューニング」について説明していきます。

評価

 これから検証データを対象に、正解データと予測結果がどの程度一致しているかを調べるのですが、元の検証データではデータ数が171個あり、調べるのが手間となります。そこで、正解データと予測結果のそれぞれに対して先頭の10個だけを取り出して(変数名はそれぞれy_test10 とy_pred10とします)、試しにこの1個同士を調べることにします。具体的な実装は、以下のコードです。

[画像のクリックで拡大表示]
正解データと予測結果の比較

 比較の結果を見ると、全部で10個の比較対象のうち、青枠で囲んだ1組が、結果が一致していない(予測が正しくない)ことがわかります。逆に正解であった比較対象は9組です。このことをコーディングで調べる方法を考えてみます。

 次のコードが、正解数をカウントするための実装です。

正解数のカウント
[画像のクリックで拡大表示]
正解数のカウント

 まず、変数w1に要素数10個のNumPy変数y_test10とy_pred10を比較した結果を代入します。結果はTrueまたはFalseの値を持つ要素数10個のNumPy配列になります。Falseの出ている場所が、最初のコード(正解データと予測結果の比較)で青枠で囲んだ場所(正解データと予測結果が不一致の場所)と同じになっています。