Sickit-learn wapper interfaceというラッパーを使うと、LightGBMをSickit-learnを介して使うことができます。
端的にいうとSickit-learnでお馴染みの、fitで学習しpredictで推論することができるようになります。
データの読み込み
タイタニックのデータセットを読み込み、データの前処理を行って、正解ラベルとそれ以外にデータを分割します。
[ソース]
1 | import numpy as np |
Sickit-learn interfaceを使う
LightGBMをSickit-learn interfaceでラップし(12行目)、学習・推論を行います。
[ソース]
1 | import lightgbm as lgb |
[出力]
正解率は83.05%となりました。なかなかの結果です。
検証データを読み込み、推論・提出用のCSVの出力を行い、Kaggleに提出してみます。
[ソース]
1 | # 検証データの読み込み |
[提出結果]
正解率78.82%と、もう少しで8割に到達できそうです。
便利な交差分割検証関数
LightGBMをSickit-learnと同じように扱えるようになると、cross_val_scoreというとても便利な関数を使うことができるようになります。
この関数を使うと、たった1行で分割交差検証ができてしまいます。
[ソース]
1 | from sklearn import model_selection |
[出力]
便利すぎます。
このような便利関数があるのでSickit-learnは広く普及しているんだと思います。














