【Python】scikit-learnで使える分類モデルを簡単にまとめてみた

今回はscikit-learnで実装できる分類モデルをまとめてみました。

目次

scikit-learnの分離モデルまとめ

この記事では分類モデルの中でも代表的な以下9モデルについて実装方法を紹介します。

  1. SVC
  2. 線形回帰
  3. ロジスティック回帰
  4. K-近傍法
  5. 決定木
  6. ランダムフォレスト
  7. 勾配ブースティング
  8. ナイーブベイズ
  9. K-Means法

事前準備

scikit-learnをインストールしていない場合は以下のコマンドでインストールすることができます。

pip install -U scikit-learn

分類モデル

1. SVC

from sklearn.svm import SVC


model = SVC()
model.fit(train_x, train_y)
pred = model.predict(test_x)

2. 線形回帰

from sklearn.linear_model import LinearRegression


model = LinearRegression()
model.fit(train_x, train_y)
pred = model.predict(test_x)

3. ロジスティック回帰

from sklearn.linear_model import LogisticRegression

model = LogisticRegression()
model.fit(train_x, train_y)
pred = model.predict(test_x)

4. K-近傍法

from sklearn.neighbors import KNeighborsClassifier
 
model = KNeighborsClassifier()
model.fit(train_x, train_y)
pred = model.predict(test_x)

5. 決定木

from sklearn.tree import DecisionTreeClassifier
 
model = DecisionTreeClassifier()
model.fit(train_x, train_y)
pred = model.predict(test_x)

6. ランダムフォレスト

from sklearn.ensemble import RandomForestClassifier
 
model = RandomForestClassifier()
model.fit(train_x, train_y)
pred = model.predict(test_x)

7. 勾配ブースティング

from sklearn.ensemble import GradientBoostingClassifier
 
model = GradientBoostingClassifier()
model.fit(train_x, train_y)
pred = model.predict(test_x)

8. ナイーブベイズ

from sklearn.naive_bayes import GaussianNB
 
model = GaussianNB()
model.fit(train_x, train_y)
pred = model.predict(test_x)

9. k-means法

from sklearn.cluster import KMeans

model = KMeans()
model.fit(train_x, train_y)
pred = model.predict(test_x)

まとめ

今回はscikit-learnで実装できる分類モデルをまとめてみました。

今後は簡単な機械学習をする記事もアップできればなーと考えています。それではまた!

私が使っているL字型パソコンデスクです↓

よかったらシェアしてね!

この記事を書いた人

えだはのアバター えだは 大学生

国立大学で情報工学を専攻中の22歳の♂。
運営ブログの閲覧者が壊滅的に少ない。

コメント

コメントする

目次