Hatena::ブログ(Diary)

極めて個人的なメモ Twitter

Θ・)ノシ Bob#3のメモ帳です。
1972 | 12 |
2003 | 03 | 04 | 05 | 06 | 11 | 12 |
2004 | 01 | 02 | 03 | 04 | 05 | 06 | 09 | 10 | 11 | 12 |
2005 | 01 | 02 | 03 | 04 | 05 | 06 | 07 | 09 | 10 | 11 |
2006 | 03 | 04 | 05 | 06 | 07 | 09 | 10 | 11 | 12 |
2007 | 01 | 02 | 03 | 05 | 06 | 07 | 10 | 11 | 12 |
2008 | 01 | 02 | 04 | 05 | 08 | 09 | 10 | 11 |
2009 | 01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09 | 10 | 11 | 12 |
2010 | 01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09 | 10 | 11 |
2011 | 05 | 06 | 09 | 10 |
2012 | 02 | 03 | 05 | 06 | 08 |
2013 | 01 | 02 | 03 |
2015 | 02 |

2006-11-05

[]決定木 決定木を含むブックマーク 決定木のブックマークコメント

 で決定木を実行する方法のメモ。

 Rと樹木モデルを主に参考にした。

 で決定木を実行するパッケージにはtree,rpart,mvpart,party,ipredなどがある。

 このうちrpartはいわゆるCARTでGini係数を分割基準として使っている。また、エントロピーを分割基準として使うこともできる(ID3相当?)。

 交差検証の回数は3〜10回が一般的。交差検証の結果から得た複雑さの指標(CP)を基に枝の剪定を行う。

 ここではrpartの拡張版であるmvpartを使った方法を記録しておく。これは分類木の例。

 これがCPプロット

f:id:bob3:20061106003519p:image

 これが剪定済みの決定木。

f:id:bob3:20061106003925p:image

###############################################################################
# 【rpartオブジェクトの葉のルールを表示する関数】
# http://www.togaware.com/datamining/survivor/Convert_Tree0.html
###############################################################################
list.rules.rpart <- function(model)
{
  if (!inherits(model, "rpart")) stop("Not a legitimate rpart tree")
  frm     <- model$frame
  names   <- row.names(frm)
  ylevels <- attr(model, "ylevels")
  ds.size <- model$frame[1,]$n
  for (i in 1:nrow(frm))
  {
    if (frm[i,1] == "<leaf>")
    {
      cat("\n")
      cat(sprintf(" Rule number: %s ", names[i]))
      cat(sprintf("[yval=%s cover=%d (%.0f%%) prob=%0.2f]\n",
                  ylevels[frm[i,]$yval], frm[i,]$n,
                  round(100*frm[i,]$n/ds.size), frm[i,]$yval2[,5]))
      pth <- path.rpart(model, nodes=as.numeric(names[i]), print.it=FALSE)
      cat(sprintf("   %s\n", unlist(pth)[-1]), sep="")
    }
  }
}

###############################################################################
# 【誤分類率算出関数】
# http://www.genetics.ucla.edu/horvathlab/Biostat278/Discussion3supervised.doc
###############################################################################
misclassification.rate <- function(tab){
	num1 <- sum(diag(tab))
	denom1 <- sum(tab)
	signif(1-num1/denom1,3)
	}

###############################################################################
# 【分析の下準備】
# 事前にmvpartパッケージをインストールしておくこと。
# また、日本語対応のRdevgaをマイドキュメントに置いておくこと。
# CSVファイルは下記のようにして読み込む。
# mushroom <- read.csv("C:/R/data/mushroom.japanese.csv")
# タブ区切りファイルは下記のようにして読み込む。
# mushroom <- read.delim("C:/R/data/mushroom.japanese.txt")
# 名義尺度は下記のように設定。文字列なら不要。
# car.test.frame$Type <- as.factor(car.test.frame$Type)
# 水準の順番を指定したい時は
# car.test.frame$Type <- factor(car.test.frame$Type,
#				levels=c("Small","Compact","Sporty",
#					"Medium", "Van", "Large"))
# 順序尺度は下記のようにして設定。
# car.test.frame$Type <- ordered(car.test.frame$Type,
#				levels=c("Small","Compact","Sporty",
#					"Medium", "Van", "Large"))
###############################################################################
options(scipen=20)	# 整数で表示させるための設定
library(mvpart)		# 多変量決定木パッケージの読み込み
library(DAAG)		# デモデータ用パッケージの読み込み
data(spam7)	# デモデータの読み込み

###############################################################################
# 【学習用データと検証用データの用意】
# ここでは3分の1を検証用に、残りを学習用にしている。
# 分類するクラスタのサイズを揃える時は、事前にデータをクラスタごとにソートして
# おいてから、下記のようにクラスタごとに抽出する。
# sub <- c(sample(1:50, 25), sample(51:100, 25), sample(101:150, 25))
###############################################################################
(n.size <- nrow(spam7))		# サンプルサイズの確認
p <- floor(n.size/3)			# 検証用データのサイズ設定
sub <- c(sample(1:n.size, p))		# 検証用データの無作為抽出
train.data <- spam7[-sub,]	# 学習用データの切り出し
test.data <- spam7[sub,]	# 検証用データの切り出し

###############################################################################
# 初期の決定木の実行
###############################################################################
tree1 <- mvpart(yesno~.,			# 変数の指定。目的変数~説明変数
		data=train.data,		# データセットの指定
		# parms=list(split="information"),	# 分割基準の指定
		# cp=0,				# 剪定基準の設定
		xval=3)				# 交差検証の回数設定
train.model <- predict(	tree1,			# 初期のモデルに基づく分類
			newdata=train.data,	# 学習用データセットの指定
			type="class")		# モデルのタイプ指定
(tab1 <- table(train.model,train.data$yesno))	# 学習用データの分類状況
misclassification.rate(tab1)			# 誤分類率の算出

###############################################################################
# 決定木の剪定
# pruned()を使った方が効率的だが、mvpartのグラフが便利なので再分析をしている。
###############################################################################
printcp(tree1)				# 交差検証の結果を出力
plotcp(tree1)				# 交差検証の結果をグラフ化
(tree.pruned <- mvpart(	yesno~.,		# 変数の指定。目的変数~説明変数
			data=train.data,	# データセットの指定
			uniform=F,		# グラフの枝の長さの指定
			margin=0.01,		# グラフの余白の指定
			branch=1,		# グラフの枝の角度の指定
		# parms=list(split="information"),	# 分割基準の指定
			cp=0.029,		# 交差検証の結果から枝を剪定
			xval=3))		# 交差検証の回数設定
pruned.model <- predict(tree.pruned,		# 剪定後のモデルに基づく分類
			newdata=train.data,	# 学習用データセットの指定
			type="class")		# モデルのタイプ指定
(tab2 <- table(pruned.model,train.data$yesno))	# 学習用データの分類状況
misclassification.rate(tab2)			# 誤分類率の算出
list.rules.rpart(tree.pruned)		# 葉ごとのルールの表示

###############################################################################
# 検証用データによるモデルの検証
###############################################################################
test.model <- predict(	tree.pruned,		# 剪定後のモデルに基づく分類
			newdata=test.data,	# 検証用データセットの指定
			type="class")		# モデルのタイプ指定
(tab3 <- table(test.model,test.data$yesno))	# 検証用データの分類状況
misclassification.rate(tab3)			# 誤分類率の算出

STARLESSSTARLESS 2006/11/06 21:21 ご無沙汰しております。昨日、OS入れ替え等々やっておりまして、久方ぶりにLast.fmにアクセスしましたら、友達申請を戴いたまま放置してしまっていたことに気づきまして。。。知らなかったとはいえ、大変失礼致しました。
m(__)m

bob3bob3 2006/11/07 00:12 これはこれはご丁寧に。いや、私も友達申請したの忘れてたのでw 無問題ですよ。

トラックバック - http://d.hatena.ne.jp/bob3/20061105