アクセス解析カンファレンス

本日は,http://www.69day.jp/に参加してきた.大変勉強になった.

ツールとしてはサーバーサイドでデータをとるものと,クライアントサイド(に埋め込んだビーコンを元に)でデータを取るものの2種類ある.さらに前者はサーバーログ型とパケットキャプチャリング型とに分かれる.一方のクライアントサイドでデータを取るものはWebビーコン型と呼ばれるらしい.

個人的な印象では,パケットキャプチャリングは高価な割にパケットの抜け落ちがあるということでちょっと劣勢かなという感じ.「Webビーコン型が世界の主流です」とWebビーコン型を提供する会社は言っていたが,サーバーログ型もSiteTrackerやGoogleに買収された(今回は出展していない)Urchinなどの商品は優れていると感じた.特にサーバーログ型は過去のデータもアクセスログさえ残っていれば分析できるし,SiteTrackerはドリルダウンで分析がかなりスムーズにできるので,リサーチャーとしては魅力的である.

ただしどうしてもサーバー側でデータをとるものだと,キャッシュ(戻るボタン)やプロキシ経由のアクセスがとれないし,また逆にロボットによるアクセスをとってしまうので(これはサーバーログ型でのフィルターにより完全とはいえないがほぼ解消できる),マーケティングの観点から使うにはWebビーコン型が一般的な解なのだろう.逆にサイトのトラフィック管理という点では,ロボットによるアクセスも拾ってくれるサーバーログ型に軍配が上がりそうだ.

さて,よく言われる,PV,訪問者数,滞在時間についても各社の考え方やツールのデフォルト設定がまちまちで,その違いを聞くと勉強になった.

PVは比較的単純で,要求ファイルの数であるが,大体それから画像ファイルを除いてカウントするケースが多いようだ.HTMLファイルについてはhttp領域とhttps領域に区分して集計する.あとはユーザーがブックマークに登録する行為のみを切り出してカウントできるなどの機能もある.その行為の時にもファイルが要求されるので,その分を除いて通常のPVをカウントするようである.またきちんとクライアント側の画面に表示され終えてからPVとしてカウントするようにもしているらしい.

ただしPVに関しては,タブブラウザの影響は大きいようだ.ブラウザによって違いがあるそうだが,タブを切り替えるたびにユーザーが閲覧していなくても,すでに開いているタブのファイルも再度要求するものがあり,その見られていないファイルの要求数を加算してしまうとPV数が大きく出るような傾向があるそうだ.現時点ではタブブラウザのシェアは10%弱だろうからさほど影響ないが,IEの次期バージョンがでると大きく影響を受けるらしい.

訪問者数についてはユニークブラウザという術語にこだわっているのがネットレイティングス.これは正論.余談だが,RSS「購」読者という言い方が普及しているようだが,「購」とは買うことだよ.閲読の方がよいと思うわけだ.

訪問者については,大体どこのベンダーもユニーク性を識別するために,最優先ではクッキーを使っている.そしてユーザーエージェント(ブラウザやPCの種類)とIPアドレスを次に考えている.この2つの組み合わせが無理だとIPアドレスのみになってしまうわけで,そうすると企業ドメインからのアクセスでは何万人がアクセスしようが,1ユニークユーザーになってしまうわけだ.

また面白かったのは昔からあるツールのデフォルトが「同一ユーザーエージェント&同一IPアドレスから,あるページに30分以内のアクセスがあった場合は同一セッションで,30分以上だと別セッション扱い」となっていたため30分が境界値になっているが,最近では自宅からのアクセスでも常時接続が普及したので,この時間を2時間など長めにすべきであるという指摘.同一セッションで1時間商品を調べた上で再度同じページに戻ってくるというアクションが増えてきたということである.

おどろいたのはユニーク訪問者という指標をデフォルトではとらずに延べ訪問者(セッション数)のみにしているツールがあること.このことも含めてPVに比べてユニーク訪問者数の扱いは低いように感じた.

最後に滞在時間について.15秒未満の滞在しかないページについては平均滞在時間を出すときにカウントしないとか,逆に15分以上のものについては最大15分でカウントするなどのルールがあるようだ.また1ページしかそのサイトのページを見ずにそのサイトから去ってしまうセッション(たとえばトップページに訪れてまったく違うサイトだとすぐに気づき,検索エンジンに戻るというような場合)も平均滞在時間を出すときにはカウントしないというルールもあるようだ.もちろん,これもツールのパラメーターをいじれば変えられるのだが.

あとは1社,アイオイクスという会社がxFeedというRSSフィードの測定ツールを出していた.今回はこれらの出展企業のうち10のツールで同一時期に同一サイトの分析をするという企画があったのだが,その対象サイトhttp://www.69day.jp/には平日で600-700のユニークユーザー数があった.これに対して,そのサイトが吐くRSSを受け取るためにRSSリーダーで閲読していた人は20-30人.大体,3%程度である.そんなに更新頻度の高いサイトではないから,フィードの登録をする人は多くないだろうが,一方で,アクセス解析に興味がある業界の人たちだからその登録率が高いとも言える.解釈が難しいがファクトとしてはそんな感じだ.

午後のセッションで面白かったのはネットレイティングスのもの.萩原社長はプレゼンが上手だ.同時に商売上手でもある.話は時宜をとらえていて,Google Analyticsをどう考えるかという話を前半に持ってきた.

結論は,月間500万PV未満のサイトが対象だし,Google AnalyticsWebビーコン型だから,アクセス解析をするにはタグを埋め込む必要があるということを広く知らしめてくれて助かるとのことだった.ただし,この結論はネットレイティングスとしては,ということだ.ほかのツールベンダーは同社とちがって小さいサイトにもツールを売っていたからかなり影響はあると思う.

その後,プレゼンは,ネット視聴率というパネルデータと,ネットセンサスという個別のサイトデータ(こちらは全数データ)を持つネットレイティングスはマーケットインテリジェンスということをやっていくと続いた.要はこれまでの2つのサービスのいいところ取りをして,業界ごとの共通のデータを作っていきましょうという話.例に出ていたのは,新聞業界の朝日,毎日,読売のサイトで,あるいは自動車業界のトヨタ,日産,ホンダのサイトで出せるデータは共通に公開して持つことにしようという話である.

これはネットレイティングス社の戦略としては当然である.だって視聴率データを持っているのは彼らだけだから.しかもナショナルクライアントが多いから.でも逆に言うと,この程度のデータ共通化って話はぜんぜん新しくないし,Long tailの世界観とはまったくかけ離れている.GoogleがAnalyticsで,月に500万PV以下のサイトからデータをごっそり集めるという話とは違うわけである.Double ClickがFortune500の企業を顧客に持っていますといっているうちに,OvertureやGoogleが数十万社の顧客を持っていたというオライリーの指摘に通じる世界なのだ.

萩原さんは,Google AnalyticsAdSenseの精度向上のためのツールばらまきであって,彼らはアクセスログ会社にはならないだろうといっていたけれど,そんな保証はない.まあ,ネットレイティングスはナショナルクライアントの財布が頼りなのはわかるけど,萩原さんのプレゼンを聞いていた時間というのは,企業サイトとCGMの世界の少なくとも現時点での断絶というのを感じた瞬間でもあった.

だってネット視聴率は7000世帯,2万人強のサンプルで,2000ドメイン強のデータだけしか集計していないんだもん.以前視聴率もLong tail? - sameoの生活断片で指摘したけれども,それでLong tailを語るのはおかしいわけで.