Google Analyticsを使うための基礎を学ぶ

[最終更新] 2018年4月10日

最近Google Analyticsを使ってアクセス解析をしている(このサイトではもうずっと前からしてはいる…まぁ何か月かに一回PVを見るだけなんだけれど)。しかし周りに詳しい人もいないので、例によって自分で色々と調べながら試行錯誤の日々。

ひとまず、基本的なところで、学習したことを覚え書き。

スポンサーリンク

サイトの目的は何か

アクセス解析をする上では、まず「このサイトの目的は何か」を考えなくてはならない。アクセス解析はサイトの目的を達成するために行うものだからだ。

ECサイトであれば、サイトの目的はわかりやすく「売上を伸ばす」なのだが、当サイトのような雑記ブログだと、特に目的なんてものはなく、どうしたものかと思う。まぁ基本は自分の覚書で、そのうち誰かの役に立ったらいいな、とか、常連さんができたら嬉しいな、くらいのものなので、どこまでいってもPVだ……などというのはどうでもよいこと。

目的を決めたら、その目的を達成するための、具体的に数値化できる「目標」を設定する。アクセス解析では、この「目標」に向けて、施策と解析を繰り返すことになる。たとえばゴールページを設定し、そのページに到達されることを目標とするとか、広告のクリックを目標とする(クリック計測)、など。

この目的と目標を決めるのが一番むずかしいのではなかろうか。目標は数値化された成果でなければならず、この成果を評価する指標としてKGI(Key Goal Indicator, 重要目標達成指標)があり、KGIに至る経過としてKPI(Key Performance Indicator, 重要業績達成指標)がある。たとえば、ゴールページがあったとして、そのゴールページへの到達がKGI、そこに至るまでのページ遷移がKPI、など。

参考

アクセス解析の手法

成果を測るためにアクセス解析を行うわけだが、その元ネタとなるデータを集める手法について、ざっくりと理解したい。これは大別して3種類ある。

  • サーバーログ方式
  • パケットキャプチャ方式
  • ビーコン方式

サーバーログ方式は、たとえばapacheやnginxの残すログであったり、または自前のアプリケーションが残すログから解析する。トラブルがあった時にはもちろん見ることになるが、アクセス解析目的としても、作り込みさえすれば恐らく最も詳細な情報が得られるだろう…が、その分手間もかかる。データ量も膨大であり、アクセス解析の目的にはやや重すぎる気がする。

パケットキャプチャ方式は、ネットワークを流れるパケットそのものを直接解析する方式。最初はWiresharkのようなものを想像して、アクセス解析というより組み込み機器やネットワーク機器の試験に使われるものではないんだろうか、なんて思ったのだが、どうやらそれ用の製品が、ハードウェアからあるらしい(ログ型、タグ型にも対応可能なアクセス解析ツール「RTmetrics」製品紹介 | オーリック・システムズ株式会社)。で、利点としてはリアルタイムに解析ができる、専用のハードウェアを用いるのでWebサーバーに負荷をかけない、などがあるようだ。しかし、ハードウェアを用いるので、当然導入コストは高く、また保守・運用コストも馬鹿にできないだろう。普通はあまり選択肢にのぼらないのではなかろうか。

最後のビーコン方式は、html内に所定のタグを埋め込むことで、都度サーバーに情報を送る方式である。Google Analyticsで採用されている方式はこれ。解析対象の全ページにタグを埋め込まなくてはならないが、それさえしてしまえば、Google Analyticsというリッチなサービスを使えるのだから、大助かりである。

逆に言うと、ビーコンを送らなければ計測されない。それを利用して、たとえばWordPressなどでは、ログインユーザーに対してはビーコンを送らないようにする、などして任意のユーザーのアクセスを除外できる。Chromeのアドオンでは、自分のビーコンを送らないようにするものもある。

参考

何をどのように計測できるのか

以降、アクセス解析はGoogle Analyticsを前提とする。

Google Analyticsでは、何をどのように計測できるのか。それは前節のビーコン方式、ということがすべてなのだけれど、もう少し具体的に言うと、ユーザーがアクセスしたページのカウント、バナーのクリック率、資料のダウンロード回数、サイトの滞在時間といったものを、html内のタグを通じて計測することができる。

そして、クリック計測などのためには、それ用にタグを改変しなければならない(aタグにonclick属性をつけるとか)。やりたいことを思うがままにしていくと、だいぶ煩雑になってしまうので、タグの管理が重要になる。

そのためのツールとして、Google Tag Managerというものがある。ここでは詳しくは触れないが(というか自分も勉強中なので、書きたくても書けない)、ある程度本格的にアクセス解析を行うつもりなのであれば、Google Tag Managerの利用が推奨されている。Google Tag Managerを使うと、コードをいじらずに計測するものを管理できるので、特にエンジニアとデザイナーで分業している(コードをいじる人とデザインする人が異なる)ケースで役立つ。

また、アクセスしたユーザーについての情報も得られる。それは使用しているデバイスやブラウザといった、基本的なものから、サイトにアクセスした回数、検索エンジンから来た場合の検索ワード(これは最近は専らSearch Consoleによる)とか、いったいどうやっているのか知らないが、ユーザーの年齢や性別、嗜好まで様々。

データをどのように見て、活用すればよいのか

種々のデータが得られるのはよいのだが、あまりにも膨大な情報が得られるので、正直どうしてよいのかわからない。サイトの全体的な傾向を見るだけならば、ユーザー数、セッション数、PVを見ればよいが、これを見ても「ふーん」と思うだけで、何か行動が変わるわけでもない。まぁPVが増えていけば励みにはなる(このサイトはもう2,3年くらい横ばいである…)。

ということで、最初の話に戻るのだが、サイトの目的と、目的達成のための目標が重要である。逆に言うと、このサイトのように目的がないと、特に解析するものもない。最近、このサイトにも何か目的が合ったら良いだろうかと考えているのだが、何も思いつかない。

閑話休題。

たとえば会員サイトで登録者数を増やすことを目的として、目標を会員登録の完了ページに到達してもらうことと考える。そのためには、まず会員申請のページに到達してもらう必要があり、かつ実際に会員申請をしてもらう必要がある。その経過について、それぞれのアクセスをコンバージョンとして、どれだけのコンバージョンがあったかを解析していくと、会員登録に至るまで、ユーザーがどの段階で振り落とされていくかを可視化することができる。

これをファネル分析と言う。ファネルとは漏斗のことで、ユーザーが段々と絞られていく様を表現したものらしい。

ファネル分析で、ユーザーの離脱率が高いページがわかれば、そのページを改善し、変更前と変更後のアクセスの変化を解析することで(可能であれば、変更前と変更後をランダムに表示するA/Bテストで)、変更の成果を定量的に測ることができる。

その他、PVアップが目的であれば、ユーザーが最初に到達するページ(Google Analyticsにおいてはランディングページ(LP)と呼ばれるが、一般的には別の意味もあることに注意「ランディングページ(LP)とは何か?-メリットをわかりやすく解説!」)を調べて、そのページ関連するコンテンツを増強する、等の対応が考えられる。

また、直接コンバージョンに寄与しておらずとも、リピーターや滞在ページの多いユーザーに焦点を絞って解析し、よく見られているコンテンツを調べるなど、そのサイトで求められているものを調査することもできる。

ひとまずこれくらいで

他、各種ユーザー情報を利用すれば、より高度に仮説の検証やらが出来るはずなのだが、今のところ自分にはこの程度で精一杯である。少しずつ知識を積み上げていきたいが、あまりこれを頑張るのもなんだかなぁという微妙な感じ。

とりあえず、ダイレクトにトップページに来てくれているリピーターさんは常連さんだと考えてよいのだろうか。いや、このサイトで別にそんな解析をする気はないが……。

まぁでも、アクセス解析について勉強するにつれ、このサイトももう少し何か考えたほうがよいのだろうか、なんて思う今日この頃である。

今回の参考にさせていただいた書籍。ただし、自分が読んだのは随分前に入手した第一版のほうで、情報の古いところが散見された。移り変わりの早いジャンルなので、二版を手に入れるべき。

関連コンテンツ

関連記事

スポンサーリンク

コメントを残す

メールアドレスが公開されることはありません。