「今」のビッグデータに対して「データマイニング」を実行する際には、従来の「直線型」ではない、「循環型マーケティング」の理論と戦略を前提とする必要があります。
今日は、2012年11月2日にIBM箱崎本社で行なわれた、
「ビッグデータ時代を勝ち抜くためのデータマイニング活用セミナー」
に登壇された清水聰氏(慶應義塾大学教授)のお話のエッセンスを簡単にご紹介しましょう。(私見も入っている点、ご了承ください)
今までのデータマイニングが対象としてきたビッグデータとしては、
・小売業の購買履歴データ(POS)
・Webのアクセスログデータ
などがありました。これらは、基本的に「データフォーマット」が決まっていて、基本的にコード化が可能なもの。(「商品分類コード」とかが最初からあるわけです)
つまり同質で定量的なデータなものでした。データは大量だけど、データとしては扱いやすい。
一方、今のビッグデータは上記の
「同質・定量的データ」
だけでなく、コールセンターに寄せられる意見・苦情・要望等のデータ、
およびSNS上の投稿のデータといった、データフォーマットが固定しにくく、
コード化も難しい、
「異質・定性的データ」
が加わり、しかも、ユーザーのID情報などによって一人ひとりにすべてのデータが紐付けられたものです。
つまり、多様なデータが顧客単位で統合されているのが今のビッグデータ。
(私自身も実際の業務で取り組んでいますが、当然ながら、統合作業は簡単なものではありません。)
こうした、顧客単位でデータが統合されているものを
「シングルソース(のデータ)」
と専門的には呼びます。
顧客一人(シングル)ひとりが、
全ての情報・データの源(source)
となっているからですね。
さて、従来のビッグデータを対象とするデータマイニングでは、
・販売履歴データ
・Webアクセスログデータ
など、個別に存在している、ひとまとまりのデータをそれぞれ別個に分析していました。つまり、いわばデータを「縦」にだけ眺めていたということになります。
このデータマイニングは主に、新たな仮説発見を狙ったものであり、ともかくデータを回してみることで、
優良顧客(セグメント)
の発見(識別)などで成果を上げてきたわけです。
しかし、しょせん消費者行動の一部分を切り取ってみているだけなので、
セグメンテーション
を行なうのがせいぜい。
・消費者は、ある状況においてどのような反応をするのか
・どのような働きかけをすれば、こちらの期待する反応をしてくれるのか
といった消費者行動の深い理解や、予測モデルの構築には限界があったのです。
しかし、
次のページ「シングルソースデータ」
続きは会員限定です。無料の読者会員に登録すると続きをお読みいただけます。
- 会員登録 (無料)
- ログインはこちら
関連記事
2012.11.06
2012.11.30
有限会社シャープマインド マーケティング・プロデューサー
これからは、顧客心理の的確な分析・解釈がビジネス成功の鍵を握る。 こう考えて、心理学とマーケティングの融合を目指す「マインドリーディング」を提唱しています。