カテゴリーアーカイブ データマイニング・リテラシー

投稿者:

アンケート・データからの消費者セグメントの発見

顧客の実際の購買履歴データから購買行動のパターンをセグメント化するには,ViscoveryのSOM(自己組織化マップ)テクノロジーをお薦めします.
また大企業が定期的に行っているな大規模なアンケート調査データから消費者のセグメントを発見するということにもSOMは役に立ちます.
しかしながら,アンケート調査データというのは,なかなか曲者です.よくある問題は,(1)「良い」(2)「まあま良い」(3)「普通」(4)「やや悪い」(5)「悪い」というような段階的な尺度で回答する場合にあります.このような場合,回答者によってクセが出ます.ある人は,おもに(1)から(3)のポジティブな範囲で,ほとんどすべての設問に回答していたり,別の人は(2)から(4)の中間の範囲であったり,また別の人は(3)から(5)のネガティブな範囲だったりします.
結果として,多くのアンケート調査データは,普通に集計すると,ある設問にポジティブな回答をする人は,別のどの設問にもポジティブな回答をしているし,また逆も真なりの結果となります.このようなデータをもとにして「○%の人が「良い」と答えました」という調査結果をまとめることにどれだけの意味があるのか?という疑問が出てきます.さらに,クロス集計をやって,さらにコレスポンデンス分析をやってマップを描いたとしても,推して知るべし,です.
こういうことに疑問を持つ人は,至極まともな感覚の持ち主です.もし,まったく疑問を感じないとしたら,あまりに鈍感だと言わなければならないでしょう.いわゆる「お役所仕事」というのは,そういう人たちによって推進されているわけです.実際,お役所に限らず,多くの大企業,場合によっては専門の調査会社でさえ,こういうレベルの分析でお茶を濁しているのが実態ではないでしょうか.
つまり,分析の方法をもっと工夫しなければならないのです.
構造方程式モデルによるセグメンテーションの発見は,こういう問題の1つの解決策になりそうです.構造方程式モデルには,大別すると共分散構造分析(LISREL)とPLSパス・モデリングがあります.前者の方は,すでにメジャーな統計ソフト・ベンダーが販売しています.したがって,現在のところ,市場では「構造方程式モデルといえば,共分散構造分析」という状態になっております.
歴史的には,共分散構造分析の方が,PLSパス・モデリングよりも少し早く提案され,実用化・商業化も先に進んできたわけですが,近年,PLSパス・モデリングの開発が進んできて,かなり使えるものになってきました.その先頭を走っているのが,XLSTATを開発・販売しているAddinsoftです.
共分散構造分析とPLSパス・モデリングを比べると,それぞれ長所短所はあるあるわけですが,PLSパス・モデリングを推し進める最も基本となっている理由は,共分散構造分析がハード・モデリングである(すなわち,分布の仮定が厳しく,より多くのデータを必要とする)のに対して,PLSパス・モデリングは,ソフト・モデリングである(分布の仮定がゆるく,ごくわずかのデータでモデルが作れる)という点です.
今年の夏に,XLSTAT-PLSPMにREBUSというセグメンテーションの機能が追加され,PLSパス・モデリングの実用的価値が飛躍的に拡大しました.これの結果を弊社がお薦めしているViscoveryのSOMで可視化して見ると,見事に上記のようなアンケート調査データの問題を克服して,より有用なセグメンテーションの発見ができていることが,手に取るようにわかります.
その結果はまた改めて,論文形式のコンテンツとしてまとめる予定です.

投稿者:

それってホントにデータマイニング?(重回帰分析)

総合的なデータマイニング・システムには、予測モデルのための標準的なツールとして重回帰分析が搭載されています。
この場合の予測モデルとは、未来の出来事を予言するとかではなくて、新しいケースを過去のパターンと照合することにより、何らかの判断を行おうとするものです。たとえば、過去の購買データから特定の商品の潜在顧客を抽出するためのスコアリングなどにこれを用います。離反顧客や貸し倒れリスクの予測、カードの不正使用の発見、あるいは医療診断などの応用にも利用されます。
ズバリ言うと、重回帰分析というのは、予測モデルの手法としては、全く新しい手法ではありません。旧式の統計多変量解析の手法です。これを「データマイニング」と称していること自体が、現在の商用データマイニングの限界を象徴しています。
重回帰分析とは、英語でMultiple Regression Analysisといいます。これの意味は、説明変数(モデルに使用する変数)が複数の場合の回帰分析です。説明変数が1つのときを単回帰と呼びます。ちなみに予測しようとしている変数(例えば、ある商品を購入する確率)を目的変数と呼びます。
国内では「回帰分析」というと単回帰を指すことが多いのかもしれません。重回帰分析のことを「回帰分析」と言うと「重回帰分析ですよね」と言いなおされることが多いです。しかし、海外ではどちらも線形回帰(linear regression)と呼ばれることが多いかもしれません。数理的には全く同じものと認識されています。重回帰のほうが単回帰よりも高度だとか、そんなことはぜんぜんありません。言いかえると、これ以外にいろいろな手法があるということです。
重回帰/単回帰のいずれにしても、1つの1次方程式でモデルを作成します。つまり、データがまっすぐな(超)回帰平面(または回帰直線)の上にきれいに乗るように分布しているデータであれば正確な予測ができます。しかし、現実にはそんなことはほとんどありません。
回帰平面にきれいに乗らないというのは2種類あって、1つはバラツキが大きい場合であり、もう1つはデータの分布そのものが曲がっていて1次方程式で表すことが適切でない場合です。前者は使用している説明変数の説明力が十分でなく、このような場合は手法を変えたところであまり良い結果が得られるとは期待できません。後者の場合は、手法を変えるともっと良い結果が得られます。
線形回帰に対して非線形回帰という手法もあるにはあります。これは分析したい現象の性質がある程度わかっている場合、2次方程式など特定の形式を当てはめてモデルを作成するものです。しかし、これはかなり取扱いがやっかいです。当てはめる式が適切でないと、適切なモデルができません。また、たくさんの説明変数を取り扱うことも現実的に無理です。
また別のアプローチとしては、カーネル回帰という手法があります。ケースごとに個別のモデルを作成するのですが、これは予測性能は上がるもののブラックボックス(つまりモデルの解釈ができない)であり、またたくさんのケースについての予測を行うには計算量が莫大になってしまうという欠点があります。(つまり、リアルタイム処理が求められる業務での予測・判断には向きません。)
(ちなみにXLSTATには、通常の線形回帰のほかに非線形回帰・カーネル回帰・ロジスティック回帰・PLS回帰など多彩な手法があります。少ない予算で高度な予測モデルを手に入れたい場合は、XLSTAT-Predictがお薦めです。)
さらに、高価な技術としては、サポートベクターマシン(SVM)という技術があります。これを用いると予測性能の上げながら高速な計算ができます。しかし、残念ながらこれもブラックボックスです。「結果が得られればそれでよい」という場面で利用が広がりつつありますが、半面、機械まかせの危うさは否めません。
SOMローカル回帰は、予測性能を上げ、かつ解釈が可能なモデルを経済的な時間内に実現します。現在最も高度であり汎用性の高い手法です。簡単に言えば、SOM(自己組織化マップ)により平面ではなく(データの分布に沿った)曲面上に多数のノードを配し、ノードごとに線形重回帰モデルを構築します。通常の重回帰分析では、データ空間のどの場所でも回帰係数が一定であるのに対して、SOMローカル回帰ではデータ空間の場所によって回帰係数が変化し、それがマップとして可視化されます。
SOMローカル回帰手法は、Viscovery Predictorという製品で利用できます。
Viscovery Profilerによるセグメンテーションの結果とViscovery Predictorによる予測の結果を併せて分析する、ということさえ可能です。さらには、Viscovery Predictorで作成したモデルをユーザーの業務システムに組み込むことができ(Viscovery One2One Engine使用)、高性能な予測・判断をリアルタイムで実行することもできます。
SOMローカル回帰の性能を他手法と比較して確かめたい企業様は、ぜひマインドウエア総研にご相談ください。

投稿者:

それってホントにデータマイニング?(クラスタ分析(3))

分類するだけでは意味がなくプロファイル分析が重要
Viscoveryにおけるクラスタリングは、SOMの上でデータ空間の位相的順序を考慮するように改善されたWard法(SOM-Ward法)を実行します。それは、主成分分析を非線形化した主たる曲面の上で、K-meansに似た情報圧縮を行い、非階層的なマイクロクラスタを多数作成し、それらのマイクロクラスタを階層的クラスタリングしていると説明することができます。
従来のクラスリング手法がそれぞれ単一のアルゴリズムを適用するだけなのに対して、Viscoveryは複数のいくつもの要素技術をシステム化したより高度な手法です。(市販の多くのデータマイニング・システムでは、KohonenのSOMアルゴリズムを単体で利用するようになっていますが、それでははっきり言ってオモチャであり何の役にも立ちません!)
SOM-Ward法は、Ward法でクラスタを併合する際に、2つのクラスタがマップ上で(位相的に)隣接するクラスタであれば併合し、隣接しない場合は併合しないというルールを付け加えたものです。これがなぜ良好な結果を産むかについては、下記のページも参照してください。
http://www.mindware-jp.com/basic/somward.html
クラスタ分析は、探索的分析であり、つまり、その意味するところは、「クラスタリングの計算にどの変数を含ませるか」で結果が幾通りも作り出せるのであって、「有用な新しい分類を発見すること」がクラスタ分析の目的です。
したがって、クラスタ分析の結果は、各クラスタが全体集合と較べてどのような特徴を持っているか?を統計的に分析する必要があります。既存のあらゆるソフトウェアでは、クラスタ分析はクラスタリングの計算を実行するのみであって統計的分析はまた別です。そして、実際にこれをやろうとするとたいへんな作業になってしまいます。
ある変数選択のもとでクラスタリングを行って、各クラスタごとのメンバーを集めて統計量を計算して、特定の変数にクラスタ間での有意な差があるかどうかを検定して、クラスタリングをやり直してまた同じことをやる、ということが果たして現実的に実行可能でしょうか?ほとんどすべての応用の現場では、詳細な分析は挫折しており、最初に出てきた結果を無条件に採択してしまっているのではないでしょうか?つまり、探索的分析といいながら、実際には探索がなされていません。
Viscoveryでは、視覚的なマップ上でクラスタリングの結果が現れ、クラスタ数の有意度がグラフ表示され、階層的なクラスタリングの各段階を表示させることができ、またクラスタを微調整して新しいセグメントを自由自在に作成することもでき、それらのクラスタやセグメント、あるいはマップ上の任意の領域の統計的特徴をプロファイル・グラフ(棒グラフ)で瞬時に表示することができます。通常なら気の遠くなるような作業を1クリックで済ませることができます。
http://www.mindware-jp.com/Viscovery/welcome.html

投稿者:

それってホントにデータマイニング?(クラスタ分析(2))

非階層的クラスタリング(K-means)
多くのソフトでK-meansが標準的に非階層的クラスタリング手法として搭載されています。K-meansの計算手順は、
(1) まずK個の参照ベクトルを乱数によって作成する。この参照ベクトルは、分類しようしているデータ集合が持っている変数(属性)と厳密に対応する次元を持つ。
(2) すべての個体(レコード)について、それぞれ最も距離の近い参照ベクトルを探し、その参照ベクトルを代表とするグループに属させる。
(3) 各グループができたところで、参照ベクトルの値をそのグループに属する個体の平均値(重心)に更新する。
(4) グループを破棄して、(1)から(3)のステップを繰り返す。
というものです。このプロセスは、そう多くない回数の繰り返しで収斂します。
K-meansは、高速なクラスタリングができるというメリットがある一方、すでに述べたように、初期値依存性があり、つまり再現性がなく、間違った結果を出しやすい、という欠点があります。また、Kがそのまま最終のクラスタ数となるのですが、それを最初にユーザーが定義しなければならず、最適なクラスタ数を決定する基準がありません。
ズバリ言えば、k-meansによるクラスタリングは、サイコロを振ってたまたま出てきた結果を見て、もしその結果が気に入らなければ何度でもサイコロを振り直すというようなことに限りなく近いものです。探索的マイニングという観点で言えば、そういうことも全く否定してしまわなくてもよいかと思いますが、かなりいい加減な手法であることには変わりがありません。
多くの解説書ではほとんど解説していないかもしれませんが、じつはK-meansというのは、Kの数をもっと大きくすると、そのままデータ圧縮の一手法となります。例えば、1万件のデータがあってKを1000に設定すると、1/10のデータ圧縮になります。
そこで少し知恵を働かせば、大規模データの適切なクラスタリング方法が見えてくるはずです。たとえば、K-meansで10万件のデータを2000件に減らしておいてから、階層的クラスタリング(Ward法)でクラスタリングすればいいわけです。ただし、市販の統計・データマイニング・ソフトのこれらの機能を単純の組み合わせただけでは、どの個体(レコード)がどのクラスタに属するかを調べることはできません。
じつは自己組織化マップは、K-meansで大規模データを圧縮した状態を、さらに「データ空間の位相的順序」を考慮してスムージングしたものです。自己組織化マップ上で階層クラスタリングを行うことによって、従来手法を大幅に改善した理想的なクラスタリングができます。
つづく

投稿者:

それってホントにデータマイニング?(クラスタ分析(1))

市販の統計ソフトやデータマイニング・システムには、いくつかのクラスタリング手法(クラスタ分析)が搭載されています。大別して、階層的(凝集型)クラスタリングと非階層的クラスタリングに分かれます。
階層的クラスタリングは、階層(樹形図)的な分類として結果が得られるという利点があるのですが、データの規模(とくにレコード数)によって計算量が増大するという問題があります。一方、非階層的クラスタリング、これは通常、K-meansという手法が標準的に搭載されていて、大規模データのクラスタリングに適していますが、初期値依存性があり、適切なクラスタリングに失敗する場合があります。
そして、これらの両方のクラスタリング手法には1つ重要な視点が欠けていいます。それは「データ空間の位相的順序」です。位相とはトポロジーで、つまり「空間のつながり」のことです。これのために、通常の統計ソフトやデータマイニング・システムに搭載されているクラスタ分析は、まったく不完全なものになっており、決定的な問題を抱えています。
Viscoveryでは、これを解決するために自己組織化マップ上で階層的クラスタリング(SOM-Ward法)を実行します。以下は、そのコンセプトを理解するための予備知識です。
階層的(凝集型)クラスタリング
階層的(凝集型)クラスタリングの計算は、
(1) N個の個体(レコード)がある場合、最初、N個すべてをバラバラにしてN個のクラスタがある状態からスタートする。
(2) すべての個体間の距離を比較して、最も距離の近いもの同士を併合する。
(3) 併合されたクラスタ間で距離を比較して、最も距離の近いもの同士を併合するという動作を繰り返して、最終的にすべてが併合されて終了する。
という手順を実行します。そして、(3)のクラスタ間の距離の定義の仕方によって、いくつかの手法があります。つまり、個体間の距離ははっきりしていますが、クラスタになると広がりが生じるので、どこを基準にしてクラスタ間の距離とするかが問題になります。それによって、最短距離法、最長距離法、群平均法、重心法、Ward法などの手法に分かれます。
最小距離法は、2つのクラスタのそれぞれのメンバーの中から一番距離の近い個体間の距離でクラスタ間の距離とし、最長距離法はその逆に一番遠い個体間の距離を用い、群平均法は2つのクラスタのすべてのメンバー同士の組み合わせでの距離の平均を用い、重心法は重心同士の距離を用います。Ward法は、新しく作るクラスタに属する各個体からそのクラスタの重心(セントロイド)までの距離の2乗の総和を最小化するようにクラスタを作る手法です。
世間では「データマイニングについて専門的な訓練を受けた者だけが、これらの手法を正しく使い分けて、適切なクラスタリングを行うことができる」と主張するデータマイニング・コンサルタントも存在するようですが、まったくバカげた話です。どんなに訓練を受けていようが、これらの手法を用いる限りは決定的な問題を抱えたままです。ビジネス・ユーザーは、ぜひコンサルタントのハッタリを見抜く力を持ってください。
一般的には良いクラスタリングの条件は、クラスタの併合順序によりクラスタリングの結果が変わらない一貫性が保てることと、クラスタを併合していくにつれクラスタ内の類似度が徐々に減少していく(反転現象が起きない)ことだと考えられています。
しかし、既存の階層的クラスタ分析は、どの手法もそれぞれこれらの問題を持っていて決定的な手法はありません。そして、実際的には何よりも得られた結果が、ユーザーの知見と照らし合わせて納得がいくことが重要です。とくに最短距離法は鎖状のデンドログラムが形成される傾向があり、つまり、不自然なクラスタリングとなり、実用に適さないことが多いです。
既存の階層的クラスタ分析の中では、Ward法でのクラスタ間の距離の定義がもっとも妥当な根拠を持っており、得られる結果も多くの場合で総合的に優れています。ただし、もちろんWard法も完璧なものではありません。
こういう事情ですので、もし市販のソフトでクラスタ分析を行うとしたら、まずWard法を試みて、結果に満足いかなければ、その他の手法を試してみるのがよいでしょう。しかしながら、それは何ら科学的根拠のある対応策ではなく、単なる便法に過ぎません。これらの手法を使い分ける明確なルールはありません。
Ward法だろうが群平均法だろうが、既存の階層的クラスタ分析の計算手順に則っている限りは、最初に述べたようにデータ空間の位相的順序(つながり)を考慮していないので、根本的解決に至らないのです。市販のソフトの技術水準は、まだこういうところにあります。
さらに、クラスタリングの結果の良し悪しもさることながら、大規模データのデータマイニングという観点から、従来の階層的クラスタリングは計算量が多すぎるという決定的な問題があります。すべての個体間の距離を計算しなければならないので、その計算量は、個体数の2乗に比例して増大します。
たとえば、10万人の顧客データを階層的クラスタリングで分類して、デンドログラム(樹形図)を描きますか?まったくナンセンスです。従来の階層的クラスタリングは、数10件から数100件、多くても数1000件までのデータを対象にするべきものであって、とても「データマイニング」と呼べるような代物ではありません。
http://www.mindware-jp.com/Viscovery/welcome.html
つづく

投稿者:

それってホントにデータマイニング?

世間では、多種類の分析ツールを搭載した総花的なソフトウェア製品が「データマイニング・システム」として販売されております。市場で大部分のシェアを誇るメジャーな製品もそのタイプのものです。
いわゆる「総合的データマイニング・システム」です。ただし、あえて皮肉を言わせて頂くと「データマイニングのオモチャ箱」と呼ぶべき代物です。
それに搭載されている手法をざっと見ていくと、
– アソシエーション・ルール
– 時系列分析
– クラスタリング(クラスタ分析)
– 決定木(クラス分類)
– 重回帰分析(線形の予測モデル)
– ニューラルネット(非線形の分類・予測モデル)
– 自己組織化マップ
というようなものです。一部、データマイニング手法らしきものがちらほら見当たるのですが、大部分は従来の統計解析ソフトにも搭載されている手法と同じものが搭載されています。
これらの中でそれなりにパワフルなものは、アソシエーション・ルールと決定木の自動導出ではないかと思います。時系列分析やクラスタリング、重回帰分析は、本質的に従来の統計解析と何ら違いがありません。ニューラルネットと(とくに)自己組織化マップはとてもチャチなオモチャのような実装になっています。
データから自動的にIf~Then形式のルールやツリー状の分類モデルが生成できるようになったことは、30年前から考えるとかなりの進歩だと言えるのですが、実際のところ、これらの知識表現はすでに時代遅れの方法です。複雑な知識をこれらの方法で効率的に表現することはできません。
クラスタリングと重回帰分析は、それぞれ探索的分析と予測分析において要になる手法ですが、これがほとんど従来的な技術水準にとどまっていることは、そのまま現在の主要なデータマイニングの致命的な限界となっています。
つまり、これらは従来的な線形手法であり非線形に対応していません。じつは自己組織化マップというのは、独立した手法ではなく、これらの手法を非線形対応させるための要素技術として使用するべきものなのですが、市販のデータマイニング・システムでは、そのような実装がなされていません。
オモチャのような自己組織化マップを搭載していて、「一応やっています」という姿勢だけ見せているものの本格的な取り組みはまったくされていません。
ViscoveryのSOM-Ward法とSOMローカル回帰法は、主要なデータマイニング・システムが成し得ていない非線形のクラスタリング非線形の重回帰分析をそれぞれ実現しており、真の意味での「データマイニング」です。

投稿者:

クラスタリングの使い方

何度も言いますが、「醜いアヒルの仔の定理」により客観的分類などというものは存在しません。
クラス分類(クラシフィケーション)は、既知の(有用な)分類法を正確に再現するための方法であり、クラスタ分析(クラスタリング)は、新しい(有用な)分類法を発見するための方法です。
これらを上手く使い分けるのが実践的応用の場面でとても重要なことですが、このことについてちゃんと説明している本がまったくと言ってよいほどありません。
なかには学術書として出版されているものでもトンデモな使い方をしている場合があります。たとえば、「フィッシャーのアヤメのデータをSOMのクラスタリングによって正しく分類できた」などという根本的に間違った論文が堂々と出版されています。クラスタリングは、そのように使うものではありません。
たとえば、以下のような問題は、クラス分類の問題です。
– 個々の顧客をあらかじめ定義されたセグメントに振り分けて、顧客ごとに適切なキャンペーンを行う。
– システム(プラントや通信ネットワークなど)を監視して、複数の測定値から現在のシステムの状態を判断し、適切な処置をする。
– 工場での製造物の良品(合格)と不良品(不合格)を判断する。
– 農産物などを等級分けする。
– 手書き文字の認識
– メールの自動分類
– 健康診断や病気の診断
これらの問題で明確な基準によって分類を再現することが可能であれば、その方法を採用すればいいです。ところが、どっこい、実際にやってみると、どの問題もなかなか難しいものです。
これらの分類が難しくなる原因として、
– 観測変数の種類(数)が十分でない
– データの正確さが十分でない
ということが学術研究なんかでよく見られます。より少ない情報量でより効率的に分類モデルを作成する、ということもないわけではありませんが、基本的にこのような場合は、どのような手法を用いても信頼性の高いモデルを作成することは難しいです。
それを了解した上で、
– 観測変数と結果(目的変数)の間の関係性に矛盾がある
 (まったく同じ条件なのに陽性と陰性の両方があるなど)
– データに欠損が多い(不完全データ)
という場合は、確率的に分類を表現するのが適当です。(ナイーブベイズ、ベイジアンネットワークなど)
そして、さらに
– 観測変数と分類結果の間に複雑な(非線形)な関係性がある
という場合に、自己組織化マップ(SOM)などの新技術が必要になります。SOM以外にもニューラルネットワークやサポートベクターマシン(SVM)などの非線形モデルの技術がありますが、SOMの利点は可視化によるモデル解釈が可能な点です。
SOMは一般的にクラスタリング手法として理解されていますが、クラス分類や予測(回帰)にも利用できます。一言で言えば、「SOMはデータ空間の要約であり、それ以上でも以下でもない」ということです。だからこそ、それを基盤としてあらゆることができる、ただそれだけのことです。
ただし、使い方を間違わないように注意が必要です。
とくに混同されやすいクラスタリングとクラス分類について言えば、特定の状況では、両者が一致する可能性がないわけではありませんが、実際的には一致しないのが普通です。逆にいうと一致しないからこそ、クラスタリングを利用する価値があるのです。
前述のフィッシャーのアヤメのデータを使ったクラスタリングの研究例のように、
クラスタリングを特定のクラス分類に一致させようとして使用するのは、まったくの邪道です。
つまり、どういうことかというと、特定のクラス分類で、同一のクラス(分類)は必ずしも同一のクラスタに属するとは限らず、異なるクラスタに属している可能性があります。たとえば、「不良品」というクラスがあったとして、それが不良品であるという理由(原因)は、必ずしも1つではなく複数のパターンがあるかもしれません。そういう場合には、同じ「不良品」というクラスでも、異なるクラスタに属しているほうが、より自然な状態です。
SOMを使用することのメリットは、このように同一のクラスであっても、潜在的に意味の異なるものが同一のクラスとして扱われている、ということを発見できるところにあります。
たとえば、マイクロン社では半導体の製造工程の最適化のためにViscoveryのSOMテクノロジーを活用した実績があります。
クラスタリングとクラス分類の関係については、下記のページもご参照ください。
http://www.mindware-jp.com/basic/group.html

投稿者:

ペルソナ型レコメンデーション

ペルソナ戦略のことを書いて、気になったので、ペルソナ戦略に関する他のサイトもちょっと見てみました。「ペルソナと顧客セグメンテーションを混同してはならない」、「ペルソナと顧客セグメントはまったく別物」という人がいますね。
まあ、こういう「言葉のあや」にいちいち反応していても仕方ないのですが、一応補足しておきます。
ペルソナと顧客セグメンテーションにおける(各セグメントの)プロファイルとでは、顧客像を描く詳細度と厳密さが違います。あえて引用するのはやめておきますが、横軸に「厳密さ・データ量」、縦軸に「詳細度」をとった大ざっぱな図解で、ペルソナや顧客セグメント、その他のユーザー・モデルの違いを説明することができるわけですが、あれは表現(描写)方法の違いを説明しているのであって、本質的な違いを示しているのではありません。(しかし、漫然と図解を眺めると両者がまったく異なるような印象だけを与えられるわけで、図解の落とし穴というやつです。)
「顧客(ユーザー)を理解する」という大目的に対して、さまざまな切り口や方法があるだけのことで、大元は同じです。
ペルソナ原理主義とでもいうべき論者の中には、「(アラン・クーパーが提唱した狭義の)ペルソナとは本来的に(コンピュータのGUIにおける)インタラクション・デザインを目的としたもので、売ることを目的としたマーケティングでの顧客セグメンテーションとは目的が違う」と言う人すらいますね。
確かに「ペルソナ」の原典であるアラン・クーパー著『コンピュータはむずかしすぎて使えない』翔泳社は、コンピュータ製品の設計思想について書かれた本であり、マーケティングの本ではありません。しかし、今日産業界でペルソナが注目されている理由は、原典のままの意味ではありません。
「ぺルソナはインタラクション・デザインのためのもので、商品を売ることを目的とした顧客セグメンテーションとは違う」と言うのなら、「ペルソナ・マーケティング」なんてことは成り立たないことになります。
ペルソナにしても、CRMにしても、あるいはマーケティングにしても、「顧客に目を向ける」という精神は同じであるはずです。商品企画、設計・デザイン、広告・宣伝、マーケティングなどの組織を横断して顧客に対する知識を共有する手段として「ペルソナ」が再評価されている、というのが「ペルソナの今日的意義」かと思います。
したがって、その意味では、ぺルソナとマーケティングにおける顧客セグメンテーションの間では、翻訳可能な関係をしっかりと持たせるべきなのです。
ただし、「(狭義の)ペルソナと(マーケティングの)顧客セグメンテーションとでは、ユーザー(顧客)を理解しようとするその観点が異なる」というのなら、それにはまあ一理はあります。
しかしながら、2009.08.05に書いたように、顧客セグメンテーションだって固定的であってはならないのです。顧客セグメンテーションのバリエーションの中に、ペルソナと共通する観点でのセグメンテーションがあっても何ら不都合はないのです。
ペルソナ原理主義によれば、(狭義の)ペルソナは「顧客」というより「ユーザー」として側面で捉えられ、したがって、「製品・技術への習熟度」という観点が重要なファクターとなります。しかし、顧客セグメンテーションにおいても、目的によっては「製品・技術への習熟度」という観点を付け加えても、何ら不都合はありません。
たとえば、Webサイトの訪問者が、同じ商品に興味を持ったり、あるいは同じ用語を検索したとしても、ビギナーと熟練者とでは欲している情報のレベルが異なることは容易に想像できます。それは、販売の場面であろうが、ユーザー・サポートの場面であろうが、同じように生じることです。
たとえば、Webのレコメンデーションやトラブルシューティングのようなサービスで、ユーザーが自分の欲する情報を探す場合、ユーザーの詳細な個人情報を入力する代わりに、いくつかのペルソナから最も自分に近いと思われるペルソナを選択することによって、よりその人に適した情報を提示するシステムを考えることができます。自己組織化マップやベイジアンネットワークなどの技術を使えば、そのようなシステムを実現することができます。

投稿者:

ペルソナ戦略と顧客セグメンテーション

近年、マーケティングの世界で「ペルソナ戦略」というものが話題になっております。これは架空の顧客イメージをできるかぎり明瞭に描いて、それを製品の企画から開発・設計、マーケティングなどに携わる関係者の間で共有しようというものです。
いわば定性的なアプローチなのですが、こういうものが議論される背景には、定量的アプローチの限界があります。数値データだけから顧客(消費者)を見ていたのでは、生き生きとした顧客像が得られません。
かと言って、定量分析よりも定性分析のほうが良いとか、そういう話ではありません。
じつは、ペルソナ戦略の本でも、ペルソナを作成するに先立ってデータ分析を行うべきだと書かれいます。ただし、「こそっ」と一言書かれているだけで、残念ながら、その詳細な説明はまったくなされていません。
定量と定性の両面からのバランスのよいアプローチが理想なのですが、これがなかなか難しいです。
統計学にうるさい先生の中にも「統計解析と定性分析は相容れないものだ」と言ってはばからない人がいたりするほどで、一般的にはこれらを統合する手法が提供されていません。
じつは、ペルソナ戦略には重大な問題が隠されているのですが、難しい問題なので正面切って問題にする人は少ないです。ペルソナ戦略を推進するコンサルタントなどは、「ペルソナをいかにして組織に定着させて活用するか?」というあたりを強調するでしょう。たぶん多くの人がこの問題に気付かないんだろうなぁ、と心配するわけです。
定量的データの裏づけのない場合のペルソナ戦略は、必ず失敗する運命にあります。
実際に存在する顧客からかけ離れたところでペルソナを作成することになると、それこそ「机上の空論」というものです。ペルソナは何体か複数作成することになっているわけですが、つまり、それは、顧客セグメンテーションとしっかり対応していなければ意味がありません。各ペルソナは各セグメントの代表であるべきです。
そこのところでしっかりと定量分析とつながっているペルソナ戦略であれば、それは強力な手法になるに違いありません。ペルソナ戦略を成功させる決め手は、定量的な顧客セグメンテーションです。
ちなみに「セグメントの代表」をどのように決定するのか?なんですが、従来の統計的方法では、何かとすぐに「平均値」をとってしまいがちで、これに問題があるということは、統計・データマイニングの中でもすでに議論済みのことです。平均値が代表者になりうる状況というのは、各変数の分布が正規分布に従っており、また多変量データの場合は、多次元空間内でのデータの分布が「曲がっていない」、つまり、「線形的である」という条件が必要です。
簡単なイメージで言うと、バナナのように曲がっている物体の重心が物体から外れた空間上にあるのと同様に、現実のデータの平均値はデータの分布から外れてしまうことが多々あります。したがって、単純な平均値で代表者を決めるのは危険です。よく統計調査から算出された「平均的国民のモデル・ケース」なんかが「そんなのありえねぇ〜」というふうになる仕掛けがこれなわけです。
自己組織化マップは、実際的なデータ空間の任意の領域(セグメント)から代表者を選んで、そのプロファイルを識別するのに最適な手法です。

投稿者:

購買パターンによる動的な顧客セグメンテーション

企業のマーケティング戦略/CRMにおいて、顧客(または消費者)のセグメンテーションは基本中の基本です。
顧客セグメンテーションの目的とは、まず、
 自社の顧客にはどのようなグループが存在しているのか?
を知ることにより、
– どのグループにはどの製品・サービスが対応するのか?
– どのグループにはどの販路が対応するのか?
– どのグループのはどのキャンペーンが対応するべきか?
– どのグループが戦略的により重要なのか?
などを定義することです。
大企業ならこういうことは一応わかっていることになっています。そう、一応、建前上は、です。
で、さまざまなセグメンテーション法があるわけですが、じつは世の中で行われているセグメンテーションの多くがトンデモである、というお寒い実態があります。
http://www.mindware-jp.com/solution/segmentation.html
もちろん、収益性やロイヤリティ、あるいはRFM分析のような基準も、顧客を判断するための重要な視点ではありますが、それをセグメンテーションだとする考え方には賛成できません。たとえば収益性とロイヤリティが高い顧客というのは、企業にとって大事なお客様ですが、それを1つのグループとして扱ってよいか?というと、それは「ノー」です。彼/彼女らが、類似した購買行動をとる保証はどこにもありません。
上記のような目的を達成するためには、顧客の購買パターンそのものから、より均質なグループを作成した上で、これらの基準を使用するべきです。
購買パターンから顧客をセグメンテーションするには、クラスタ分析をベースにするべきです。
ただし、前回までに説明しましたように、「醜いアヒルの仔の定理」により、客観的・絶対的な分類というのは存在しない、ということに注意しなければなりません。分類というのは、シチュエーションや文脈、つまり、時と場合によって変化するものです。
つまり、顧客セグメンテーションを固定的なものとして考えてはならないということです。
企業は顧客セグメンテーションを創造し続けるべきであり、少なくとも複数の顧客セグメンテーションを持ち、時と場合によって、それを上手く使い分けるべきです。言い換えると、顧客を単一のものの見方で捉えようとするのはなく、柔軟にさまざまな角度から観点を切り替えて見る(分析する)ことのできる情報基盤を持つべきです。
客観的なセグメンテーションではなく最適なセグメンテーションへと、企業は発想を切り替えるべきです。最適なセグメンテーションとは、ROIを最大化するセグメンテーションです。それは、仮説的モデルの構築→モデルの適用→適用結果の評価→モデルの再構築、というサイクルをぐるぐると回していくことによって実現されます。
Viscoveryを導入した企業様は、
「もっと早くViscoveryを知っていたら、今まで莫大な費用と時間をかけて行ってきた市場調査でもっと有益な仮説を立てることができたはずなのに」
とおっしゃいます。