Written by
on December 20, 2019
非負値行列因子分解を用いた決済分析
非負値行列因子分解 (non-negative matrix factorization; NMF) は, 非負値行列を非負値行列の積に分解するという数学的にはシンプルでありながらその応用範囲は画像や文書, 信号処理と幅広く適用できることで知られ, 次元削減やクラスタリング, レコメンデーションに活用することができる。
はじめに NMF の理論について簡単に説明した後, 実際の決済データに対してNMFを適用してみる。
この記事は カンム Advent Calendar 2019 20日目の記事です。
行列分解
任意の行列を複数の行列の積に分解することを行列分解と呼ぶ。行列分解には様々な手法があり, 特異値分解やそれを利用した主成分分析がよく知られている。
行列を分解をすることで何が嬉しいのか。以下簡単な例で説明する。
購買データの例
行列 X X X はスーパーで4人の客が5種類の商品 {にんじん, たまねぎ, じゃがいも, みかん, りんご} のうち何を購入したか示すデータである。行列 X X X の各行が客に対応し, 各列が購入した商品に対応している。
例えば1人目の客は {にんじん, たまねぎ} を購入し, 3人目の客は {みかん, りんご} を購入している。
X = [ 1 1 0 0 0 1 0 1 0 0 0 0 0 1 1 0 0 0 0 1 ]
X = \left[
\begin{array}{rrr}
1 & 1 & 0 & 0 & 0 \\ 1 & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 0 & 1
\end{array}
\right]
X = ⎣ ⎢ ⎢ ⎡ 1 1 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 1 1 ⎦ ⎥ ⎥ ⎤
各商品を野菜カテゴリ {にんじん, たまねぎ, じゃがいも}, 果物カテゴリ {みかん, りんご} と2つのカテゴリに分けてみるとそれぞれのカテゴリ内の商品は一緒に購入されるが異なるカテゴリの商品を一緒に購入されることはない。
ここで特異値分解を用いると行列 X X X は以下のように行列 W , H W, H W , H の積に分解される。
X = [ 1 1 0 0 0 1 0 1 0 0 0 0 0 1 1 0 0 0 0 1 ] = [ 0.71 0 − 0.71 0 0.71 0 0.71 0 0 0.85 0 − 0.53 0 0.53 0 0.85 ] [ 1.41 0.71 0.71 0 0 0 0 0 0.85 1.38 0 − 0.71 0.71 0 0 0 0 0 − 0.53 0.32 ] = W H \begin{aligned}
X &= \left[
\begin{array}{rrr}
1 & 1 & 0 & 0 & 0 \\ 1 & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 0 & 1
\end{array}
\right] \\
&= \left[
\begin{array}{rrr}
0.71 & 0 & -0.71 & 0 \\ 0.71 & 0 & 0.71 & 0 \\ 0 & 0.85 & 0 & -0.53 \\ 0 & 0.53 & 0 & 0.85
\end{array}
\right]
\left[
\begin{array}{rrr}
1.41 & 0.71 & 0.71 & 0 & 0 \\ 0 & 0 & 0 & 0.85 & 1.38 \\ 0 & -0.71 & 0.71 & 0 & 0 \\ 0 & 0 & 0 & -0.53 & 0.32
\end{array}
\right] \\
&= WH
\end{aligned}
X = ⎣ ⎢ ⎢ ⎡ 1 1 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 1 1 ⎦ ⎥ ⎥ ⎤ = ⎣ ⎢ ⎢ ⎡ 0 . 7 1 0 . 7 1 0 0 0 0 0 . 8 5 0 . 5 3 − 0 . 7 1 0 . 7 1 0 0 0 0 − 0 . 5 3 0 . 8 5 ⎦ ⎥ ⎥ ⎤ ⎣ ⎢ ⎢ ⎡ 1 . 4 1 0 0 0 0 . 7 1 0 − 0 . 7 1 0 0 . 7 1 0 0 . 7 1 0 0 0 . 8 5 0 − 0 . 5 3 0 1 . 3 8 0 0 . 3 2 ⎦ ⎥ ⎥ ⎤ = W H
特異値分解は Python で以下のように求められる。
import numpy as np
# 元の行列 X
X = np . array ([[ 1 , 1 , 0 , 0 , 0 ],[ 1 , 0 , 1 , 0 , 0 ],[ 0 , 0 , 0 , 1 , 1 ],[ 0 , 0 , 0 , 0 , 1 ]])
print ( X )
# [[1 1 0 0 0]
# [1 0 1 0 0]
# [0 0 0 1 1]
# [0 0 0 0 1]]
# 特異値分解
u , s , vh = np . linalg . svd ( X , full_matrices = False )
w = u
h = ( np . diag ( s ) @ vh )
print ( w . round ( 2 ))
# [[ 0.71 0. -0.71 0. ]
# [ 0.71 0. 0.71 0. ]
# [ 0. 0.85 0. -0.53]
# [ 0. 0.53 0. 0.85]]
print ( h . round ( 2 ))
# [[ 1.41 0.71 0.71 0. 0. ]
# [ 0. -0. -0. 0.85 1.38]
# [ 0. -0.71 0.71 0. 0. ]
# [ 0. -0. -0. -0.53 0.32]]
# W, H の積をとることで元の行列Xが復元される
X_r = ( w @ h ) . round ( 2 )
print ( X_r )
# [[ 1. 1. -0. 0. 0.]
# [ 1. 0. 1. 0. 0.]
# [ 0. -0. -0. 1. 1.]
# [ 0. -0. -0. -0. 1.]]
まず行列 H H H をみると, 1行目には {にんじん, たまねぎ, じゃがいも} という野菜カテゴリの特徴をもつベクトルが, 2行目には {みかん, りんご} という果物カテゴリの特徴をもつベクトルが抽出されていることが分かる。
つまり行列 H H H は購入された商品の間の潜在的な特徴 (基底) を捉えたものとなっており, 各要素は基底に対する商品の重み付けとなっている。
行列 H H H の各基底ベクトルを h i h_i h i , 行列 W W W の要素を w i j w_{ij} w i j とすると 行列 X X X の行ベクトル x i x_i x i は基底ベクトルの線形結合で表わすことができる。
x i = ∑ j w i j h j
x_i = \sum_j w_{ij}h_j
x i = j ∑ w i j h j
つまり行列 W W W は各基底の係数行列となっており, それぞれの客に対する特徴の重み付けとなっている。
行列 W W W の1列目と2列目をみると1人目の客と2人目の客は野菜カテゴリの基底に対する係数が大きく果物カテゴリの基底に対する係数が0となっている。3人目の客と4人目の客はその逆に果物カテゴリの係数が大きく野菜カテゴリは0となっている。野菜もしくは果物を購入した客であるかはこの2つの基底があれば判断ができそうである。
そこで係数行列 W W W の1,2列目と基底行列 H H H の1,2行目だけを抜き出した行列を掛け合わせると以下のようになる。
[ 0.71 0 0.71 0 0 0.85 0 0.53 ] [ 1.41 0.71 0.71 0 0 0 0 0 0.85 1.38 ] = [ 1 0.5 0.5 0 0 1 0.5 0.5 0 0 0 0 0 0.72 1.17 0 0 0 0.45 0.72 ]
\left[
\begin{array}{rrr}
0.71 & 0 \\ 0.71 & 0 \\ 0 & 0.85 \\ 0 & 0.53
\end{array}
\right]
\left[
\begin{array}{rrr}
1.41 & 0.71 & 0.71 & 0 & 0 \\ 0 & 0 & 0 & 0.85 & 1.38
\end{array}
\right]
= \left[
\begin{array}{rrr}
1 & 0.5 & 0.5 & 0 & 0 \\ 1 & 0.5 & 0.5 & 0 & 0 \\ 0 & 0 & 0 & 0.72 & 1.17 \\ 0 & 0 & 0 & 0.45 & 0.72
\end{array}
\right]
⎣ ⎢ ⎢ ⎡ 0 . 7 1 0 . 7 1 0 0 0 0 0 . 8 5 0 . 5 3 ⎦ ⎥ ⎥ ⎤ [ 1 . 4 1 0 0 . 7 1 0 0 . 7 1 0 0 0 . 8 5 0 1 . 3 8 ] = ⎣ ⎢ ⎢ ⎡ 1 1 0 0 0 . 5 0 . 5 0 0 0 . 5 0 . 5 0 0 0 0 0 . 7 2 0 . 4 5 0 0 1 . 1 7 0 . 7 2 ⎦ ⎥ ⎥ ⎤
掛け合わされた行列を見ると1,2番目の客は野菜を購入した客, 3,4番目の客は果物を購入した客という元の行列 X X X の構造が復元されていることがわかる。
これは5次元の商品の要素で客の購買データを表現していたものを2次元の特徴で捉えられるように次元削減していることになる。商品の細かい違いは無視して野菜や果物を購入する客という潜在的な情報を抽出している。
非負値行列因子分解
非負値行列因子分解 (non-negative matrix factorization; NMF) は, 行列分解において非負値の制約を入れたものである。実世界では非負値となるデータが多く, 非負値を構成する要素もまた非負値であるべきという考えに基づいている。さきほどの購買データにおいて野菜の基底に対する係数が負であるというのは不自然であり解釈が難しい。
また非負値制約の副次的な効果として分割した行列がスパース (疎) となりやすく, 個々のデータを少数の基底ベクトルで近似できるようになる。
NMFのアルゴリズム
NMF では非負値行列を2つの非負値行列の積に分解する。これは非負値制約のもとで元の行列と分解された行列の積による近似誤差を目的関数として最小化する非線形の最適化問題になる。
いま N N N 個の非負値 K 次元データベクトルを y 1 , y 2 , … , y N y_1, y_2,\ldots, y_N y 1 , y 2 , … , y N とし, 基底ベクトルを h 1 , h 2 , … , h M h_1, h_2,\ldots, h_M h 1 , h 2 , … , h M , 結合係数を w 1 , n , … , w m , n w_{1,n},\ldots,w_{m,n} w 1 , n , … , w m , n とした場合に以下のように近似したい。
(1) y n ≃ ∑ m = 1 M h m w m , n ( n = 1 , … , N )
\tag{1} y_n \simeq \sum_{m=1}^M h_m w_{m,n} \hspace{10pt} (n = 1,\ldots,N)
y n ≃ m = 1 ∑ M h m w m , n ( n = 1 , … , N ) ( 1 )
データベクトルを並べた行列を Y = [ y 1 , … , y N ] = ( y k , n ) K × N Y = [y_1,\ldots,y_N] = (y_{k,n})_{K \times N} Y = [ y 1 , … , y N ] = ( y k , n ) K × N とし, 基底ベクトルを並べた行列を H = [ h 1 , … , h M ] = ( h k , m ) K × M H = [h_1,\ldots,h_M] = (h_{k,m})_{K \times M} H = [ h 1 , … , h M ] = ( h k , m ) K × M , 結合係数 w m , m w_{m,m} w m , m を 要素とした行列を W = ( w m , n ) M × N W = (w_{m,n})_{M \times N} W = ( w m , n ) M × N とすると,
Y ≃ H W
Y \simeq HW
Y ≃ H W
と表せる。表記の分かりやすさのため購買データの例のときとは異なり分割前の行列 Y Y Y と 基底行列 H H H が転置していることに注意。さきほどは分割前の行列はユーザが行ベクトルとなっていたがここでは列ベクトルとなっている。
NMFでは Y Y Y と H W HW H W の近似誤差基準に応じて異なる最適化問題に帰着する。参考文献 [1] にはユークリッド距離とKLダイバージェンスによる誤差関数が示されているがここではユークリッド距離 (二乗誤差) を基準としたNMFアルゴリズムの導出を示す。
frobeniusノルム (行列の要素の二乗和) を取ることで二乗誤差 D ( H , W ) D(H,W) D ( H , W ) を以下のように定義する。
(2) D ( H , W ) = ∥ Y − H W ∥ 2 = ∑ k , n ∣ y k , n − ∑ m h k , m w m , n ∣ 2 = ∑ k , n ( y k , n 2 − 2 y k , n ∑ m h k , m w m , n + ( ∑ m h k , m w m , n ) 2 ) = ∑ k , n ( y k , n 2 − 2 y k , n x k , n + x k , n 2 ) \begin{aligned}
\tag{2} D(H,W) &= \|Y-HW\|^2 \\
&= \sum_{k,n} |y_{k,n} - \sum_m h_{k,m}w_{m,n}|^2 \\
&= \sum_{k,n} (y_{k,n}^2 -2y_{k,n}\sum_m h_{k,m}w_{m,n} + (\sum_m h_{k,m}w_{m,n})^2) \\
&= \sum_{k,n} (y_{k,n}^2 -2y_{k,n}x_{k,n} + x_{k,n}^2)
\end{aligned}
D ( H , W ) = ∥ Y − H W ∥ 2 = k , n ∑ ∣ y k , n − m ∑ h k , m w m , n ∣ 2 = k , n ∑ ( y k , n 2 − 2 y k , n m ∑ h k , m w m , n + ( m ∑ h k , m w m , n ) 2 ) = k , n ∑ ( y k , n 2 − 2 y k , n x k , n + x k , n 2 ) ( 2 )
ただし, x k , n = ∑ m h k , m w m , n x_{k,n} = \sum_m h_{k,m}w_{m,n} x k , n = ∑ m h k , m w m , n とおいている。
ここで y k , n 2 y_{k,n}^2 y k , n 2 は定数であるので, D ( H , W ) D(H, W) D ( H , W ) を最小化するためには ∑ k , n ( − 2 y k , n x k , n + x k , n 2 ) \sum_{k,n} (-2y_{k,n}x_{k,n} + x_{k,n}^2) ∑ k , n ( − 2 y k , n x k , n + x k , n 2 ) を最小化すればよい。
ここで x k , n 2 x_{k,n}^2 x k , n 2 は凸関数であるから, λ k , m , n > 0 , ∑ m λ k , m , n = 1 \lambda_{k,m,n} > 0, \hspace{5pt} \sum_m \lambda_{k,m,n} = 1 λ k , m , n > 0 , ∑ m λ k , m , n = 1 となる λ k , m , n \lambda_{k,m,n} λ k , m , n を導入するとJensenの不等式 [1] より,
(3) x k , n 2 = ( ∑ m h k , m w m , n ) 2 = ( ∑ m λ k , m , n h k , m w m , n λ k , m , n ) 2 ≤ ∑ m λ k , m , n ( h k , m w m , n λ k , m , n ) 2 \begin{aligned}
\tag{3} x_{k,n}^2 &= (\sum_m h_{k,m}w_{m,n})^2 \\
&= (\sum_m \lambda_{k,m,n} \frac{h_{k,m}w_{m,n}}{\lambda_{k,m,n}})^2 \\
&\leq \sum_m \lambda_{k,m,n}(\frac{h_{k,m} w_{m,n}}{\lambda_{k,m,n}})^2
\end{aligned}
x k , n 2 = ( m ∑ h k , m w m , n ) 2 = ( m ∑ λ k , m , n λ k , m , n h k , m w m , n ) 2 ≤ m ∑ λ k , m , n ( λ k , m , n h k , m w m , n ) 2 ( 3 )
が成立する。特に等号が成立するのは h k , 1 w 1 , n λ k , 1 , n = ⋯ = h k , M w M , n λ k , M , n \frac{h_{k,1}w_{1,n}}{\lambda_{k,1,n}} = \cdots = \frac{h_{k,M}w_{M,n}}{\lambda_{k,M,n}} λ k , 1 , n h k , 1 w 1 , n = ⋯ = λ k , M , n h k , M w M , n のとき, すなわち,
(4) λ k , m , n = h k , m w m , n x k , n
\tag{4} \lambda_{k,m,n} = \frac{h_{k,m}w_{m,n}}{x_{k,n}}
λ k , m , n = x k , n h k , m w m , n ( 4 )
のときである。ここでのポイントは和の二乗から二乗の和に変換できていることで後に示すように行列 H , W H, W H , W の要素を個別に最適化することができる。
(2) において x k , n 2 x_{k,n}^2 x k , n 2 の項を (3) で置き換えた関数を G ( H , W , λ ) G(H,W,\lambda) G ( H , W , λ ) とすると,
(5) D ( H , W ) = ∑ k , n ( y k , n 2 − 2 y k , n x k , n + x k , n 2 ) ≤ ∑ k , n ( y k , n 2 − 2 y k , n ∑ m h k , m w m , n + ∑ m h k , m 2 w m , n 2 λ k , m , n ) = G ( H , W , λ ) D ( H , W ) = min λ G ( H , W , λ ) \begin{aligned}
\tag{5} D(H,W) &= \sum_{k,n} (y_{k,n}^2 -2y_{k,n}x_{k,n} + x_{k,n}^2) \\
&\leq \sum_{k,n} (y_{k,n}^2 - 2y_{k,n}\sum_m h_{k,m}w_{m,n} + \sum_m \frac{h_{k,m}^2 w_{m,n}^2}{\lambda_{k,m,n}}) = G(H,W,\lambda) \\
D(H,W) &= \min_{\lambda}{G(H,W,\lambda)}
\end{aligned}
D ( H , W ) D ( H , W ) = k , n ∑ ( y k , n 2 − 2 y k , n x k , n + x k , n 2 ) ≤ k , n ∑ ( y k , n 2 − 2 y k , n m ∑ h k , m w m , n + m ∑ λ k , m , n h k , m 2 w m , n 2 ) = G ( H , W , λ ) = λ min G ( H , W , λ ) ( 5 )
となり, これは D ( H , W ) D(H,W) D ( H , W ) の補助関数 [2] の要件を満たすので G ( H , W , λ ) G(H,W,\lambda) G ( H , W , λ ) に対して以下の手続きを反復的に行うことで D ( H , W ) D(H,W) D ( H , W ) を単調に減少させていくことができる。
(6) λ ← arg min λ G ( H , W , λ )
\tag{6} \lambda \leftarrow \argmin_\lambda G(H,W,\lambda)
λ ← λ a r g m i n G ( H , W , λ ) ( 6 )
(7) H ← arg min H G ( H , W , λ )
\tag{7} H \leftarrow \argmin_H G(H,W,\lambda)
H ← H a r g m i n G ( H , W , λ ) ( 7 )
(8) W ← arg min W G ( H , W , λ )
\tag{8} W \leftarrow \argmin_W G(H,W,\lambda)
W ← W a r g m i n G ( H , W , λ ) ( 8 )
G ( H , W , λ ) G(H,W,\lambda) G ( H , W , λ ) を最小化する λ k , m , n \lambda_{k,m,n} λ k , m , n は (4) である。G ( H , W , λ ) G(H,W,\lambda) G ( H , W , λ ) を最小化する h k , m , w m , n h_{k,m}, w_{m,n} h k , m , w m , n についてはそれぞれの偏微分の値をゼロとして解析的に解けばよいので,
(9) ∂ G ∂ h k , m = ∑ n ( − 2 y k , n w m , n + 2 h k , m w m , n 2 λ k , m , n ) = 0 ∴ h k , m = ∑ n y k , n w m , n ∑ n w m , n 2 / λ k , m , n \begin{aligned}
\frac{\partial G}{\partial h_{k,m}} &= \sum_n(-2y_{k,n}w_{m,n} + \frac{2h_{k,m}w_{m,n}^2}{\lambda_{k,m,n}}) = 0 \\
\tag{9} \therefore\hspace{5pt} h_{k,m} &= \frac{\sum_n y_{k,n}w_{m,n}}{\sum_n w_{m,n}^2/\lambda_{k,m,n}}
\end{aligned}
∂ h k , m ∂ G ∴ h k , m = n ∑ ( − 2 y k , n w m , n + λ k , m , n 2 h k , m w m , n 2 ) = 0 = ∑ n w m , n 2 / λ k , m , n ∑ n y k , n w m , n ( 9 )
w m , n w_{m,n} w m , n についても同様にして以下の通り求まる。
(10) w m , n = ∑ k y k , n h k , m ∑ k h k , m 2 / λ k , m , n
\tag{10} w_{m,n} = \frac{\sum_k y_{k,n}h_{k,m}}{\sum_k h_{k,m}^2/\lambda_{k,m,n}}
w m , n = ∑ k h k , m 2 / λ k , m , n ∑ k y k , n h k , m ( 1 0 )
以上より, (4) を (9) (10)に代入することで最終的に以下の更新式が導かれる。
(11) h k , m ← h k , m ∑ n y k , n w m , n ∑ n x k , n w m , n
\tag{11} h_{k,m} \leftarrow h_{k,m} \frac{\sum_n y_{k,n} w_{m,n}}{\sum_n x_{k,n} w_{m,n}}
h k , m ← h k , m ∑ n x k , n w m , n ∑ n y k , n w m , n ( 1 1 )
(12) w m , n ← w m , n ∑ k y k , n h k , m ∑ k x k , n h k , m
\tag{12} w_{m,n} \leftarrow w_{m,n} \frac{\sum_k y_{k,n} h_{k,m}}{\sum_k x_{k,n} h_{k,m}}
w m , n ← w m , n ∑ k x k , n h k , m ∑ k y k , n h k , m ( 1 2 )
NMFのアルゴリズムはこの更新式が誤差関数を収束するまで計算することにより, 局所最適な H , W H, W H , W を得ることができる。
NMFを用いた決済分析
前提
クレジットカードの決済データにはいつ, どの加盟店(店舗)で, いくらの決済を行ったかという情報が含まれている。利用される加盟店は多岐にわたり, 購買データの例のように ユーザ × 決済 の行列を作ると高次元かつスパースな行列となってしまい扱いが困難である。
ユーザの決済の目的 (食料品, ゲーム etc) はたとえ加盟店が異なっていたとしても一定の傾向 (共起) がみられると考え, NMFを用いることで加盟店の特徴 (基底) を抽出できるはずである。
対象とするユーザは直近3ヶ月間に一定回数以上決済したユーザ (N N N 人) とし, 加盟店は比較的利用の多い 300 加盟店をピックアップした。 ユーザ毎に利用頻度は異なるため加盟店決済回数を総決済回数で除した加盟店決済回数割合を用いている。対象とする行列 X X X は, N × 300 N \times 300 N × 3 0 0 となる。( N ≫ 300 ) (N\gg300) ( N ≫ 3 0 0 )
基底の数
NMFを適用するにあたり, まず基底の数を決める必要がある。基底の数を K K K とすると, K < min ( N , 300 ) K < \min(N,300) K < min ( N , 3 0 0 ) としなければ行列分解の意味がない。上述したように元の行列より少ない基底の数で近似 (低ランク行列近似) することで潜在的な特徴を抽出することができるからだ。
以下のグラフは基底の数 K K K を動かしてNMFを適用し近似誤差をプロットしたものである。基底の数を増やせば増やすだけ誤差が減少していくが, あまり増やしすぎても細かいノイズまで学習してしまう恐れがあるのでここでは誤差の減少が比較的緩やかになる手前の K = 15 K=15 K = 1 5 とする。
PythonによるNMFの実装
PythonによるNMFのコードは以下の通り数行で書ける。
行列の先頭部分を抜き出して X ≃ W H X \simeq WH X ≃ W H となることを確認している。
from sklearn.decomposition import NMF
# 基底数
k = 15
model = NMF ( n_components = k , init = 'random' , random_state = 42 )
# X: 元の行列 ユーザ x 加盟店決済回数割合
# W: 係数行列 ユーザ x 係数
# H: 基底行列 基底ベクトル x 加盟店
W = model . fit_transform ( X )
H = model . components_
# 元の行列 X
print ( X [: 5 , : 10 ] . round ( 2 ))
# [[0.12 0. 0.46 0. 0.05 0. 0. 0. 0. 0. ]
# [0.27 0.4 0. 0. 0. 0. 0. 0. 0. 0. ]
# [0. 0. 0. 0. 0. 0. 0. 0. 0.71 0. ]
# [0. 0. 0. 0. 0. 0. 0. 0.59 0. 0. ]
# [0. 0. 0. 0. 0. 0. 0. 0. 0. 0. ]]
# 復元した行列 W x H
print (( W @ H )[: 5 , : 10 ] . round ( 2 ))
# [[0.12 0. 0.46 0. 0.05 0. 0. 0. 0. 0. ]
# [0.27 0.4 0. 0. 0. 0. 0. 0. 0. 0. ]
# [0. 0. 0. 0. 0. 0. 0. 0. 0.7 0. ]
# [0. 0. 0. 0. 0. 0. 0. 0.59 0. 0. ]
# [0. 0. 0. 0. 0. 0. 0. 0. 0. 0. ]]
行列の可視化
係数行列 W W W
ランダムに 100 ユーザを選び, 横軸にユーザを縦軸に基底をとり可視化した。各ユーザに対して少数の基底で表現できていることが分かる。基底 6~9 の係数が大きいユーザが目立つがこれらの基底で表現される加盟店は全体の決済の中でも特に多く利用されている加盟店群である。
この行列はユーザの購買行動の特徴を捉えたベクトルと解釈することができるのでユーザ間の距離 (類似度) をとることで類似のユーザを抽出したり, クラスタリングに用いることができる。
基底行列 H H H
同様にランダムに 100 個加盟店を選び, 横軸に加盟店を縦軸に基底をとり可視化した。こちらは係数行列 W W W と比較するとやや密な行列となっている。
上図では少し分かりづらいのでいくつかの加盟店をピックアップした。横軸が基底となっている。
1つの基底で表現されているものもあれば複数の基底で表現されている加盟店もある。
基底8,9はスーパー/コンビニ系, 基底11,12はゲーム系, 基底14はフリマ/EC系の色が強いことが分かる。
各基底の上位加盟店
最後に基底ベクトルにのうち特徴が分かりやすく得られた6個の基底において重み付けの大きい加盟店上位を抽出した。それぞれの基底を解釈し意味付けしたものを表頭に示している。
今回は加盟店データの前処理を行わずにシンプルにNMFを適用しただけであるがそれなりに特徴を捉えられていることが分かる。
しかしNMFは初期値によって結果が変わる可能性があり, 必ずしも大域的最適解を得られる保証はないので注意が必要である。
そのため初期値を様々に変えて試してみるべきであるが近似誤差が最小になるからといって必ずしも望ましい結果が得られるわけではない。
複数個得られた結果をアンサンブルするなどの工夫も必要かもしれない。
また決済時に連携される加盟店名には同一店舗と推測されるが微妙に異なるケースが存在したり, チェーンだと〇〇店といった店舗名が末尾に含まれているケースがある。
NMFによってある程度はそのような加盟店も同じ基底に押し込むことで同一のものと扱ってくれる場合もあるが事前に名寄せを行うことでより精度を上げられると思われる。
補足
[1] Jensen の不等式
関数 f ( x ) f(x) f ( x ) を凸関数, α 1 , … , α n \alpha_1, \ldots, \alpha_n α 1 , … , α n を ∑ i α i = 1 \sum_i \alpha_i = 1 ∑ i α i = 1 を満たす n 個の正の実数とするとき
f ( ∑ i α i x i ) ≤ ∑ i α f ( x i )
f(\sum_i \alpha_i x_i) \leq \sum_i \alpha f(x_i)
f ( i ∑ α i x i ) ≤ i ∑ α f ( x i )
が成り立ち, x 1 = ⋯ = x n x_1 = \cdots = x_n x 1 = ⋯ = x n のとき等号が成立する。
[2] 補助関数
θ = { θ i } 1 ≤ i ≤ I \theta = \{\theta_i\}_{1 \leq i \leq I} θ = { θ i } 1 ≤ i ≤ I を変量とする目的関数 D ( θ ) D(\theta) D ( θ ) に対し,
D ( θ ) = min θ ‾ G ( θ , θ ‾ )
D(\theta) = \min_{\overline{\theta}} G(\theta, \overline{\theta})
D ( θ ) = θ min G ( θ , θ )
が成り立つとき, G ( θ , θ ‾ ) G(\theta, \overline\theta) G ( θ , θ ) を D ( θ ) D({\theta}) D ( θ ) の補助関数, θ ‾ \overline\theta θ を補助変数と定義する
θ ‾ ← arg min θ ‾ G ( θ , θ ‾ )
\overline\theta \leftarrow \argmin_{\overline\theta} G(\theta, \overline{\theta})
θ ← θ a r g m i n G ( θ , θ )
θ i ← arg min θ i G ( θ , θ ‾ )
\theta_i \leftarrow \argmin_{\theta_i} G(\theta, \overline{\theta})
θ i ← θ i a r g m i n G ( θ , θ )
を繰り返すことで目的関数 D ( θ ) D(\theta) D ( θ ) は単調に減少する。
直接最小化が困難な目的関数に対して上限となる補助関数を用意し, この補助関数を最小化することによって間接的に目的関数を最小化することができる。
参考文献
[1] Daniel D. Lee, H. Sebastian Seung Algorithms for Non-negative Matrix Factorization
[2] 亀岡弘和 非負値行列因子分解
[3] 岩波データサイエンス Vol.5