古典的な時系列解析のモデルでは、時系列データが定常過程に従うことを前提としていました。しかし、世の中の多くの事象は定常過程に従うことはあまりなく、よりうまく現実を反映させることができるモデルが必要になります。
それが状態空間モデルです。状態空間モデルは今まで紹介してきたARIMAモデルなどの進化版とも言えて、古典的なモデルを含む多くのモデルを一つの概念で捉えることができます。
さらに、他の変数からの影響や周期性なども柔軟に組み込むことができるとても素晴らしいモデルになります。
状態空間モデルの直感的な説明などは多くのサイト様で紹介されているので、今回はベイズ流で状態空間モデルを考えていきたいと思います。
うっかり店長さんの売り上げデータ
あるお店の売り上げ100日間のデータを解析することにしましょう。まずは単純なモデルから考えるため、以下のような前提をおきます。
- お店の売り上げにトレンドはない。
- お店の売り上げは前日の売り上げと似ている(急激に増減しない)。
- 売り上げデータは店長さんが毎日手入力するため誤差が生じる。
- 店長さんのうっかり誤差は5万円ぐらい。
- 店長さんは、経験的に売り上げは平均20万、日による変動は3万ぐらいだと言っている。
グラフにしてみるとこんな感じです。
また、真の売り上げを、記録された売り上げをとすると
と表すことができると仮定します。売り上げの変動と店長さんの記録誤差は正規分布を仮定しました。 日本語で書くと
です。
ここでやりたいのは、店長さんが記録したデータ(y:黒)から、真の売り上げ(x:赤)の分布を推定することです。
推定方法
真の売り上げを推定するための考え方としては、売り上げが観測された場合に、真の値がとなる確率として求めます。 ベイズの基本的なところはこちらをご覧ください。
1日目の売り上げから順を追って解析していきましょう。少し数式が多くなるので、下の方に直感的なイメージ図を書きました。そちらから見てみると良いかもしれません。
1日目のデータから、ベイズ更新を使っての分布を以下のように求めます。
事前分布は、正規分布を仮定します。店長の経験から売り上げは平均m0=20ですが、うっかり店長のことなので間違っていることを考慮して、その不確かさをC0=100としておきます。これを平均20、標準偏差10の正規分布であると考えるととなる確率は
となります。(具体的な計算は後ほど行います。)
また、尤度は、真の売り上げがであった場合に、売り上げ記録がとなる"もっともらしさ"を表し、店長さんの記録誤差を分散、平均をとする正規分布に従うとすると、
です。
以上から事後分布であるを求めると
となります。ここで、興味があるのはなので、関係のない部分は無視して、
また事後分布から考えると は平均m1、標準偏差C1の正規分布に従うので、
となります。以上から
ここに1日目の記録売り上げが24万であるとして、具体的に計算してみると
となります。つまりt=1時点の真の売り上げは平均23.2万、標準偏差4.5万(20の平方根)の分布であることが分かります。この事後分布の平均値が状態の点推定値になります。
ついでにt=2時点の分布も求めてみましょう。まずはt =2時点の平均と分散を予測します。今回は売り上げにトレンドなどがないため、t=2時点の予測値は
です。分散は売り上げ変動の影響を考慮して、
となります。これを事前分布として、2日目の記録売り上げが29万だとすると、
となって、t=2時点では平均26.4万、標準偏差3.6万円の分布に更新されました。式だと分かりにくいので、図にしてみましょう。
式からもわかるように、事前分布の平均、つまり一期前で推定された値と観測された値とを、事前分布の分散と尤度の分散の加重平均をして、事後分布の平均値を求めているイメージです。
これを繰り返して真の売り上げを推定したものが以下になります。
青色が記録データから推定した真の状態、網掛けが状態の95%信頼区間を表しています。真の売り上げをうまく推定できているみたいですね。
ちなみに今回のように状態がランダムウォークに従い、観測誤差があるモデルのことをランダムウォークプラスノイズモデル、またはローカルレベルモデルと呼びます。
ちなみに先ほどの式を少し変換して、
としてみると、カルマンフィルター の式になりました。このようにして、状態空間モデルをベイズ的に捉えることができます。
Rでの実践
Rで状態空間モデルを扱うにはいくつか方法がありますが、今回は一番ポピュラーな{dlm}
を使った方法で行なっていきます。まずは今回のデータを作成します。
set.seed(123) sales <- 30+round(cumsum(rnorm(100,0,3)),0)#真の売り上げ sales_record <-round(sales+rnorm(100,0,5),0)#記録売り上げ data <- tibble(sales_record=sales_record, sales=sales, Day=seq(1,100)) #可視化 data %>% gather(key=data,value = values,-Day) %>% ggplot()+ geom_line(aes(x=Day,y=values,col=data,alpha=data))+ scale_color_manual(values = c("red","black"))+ scale_alpha_manual(values = c(1,0.5))
続いて{dlm}
をインストールして読み込みます。
install.packages("dlm") library(dlm)
今回は詳しく扱いませんが、{dlm}
は
- モデルを作る
- パラメーターを推定する
- フィルタリングする
- 平滑化する
という流れで状態の推定を行います。3.のフィルタリングが今回のメインである逐次更新の部分です。また、2のパラメーターの推定は、今回は既知として扱った状態の変動(売り上げの変動:)と観測誤差(記録の誤差:)を最尤法で推定することができます。また、平滑化とはフィルタリング後のデータを使って過去の状態を推定し直すのですが、今回はそこまでやりません。
それではやっていきましょう。
fit <- dlmModPoly(order=1, dV=25, dW=9, m0=20, C0=100) fit_filter <- dlmFilter(sales_record,fit)
まずは、dlmModPoly
で、ローカルレベルモデルを作成します。ここには他にも色々なモデルを指定することができます。dVが観測誤差、dWが状態の変動、m0、C0が事前分布の平均と分散です。そして、dlmFilter
で状態を推定できます。
fil_filterの中身を見てみましょう。
str(fit_filter,max.level = 1) List of 9 $ y : num [1:100] 24 29 31 31 28 38 35 28 32 37 ... $ mod:List of 10 ..- attr(*, "class")= chr "dlm" $ m : num [1:101] 20 23.3 26.4 28.6 29.7 ... $ U.C:List of 101 $ D.C: num [1:101, 1] 10 4.51 3.67 3.44 3.37 ... $ a : num [1:100] 20 23.3 26.4 28.6 29.7 ... $ U.R:List of 100 $ D.R: num [1:100, 1] 10.44 5.42 4.74 4.57 4.51 ... $ f : num [1:100] 20 23.3 26.4 28.6 29.7 ... - attr(*, "class")= chr "dlmFiltered"
yには元のデータが格納されています。フィルタリング後のデータはmに格納され、これが事後分布の平均値です。データが101あるのは、0時点目の初期値が含まれているからです。20 23.3 26.4....と続き、先ほど計算した値とも合っていますね。
続いてU.CとD.Cは事後分布の分散になります。二つに分かれている理由については少し複雑な話になるのですが、分散の特異値分解後の値になっているからです。この二つを使って元の分散に戻し、95%信頼区間などを算出できます。dlmSvd2var
を使って特異値分解された分散を元に戻します。
conf <- sqrt(as.numeric(dlmSvd2var(fit_filter$U.C,fit_filter$D.C)[-1])) > conf[1:5] [1] 4.509526 3.673889 3.441134 3.371355 3.350101
こちらも先ほどの同じ値になっています。
その下のa,U.R,D.Rは、事後分布から次の時点を予測した事前分布の平均と分散を表します。
推定したデータをグラフにしてみましょう。
data <- tibble(sales_record=sales_record, sales=sales, Day=seq(1,100), est_value = fit_filter$m[-1], upp = est_value+qnorm(0.025,0,sd=conf), low = est_value+qnorm(0.975,0,sd=conf)) data %>% gather(key=data,value = values,-Day,-upp,-low) %>% ggplot()+ geom_line(aes(x=Day,y=values,col=data,alpha=data))+ geom_ribbon(aes(x=Day,ymax=upp,ymin=low),alpha=0.2,linetype=3)+ scale_color_manual(values = c("blue","red","black"))+ scale_alpha_manual(values = c(1,0.5,0.5))
以上です。
まとめ
今回は状態空間モデルをベイズ的に捉えるために、数式が多めになってしまいました。状態空間モデルではまだまだ色々なことができるので、今後は実践応用としてもまとめていきます。
※本記事は筆者が個人的に学んだことをまとめた記事なります。数学の記法や詳細な理論、筆者の勘違い等で誤りがあった際はご指摘頂けると幸いです。
参考
状態空間モデルを直感的に理解するにはこの書籍がおそらく一番わかりやすいです。状態空間モデルだけでなく基本的なARIMAモデルなどから順をおって書かれているので、これ一冊で時系列解析の大枠と実践法は網羅できるはずです。
時系列分析と状態空間モデルの基礎: RとStanで学ぶ理論と実装
- 作者: 馬場真哉
- 出版社/メーカー: プレアデス出版
- 発売日: 2018/02/14
- メディア: 単行本
- この商品を含むブログ (3件) を見る
こちらはさらに踏み込んだ内容になっています。数式での証明からRでの実践方法が本当に丁寧に書かれているので、Rを使わない人でも読み応えのある本だと思います。本記事でも主にこちらの書籍を参考させて頂きました。
基礎からわかる時系列分析 ―Rで実践するカルマンフィルタ・MCMC・粒子フィルター (Data Science Library)
- 作者: 萩原淳一郎,瓜生真也,牧山幸史,石田基広
- 出版社/メーカー: 技術評論社
- 発売日: 2018/03/23
- メディア: 大型本
- この商品を含むブログ (1件) を見る
こちらはベイズ的な観点から状態空間モデルを捉えて説明された本です。タイトルは少しいかついですが、中身はわかりやすく、具体的な数値を入れての計算もあるため、検算ができるのがいいですね。
- 作者: G.ペトリス,S.ペトローネ,P.カンパニョーリ,和合肇,萩原淳一郎
- 出版社/メーカー: 朝倉書店
- 発売日: 2013/05/08
- メディア: 単行本
- この商品を含むブログ (1件) を見る
カルマンフィルター の直感的理解がとてもわかりやすく説明されています。