ビッグデータによる経済予測:スパース性の幻想

表題のNY連銀ブログ(原題は「Economic Predictions with Big Data: The Illusion of Sparsity」)で、同じタイトルの研究論文の内容を紹介している。著者はDomenico Giannone(NY連銀)、Michele Lenza(ECB)、Giorgio Primiceri(ノースウエスタン大)。
以下はその冒頭。

The availability of large data sets, combined with advances in the fields of statistics, machine learning, and econometrics, have generated interest in forecasting models that include many possible predictive variables. Are economic data sufficiently informative to warrant selecting a handful of the most useful predictors from this larger pool of variables? This post documents that they usually are not, based on applications in macroeconomics, microeconomics, and finance.
Nowadays, a researcher can forecast key economic variables, such as GDP growth, using hundreds of potentially useful predictors. In this type of “big data” situation, standard estimation techniques—such as ordinary least squares (OLS) or maximum likelihood—perform poorly. To understand why, consider the extreme case of an OLS regression with as many regressors as observations. The in-sample fit of this model will be perfect, but its out-of-sample performance will be embarrassingly bad. More formally, the proliferation of regressors magnifies estimation uncertainty, producing inaccurate out-of-sample predictions. As a consequence, inference methods aimed at dealing with this curse of dimensionality have become increasingly popular.
These methodologies can generally be divided into two broad classes. Sparse modeling techniques focus on selecting a small set of explanatory variables with the highest predictive power, out of a much larger pool of possible regressors. At the opposite end of the spectrum, dense modeling techniques recognize that all possible explanatory variables might be important for prediction, although the impact of some of them will likely be small. This insight justifies the use of shrinkage or regularization techniques, which prevent overfitting by essentially forcing parameter estimates to be small when sample information is weak.
While similar in spirit, these two classes of approach might differ in their predictive accuracy. In addition, a fundamental distinction exists between a dense model with shrinkage—which pushes some coefficients to be small—and a sparse model with variable selection—which sets some coefficients to zero. Sparse models are attractive because they may appear to be easier to interpret economically, and researchers are thus more tempted to do so. But before even starting to discuss whether these structural interpretations are warranted—in most cases they are not, given the predictive nature of the models—it is important to address whether the data are informative enough to clearly favor sparse models and rule out dense ones.
(拙訳)
大規模なデータセットが使えるようになったことは、統計学機械学習計量経済学の分野における進歩と合わさって、予測力を持つと思われる数多くの変数を含む予測モデルへの興味を生み出した。そのような変数の大きな集合から、最も有用な一握りの予測変数を選択することが正当化されるだけの十分な情報が経済データにはあるのだろうか? 本ポストでは、マクロ経済学ミクロ経済学、およびファイナンスでの適用に基づき、そうした情報は通常は存在しない、ということを立証する。
今日の研究者は、GDP成長率のような主要な経済変数を、何百という有用な予測変数の候補を用いて予測することができる。こうした「ビッグデータ」環境では、通常回帰や最尤法といった標準的な推計技法のパフォーマンスは良くない。その理由を理解するために、通常回帰で説明変数の数が観測数と同じ、という極端なケースを考えてみよう。このモデルのインサンプルの適合は完璧になるが、アウトオブサンプルの適合は恐ろしく悪くなるだろう。より正式な言い方をするならば、説明変数の増大は推計の不確実性を拡大し、不正確なアウトオブサンプルの予測を生み出す。その結果、こうした次元の呪いに対処することを狙った推定方法がますます人気を得るようになった。
それらの方法は、概ね2種類に大分される。疎モデル技法は、多数の説明変数候補から、予測力の最も高い説明変数の小集合を選択することに焦点を当てる。その対極に位置する稠密モデル技法では、予測においてはすべての説明変数候補が重要かもしれない、と考える。ただし、説明変数の中には影響が小さいものもあるかもしれない。その洞察は、サンプルにおける情報が劣後しているものについて推計パラメータを事実上強制的に小さくして過剰適合を避ける、という縮退ないし正則化技法の使用を正当化する。
発想は似ているが、この2種類の手法は予測の正確性という点で異なる可能性がある。また、ある係数を押し下げるという縮退を伴う稠密モデルと、ある係数をゼロにするという変数選択を伴う疎モデルとの間には、根本的な違いが存在する。経済的に解釈することがより容易に思われる、という点で疎モデルは魅力的であり、実際、研究者はそうした解釈をしがちである。しかし、そのような構造的解釈に正当な理由があるか、という議論を始める前に――モデルの予測特性からして大抵の場合は正当な理由は無いのであるが――、そもそも明確に疎モデルを支持し稠密モデルを排除するだけの情報がデータにあるか、という点を明らかにすることが重要である。


この研究では、疎モデルがデータによって支持されない、ということを次の2つの方法によって立証したという。一つの方法では、実際にモデルに使われる変数の比率を(縮退程度と同時に)ベイズ推計し、その事後分布において小さな比率が支持されないことを示している。もう一つでは、モデルに使われる変数の比率を強制的に小さくし、その場合の変数の採用結果をそうした制約を設けない推計と比較して、差が生じていることを示している。
モデルとしてはspike-and-slabモデルの一種を用い、推計対象としてはマクロ、ファイナンス、ミクロそれぞれ2ケースの合計6ケースのデータ(米鉱工業生産の予測可能性、経済成長決定要因の国際的なクロスセクション分析、米国のエクイティプレミアムの予測可能性、米国株式リターンのクロスセクションの変動、犯罪率の低下の州間のクロスセクション分析、土地収用の決定)を用いたという。


22日エントリでは、CAPMの経済学に対する教訓として、

この話は、単一の統一理論からの後退を意味する。実証結果は、エレガントで節約的な理論(CAPM)を打ち砕き、我々の手元には幾つかの堅固な事実と、それを説明する幾つかの機構が残された。それは進歩ではあったが、大理論から遠ざかり、混乱した現実に近付くものであった。経済学の他の分野でも進歩というのは同様ではないか。

というクリス・ディローの見解を紹介したが、上記の分析結果にもこの見方が当てはまるように思われる。