Hatena::ブログ(Diary)

himaginaryの日記

2012-08-07

計量経済学は衰退しました

|

最近流行りのデータマイニング手法経済モデルに応用した事例は無いのか、とふと思い立ってぐぐってみたところ、この論文が引っ掛かった。以下はその要旨。

This paper examines the efficacy of the general-to-specific modeling approach associated with the LSE school of econometrics using a simulation framework. A mechanical algorithm is developed which mimics some aspects of the search procedures used by LSE practitioners. The algorithm is tested using 1000 replications of each of nine regression models and a data set patterned after Lovell's (1983) study of data mining. The algorithm is assessed for its ability to recover the data-generating process. Monte Carlo estimates of the size and power of exclusion tests based on t-statistics for individual variables in the specification are also provided. The roles of alternative sizes for specification tests in the algorithm, the consequences of different signal-to-noise ratios, and strategies for reducing overparameterization are also investigated. The results are largely favorable to the general-to-specific approach. In particular, the size of exclusion tests remains close to the nominal size used in the algorithm despite extensive search.

(拙訳)

論文では、LSE計量経済学派と関連の深い「一般から特定へ」というモデル構築手法の有効性を、シミュレーション分析の枠組みを用いて調べる。本研究では、LSEの分析者が使用している探索過程を幾つかの点において模倣した機械的なアルゴリズムを開発した。そのアルゴリズムは、Lovell(1983)データマイニング研究を範に取り構築されたデータセットと1000回ずつ回した9つの回帰モデルを用いて検証される。アルゴリズムの評価基準は、データ生成過程を復元できる能力である。また、定式化された各変数のt値に基づき、除外テストの検定量と検定力のモンテカルロ手法による推計値も算出する。アルゴリズムの特定化の検証において代替仮説の検定量の大きさが果たす役割や、相異なるS/N比の帰結、過剰パラメータを減らす戦略についても調査した。得られた結果は、「一般から特定へ」という手法にかなり有利なものであった。特に、除外テストの大きさは、広範な探索を行ったにも関わらず、アルゴリズムで使用された名目値に近いものとなった。


このLSE手法について本文では以下のように解説している。

The relevant LSE methodology is the general-to-specific modeling approach. It relies on an intuitively appealing idea. A sufficiently complicated model can, in principle, describe the salient features of the economic world. Any more parsimonious model is an improvement on such a complicated model if it conveys all of the same information in a simpler, more compact form. Such a parsimonious model would necessarily be superior to all other models that are restrictions of the completely general model except, perhaps, to a class of models nested within the parsimonious model itself. The art of model specification in the LSE framework is to seek out models that are valid parsimonious restrictions of the completely general model, and that are not redundant in the sense of having an even more parsimonious models nested within them that are also valid restrictions of the completely general model.

The name 'general-to-specific' itself implies the contrasting methodology. The LSE school stigmatizes much of common econometric practice as specific-to-general. Here one starts with a simple model, perhaps derived from a simplified (or highly restricted) theory. If one finds econometric problems (e.g. serial correlation in the estimated errors) then one complicates the model in a manner intended to solve the problem at hand (e.g. one postulates that the error follows a first-order autoregressive process (AR(1)) of a particular form, so that estimation using a Cochrane-Orcutt procedure makes sense).

(拙訳)

ここで取り上げるLSE手法とは、「一般から特定へ」というモデル構築手法である。その手法直観に訴える概念に依拠している。十分に複雑なモデルは、原理的には、経済世界の顕著な特徴を捉えられる。そのモデルの情報をすべて、より単純かつコンパクトな形で伝えることができれば、そうした節約モデルは、元の複雑なモデルを改善したものと言える。そうした節約モデルは、完全に一般的なモデルに制約を掛けた他の如何なるモデルに比べても必然的に優れていることになる。ただし、そうした節約モデルそのものの中に入れ子となっているモデルがより優れている可能性はある。LSEの枠組みにおけるモデル特定化の技術は、完全に一般的なモデルに有効な節約的制約を掛けたモデルで、同様の制約を掛けたモデルが自身の中に入れ子状に存在するという意味での冗長性を持たないモデルを見い出すことにある。

「一般から特定へ」というネーミングそのものが、手法の対照性を含意している。LSE学派は、通常使われる計量経済学手法の多くに対し「特定から一般へ」という烙印を押している。そちらの手法では、単純化された(もしくは制約が非常に多い)理論から導出されたであろう単純なモデルが出発点となる。もし計量経済学的な問題(例:推計誤差における系列相関)が見つかれば、そうした当座の問題を解決する形でモデルを複雑化する(例:コクラン=オーカット法による推計値が意味を持つように、誤差が特定の形態の一階の自己回帰過程(AR(1))に従うと仮定する)。


論文の著者の一人Kevin D. Hooverは、別論文で、他の計量経済学手法の中でも、とりわけDSGE等で使われるカリブレーションを、このLSE手法と対極的な手法として位置づけている*1

The calibration methodology is the polar opposite of the LSE methodology: it maintains a commitment to prior core economic theory above all. Calibration is largely associated with Finn Kydland and Edward Prescott’s (1991) program of quantifying dynamic general-equilibrium macroeconomic models, though it is closely related to the methodology of computable general-equilibrium models common in trade, development, and taxation literatures (Mansur and Whalley 1984).

A calibrated model starts with a theoretical model – for Kydland and Prescott generally a representative-agent rational-expectations model of the business cycle or growth – and completes it by assigning numerical values to the key parameters. These values are not estimated through systems-equations methods according to the Cowles Commission program (as, for example, in Hansen and Sargent 1980). Instead, they are drawn from considerations of national-accounting, the “great ratios,” unrelated statistical estimations, common sense, experience, and other informal sources. Once parameterized, the calibrated model is validated through simulation. Do the simulated data display patterns of covariances that adequately mimic the patterns found in the actual data? Once validated, calibrated models are used to explain historical economic performance and for policy analysis. (See Hartley, Hoover, and Salyer 1997; 1998, chapters 1 and 2, for a detail critical description of the calibration methodology.)

(拙訳)

カリブレーション手法LSE手法の対極に位置する。その手法では、事前に定められた中核となる経済理論との関連を最も重視する。カリブレーションは、フィン・キドランドとエドワード・プレスコット(1991)の動学的一般均衡マクロ経済モデルを定量化する計画と関連付けられて語られることが多いが、貿易、開発、課税の分野で良く使われる計算可能な一般均衡モデルの手法と密接に関連している(Mansur and Whalley 1984*2)。

カリブレートされたモデルは理論モデル――キドランドとプレスコットの場合は、大体において、景気循環経済成長に関する代表的個人の合理的期待モデル――を出発点とし、主要パラメータに数値を割り当てて完成する。そうした数値は、(例えばHansen and Sargent 1980のように)コウルズ委員会プログラム*3のように連立方程式手法から推計されるのではない。その代わり、国民所得統計、「マクロ経済的な比率」、無関係な統計的推計、常識、経験、その他非公式のソースから導き出される。パラメータが設定されると、カリブレートされたモデルはシミュレーションを通じて有効性が確認される。シミュレートされたデータが、実際のデータで見い出されるようなパターンを適切に模倣する共分散のパターンを示すかどうか、というわけだ。有効性が確認されたカリブレートされたモデルは、過去の経済状況の説明や政策分析に使われる(カリブレーション手法の詳細な批判的解説についてはHartley, Hoover, and Salyer 19971998の第1章と第2章を参照されたい)。


映画に喩えるならば、LSE手法は、取りあえずカメラを回してフィルムを取り溜め、編集で映画の形に仕上げる、という手法ということになろうか。それに対しプレスコット=キドランドのRBCやDSGEの手法は、ストーリーボードをきっちりと組み立てた上で撮影する映画、というイメージになろう。そして後者は、まずは数学上の世界でモデルが構築されるという点では、映画の中でもアニメ映画に喩えるのが相応しいかもしれない。アニメ映画の製作に当たっては絵が描けなければ話が始まらないのと同様に、RBCやDSGEモデルでは、経済学のミクロ的基礎とそれを操る数学的能力がきちんと身に付いていなければモデルを構築することはできない。その意味で、取りあえず与えられたデータセットを対象に回帰を回せばモデルが構築できる――後で編集の必要はあるものの――LSE的な手法とは確かに対極に位置すると言えよう。


その比喩を続けるならば、アニメ映画で現実世界が作業に入り込んでくるのは、原画が出来上がり、動画を描く段階で、人物等の動きが不自然でないかを動画をパラパラめくりながら確認する時である。それと同様に、RBCやDSGEに現実世界が入り込んでくるのは、出来上がったモデルのパラメータをカリブレートした上で、モデルの生成するデータの動きがそれほど不自然でないかを確認するカリブレーションにおいてである、という言い方も出来るかもしれない*4


また、DSGEがしばしばその非現実性を批判されるのも*5、実写映画ではある程度現実の制約を否応無しに受けるのに対し、アニメ映画では絵に描ければ何でもあり、になりがちなのと共通している、と言えるかもしれない。

*1:カリブレーションに対する批判についてはこちらのエントリも参照。

*2Applied General Equilibrium Analysis所収。

*3cf. ここ

*4:ちなみにHooverは、先の引用部の続きで、カリブレーションのパラメータのカリブレートにおいてLSE手法を応用する可能性について言及している。

*5cf. ここで引用されたデロングの皮肉。

トラックバック - http://d.hatena.ne.jp/himaginary/20120807/econometrics_and_datamining