Hatena::ブログ(Diary)

himaginaryの日記

2016-05-24

住宅向け電力価格の所有権と価格:1935-1940年の米国における実証結果

|

というNBER論文上がっているungated版、ただしこの時はタイトルに技術[Technology]が入っている)。原題は「Ownership and the Price of Residential Electricity: Evidence from the United States, 1935-1940」で、著者はCarl T. Kitchens(フロリダ州立大)、Taylor Jaworski(クイーンズ大)。

以下はその要旨。

In this paper, we quantify the difference between public and private prices of residential electricity immediately before and after major federal reforms in the 1930s and 1940s. Previous research found that public prices were lower in a sample of large, urban markets. Based on new data covering over 15,000 markets and nearly all electricity generated for residential consumption, we find the difference between public and private prices was small in 1935 and negligible in 1940 for typical levels of monthly consumption. These findings are consistent with a market for ownership that helped to discipline electricity prices during this period. That is, private rents were mitigated by the threat that municipalities would use public ownership to respond to constituent complaints and public rents were limited by electoral competition and the growth of private provision.

(拙訳)

本稿では、1930年代1940年代の連邦の大きな改革の直前と直後における住宅向け電力の官民価格差を定量化した。以前の研究では、都市部の大市場において公的価格の方が低いことが見い出されていた。住宅で消費される電力のほぼすべてをカバーした15000以上の市場の新たなデータに基づき、我々は、通常の月次消費水準における官民価格差は、1935年には小さく、1940年には無視できるほどであったことを見い出した。この発見は、この時期における電力価格に規律をもたらす助けとなった電力所有権の市場と整合的である。即ち、民間のレントは、地方政府が住民の苦情に対応して公的電力を使うかもしれない、という恐れによって抑えられていた。公的レントは、選挙における競争と民間提供電力の成長によって制約されていた。

2016-05-23

理論と計測:コンセンサスの出現、統合、そして衰退

|

というNBER論文をハマーメッシュらが書いている。原題は「Theory and Measurement: Emergence, Consolidation and Erosion of a Consensus」で、著者はJeff E. Biddle(ミシガン州立大)、Daniel S. Hamermesh(ロンドン*1)。

以下はその要旨。

We identify three separate stages in the post-World War II history of applied microeconomic research: A generally non-mathematical period; a period of consensus (from the 1960s through the early 1990s) characterized by the use of mathematical models, optimization and equilibrium to generate and test hypotheses about economic behavior; and (from the late 1990s) a partial abandonment of economic theory in applied work in the “experimentalist paradigm.” We document the changes implied by the changing paradigms in the profession by coding the content of all applied micro articles published in the “Top 5 journals” in 1951-55, 1974-75 and 2007-08. We also show that, despite the partial abandonment of theory by applied microeconomists, the labor market for economists still pays a wage premium to theorists.

(拙訳)

我々は第二次大戦後の応用ミクロ経済学研究について3つの相異なる段階を特定した:概ね数学的でなかった時期;経済行動に関する仮説の生成と検証のために数学モデル、最適化、均衡を用いたという点で特徴付けられるコンセンサスの時期(1960年代から1990年代前半);応用研究において経済理論が部分的に放棄された「実験主義者のパラダイム」(1990年代後半以降)。我々は、1951-55年、1974-75年、2007-08年に「上位5誌」に掲載された応用ミクロの論文の内容をすべて符牒化することにより、経済学者パラダイム変化が含意する変化を記録した。我々はまた、応用ミクロ経済学者が理論を部分的に放棄したにも関わらず、経済学者労働市場では理論家に依然として賃金を上乗せしていることを示す。

*1:いつの間にかテキサス大を去っていたが、ぐぐって見つけたこちらのMR記事によると大学内の銃所持規制の緩和が原因との由。

2016-05-22

生産性上昇に関する9人のエコノミストの提案

|

をジャレッド・バーンスタインが各人に要望して収集し、自ブログ紹介している(H/T Economist’s View)。以下はその概要。

  • ディーン・ベーカー(CEPR所長、最近バーンスタインと「Getting Back to Full Employment: A Better Bargain for Working People」という論文共著*1
    • 完全雇用に勝る方法は無し。
    • そのほかバスなどの交通手段を無料化すれば、渋滞が緩和し、生産性が大いに上昇するだろう(ただし計測される生産性には移動時間がそもそも含まれていないため、そうした指標値自体はあまり上昇しないかもしれないが)。
  • アラン・ブラインダー(プリンストン大教授)
    • 恵まれない子供を中心とする幼児教育への注力を推奨。
    • 時間は掛かるが、見返りは大きい。
  • ジョン・フェルナルド(John Fernald、サンフランシスコ連銀のエコノミスト
    • 生産性の高い成長を取り戻す魔法の弾丸は無いが、インフラや教育や基礎研究についての賢明な政策や、バランスの取れた規制は一助となろう。これらの政策は民間の資本投資技術革新を補完するもので、低成長の世界においてもミクロ経済的な費用便益分析に適うものである。その補完性によって、成長が広がりを見せつつ上昇する可能性が少しでも高まる。
  • アラン・クルーガー(前CEA委員長、プリンストン大教授)
    • 研究開発投資の促進や法人税改革といったいつもの提案の他に、時間外手当の閾値を週40時間から35時間に下げることを推奨。それが生産性を高めると思う理由は以下の通り*4
    • 他国では米国に比べて労働時間が低下した一方で所得は上昇した。その点で、労働時間については市場の失敗に我々は直面していると思われる。即ち、労働市場において、労働者が社会的に最適な水準に比べてより長く働くというイタチごっこ的な競争がもたらされているが、追加された労働時間は特に生産性が高いわけではない。
  • エリカ・グロッシェン(Erica Groshen、労働統計局局長)
    • 統計当局による政府行政データへのアクセスを高めて公式統計を改善できれば、生産性を以下の3つの点で向上できる:
      • 回答者の負担軽減
      • 政府統計の価値の向上
      • 経済における企業や政府や個人の(配分や投資に関する)判断を改善(これは最大のメリットだが、測定も最も困難)
  • マーク・ソーマ(Mark Thoma、オレゴン大教授)
    • 独占禁止法の執行をより厳格にすること。Dietrich Vollrathが最近論じたように、市場で強力な位置を占めている企業では技術革新への投資インセンティブが乏しくなるほか、他の企業の参入を防ぐことによりそれらの企業の投資をも制限することができる。
    • 女性やマイノリティといった不利な立場にいる集団が潜在性を発揮することを確実にすること。また、彼らがイノベーティブな考えを基に起業する際、必要な資源へのアクセスを平等にすること。例えば、ベンチャーキャピタルへのアクセスには男性と女性やマイノリティとでは差があるように思われる。
    • 歴史的にみて、政府の基礎研究への投資は、生産性を増強する派生的な流れを数多くもたらしてきた。現在、基礎研究への支援は50年来の低い水準にある。基礎研究への再投資は大いなる配当をもたらす可能性がある。
    • 最近の研究によれば、過去の経済成長に顕著に寄与してきた「変化をもたらすような起業」が減少している。その理由は不明だが、答えを突き止めて、この傾向を逆転させるような政策を実行することは、成長の停滞を克服する助けとなろう*5

*1cf. ここ

*2:ベーカーは、特許著作権保護のレントによる無駄が膨大なものになることを注記している。それについてバーンスタインは、特許についてはロバート・ゴードンも強調した、と書き添えている。

*3cf. ホワイトハウスブログ

*4:これはプレスコットとは完全に逆の考え方と言えそうである。

*5:この点についてバーンスタインは、裕福な大企業が規模にものを言わせて成長を遂げる前の中小企業を買収する傾向が関係しており、その点でThomaの第一点と関連しているのではないか、とコメントしている。

2016-05-21

如何にしてコンピュータは経済学を変え、そして変えなかったか

|

という記事がINETブログ上がっている(H/T Economist’s View、原題は「How the computer transformed economics. And didn’t.」)。著者は、最近このテーマに関する論文をRoger Backhouse(バーミンガム大)と共著したBeatrice Cherrier(カーン大)。

記事でCherrierは、コンピュータの発達が経済学にもたらした変化を認めつつも、思ったほど変化をもたらさなかった点に光を当てている。コンピュータの発達がもたらした変化として、経済学における新たな技法――多項式プロビット、完全情報最尤法のようなかつて経済学者が夢見た技法、および、シミュレーション機械学習、マッチングアルゴリズムのようなかつて考えられもしなかった技法――や、(本ブログでは1/17エントリで紹介した)ジャスティン・フォックスのブルームバーグ記事で描写されたような実証経済学興隆、を挙げた後、彼女は以下のように書いている。

Though this bears unmistakable element of truth, the idea that computerization fostered the rise of applied economics seems somewhat simplistic. While macroeconometricians like Modigliani had yearned for more computational power, better storage, convenient software, the leap done by the computer industry at the turn of the 1980s did not prevent the marginalization of Keynesian type of econometrics in the wake of the Lucas critique, nor that of the other computationally-intensive field of the 1970s, computational general equilibrium. The former was replaced with calibration, often viewed as a second best. And paradoxically, the hot methodological debate pervading microeconometrics in the early 1980s ended up in the rise of quasi-experiments, a method minimally demanding in terms of computational power.

Tying the purported rise of economics with the spread of computers also overlooks the possible transformative effects of computers on theory. In mathematics, physics and biology, automated-theorem proving, numerical or algorithmic proofs, and simulations have become well-accepted scientific practices. In economics, by contrast, that proofs are demonstrated with the help of a computer is carefully concealed in published papers. In spite of a long tradition dating back to Guy Orcutt and Jay Forrester, simulation is merely acceptable as an empirical illustration, or when analytical proofs are impossible to reach. Complaints that economists have been unable to change their idea of what a “proof” should be, that they had stick to the Hilbertian paradigm instead of jumping on the algorithmic bandwagon, or shun numerical methods in their most prestigious publications abound. If a few computer-based approaches, like mechanism design and experimental economics, have become mainstream, a galaxy of new approaches, from agent-based modeling to automated theorem proving, computational game theory or computational social choice have hitherto wandered on the margins of the discipline, though there are hints that the situation is slowing evolving.

(拙訳)

この話には間違いなく真実の要素が含まれているが、コンピュータ化が応用経済学の勃興を促進した、という考えは些か単純過ぎるように思われる。モジリアニのようなマクロ計量経済学者は、より高い計算能力、大きな記憶容量、便利なソフトウェアを切望していたが、1980年代の転換期にコンピュータ産業がもたらした飛躍は、ルーカス批判後のケインズ計量経済学の退潮に歯止めを掛けることはなかった。また、もう一つの計算能力集約型の研究分野である計算一般均衡の退潮についてもやはり歯止めを掛けることはなかった。前者はカリブレーションに取って代わられたが、それは次善の策と見做されることが多い。そして皮肉なことに、1980年代初めにミクロ計量経済学で盛んだった手法をめぐる論議は、計算能力という点では最小限しか必要としない手法である疑似実験の勃興に行き着いた。

経済学興隆と言われているものをコンピュータの普及と結び付けることは、コンピュータが理論に及ぼせたはずの転換的な影響をも無視している。数学や物理や生物学では、自動定理証明、数値証明もしくはアルゴリズムによる証明、ならびにシミュレーションは、科学的慣行として広く受容されている。対照的に経済学では、コンピュータの助けを得て示された証明は掲載論文の中では注意深く隠されている。ガイ・オーカットやジェイ・フォレスターの時代に遡る長い伝統があるにも関わらず、シミュレーションは、実証的な説明として、もしくは解析的証明が不可能な場合に受け入れられているに過ぎない。「証明」が如何にあるべきかについて経済学者が考えを変えようとしないこと、彼らがアルゴリズム興隆に乗らずにヒルベルト的なパラダイムを墨守していること、彼らの最も権威ある学術誌が数値手法を締め出していること、に関する不平不満は満ち溢れている。メカニズムデザインや実験経済学といったコンピュータベースの手法が幾つか主流派に仲間入りしたにしても、エージェントベースモデルから自動定理証明、計算ゲーム理論、計算社会選択に至る綺羅星のような新たな手法は、状況が少しずつ改善しているという兆しは見られるものの、今のところ経済学の辺境を彷徨っているに過ぎない。


さらに、経済学者の夢が実現しなかった、もしくは実現が遅れた例として以下を挙げている。

The history of computerization in economics has been riven with giant leaps, but also utopian hopes and over-optimistic predictions. In 1948, Wassily Leontief, the brain behind input-ouput analysis, thought the ENIAC could soon “tell you what kind and amount of public works were needed to pump-prime your way out of a depression.” In 1962, econometrician Daniel Suit wrote that with the aid of the IBM 1920, “we can use models of indefinite size, limited only by the available data.” In 1971, RAND alumni Charles Wolf and John Enns explained that “computers have provided the bridge between […] formal theory and […] databases.” The next challenge, they argued, was to use computer not merely for “hypothesis-testing,” but also for “hypothesis-formulation.” And Francis Diebold has recently unearthed 1989 lecture notes in which Jerome Friedman claimed that statisticians are “substituting computer power for unverifiable assumptions about the data.” All thing that have either not happened, or much more slowly than predicted

(拙訳)

経済学におけるコンピュータ化の歴史は大いなる飛躍を遂げてきたが、ユートピア的な希望や過度に楽観的な予測にも溢れていた。1948年に、産業連関分析の生みの親であるワシリー・レオンチェフは、ENIACが間もなく「不況から抜け出すための呼び水として必要な公共事業の種類と額を教えてくれる」ようになる、と考えていた。1962年計量経済学者のダニエル・スートは、IBM1920の助けを借りて「利用可能なデータによってのみ制約される、無制限のサイズのモデルが使えるようになる」と書いた。1971年にランドOBのチャールズ・ウルフとジョン・エンスは、「コンピュータは、[…]公式理論と[…]データベースの間の架け橋を提供した」と説明し、次なる課題はコンピュータを「仮説の検定」のためだけではなく「仮説の定式化」のために使うことだ、と論じた。そして最近フランシス・ディーボルトが明らかにした1989年の講義ノートの中で、ジェローム・フリードマンは、統計学者は「データに関する検証不可能な仮定を計算能力で置き換えつつある」と主張した。これらすべてのことは、実現しなかったか、もしくは予想よりも実現がかなり遅れた。

2016-05-20

バーナンキの無裁定論再訪:実物資産の公開市場操作で流動性の罠は無くなるか?

|

というNBER論文をエガートソンらが書いている。原題は「Bernanke's No-arbitrage Argument Revisited: Can Open Market Operations in Real Assets Eliminate the Liquidity Trap?」で、著者はGauti B. Eggertsson、Kevin Proulx(いずれもブラウン大)。

以下はその要旨。

We first show that, at least in theory, open market operations in real assets can be a useful tool for overcoming a liquidity trap because they change the inflation incentives of the government, and thus change private sector expectations from deflationary to inflationary. We argue that this formalizes Ben Bernanke's arbitrage argument for why a central bank can always increase nominal demand, despite the zero lower bound. We illustrate this logic in a calibrated New Keynesian model assuming the government acts under discretion. Numerical experiments suggest, however, that the needed intervention is incredibly high, creating a serious limitation of this solution to the liquidity trap. Our experiments suggest that while asset purchases can be a helpful commitment device in theory, they may need to be combined in practice with fiscal policy coordination to achieve the desired outcome.

(拙訳)

我々はまず、少なくとも理論上は、実物資産公開市場操作流動性の罠を克服する上で有用な手段となり得ることを示す。それは、政府インフレに関するインセンティブを変え、それによって民間部門の予想をデフレ的からインフレ的に変えるためである。これは、なぜ中央銀行はゼロ金利に関係無く名目需要を常に増やすことができるか、という点についてのベン・バーナンキ裁定論を定式化したものである、というのが我々の主張である。我々はこの論理を、政府が裁量的に行動するという仮定の下でカリブレーションを行ったニューケインジアンモデルで説明する。しかし数値実験が示すところによれば、必要とされる介入額は途轍もなく大きくなり、流動性の罠についてのこの解決法に深刻な制約が生じる。我々の実験は、資産購入は理論上は有用な政策手段であるが、望む結果を達成するためには財政政策と連携しつつ実施することが実務上は必要になるだろう、ということを示唆している。


ここで言うバーナンキの無裁定論ないし裁定論は、日本で一般バーナンキ背理法と呼ばれているものかと思われる。