東大教師が新入生にすすめる本 (2011)

別件の書評原稿を書いているときに発掘しました。2011の記事ですが参考になれば幸いです。(他の教員のも併せてはhttp://www.utp.or.jp/topics/2011/04/06/oup4iaeaeaoaiacuoaethaeaeeu-3/ :「UP」4月号特集「東大教師が新入生にすすめる本」(2011)) を参照してください)

金子建志「ベートーヴェンの第9」(音楽之友社

年末の恒例行事となっているベートーヴェンの第9だが、その楽曲の解釈や楽譜にいまだに多くの謎が残っていることをご存知だろうか。ベートーヴェンは音楽家であると同時に、世界で最初にメトロノーム記号を導入したテクノロジーの先駆者でもあった。一方でその譜面の記載については不明な点も多く、現在に到るまで議論は終結していない。ベートーヴェン交響曲の演奏形態も、ロマン派的な大編成オーケストラから、作曲当時の楽器や演奏スタイルを厳密に再現しようとする流れに発展してきている。本書はそういった近年の第9研究史や演奏史を理解するためのこの上もない、一般書として入手できる範囲でもっとも詳細な解説書である。筆者はこの本の影響で数十枚の第9CDを蒐集することになってしまった。

M.マクルーハン「メディア論:人間の拡張の諸相」(栗原裕・河本仲聖訳、みすず書房

真の古典が、読むたびに新しい何かをもたらしてくれるものだとするなら、本書はもはやその範疇に入っているだろう。ほぼ十年に一回ぐらいのペースで読みなおしているが、そのたびに自分の理解の仕方が変わってきているのを感じる。ここで議論されているのは新聞やテレビのような情報媒体としてのメディアに留まらない。マクルーハンによれば技術や人工物・環境はすべからくメディアであり、そしてメディアは我々の身体の拡張である。インターネットがまさに自己や社会の拡張のように体感できるようになった時代になって、ようやくマクルーハン思想の真意を理解するための準備ができたと言えるかもしれない。

V.パパネック「生きのびるためのデザイン」(阿部公正訳、晶文社

も、読み返すたびに新しく感じられる一冊。原題「リアルワールドのためのデザイン」の通り、先進国の工業製品のデザインではなく、発展途上国の生活や社会基盤を改善するためのデザインなどを含む。それらは完成品としてだけではなく、誰もが再現できるような知識として伝搬することを意図している。持続可能社会やソーシャルビジネスの先駆であり、インターネットや3次元プリンタなどの技術によってモノづくりのプロセスを革新しようとするデジタルファブリケーションの考えにもつながっていく。パパネックによればデザインとは「ある行為を、望ましい予知できる目標へ向けて計画し整える」プロセス一般を意味する。引き出しの整理から国家戦略に至るまで、すべてはデザインなのだ。

安藤忠雄「連戦連敗」(東京大学出版会

では、数多くのコンペの記録から氏の建築哲学が浮かび上がる。世界の安藤があえて連戦連敗と呼ぶその過程には、プロとしての圧倒的な実績と自信がみなぎっている。ちなみに本郷キャンパスに2008年に竣工した情報学環福武ホールは氏の設計によるもの。

「オープンシステムサイエンス – 原理理解の科学から問題解決の科学へ」(所真理雄 編著訳、NTT出版

最後に、筆者を含むソニーコンピュータサイエンス研究所の研究員で書いた本書を揚げておく。20世紀から21世紀にかけて、科学の方法論自体が大きく変化してきている。単純な要素還元主義では収まらない新しい科学の方向性を生命・経済からサイバー社会や芸術に至るまで論じている。

(暦本純一  大学院情報学環・学際情報学府 教授 / 情報科学

「未来のモノのデザイン」紹介(2009:AXIS書評原稿)

こちらも発掘したので掲示しておきます。ノーマンの新刊(当時)についてAXISの書評コーナーに書いたものです:

AXIS書評原稿(掲載誌:AXIS138号2009年3月1日発売)

「未来のモノのデザイン」
ドナルド・A・ノーマン (著), 安村通晃 (翻訳), 岡本 明 (翻訳), 伊賀聡一郎 (翻訳), 上野晶子 (翻訳)
新曜社


さすがに最近はそうでもなくなってきたが、ひと昔前まで未来のユーザインタフェースというと決まって音声対話システムが取り上げられていた。映画『2001年宇宙の旅』でもHAL9000は乗組員と音声を介して対話していたし、アップル社の有名な近未来デモ映像「ナレッジナビゲータ」では画面上の仮想人格がインタフェースとなっていた。当時の実際の技術水準では、決めうちのコマンドをしゃべればそれを認識して実行する、といったデモがせいぜいだったが、それでも「これなら機械が苦手な私でもコンピュータが使えるようになりますね」といった感想がよく聞かれたものだった。最近ではロボットがその地位にあるのかも知れないが、人間に近いインテリジェンスを持つシステムに対する期待や願望、あるいは幻想は根強い。
もちろん、そう「ことは簡単ではない」ということを同時にわれわれは知っている。音声を使うかどうかは別問題としても、人間と対等にふるまう知的システムの構築は当初予想されていたよりもはるかに難しいことがわかってきた。
一方で、われわれをとりまく環境には程度の差こそあれスマート化・知能化の波が押し寄せている。家電や自動車には各種のセンサーが組み込まれているし、ユビキタスコンピューティングの分野ではスマートホームアンビエントインテリジェンスの研究が進められている。人間と協調して作業するヒューマノイドロボットの研究も盛んである。そもそも、もはや空気のような存在となっている検索エンジンやリコメンデーションシステムでも、裏では膨大な統計データ処理が動いている。
しかし、これらの「知能を持つ機械」が人間の暮らしを単純に快適にするかというと、やはりそう「ことは簡単ではない」。センサー内蔵でおまかせのはずの電子レンジで失敗したことはないだろうか?自動車のクルーズコントロールでひやっとしたことは?ユーザインタフェースの究極の形態は知能を持つことなのか?機械と人間の共生とは?ヒューマノイドロボットは正しい人工物の進化形なのだろうか?人間の能力を拡張する方向はどうなのか?
こういった疑問や課題に正面から取り組んでいるのが、『誰のためのデザイン?』をはじめとする一連の著書で知られるドナルド・ノーマンの新著『未来のモノのデザイン』である。ノーマンがロボットに対してどんな意見を持っているか、どんな「インテリジェンス」であれば人間を適切にサポートできると考えているのか、は本書を読んでのお楽しみとして、例によって関連する大量の事例が議論に厚みを加えている。たとえば群れを成して集団走行するロボット自動車のコンセプトなど。群ロボットだけなら車線変更や分離帯の概念も不要で、はるかに効率的に走行することができる。なまじ人間が関与しないインテリジェンスのほうがより未来的に感じられるのが奇妙でもあり興味深くもある。
前著『エモーショナルデザイン』では、モノの持つ感覚的な魅力を前面に押し出して大きく路線変更したかのように見えたノーマンだったが、本書では『誰のためのデザイン?』から始まるユーザビリティの系譜と、エモーショナルデザインでの議論がより高い次元で融合している。ノーマン理論の新展開が気になる方は是非。
暦本純一(れきもとじゅんいち)東京大学

2014まとめ

2014の活動を自分メモ的にまとめてみました。

4月:CHI2014(Tronto)に出席。CHI AcademyのパーティでTed Nelson氏に会って感激。ミーハーにも写真を撮っていただく:

5月:2年半の駒場生活を終えて、本郷キャンパスに戻ってきた。もともと研究室のあったプレハブの建物の場所に建設された「ダイワユビキタス学術研究館」の完成に伴い入居した。名前の通り大和ハウス工業様の寄贈によるものです。有り難いことです。隈賢吾設計による斬新な外観。超高級和カフェが併設されている...


6月には世界最大の広告フェスティバルであるCannes Lionsの電通セミナー「The Augmented Human」で、メインスピーカーとして登壇させて頂いた。カンヌ映画祭のメイン会場としても使われる場所で、電通佐々木さん、フェンシングの太田選手、ライゾマティクスの眞鍋さんと同じステージをご一緒できて大変光栄でした。


7月、陸前高田ラジオゾンデ気球を成層圏に上げるというプロジェクトに相乗りさせて頂いた。我々の提供した全周囲カメラを気球で釣り上げてもらって成層圏までの全周囲映像撮影に成功した。成層圏高度で気球が破裂する瞬間も綺麗に撮れている。この画像を使ってStratoJump(成層圏ジャンプ)というVRデモをUnityさんと共同で開発し各所で展示を行った。


8月に、電通ISID様と共同で設立した「スポーツ&ライフテクノロジーラボ」のお披露目シンポジウム及びラボ公開をした。Augmented Sportsを実験するスタジオを本郷の東大付近に設営。この場所を見つけるために3月ごろに本郷の不動産屋めぐりをしていたりした。年初の段階で風呂敷レベルだった話がどんどん具現化されていくのがエキサイティング(そしてまだ現在進行形です)。


9月にはSony CSLニューヨークシンポジウムニューヨーク近代美術館(MoMA)で開催し、登壇者の一人としても講演を行った。CSLの研究を北米地区でまとめて紹介するのは今回が初めてで、講演内容はScientific AmericanやNew Scientistなどでも紹介された。

http://www.cnet.com/news/sony-researcher-works-to-put-you-in-someone-elses-head/

その後、マンハッタンにあるSenior Planetでも講演をさせて頂いた。ここは70歳以上でサイエンスに興味を持っている方々のためのフォーラムで、講演後に大変活発な質疑があった。車椅子でやっと会場まで来たという感じの方々から鋭い発言があり感銘を受ける。ここでの議論も契機となって、ability, dignityとテクノロジーの関係について考えるようになる。


10月は暦本研のオープンラボ。スポーツ&ライフテクノロジーラボの実験スタジオも併せて再度公開した。学生さんたちが大活躍。


11月には一回の出張で連続の国際学会基調講演になった。ACE2014ポルトガルマデイラ島という大西洋の離島で開催されたエンターテインメントに関する国際学会で、ITS2014ドレスデンで開催されたサーフェスコンピューティングの国際学会。マデイラは、日本からだと着くまで24時間以上かかり行くのは大変だが「常春」の素敵な場所。一日かけて行って一日しか滞在できなかったのが惜しい。


ドレスデンカート・ヴォネガットの小説Slaughterhouse 5を読んで以来いつかは訪れたいと思っていたところだ。ヨーロッパ有数の美しい都市だが、第二次世界大戦で連合国側の大空襲を受けたところでもある。修復された教会は当時の瓦礫から位置を特定されたものと、新たに構築されたところがモザイクのようになっている。おなじく修復されたゼンパーオペラハウスは世界で最も美しいオペラハウスとも言われている。直前にチケットを買って入ったら何とソプラノがルネ・フレミングだった!(と、まわりに言っても今にいたるまで誰からも反応してもらえないのが残念..)

今年はなんとか飛行機に乗り遅れることはなかった(去年は自分のミスで二回乗り遅れました..)。空港ストが2回。バゲージロストはドレスデンで一回あって、なかなか荷物がホテルに回送されてこないので着替えなしで学会行ったりオペラに行ったりしていました。

ということで、今年も多くの方に助けられて何とかやってこれました。あらためて感謝申し上げます。

では、みなさまどうかよい年をお迎えください。

暦本式英語スピーチ練習法

原稿を準備してスピーチするような、わりと公式性の高い英語プレゼンのときの練習法です(Mac限定):


原稿をテキストファイルにセーブ。

ターミナル(アプリケーションの中の「ユーティリティ」フォルダに入っています)。を開きます。

say コマンドで、原稿を音声ファイルに変換します:

$ say -f script.txt -o script.aiff

これで、テキスト原稿script.txtが英語音声ファイル script.aiff に変換されるので、iTunes経由でiPhoneiPodにコピーします(最後の-o script.aiff を指定しなければ直接スピーカーから音声が出ます)。

あとはひたすら生成されたスピーチファイル聞きながらシャドーイング。ジョギングしながらでも英語についていって淀みなく言えるように練習します。


以上です。macのsayコマンドは、感情的表現こそありませんが、たぶん大多数の日本人よりは発音が良いです。原稿を完全に覚えるためだけではなく、発音やアクセントなどの勘違いを減らすためにも効果的です。

$ say -r 120 -f script.txt -o script.aiff

のようにすると、喋る速度もwpm単位で調整出来ます(wpm: words per minute, 一分間に話される単語数)。

標準が175wpm なので、スピーチとしてはもう少しゆっくり目に設定したほうがいいかも知れません。

出来たファイルの再生時間から、だいたいのスピーチ時間の予測もできます。

これで練習して、あとは「根拠のない自信」で思いっきりどうどうと喋るのみ!

参考: はじめての国際学会

e-Taxへの提言

e-Tax (国税電子申告・納税システムhttp://www.e-tax.nta.go.jp/は難しいという評判が定着して、みな恐れをなして使わなくなってしまっている。使うのは税理士などのプロに任せている場合がほとんどではないか。申告書をWebのインタフェースで作成し、それを印刷して郵送している場合が実態としては多いと思うが、せっかく電子情報として作ったものをわざわざ紙に印刷し、物理的に送り、それを税務署側でまた電子情報に打ち込み直していることになる。壮大な無駄である。もちろんそのコストは国民の税負担に反映されている。

ただ、申告書の作成インタフェースそのものは別に難しいわけではない。最後の電子申請するところに複雑さが集約されている。現状のe-Taxでは、電子証明書を利用したきわめて「セキュア」な申請を実現しているが、それにはまず住基カードを取得しなければならない。つまり区役所に出向かなければならない。その証明書は3年ごとに失効するのでその度に区役所に出向く必要がある。住基カード用のリーダーのような余計なハードも必要になる。電子証明書の扱いの制約のため、e-Taxが可能なのはWindowsのみ(MacOSLinuxでは不可能、タブレットスマホはもちろんNG)となっている。

住基カードには2種類のパスワードがあってとっさにどちらを要求されているのかがわかりにくい。しかも一定回数間違えるとパスワードロックされてしまう。その場合、また区役所に出向かなければならない(というか私は行きました..)。恐ろしい。

e-Taxそのものにもパスワードがあるので、電子申請に関して、住基カード関係の2種類と、e-Taxのパスワードの3種類があって不必要に複雑である。なぜかe-Taxではパスワードのことを暗証番号と言う(以下)ので、さらにわかりにくくなっている。日本語では「番号」というと英字は含まず、「桁数」も英字に対しては言わないと思うのだが。

それはともかくとして、考えてみれば、紙に印刷した状態の申請書は単に税務署に郵送しているわけで、書留にすら通常はしない。そのレベルのセキュリティでよければ、Webで作成した申告データをそのままアップロードするだけでいいのではないか。どうしてもセキュリティがどうのと言いたければ、納税者が自分で選択できるようにすればいいだろう。Webアップロードか、電子証明を介した送信かを選択できるようにすればだれからも文句はでないと思うがどうだろうか。

もう一歩踏み込んでいえば、オープンガバメントとして、確定申告用のAPIを公開してくれれば、きっと誰かがタブレット用のアプリとかを作ってくるだろう..

自分の英語文書をマイニングして次に学ぶべき単語リストを自動生成する方法(暦本式語彙増強法)

英単語の語彙をどうやって増やしたらいいだろうか。やみくもに単語集みたいなものを順に覚えていくのも道程が長そうだ。また、一般論ではなく自分がよく書く分野に特化して語彙を増やしたい。ということで、テキストマイニングを使ってやる方法を考えてみた。方針は以下の通りである:

  • 自分が今までに書いたすべての(英語)の文書を解析して、品詞ごとに出現回数でソートする。
  • つぎに、自分の所属するコミュニティの文書(たとえば自分がよく参加する学会に掲載される論文など)をなるべく大量にあつめて、同じように品詞ごとに出現回数でソートしておく。
  • 両者を比較して、そのコミュニティでは使用頻度が高いにも関わらず、まだ使ったことのない単語を抽出して自分専用の「単語集」をつくる。

こうやって抽出された単語集を勉強すれば、一般的な単語集を使うよりも効率がいいのではないだろうかという目論みだ。対象となる分野を選んでいるのは、たとえば情報科学で使われる単語と、政治学で使われる単語は傾向も違うだろうから、なるべく自分が書きそうな分野の語彙を増やすのが得策ではないかと考えたわけだ。

実際にやってみた。実現は簡単なrubyスクリプトと、既存のTextTaggerという形態素解析(品詞解析)ソフトとの組み合わせである。インストール方法は後述する。

同じファイルが異なる形式で保存されている場合も構わず調査対象としていたり、PDFをテキストにしたときに正しくテキストが抽出されていない場合もあるので、マイニングの精度はまだ未検証だが、 私の全論文テキスト(LaTeXだったりwordだったりPDFだったり)から抽出された動詞、形容詞、副詞、名詞と、学会(2013年のCHI, UIST, ISWC, ITS, Ubicomp の電子予稿集に含まれているファイル)から抽出された動詞、形容詞、副詞、名詞の数と比率は以下のようだった:

動詞 形容詞 副詞 名詞
自分の文書 1467 1857 548 3750
参照文書 4123 6704 1596 12618
参照/自分 2.81 3.61 2.91 3.36

意外だったのは、形容詞の語彙数が、自分と学会論文全体とで結構開いていること(3.61倍)。名詞よりも開きが大きい。ということは、形容詞をより集中的に勉強して差を縮めると、もっと表現力のある英文が書けるようになるかもしれないということだろうか。

上位にくる単語はだいたい予想通りの感じになっている:

動詞(自分): be, use, have, sense, show, ...
動詞(参照): be, use, have, do, provide, ...
形容詞(自分): such, other, physical, tactile, mobile, ...
形容詞(参照): such, other, different, social, mobile, ...
副詞(自分): also, not, as, however, more, ...
副詞(参照): not, also, as, more, however, ...
名詞(自分): device, user, system, information, example, ...
名詞(参照): user, participant, system, design, time, ...

さて、このようにして抽出された「私が使っていないが私が関係する分野での使用頻度が高い」単語集は、以下のようになった。見るとそんなには難しい単語がないので自分の語彙がないことを露呈している感じだが...

動詞:

validate, impact, fund, analyse, uncover, debug, maximize, mitigate, earn, quantify, outperform, replicate, customize, empower, forage, contrast, recognise, discard, tackle, craft, ...

※ analyse, recognise は、それぞれ analyze, recognize を使うようにしているからだろう。ちなみにvalidateは参照文書中のランキングでは352位。

形容詞:

mean, domestic, false, persuasive, challenging, ethical, demographic, inherent, fine-grained, median, comprehensive, playful, reflective, salient, semi-structured, user-defined, longitudinal, interpersonal, narrative, ethnographic, ...

※ なんと統計の基本用語であるmeanとかmedianを使っていない.. 語彙力というよりも定量的ユーザー評価をしない論文ばかり書いているのがばれてしまっている..

副詞:

interestingly, empirically, critically, truly, emotionally, Nonetheless, seemingly, apparently, last, nowadays, aloud, accidentally, quantitatively, upwards, subjectively, progressively, marginally, aesthetically, severely, ...

※ 興味深いことに、interestinglyを使ったことがないらしい。

名詞:

sustainability, assessment, narrative, risk, persona, bias, provider, dog, truth, gas, planning, garment, subset, stakeholder, diversity, bus, therapist, textile, experimenter, interviewee, ...

※ これはCHIの中でもエスノグラフィー系の論文や環境もので使われている語彙かもしれない。

インストール・利用方法(MacOSでのみ確認)

スクリプトのダウンロード:
$ git clone https://github.com/rkmt/vocab.git

vocabというディレクトリが出来る。

品詞判定ソフト(TreeTagger)のインストール:

vocab/tree-tagger というサブディレクトリに移動して、
http://www.cis.uni-muenchen.de/~schmid/tools/TreeTagger/
から tree-tagger-MacOSX-3.2-intel.tar.gz, tagger-scripts.tar.gz, install-tagger.sh, english-par-linux-3.2.bin.gz

をダウンロードし、

$ sh install-tagger.sh 

を実行する。これで

$ echo “A quick brown fox jumps over the lazy black dog.” | tree-tagger/cmd/tree-tagger-english

などとすると品詞が解析されているのがわかるはずだ。

pdftotext のインストール:

PDFファイルからテキストを抽出するためにpdftotextをインストールする。
これはxpdfパッケージに含まれているので、homebrewを使っている場合は

$ brew install xpdf  

でインストールする。( /usr/local/bin/pdftotext が出来ているはず)

文書解析

以上の準備ができたら、vocabディレクトリ上で

$ ruby vocab.rb  自分の文書ディレクトリ 参考にしたい文書ディレクト

で解析を開始する。解析可能なファイルタイプは .tex, .txt, .pdf, .doc, .docx 。サブディレクトリ内に置かれたものも階層的に解析する。

結果は yourV.txt, yourA.txt, yourAdv.txt, yourN.txt がそれぞれ自分の文書から抽出された動詞、形容詞、副詞、名詞の頻度順のリスト、refV.txt refA.txt, refAdv.txt, refN.txt が同様に参考にした文書から抽出した頻度順リストになる。自分が使っていない中でランキングの高い品詞が、suggestions.txt にセーブされる。