Hatena::ブログ(Diary)

worldwidewug #3 このページをアンテナに追加 RSSフィード

April 12(Tue), 2016

ドスラク語

月曜・火曜と、ドスラク語で有名なデイビッド・ピーターソンさんがトークに来てくださいました。ドスラク語というのはゲーム・オブ・スローンズというファンタジーフィクションで使われている架空言語です。その言語製作者によるトークということで、かなり大盛況でした。

架空言語を創造すること自体そもそも驚きなのですが、言語学者が活躍できる分野がこんなところにもあるというのは目からうろこです。

デイビッドは言語学のエキスパートでもあり、世界中の言語の音韻論、形態論、統語論にも精通している(もちろん日本語も)ので、彼が生み出す言語はかなりリアルです。さらには文字(アルファベット)も世界観やキャラクターに応じて創りだしている*1など、自分が今までであった中で一番言語マニアな人だと思いました。

中でも特に驚いたのは、仮にこういう言語があったとしてそれが数百年使われたとするなら、こういう変化(発音、文法等々)が起こるはずだというところ(言語進化の観点)まで考えているそうです。言語を作るというのはアートに近いのかもしれません。細部の緻密さ、美しさ、言語としての(不)整合性はもちろん、遊び心を入れることもできますし、なかなか奥が深そうです。日本でもポケモンの名前とか、ドラクエの呪文とか、単語レベルの話は聞いたことがありますが、文法まで踏み込んでいるような例はあまり聞いたことがないような。。。


運良く30分ほど1on1でお話する機会があり、現代英語における言語進化の例*2や、言語として成立するために最低限必要な要素(≒品詞)は何かといった話など、言語のディープな話*3を色々とすることができ、大満足でした。

*1:例えばこんな触手を持つ宇宙人はこんな文字を書くはずだ、という感じ。

*2:スポーツのリプレイ画面で解説者が「〜だったら〜だっただろう」と言う際、仮定法を使わず現在形を使っているそうだ。しかもこの現象が見られるのはスポーツドメインだけらしい。

*3:もちろんディープラーニングではない

April 08(Fri), 2016

久々のstudent host

今日はStudent hostとしてSasha Rushさんをホストさせていただきましたが、とてもフレンドリーで良い方でした。頭がきれるのはもちろん、プレゼンもうまくて勉強になります。

Student hostは久しぶりという感覚だったのですが、先日松本先生をhostしたばかりだったことを思い出しました…。

April 07(Thu), 2016

春は色々芽が出る季節

3月上旬までは、何をやってもうまくいかず、アイディアも枯渇気味だったのですが、下旬からここ最近にかけて、なぜか色々面白そうな良さそうなアイディアがいくつが湧いたり、周りからディスカッションしようと言われたり、一緒にプロジェクトをやろうとなったりすることが多く、春らしい感じになっております。何がきっかけだったのかはわかりませんが、悪いことではないので、とりあえず乗れる限り乗ってみることにしています。もちろんすぐに成果が出る話でもないので徒労に終わるものも多いかもしれませんが、自分の嗅覚的にはどれも悪くないテーマやアイディアなので、まずは欲張って全部何かしらの形でアウトプットまで持っていければと思います*1

ただ問題なのは、どのネタも新規性はあるもののおそらくshort paperレベルという点。Longやジャーナルレベルで確実にacceptを得るには、プラスアルファが必要な気がしています。結局のところ、誰かの目に止まりやすくかつ引用してもらえるような成果あればshortだろうが何だろうが、媒体は何でも良いのですが…。

*1:実際うまくいくのは半分あれば良い方だとは思いますが…

April 05(Tue), 2016

ようやく

Conditional acceptanceのrevisionが無事に審査を終えてようやくacceptedとなりました。なんだかんだでこのプロジェクトは1年という長丁場となりましたが、色々と学ぶことも多く、無事アウトプット*1まで漕ぎ着けることができて一安心です。実はrevisionの過程でざっくりと削った部分があり、by-productとしてどこかshortにでも出せればと思っています。今回書いたのはTACLというジャーナルの論文なのですが、(他のTACL論文を)読んだり、自分で書いたりして感じたことをメモしておくと、TACLではlongペーパーよりもやや大局的な視野(あるいは斬新な発想)とshortペーパー2~3本分くらいの実験が内容的にも分量的にもちょうどいいかなという印象です。レビューも*ACL系のconferenceに比べてかなり丁寧で参考になりました。Rejectionだと最低3ヶ月はresubmitできないのは痛いですが、通ったりダメだったりした論文を読んでいれば、ボーダーラインの感覚はつかめる気がします。(これはconferenceでも学振でも、何にでも通じるものだと思いますが。)


自分が多少ながら文系出身の恩恵として感じているのは、論理的(+印象に残るよう)な文章を書くスキル*2です。論文自体は実は他愛もない内容だったりする*3のですが、いかにそれが重要な問題か、それをどのように解いたのか、なぜその方法なのか、云々をしっかり順序立てて、(しかも読者の印象に残りやすいように)説明するスキルは結構馬鹿にできないなと思います*4。せっかく内容が素晴らしくても伝え方が下手だと、とてももったいないです。そういう意味では、TACLに通った論文はどれも自然言語処理分野の論文における書き方のお手本のようなものなので、「どういう書き方をしているか」に着目して読んでみるのもいいと思います。

*1:しかも初ジャーナル

*2:不真面目な学生でしたが、それでも学部の時には課題として様々な哲学のテーマ(美学、神学、古代哲学、などなど、内容はすでに忘却の彼方ですが)について小論を書く機会が多かったので

*3:今回の論文はまさにそんな感じです。

*4:とはいえ、自分がここに書いている日本語は、日を追うごとに不自然になってきているような気がします。

March 31(Thu), 2016

分野が違えばお作法も違う

今日は主に意味論リーディンググールプでの論文紹介の準備など。

今回の課題論文は意味論・語用論関係で、主にPresupposition projectionとAccommodationの話。*1

これまで読んできた言語哲学(D・ルイスやストルネカー)からの流れで、現在は言語学(意味論・語用論)の研究者(たとえばHeimとか?)が主に進めている?トピックのようです。とはいえクリプキの2009年の論文が引用されているのには驚きましたが。


先学期心理言語学のリーディンググループで論文紹介をしたときも、NLPとの論文の違い(数十ページという長さ、説明の粒度等々)に戸惑いましたが、今回は今回で論文の書き方の違い(長さ、色々可能性はいうけどはっきりした結論を言わない、例文選択の妙、例文依存度の高さ、云々)に戸惑っています。自分で書くことは当面ないと思いますが、とりあえずこの手の論文も読めるようになっておいて損はないと信じたいところです。


読んでいて思ったのは、Presupposition Projection(前提投射)やAccommodation(調節)の問題は人工知能分野におけるフレーム問題に通じるところがあるという点。前者はどちらかというとどうやってpresuppositionを導出するか、後者はそれらをどうpruningするかという点に重きが置かれているように感じます。(どちらも探索という意味では共通していると考えています。)

例えば、「遅刻してすみません。私の車がパンクしました。」という発話を理解するということは

「発話者は車を持っている」 (presupposition projection)

「発話者はその車を通勤に使っている」(implicature)

「車は通勤の道具である」(implicature? もしくはAIだとcommon senseに分類されるようなもの?)

「車はパンクすると動けなくなる」(同上)

等々を、on the flyで理解する、もしくは事前に理解していたことを暗に求めることになります。

自然言語処理では(難易度が高すぎるため?)これらの問題はあまり取り上げられません*2が、哲学者・言語学者がコツコツと積み重ねている知見をうまく活かせればいいなと思っています。用語を調べるため色々とググっていたら日本語のスライドが出てきて*3驚いたのですが、いつかこの分野の研究者とも共同研究してみたいなと一方的に思ってたりします。

Pragmatics (Oxford Textbooks in Linguistics)

Pragmatics (Oxford Textbooks in Linguistics)

*1:先々週の強化学習とは、違うリーディンググループです。

*2:textual entailment recognitionが一番近いでしょうか。

*3:とてもわかりやすい! http://web.mit.edu/ysudo/www/pdf/Lecture3.pdf

March 24(Thu), 2016

まだまだ先は長い

今日はNLPのリーディンググループで、(いつものように?)ジェイソンの話が大いに脱線したのですが、それがとても面白かったです。Prologから始まり、一昔前?のFuzzy Logic、最近のProbabilistic Programming(Graphical Model)の話がつながっているというのは目からウロコでした*1。今までそれぞれの知識が独立にあったのですが、それらが線でつながった感じです。知識の深さ、頭の回転、巧みな例示など、いつも勉強になることばかりです。自分ももっと知識の幅を増やし理解を深めることで、NLPの諸問題を俯瞰的に眺めてみたいものです。日々精進あるのみ。

March 11(Fri), 2016

溝を埋める

今日のSemanticリーディンググループでは、デイヴィット・ルイスのScorekeeping in a Language Gameを読みました。先週のロバート・ストルネカーのCommon Groundに引き続き、今回も言語哲学色の濃いペーパーでした。どちらも色々と示唆に富んでいるペーパーではありますが、NLPのタスクとして落としこむのが大変そうです。言語哲学系の論文は問題提起こそ上手いですが、解決策自体は漠然としたものしか提供してくれない*1、その辺りに溝があるように思います。一方NLPサイドでは、その面白い問題提起に応えられるようなデータがないというのが大きな障壁になっているように感じます。その溝をうまいこと埋めることができれば(あるいは埋まったように見せることができれば)面白いだろうなと思います。*2


あの日からちょうど5年が経ちました。

5年前はまだ奈良にも居なかったし、自然言語処理どころか、数学もプログラミングも素人状態でした。今振り返ると、あんな状態でよくこの道に挑戦しようと思ったなと、自分の無謀さに少し驚き呆れてしまいます。前が見えないからこそ「とりあえず行ってみようか」と思えたのかもしれません。今でもこの先がはっきり見えているわけではありません。なのでこれからも「とりあえずやってみよう」の精神で、毎日を大切に過ごしたいと思います。5年後はどこで何をしていることやら(少なくとも卒業して、どこかでしっかり働いていると思いたいです…。)。

*1:そこが難しいのですが。

*2:これをD論のテーマにするのは(うまくいく保証が全く無いので)ちょっと無謀かもしれませんが。