doiの連絡帳

2018-04-09

ふと今年になって記事を書いてないな。

23:00

誰も見ちゃいないのわかってるけど、3月のIOT/IA/SITE研究会でしゃべった内容でも貼っておくか。

https://drive.google.com/open?id=14L99LArEdS7n_5N3H4bGxlUaiX59-Osm

IOT研究会での発表。128ノードGPUサーバの立ち上げの体験談みたいな話。GPUたくさんあるといろいろはかどりますが、裏方は裏方で大変です。

https://drive.google.com/open?id=1dMJByrgHykeI6K0esZhCdUPu9DkW80kB

SITE研究会での発表。みなさんAIに関する議論をたくさんしていますが、AIってソフトウェアだということを忘れていませんか? という話。

ただ、このスライド、作成途中でPCがロックしてしまい(bitlockerがlockoutしたんだけど原因不明)、そのままgoogle driveにbackupしてあったものを出してるだけなので、ところどころ微妙です。まあいいけど。

発表時は他の方のPCとか、しっぽ借りてiPadとか使ってのりきった。その節はありがとうございました m(_)m > まつもとりーさん、すりー先生

2017-12-30

2017年まとめ

00:51

総括

子供が5ヶ月〜17ヶ月の期間なので、それだけ変化が激しい時期でもあります。子供の変化に対応していくだけでせいいっぱいでした。その上後半になるにつれ仕事もばたばたしてしまい。最近は「お仕事があるのは人生の喜び!」と前職で培った社畜力と高度雑用人材(サラリーマン)としての雑用力を遺憾ながら如何なく発揮しております。

続きを読む

2017-11-17

「AI」のいくつかの側面

12:27

そのうちちゃんと書きたいこと。

AIネットワークなんちゃら、を代表するような、AIを論じてる人達のAI論に混乱を感じることが多々存在する。彼らがAIに対して理解している側面には以下の3つの側面があるのではないか(仮説)。以下、論旨をクリアにするため、あえて*1ソフトウェアという用語を使う。

1. ソフトウェアが「学習可能である」側面

2. ソフトウェアが「統計的動作である」側面

3. ソフトウェアが「相互に接続されている」側面

1については、学習可能なソフトウェアと学習しないソフトウェアとが存在しうる。例えば深層学習を用いた自動運転にしても、一般には学習済みモデルを展開するだけで、路上での出来事を学習することはないだろう*2。一方、パーソナルサポートエージェントは、ユーザの好みを学習できないといけない。学習する、ということ自体はamazonのレコメンデーションエンジンでもやっているので、その延長線上にあると思えば理解しやすいだろう。

2については、ソフトウェアの挙動が非線形で予測が難しいという点と直結する。一般ソフトウェア*3入力Xに対して確定的に出力Yが得られるものと信じられている。そして、そこに至るステップは全て追跡可能だと信じられている。ただし、深層学習だろうと何だろうとソフトウェアであることはかわらず、複雑になれば追跡が困難になるのは古典的なソフトウェアといえど同じだ。一体何人のWindowsユーザがWindowsカーネルの挙動を予測可能だろうか? 突然CPUを全部使ってしまったり、Blue Screenで止まったりする挙動があったとして、Windowsカーネルは人間が作った古典的ソフトウェアだからこれらは完璧に予測可能である、と信じているソフトウェア技術者は一人もいないだろう。

3については「AIネットワーク」なる概念固有のものなのだが、AI相互通信をすることで相互強化を行うという話らしい*4。しかし、現時点で、通信相手を完全に自律的に発見して通信を行うプログラムや、それを作る方法は知られていない*5。むしろ相互接続されたソフトウェアシステムという意味では、AIとみなせるか否かは問題の発現に関係ないのではないか。有名な事例ではFlash Crashと呼ばれる自動トレードにともなう株式市場の瞬間的な騰落などが存在し、こういった相互関係の予測が困難である、という意味において現実的な問題である。

土井は、「AI(という特性を備えるソフトウェア)は全く脅威にあたらない」という立場に立つつもりはない。検討が必要な脅威は確かに存在する。だが、国内で声のおおきい人々の雑な議論にはそろそろうんざりしている。

*1ソフトウェアでない「AI」については論点にないとして

*2:学習には重みの更新という高負荷処理が必要であるため -- もしかしたら充電中などにログからヒヤリハットだけ学習する、とかはできるかもしれない。

*3宇宙線によるメモリ化けなどの特殊な場合を除いて

*4:正直よくわかっていない

*5:いわゆるP2Pネットワークがそれにあたる、という意見もあるかもしれないが、P2Pネットワークは一定のルールに従って構造をトラバースしているだけであり、ルールやAPIの発見の観点からは完全に人間が設計した範囲であり、この文脈においては自律的とはいえない。

2017-08-14

一方的に書かれるのも気に入らないな

13:06

http://www.nikkei.com/article/DGKKZO19876010Q7A810C1KE8000/

一部引用

有識者会議で筆者がお叱りを受けたのも、AIに対する「悪評判」を避けたいという企業の立場があるからであろう。しかしもし将来、本当にAIが暴走したならば、大衆の懸念を無視した立場について企業は、どのような「謝罪」を述べればゆるされるであろうか。「まさかそんな事態になるとは思わなかった」といった「言い訳」に、大衆やマスコミが納得するほど甘くはないであろう。

大衆の懸念であるかどうかで検討するかしないのか決めるのが「有識者」の仕事だと思ってるのかこの人は。

区別可能なものを区別せず雑に扱うあなたの論法がデタラメだったから叩いたんですけど、まだご理解頂いていないのでしょうか? 心配だ心配だ、といって何の実効性もない主張を入れるのを阻まれたからといって、『どのような「謝罪」をのべればゆるされるのであろうか』とか恨み言をいうこの人もこの人だが、この人にこんな原稿書かせる日経日経だよ...

安全性に関して、AIが暴走するのではなく、AIが制御した何かが暴走するのであって、それは人間が暴走させるのと本質的には大差はない(物理世界に限っては -- 金融も含めた論理世界はまた別)。このような場合『ストップボタン』をつけるべきは「AI」じゃなくて手足(システム)のほうだということをようやく改訂版のガイドラインでも書いてもらえたと思ったのに、この人あいかわらずこんなこと言ってるんですか、進歩ない人だなぁ。自分がこれを言った、という功績を作ってポジション確保したいだけなんじゃないかと、氏のページとか見てても思います。

とかくこの人があの場で必要以上の発言権を持っている限り、総務省主導のAI政策に信用が置けない、という判断は据え置きで。

あ、個人の意見です。

2017-06-24

人工知能と黒魔術

09:46

AI、あるいは人工知能ということばには、まるで魔法のようでどこかしら夢がありますよね。最近気がついたのですが、もしかしたらその「夢を見せる力」が、人の認知能力を鈍化させていて、人工知能に関する議論が迷走するのではないかと、最近思っています。あるいは、平均程度に知的(雑な表現)であれば、誰でも人工知能について語れると思うのでしょうか。関係あるかないかはわかりませんが、教育問題について教育の専門家でもない人が口をはさみたがる問題と似ている気がします。大人であれば教育された経験はあるし、大人であれば平均程度には知的である。だが、教育の本質について語るには平均的な経験ではまったく専門性が不十分ですし、人工知能の本質について語るには、平均的な知的レベルでは不十分なのではないかと、思っています。

例えばこんなニュースがありました。

エラー|NHK NEWS WEB

そして、国の研究機関を中心に開発を進めている日本語の音声対話システムを民間企業に公開し、対話の内容などのデータをできるだけ多く集めて、システムを高度化する仕組みが必要だと提言しています。

また、現在の音声対話システムは、商品の注文など事前に答えを用意できる内容にとどまっていることを指摘したうえで、どんな質問にも回答でき、利用者に追加の提案ができる世界最先端のシステムを開発すべきだとしています。

これは、音声対話システムが海のむこうで大流行しているので、日本でも独自のものを作ろうという話でしょうか。どうも総務省情報通信審議会技術戦略委員会、あるいは次世代人工知能社会実装WG*1じゃないかという話なのですが、役所のタテマエでこういう話になってしまうのか、本気でこういうことを考えているのかはよくわかりません。目標として持つこと自体は大切だと思うのですが、せめて政府委員会にはある程度戦略を持っていただきたいなと思うのです。先日の総務省AIネットワーク社会推進会議にしてもそうなのですが、話を聞いても戦略が見えないのですよね。全ての不都合を「AI」という言葉の特異点の中にとじこめて理解を進めないことを良しとする、失礼ながらそんな雰囲気を感じてしまいます。そんな中「行政リテラシー」と言われても、ねぇ。

すみません、少し話がそれました。

ところで、先日土井も微力ながらお手伝いしていたポナンザの山本一成さんが興味深いことをおっしゃってました。

「人工知能と黒魔術」(視点・論点) | 視点・論点 | NHK 解説委員室 | 解説アーカイブス

私たちが普段の教育で触れる科学は、

基本的に還元主義という考え方でできています。還元主義は「物事を分解し、細部の構造を理解していけば、全体を理解できる」という考え方です。

科学者でなくても、この考え方に賛同する方は多いと思います。

たとえばあなたが時計というものを完全に理解しなければならないとしたら、まずすべての部品を分解して、歯車やゼンマイのしくみを知り、それぞれの動作を把握するはずです。

そして今度はそれらの部品を再度組み立てます。そうした作業をへて、時計という機構は理解できるようになるのです。熟練の時計職人であれば、時計がどのようなしくみで動き、どうすれば性能を上げることができるのかを明確に説明することもできるでしょう。

しかし知能を理解するには、この還元主義的な考えではうまくいきません。

(中略)

別分野の科学者にそうした状況を解説したところ、「人工知能は科学ではない」と言われたことがあります。もちろん、その人は人工知能のことを批判する意味で言ったわけではありません。要素を切り分けて個別に理解していくという、還元主義という伝統的な科学の思想とは相容れないことを指摘したのです。結局、知能というのは隠された方程式があって、それを解き明かすのではなく、どこまで行ってもモヤモヤしたよくわからないものであることを受け入れるしかない。それが今の人工知能研究者たち・エンジニア達の実感なのです。

まったくもっとてさすが山本さん、という話なのです。実は現時点では「人工知能」あるいはそれを構成する各種機械学習技術は、高度化すればするほど、「なぜこのように動くのか?」が「仮説」の域を出ないようです。特に深層学習についてはパラメータ数が数百万以上にも及ぶ*2ものもあるので、これを解析的に説明するなどということは人間の能力の範囲外でしょう。定性的な分析についてはLinの仮説*3などがもっともらしい仮説として知られています。

こういった「技術」を前にして、「黒魔術」的なイメージを持つのはまったくもっって正しくて、土井も(PFNの)松元さんが構築するニューラルネットワークの見事さには魔法でも見るかのような気分になってしまいます。説明聞いてもなぜそうなのかよくわからないですし、直観的な部分もおおいように思います。

いきなり話が飛びますが、深層学習、あるいは人工知能がどのように働くかを理解することは、限定的、あるいは一般的な意味での「ものごとの理解」に対する研究に対応すると考えています。研究の対象が実体がなく、「理解するということ」そのものなので、科学としてメタな部分が出てしまい「黒魔術」になってしまう。そして「ものごとの理解」を理解するための認知プロセスは、我々が一般生活している時に要求される認知プロセスととてもよく似ているため、一見誰でも議論できるような気がしてしまう。その結果、議論の本質に近づけば近づくほど一般人の議論が本質からずれてしまい、その矛盾が「AI」ということばに凝縮されているのが今の議論なんじゃないかなぁ、とか。

うーん、なんかうまくことばになりませんね。困った。

社会全般として、ここから先に進むために2つの考え方があるのではないかと思っています。

1つは、きちんとメタ認知を鍛えて、「ものごとの理解」に対する議論ができるだけの基礎体力作りを行うこと。もう1つはもっと単純に「使えればいいでしょ」と割り切って黒魔術だと思って使うこと。どちらのアプローチも排他的ではありませんが、社会としてかけるべきコストの方向性が変わるんじゃないかなと思います。1つめは単純に教育のコストが高いですし、2つめのアプローチは「認証」あるいは「検証」が重要になります。「黒魔術」(より正しくは「錬金術」)の一部が検証にたえて「化学」になったように、「深層学習」「人工知能」も検証のプロセスを経由して新しい「学習に関するメタサイエンス」を生み出すのではないか、という論もあるようです。

いずれにせよ、「AI」という魔法の言葉に困難を全て押し込めて議論した気になって、そんな議論をもとに政策を進めようとするのは、勘弁して頂きたいものです。

*1総務省|情報通信審議会|次世代人工知能社会実装WG

*2:Resnet-152で6千万パラメータぐらい?

*3:世界は本質的には低次で局所性がありマルコフであるからであるとする仮説。詳細は no title (pdf) あたりを見てください。