Hatena::ブログ(Diary)

shi3zの長文日記 RSSフィード Twitter

2016-12-07

新刊「はじめての深層学習プログラミング」本日発売!  希望する小中高の図書館に寄付します。 07:23

 ・・・というわけで、なぜか発売前から書評が出たり、読書メーターで「読了」ボタンが押されたり、いろいろザワついている新刊「はじめての深層学習プログラミング」ですが、いよいよ本日発売です。



https://i.gyazo.com/5fb2966282f28c3a090a0616091381a5.png



 隣のオライリー本とのセット購入がオススメです。


 しかしよくよく考えると、僕みたいな地方出身の人間は、地方では新刊の発売日が守られたためしがないと諦めているわけですが、最近の事情は違ってきてるんでしょうか。


 だいたい、「発売日」の数日遅れで書店に並ぶことが普通だった気がします。


 そして紙の本というのはいつ触ってもドキドキしますね。まあ自分の本だけですが。


 僕が書く技術書としては、学生時代に書いた「Direct3Dプログラミングガイドブック」から数えて、およそ20年ぶりとなります(まあその途中でプログラムリストのある文系本とかいろいろ書いてますが)。



 そして作家(?)人生で初めて、あの名門、技術評論社から紙の本が出るということで多少緊張しております。


 本書の成立にはものすごく沢山の人々の協力とご支援がありました。基本的に僕は数学が苦手なので、尤度という文字が読めないレベルでした。機械学習に関しても門外漢で、まあ趣味でほそぼそとニューラルネットをいじっていたくらいで、本格的なニューラルネットを書けるようになったのは深層学習を始めたこの1,2年です。


 昔だったらとっくにプログラミングから引退してるはずの年齢の僕が、こんなに刺激的で新しいことを学ぶことが出来たのも、とても若くて才能に溢れた先生たちの温かい指導の賜物です。


 僕が技術書をあまりたくさん書いてこなかったのは、既に「知っている」技術を本にするというのはなかなか難しいからです。


 たとえば最初の本のすぐあとには、C言語C++言語の解説書を書くという企画がありました。ところが何年経っても書けなかった。分かりきっていたからです。分かりきっていることを説明するのはとても難しいのです。


 おもえば当時のDirect3Dは謎が多すぎました。ドキュメントもよくわからないしサンプルは複雑すぎ。あの頃は誰もが「いいからはやくゲームを作らせてよ」と思っていた時代です。


 それを四苦八苦しながらどうにか乗りこなしていく過程が、僕にとっては大きな冒険で、その冒険の記録として技術書が出来た、と考えています。入門書を書くには、まさにその生々しい、技術的冒険の経験がホットなうちでないと難しいわけです。


 深層学習に関して、この出来の悪い生徒を根気強く指導してくれたのは、まだ20代の若くて才能あふれる先生たちでした。そこで学んだことは、僕にとっては全く未知の、そして新たなる技術的冒険でした。実際には、やったあとだからわかりますが、数式で表すと複雑そうに見えても、プログラムに落とすとそんなに難しい話ではありません。数学が苦手な僕は、プログラムに落として初めて理解できるということが数多くありました。実際にはかなりシンプルな計算の繰り返しなのです。


 けれども、そんなシンプルなプログラムが、まるで生き物のようにデータを学習し、生成し、時には伸び悩み、時にはブレークスルーを起こしていく様を眺めていると、圧倒的に知的な興奮がふつふつと湧いてきます。


 この世界の面白さ、素晴らしさを手っ取り早く、一人でも多くの人に伝えたい。今回の本は、なんと僕としては初めての「持ち込み企画」でした。


 自分の勉強メモをベースに丹念に原稿に落としていき、原稿に落としながら出版社を探す、というスタイルでした。せっかくメモをするならみんなが読めるものにしたいし、そうすればもっと沢山の人にこの素晴らしくも魅力的な世界を実体験として知ってもらえるだろうと考えたからです。


 それと並行して、人工知能の最先端の研究者たちに生の声を聞きに行き、別の本としてまとめることができたのは、本当に幸運でした。


 この本のためのインタビューをしたり、この本のために裏側で技術的に検証したりといったことを交互に行い、技術的に得られた知見は、技術書の方に纏めることで効率的に本の形にすることができました。


 既刊「よくわかる人工知能」と、新刊「はじめての深層学習プログラミング」は双子の兄弟みたいな本で、同時に執筆され、互いに影響を与えあっています。そう、まるで量子もつれのように。


 従って、文系に近い人が「はじめての深層学習プログラミング」を読むことを最初から想定していました。具体的には、文化系出身のゴトーが読んである程度は理解できないまでもプログラミングに落とせる、というところを目指しました。


 ゴトーは、うちの会社にきた2年前からプログラミングを見よう見まねで初めて、今は子供向けプログラミング教室や、ドワンゴの主催するN高校の講師として働いています。


 彼に理解出来るということは、たいていの文系の人が、興味を持って勉強すれば十分ついて来れるような内容であることが重要です。


 すると面白いことが起きました。


 また別の文系の社員がAIプログラミング教室を見学していて「僕にも本(の下書き)を読ませてください」と言ってきたのです。



 どうも人工知能というものは、文系理系関係なく、興味の対象となるものであり、プログラミングにさえ挑戦してみたいという気持ちを掻き立てるようです。


 正直に言うと、この世界の動きが早すぎて、もっと掘り下げたかったところ、泣く泣く浅い説明に留めたところもいくつかあります。


 けれども完璧よりは完了を優先すべし(Done is better than perfect)という言葉もありますし、まずはいち早くこの素晴らしくも面白い世界の入り口に立っていただきたい、そんな思いで刊行させていただきます。



 また、本書ですが、平易な言葉で書いた最先端の技術書であるという性格を考え、全国の公立学校のうち、希望する小学校、中学校、高校には本書「はじめての深層学習プログラミング」と「よくわかる人工知能」をセットで、僕から個人的に寄贈させていただきたいと思います。但し、勝手ながら先着10校までとさせていただきます。


 なにかの偶然でこれを図書館で手にした子どもが、突然人工知能のプログラミングに目覚めたら、面白いと思いませんか?


 本書の寄贈をご希望の方は、shimizu@uei.co.jpまでメールをいただければ対応させていただきます。



 また、電子版は出るのか、という問い合わせを頂いているのですが、技術書というのはあまり電子版で読むには向いてない、というのが僕の基本的な考えです。


 PCの前で見比べながらやるわけですからね。


 でも、よく考えるとそれすらもiPadでやるんだとかKindle PaperWhiteで読むんだと言われると、まあそうかもしれません。


 と思ったら、電子版も出てました。



 というわけでいよいよ本日から発売です。

 よろしくお願いいたします。


 また、読者の皆様向けの追加情報をお届けするFacebookグループはこちらです

https://www.facebook.com/groups/first.deeplearning.programming

2016-12-06

ニセAI 「君の名は」フィルタであるEverfilter、新海誠も東宝も許可を出してなかった 07:09

どーも胡散臭いなあと思ってたら、やっぱりか

画像盗用で謝罪した「君の名は。」風写真加工アプリ「Everfilter」 新海誠監督の所属事務所は「許可を与えていない」 - ねとらぼ

http://nlab.itmedia.co.jp/nl/articles/1612/05/news127.html


これだと、中国国内で許諾を取っていたというのがまるごと嘘になる。

もしかすると僕らの知らない中国国内の法律で、検索結果として出てきた画像は流用OKとかになってるならそれはそれで問題だけど。今は中国も知財に厳しくなってきているから、上場企業が堂々と他者の著作権を侵害していることになる。


鈴木健の言うようにTopBuzzが中国の巨大企業グループの一員だとすると、大問題だな。


Everfilterを作ったTopBuzzの所属するグループは、Toutiaoというニュースアプリの会社もやっていて、そこの上級副社長が今日本に来て京都で開催されている「Infinity Venture Summit」に登壇してる。

Infinity Ventures Summit on Strikingly

http://ivs.strikingly.com

Infinity Venture Summitは、日本中のIT企業の社長が集まるイベントで、最近は分裂騒動があって衰退したとも言われるが、メディアの記者も何人か言ってるはずなので、ぜひともJosh Liu氏のコメントを取ってきていただきたい。

no title

https://www.linkedin.com/in/xinhua-liu-b779223/

2016-12-05

まさかの新事実「Everfilter」は著作権者の許諾をとっていた!?(ただし中国側だけ) 16:08

 今朝のエントリを書き、朝イチで内閣府の委員会に出席するために移動していたら、鈴木健がとんでもないニュースを持ってきた。


 なんと話題のアプリ、Everfilterは、著作権者の許諾を取った上で、配布しており、新海誠ともコンタクトをとって、日本版では新海誠の絵は使わないことになっているのが、誤ってそのままになってしまっていたという驚きの見解を発表した。


 彼らは新海誠の絵を使わないバージョンを日本で展開するそうである。


https://i.gyazo.com/536fc4f8d7582a08efa2ec9aa76680f2.png


 なぜ画像なのか、と思ったのだが、コメントを見て気がついた。

https://i.gyazo.com/cbee001a56aff4ac11fe5dfe7eeea3a8.png

 世界中にユーザがいるため、日本人にだけ謝ればいいという考え方だ。

 しかも画像なら、最近進歩の激しいニューラル翻訳でもまだそう手軽には翻訳できないと考えたのかもしれない。


 いずれにせよかなり姑息である。


 鈴木健によると、Everfilterの開発元のTopBuzzは、中国の超大手企業(日本で言えばLINEとかGREEDeNAに匹敵する)らしく、ちゃんと権利処理してる可能性があると鈴木健自身が指摘した直後に、このようなアナウンスが出た。


 しかし、今現在、僕が試したところ、まだ新海誠の絵っぽいけど、そんなに新海誠の信者ではないから、どこの絵なのかまでは特定できない。

https://i.gyazo.com/6013748988f17800376992908a9f5ad8.png


 そもそも中国でだけ著作権処理をしているというのは奇妙な話だ。

 通常、この手の画像の流用は、著作者人格権の侵害であり、ふつうは権利を認めることはほとんどあり得ない。

 フリー素材とか、よほど特殊な場合を除いて、作家が意図を持って描いた背景を切り貼りして再配布するなど、作品の蹂躙であり到底許されるものではない。


 本当に権利は守られているのか、新海誠氏はほんとうに許諾したのか。

 今後もなにかニュースが入ってきそうだ

「はじめての深層学習」発売前なのに書評いただきました。そしてAIと剽窃について 08:18


 発売前なのに早速書評をいただきました。

 長年本を書いていますが発売前に書評を頂いたのは初めてです。

ジュンク堂など一部の大型書店では発売日より前に本が売られるのが普通なので、こういうこともあり得ないことではありません

発売前だったのですが、ジュンク堂書店池袋本店にふらっといったところ平積み(しかもラスト2冊だった)ので確保しました。DeepLearningなどの本はいろいろ読んだけど、非常実践的!とおもったのですよ。これは実践で使って、商品開発している清水さんならではないでしょうか。



(中略)



過去にいろいろな機械学習の本が出ていますが、Chainer / TenserFlowの使い分けについては自分で試してみる以外なく、そゆ意味では非常に実践的な本です。オライリーや、他から出ている本は、何故Sigmoid関数を導入しなきゃいけないのか書いてあるところまで辿りつくだけで決行なページが割かれているのですが、本書では「こうやるとダメでしょ?だからSigmoid関数つかうんですよ!」と書いてあり、その後に「Sigmoid関数でもダメな学習もあるでしょ!」と使い方に徹してします。助かります。


ただ、機械学習の基本的な知識なしでもできるようにした半面、体系的な知識が欲しい人向けには、オライリーなどから出ている本で基礎知識を確認してから読むと「ははーん、なるほど。Chainerではこうやるのか。」と分断された知識が1つになります。


書評: はじめての深層学習プログラミング 著者:清水亮 - yuuna log's 5th edition.

 栗田さんありがとう!


 というわけで、今週発売予定ですが、わりと売れてるらしいのでご予約はお早めに



 栗田さんの書評にあるように、「なんで?」という知識が知りたい人は他の本との併読をお勧めします。



 ↑これとかオススメですよ。



 まあしかしね、人工知能がなんでもできるようになってきてものすごい緊張感がでてきたよねー。

 そして一方でEverfilterみたいなインチキにも対応していかなきゃいけない。


 たまたまEverfilterは丸パクリだったからたぶん明確に著作権侵害と言えると思うんだけど、Welqじゃないけど多少のコンテンツの変更があったら現行著作権法では対処できないということに成りかねないわけで。



 次に問題になるのは、Deepartみたいに、元ネタが完全に消えてしまうけれども雰囲気は残るような作品の場合をどうするか。


https://i.gyazo.com/616f751a5786f0820fc2af8c78255efa.png


 左が生成画像、中央がコンテンツ画像、右がスタイル画像

 これはまあ、ぜんぜん違う絵だからあくまでも「ムンク風」になると思うけど


 ただ、もっと学習が進んでいけばもっといろんなことができるようになってしまうのは疑いようもなく。

 その問題に関しては先回りして議論しておかないと混乱が起きかねない。



 僕が思うのは、あくまでも主観的に「これは同じだろ、と思われたらダメ」としか実は判断できないのではないかということ。たぶん杓子定規なルールは作れなくて、まあ裁判官なり陪審員なりが「これは同じだろ」と思ったら同じものとして扱うようにしないといろいろマズい。


 ただ、もっと怖いのは、そういうコンセンサスにすると、「似てる」でもダメになってししまう可能性があるということ。


 たとえば田中圭一


田中圭一最低漫画全集 神罰1.1

田中圭一最低漫画全集 神罰1.1


 田中圭一は意図的に手塚治虫など他の人のタッチを真似してパロディとして漫画を描く。

 これは著作物として認められるのか、認められないのか。


 さらにいえば、日本には二次創作の文化があり、コミックアンソロジーなども堂々と出版されている背景がある。


 つまり法律的には限りなくグレーな部分だが、たとえば田中圭一の「三鷹の森の女子会」はこんな漫画だ。


https://i.gyazo.com/6c768abd13d344603e4aa56ba53bc4c1.png


 明らかに、ある作家のキャラクターをそのまま剽窃しているが、世界観を踏襲しているのでこれは盗作ではなくパロディとわかる。


https://i.gyazo.com/ccf1385f0bbd15a17d8ff438f3c389a4.png


 じゃあこれを許すのか、許さないのかというのは実は難しい。

 どうみてもドラえもんだが、どう見てもドラえもんじゃない。


 単にこんなキャラクターには誰も愛着を持たないから著作物としては無価値だが、仮にこれに人気が出てしまったらどうするのか。



 著作権に多少は敏感な人でも、無頓着に使っているのがフォントである。


https://i.gyazo.com/e9e16972b69360d6a254fcbdf26d4219.png


 上の2つのWindowsの書体の違いが分かるだろうか?


 どちらがより美しいと思うだろうか?


 少し意地悪なクイズだが、これはフォントを扱う人が最初に出くわす関門でもある。

 正解は、上がWindowsの標準書体であるArialであり、下がMacやiOSの標準書体であるHelveticaだ。


 Helveticaが作られたのは1957年、Arialが作られたのは1982年である。

 経緯は省くが、簡単にいえば、ArialはHelveticaのパクリである。


https://i.gyazo.com/a1ebde949a991c72073f64cca3c4862c.png


 その証拠にフォントを重ねると幅がピッタリと一致するように作られている。

 こんなことは、意図的にやらなければ絶対にそうならない。


 Helveticaは極めて美しいフォントで、ほとんど完璧なまでの美を誇っている。

 Arialは、Helveticaを開発したライノタイプ社にカネを払いたくない人が発明したコピーフォントで、それを採用したのがWindowsである。


 Windowsでは、フォントにHelveticaが指定されていると自動的にArialに変換されるという、信じられない実装が行われている。ビル・ゲイツがフォントにライセンス料を支払う価値を認めなかったからだ。


 つまりWindowsを日常的に使っていると、劣化コピーされたフォントを日常的に見ることになる。


 さて、現行法では、Arialは著作権侵害とは見做されない。

 でも不思議だ。


 重ねてみればわかるように、ArialとHelveticaは、99%くらいは一緒なのである。

 ArialがHelveticaの著作権侵害とならないよう"意図的に"字形を劣化させている以外は、ほとんど同じだ。


 Arialが許されるならば、たとえばEverfilterも新海誠の絵を反転させて縮小しているのだから多少は変形されている、と考えることもできてしまう。


 しかしEverfilterを許さないとするならば、Arialは何故許されるのか。


 実はArialは意図的にHelveticaの美しさをブチ壊しにするいくつかのフォントでエキスキューズしている。


https://i.gyazo.com/62f1c087993b42dc26b0b701d86be05d.png


 詳細のディティールをわざと変えているのだ。

 ただ、こんな小手先のごまかしだけで「違う著作物です」と主張できるのならば、ドラえもんの髭の数を変えれば誰でもドラえもんを使って良いことになってしまう。


 はてさて、AIの著作性を議論するということは、人間の著作性を議論するのとほぼまったくおなじフレームワークを使う必要があるのである。


 なぜなら、この場合、「誰(何)によって作られたか」が問題なのではなく、「あれとそれはどう違うのか、どのくらい違えばオリジナルと言えるのか」という問題になっているからだ。


 最後に、20世紀を代表する芸術家、パブロ、ピカソの言葉を引用しよう

Good artists copy. Great artists steal.

(良い芸術家は真似をし、偉大な芸術家は盗む)

2016-12-04

新刊「はじめての深層学習プログラミング」購入者の方専用のFacebookグループを作りました 08:28



 新刊、「はじめての深層学習プログラミング」、お陰様で発売前からバカ売れしてるらしいです。


 僕も今言っていて意味がわかんなかったんですけど、都内の一部大手書店には発売日よりも前に入荷してテストマーケティング的に売るらしいんですね。池袋ジュンク堂ではすぐ売れたようで残り一冊の写真をいただきました。ありがとうございます。

https://i.gyazo.com/dd06e0cbb5022e7fe1071fb4eea6dd79.png



 本書の特徴は、数式がほとんど出てこないところと、極力簡単に説明するということを最重視しているところです。


 下手するとプログラミングしない章もあります(CSLAIERというGUIベースの深層学習ツールの使い方の説明)。



 ということなんですが、なんと発売した時点で、Chainerのバージョンが1.18に上がっています。本で説明しているバージョンは1.14です。まあいまのところサンプルは動くと思いますが、サンプルが動かなかったり最新情報にアップデートしたりする必要性を感じたので、購入者の方のためにFacebookグループを開設しました。

セキュリティチェックが必要です

https://www.facebook.com/groups/first.deeplearning.programming/

 本書を購入していただいた方、予約していただいた方はぜひグループに入っていただければと思います。

 

Everfilter は本当にディープラーニングを使っているのか? どうやって? 08:06

 Everfilterという写真加工アプリが話題になっている。

 ディープラーニングを駆使して写真を「アニメ風」に加工するというものだ。


 実はひょんなコトからアニメっぽい絵をディープラーニングで出す、ということにはいろいろ関わっているので本当にできるなら面白そう、と思っていたのだが・・・

#everfilter が流行ってるようだけど、これは確実に著作権侵害だと思うのよ。ディープラーニングとか言うけど、新海監督の背景全部覚えてる僕にはどれもこれも新海監督の描いた背景との合成であることがすぐに分かってしまうよ。

やっくんさんのツイート: "#everfilter が流行ってるようだけど、これは確実に著作権侵害だと思うのよ。ディープラーニングとか言うけど、新海監督の背景全部覚えてる僕にはどれもこれも新海監督の描いた背景との合成であることがすぐに分かってしまうよ。 https://t.co

https://twitter.com/rakynet/status/805069958212243456


 こちらのツイートを見ると、なるほど、あまりにもそっくりである。


 ディープラーニングの場合、当然、学習した元のデータがなんであれ、元のデータに似てしまうものが偶然生成されることはあり得る。


 しかし日本の著作権法では著作物を人工知能が学習すること自体は合法であるため、その生成物に著作物の派生系としての明確な類似が認められるケースについてはまさに今、というか明日もやるが、内閣府で議論しているところだった。


 日本はコンテンツ立国であるため、アニメを始めとする著作物に関しては現政権も並々ならぬ関心を持っており、実際に知的財産戦略を承認、実行する政府の「知的財産戦略本部」は、本部長を内閣総理大臣、副本部長に内閣官房長官、知的財産担当特命大臣、文部科学大臣経済産業大臣となり、本部員は全ての大臣および有識者、という体制になっている。

知的財産戦略本部 構成員

http://www.kantei.go.jp/jp/singi/titeki2/pdf/meibo.pdf


 これは我が国が真剣に知的財産戦略に取り組んでいる証であり、有識者の意見は直接内閣総理大臣に伝えられ、その場で政策が決定するとても重要な会議体である。


 そして明日はこの知的財産戦略本部配下の各委員会の中でも特にAIによる創作物の知財をどのように扱い、保護するべきか検討する「新たな情報財見当委員会」が開催されるので、僕としても本当にこれがディープラーニングによるシロモノだったら、把握しておかなければならないと思って、日曜の早朝に眠い目をこすりながらこの文章を書いている。


 さて、僕の思う結論から先にいうと、「Everfilterはディープラーニングまたは何らかの機械学習手段を使っている可能性は存在するが、新海誠の著作権は侵害している」と思う。


 どういうことか。


https://i.gyazo.com/ea4186f998ce9bcb03c2fbb9b4855717.png


 ふつうに考えると、AIが完全に自動生成するというと上図のようなニューラルネットワークを想像する。

 そして現行法ではこれを取り締まることが出来ない。

 これはdeepart.ioなどのいわゆるスタイル転写と呼ばれる技術だ。


 ただし、これを作るためには、写真と、その写真をもとに描かれたアニメのペアを作る必要があり、これはとても労力がかかるのであまり現実的ではない。いくら中国人が沢山いるからといってそのレベルの暇人を集めるというのは容易では無いはずだ。


 ねぼけまなこで件のツイートをみた僕は、「議論の最中に厄介な事案が出てきてしまった」と思ったので飛び起きたのだ。


 しかしどうも妙である。

 件のツイートの画像を確認すると、おかしなことに気づいた。


https://i.gyazo.com/83c6f48918bac95d0e49a32ebe1f3865.png


 Everfilterから生成された雲と、新海誠の雲がどうみても「完全に一致」してるのである。

 普通に考えるとこんなことはまずありえない。

https://i.gyazo.com/585e0b45458850aff53cf9f4844481e7.png

 たとえば、DeepArtの場合、スタイル画像と元画像を使うが、生成画像はそのどちらとも違う。細部のディティールが残ることなどあり得ない。


 しかし、Everfilterの出力は明らかに新海誠の雲をそのまま(実際には左右反転して)コピペしているのである。


 どうしてこういうことがおきるのだろうか。

 さらにいえば、計算が速過ぎる。


 だいたい生成に1杪くらいしかかかっていない。いくらiPhoneが高性能になったといっても、PCでやっても相当な時間を要する計算が一瞬で終わるとは思えない。

 

 すると奇妙なことがわかった。

https://i.gyazo.com/122319f3f226902e9fb2be40c89d7290.png


 これは東京大学本郷キャンパスを撮影した写真である。

 元の写真はこれ

https://i.gyazo.com/cc757ec7e4a6320b8b977976ce63189f.png

 不自然なまでに空が新海誠である。

 東京駅丸の内駅舎を写した写真もこうなる。


https://i.gyazo.com/35f316fc0db2443227e334f893cdc176.png


 さて、他の#everfilterのツイートを見ていると、どうも地上のものが空にかき消されるような表現が多い。特にエッフェル塔スカイツリーなどの尖塔は空にかき消されている。これはどういうことだろう。


https://i.gyazo.com/6649db5a7125c823c994afbf62c7ebac.png

 この写真は、ぜんぜんアニメっぽくない。

 というかディティールが残りすぎていて、これは単なる画像加工に見える。

 この程度の加工をするソフトなら、過去にいくらでもあっただろう。要は輪郭部以外の平滑化と色調変化をさせているに過ぎない。


 このエッジがシャープな画像というのは、いまのAIが苦手なところである。

 エッジにはどうしてもノイズが乗ったり、ディティールは潰れたりするのに、このEverfilterの結果は、エッジが潰れていないことから、単なる画像加工をしているだけに見える。


 そして画面右端に注目して欲しい。

 なぜかここに新海誠の空が現れるのだ。


 だんだん、正体がつかめてきた。


https://i.gyazo.com/25d17ef362f89f5a1e54d01c7c9bc680.png


 これは安田講堂の写真だが、やはり塔の先端部が消えかかっている。そしてびっくりするほど新海誠である。


 断定はできないが、Everfilterの原理を推測するとこういう仕組みではないだろうか。

https://i.gyazo.com/855c2696c73e43cea416f6559128f05c.png


 まず、画像から空っぽいところを検出する。

 今の機械学習では、ディープラーニングでなくとも単純な検出ならかなり高速にできるし、ディープラーニングでも空か空でないかの検出は比較的容易にできる。


 空っぽいところをみつけたら、そこにいきなり新海誠の空を問答無用で貼り付ける。


 それ以外の部分の関しては、AIと無関係な色調変化や平滑化でごまかす。いや、ここはもしかしたら機械学習も少し使っているかもしれないけど、いわゆるディープラーニングとは異なるものだろう。



 いずれにせよ、生成物に他人の著作物をコピペしたら、それは著作権法違反である。

 角川は中国にも支社があるので、類例が蔓延らないうちに具体的なアクションをとって欲しい。


 ちなみに同じ写真を二回加工すると、見事に空だけが異なる

https://i.gyazo.com/4dc28ac9614e8e716fdf97a0cb509eba.png


 率直に言って、ものすごく雑だ。



 これ、別に新海誠の空じゃなくて自分で空を用意すれば何の問題もなかったのに(人工知能云々が本当のはなしかどうかは置いておいて)、なんで新海誠の空をそのまんま使うみたいな雑な実装にしたんだろう

2016-12-01

中島聡さんの国立AIクラウドに関する批判は的外れ 22:08

 中島聡さんは尊敬するプログラマーの一人でもあるし、最近対談したりもしてる(https://codeiq.jp/magazine/2016/08/43799/)

 中島さんのブログはこちら→http://satoshi.blogs.com


 その中島さんが、国家プロジェクトであるディープラーニング用橋渡しクラウド(ABCI)を「スパコンは税金の無駄遣い」と呼んでケチをつけているという。さすがにこれは見逃せないので一言言わせていただく。

税金195億のムダ。戦略なき日本のスパコン開発を中島聡氏が批判 - まぐまぐニュース!

http://www.mag2.com/p/news/229866


 まず、京とABCIでは目的も構成もぜんぜん違う。

 ABCIのイメージ的にはTSUBAMEに近い。また、195億円は建屋や研究施設も含めた総工費であって、実際のABCIはその数分の一以下の予算で作られている。



 中島さんはものすごく頭がいい人なので、ディープラーニングなど触らなくてもわかってる。その限界も可能性も両方分かっている。・・・と思ってらっしゃるんだろう。その上で、ABCIは無駄遣いだと切り捨てる。でもたぶんABCIがなんなのか、ぜんぜん理解してない。しようともしてない。



 いま、日本の私企業で、MicrosoftやGoogleFacebookのように膨大な計算資源を確保できる会社がどれだけあるのだろうか。


 僕の知っている例では、わずかにドワンゴだけが、100台規模のGPUクラスタ紅莉栖を持っているだけである。この紅莉栖は、東京大学が持っている普通の設備よりも多くの計算資源であり、ドワンゴはこれを東京大学の学生が研究に使えるように一部解放している。


 しかし、この設備はハッキリ言って焼け石に水以下と言える。


 Googleが1000台規模のクラスタで猫を発見したりとか、Microsoftが、Amazonが、気の遠くなるような計算資源を用意してクラウドサービスとして展開している現状において、なぜ東証一部とはいえ、売上規模としてはいち中小企業にすぎないドワンゴが東大に計算資源を寄付しなければならないような状況に陥っているのか。


 それは我が国がディープラーニングというものの可能性に気づくのが、ほんの数年、欧米に遅れてしまったからである。


 私も昨年、ドワンゴやトヨタが共同で寄付した東大の深層学習寄付講座を聴講した。そこで起きていたのは、学生同士による計算資源の熾烈な奪い合いである。授業に使うサーバーが落ちる落ちる。クラウド上にあるのにアクセスが満足にできない。学生も真剣だから色々な仮説を試したいのに、肝心の計算資源が足りない。これでは研究もおぼつかない。これでは意欲や能力があっても、欧米に大きく遅れを取ってしまうのは自明である。


 日本の名だたる企業が連合で10億寄付して開催した講座がこの有様だ。一般の学生の事情は推して知るべし。


 そして、日本の大企業には、そうした大胆な投資判断を未だできないでいる。

 1000台規模のクラスタ、建造費数十億円のディープラーニングへの投資を単独できる大企業はそう多くない。そういうノウハウはネット企業にしかないし、ネット企業にはディープラーニングを十分活用できるだけのビジネス的なバックグラウンドがないからだ。


 実際にディープラーニングによって飛躍的に成果が上がると考えられるのは、ネット企業よりもむしろ既存のエスタブリッシュメント企業だったり、第一次、第二次産業だったりするのだが、そうした会社はディープラーニングの重要性を理解するのが、ネット企業よりもさらに数ステップ遅いからだ。


 人材の育成となればこれも大きく周回遅れしているのは否めない。まず計算資源が必要なのは大学であり、公的研究機関であるはずなのだ。しかし、今この段階で、素早い判断をして、素早い調達をして、人材を育てるという決断ができるエスタブリッシュメント企業は少ない、というかほとんど存在してない、と言っても良い。


 工場と違って、ディープラーニングが具体的にどのように業務を改善するのか、その指標も見えない段階では、大企業が及び腰になるのはむしろ当たり前である。工場の場合、建てる時に実稼働時の売上と利益予測が立てられるから、銀行もお金を貸してくれやすい。しかしディープラーニングはいまのところ、どのように活用すればいいのか手探りの段階である。


 この段階では、まだお金を持っていない学生や研究者、ベンチャー企業などが頑張って応用法を模索したり、色々な仮説を同時並行的に試したりしなければならない。我々も相当数の深層学習マシンを所有しているが、いくらあっても足りないというのが正直なところだ。昨年のMaxwell世代のTITANXは、世界中から在庫が払底してしまった、それでもまだ足りない、というのが今の状況である。


 研究を支援するためにまず圧倒的に必要なのは計算資源であり、この計算資源がないことが、我が国の国力を直接削ぐような危機を呼び込んでいる。


 そもそもABCIは、スパコンではない。

 スパコンには絶対必要とされる、倍精度浮動小数点演算がない。


 つまりABCIは、そもそもスパコンとしては全く使えない。京とは全く目的が異なり、気象予報とかには全く向いていない。


 だからABCIがあれば京はいらなくなるとか、そういう問題ではない。


 新聞屋さんはセンセーショナルなニュースを欲しがるから、ちょっとスペックの高い計算資源を国が調達しようとすると、すぐに「スパコン」というレッテルを貼りたがる。その尻馬にのって、ろくに調べもせずに批判するのはいかがなものか。


 ABCIの開発を無駄と断言する中島さんは我々日本の宝である東大生や国内の研究者たちに、MicrosoftやAmazonのクラウドを使って研究せよと仰るのか。

現時点で、本気で Deep Learning の研究をしている研究者は、自作のパソコンに高性能な GPU カードを挿して専用マシンを作っています。ニューラルネットワークのトレーニングには膨大な計算能力が必要で、彼らにとっては高性能な専用マシンが必須なのです。

パソコンとは言え、最新のGPU カードは一昔前のスパコン並みの能力を持っており(例:NVIDEA TESLA M40 は 7 teraflops)、そんなマシンを、一人の研究者が、何時間も何日間も占有して使える時代になったのです。

そんなニーズに応えようと、Amazon も GPGPU のレンタルサービスを充実させ始めましたが、まだまだ値段が高く、何時間もマシンを専用して学習させるのであれば、自作マシンの方がコストパフォーマンスが良いのが現状です。

国は195億円も税金を投入したスパコンを使い、何をしようというのでしょうか? 国立大学に安く時間貸しするのでしょうか? そのあたりが私には全く見えて来ません。

 ABCIが目指すのは、まさにその「研究者が使うハイエンドPC」を大量に並列化したもので、これを電気代程度の負担で国内の企業や学生に貸し出そうという試みである。


 AmazonのGPGPUやMicrosoftのAzureを使うよりも、安価に、しかも大量の学習ができる機械を調達しようとしているのに、中身も見ずに「スパコン」という言葉のイメージ(しかもそれも誤り)で批判とは、さすがに僕自身も中島さんに対して失望すら感じます。


 うちの会社はまさしくその「一昔前のスパコン並」の深層学習向けハイエンドPCを売っています(http://deepstation.jp)。ですが、これはあくまでも入門用が数十万円、プロ用のスペックとなれば簡単に数百万円のオーダーとなり、研究者だからといっておいそれと手に入るものでもありません。


 そのうえ、GPUによる学習は、うまくやれば分散学習ができるのですが、一台あたり数百万円のマシンを何台も買うよりも、クラウドで時間貸しをしてもらったほうがよほど効率的です。


 ある学習タスクを一台のマシンでやると普通に数ヶ月かかります。

 たとえば、ImageNetのデータをダウンロードするだけでも6日とか平気でかかります。

 誰もが実験に使う典型的なデータですら、ダウンロードするだけでそれだけの時間がかかるわけです。

 これが、クラウドで共有化されていれば、ダウンロードし直す手間はないし、ABCIをハブとして、日本の研究者コミュニティ全体の底上げが期待できます。


 また、ABCIは京のような専門家しか使えないスパコンとは根本的に異なります。

 専門の研究者だけでなく、民間企業がディープラーニングというものを身近に学ぶために、手軽に使えるようなものも目指しています。


 ちょうど、来週月曜日に内閣府の「新たな情報財検討委員会」で僕も委員としてプレゼンすることになっています。


 このプレゼンの中で、国家AI戦略の要所として今回中島さんが批判しているABCIについて、そのあるべき姿を提言しています。


 なんで僕が提言しているのかというと、任意組織である機械学習利用促進勉強会(MLEP)で利用促進のためのツールとして知的財産戦略やABCIの位置づけをこの半年間、ずっと議論してきた当事者だからです。


 内閣府の委員会は一般の方でも無料で傍聴できます(応募多数の場合、制限あり)。

新たな情報財検討委員会の開催について

http://www.kantei.go.jp/jp/singi/titeki2/tyousakai/kensho_hyoka_kikaku/2017/johozai/dai2/kaisai.html


 既に遅れ始めた日本のAI戦略を底上げするには、私企業の自助努力だけに頼っているわけにはいきません。

 日本は重要な社会インフラこそ、国が主導権を握って大きくしてきたという歴史があります。


 タバコも郵便も電話も、携帯電話もそうです。官が育てて、民営化させるというのが常套手段です。

 だいたい、当の中島さん自身も、もとは東大で学び、NTTという国策企業の研究所で働いていたはずではありませんか。自分は良くて、今の学生が国から計算資源を分けてもらうチャンスすら否定するのでしょうか?


 ちなみにABCIのモデルケースとしては京よりも遥かに構造が近い東工大のTSUBAMEは、国産唯一と言って良い深層学習フレームワークChainerの開発に貢献しています。ABCIもおそらく同じように様々な研究機関や民間企業の研究活動を強力にサポートしてくれるようになるでしょう。ちなみにABCIの設計にはTSUBAMEの松岡先生も関わっています。


 資源のない島国である我々は、インフラ整備は基本的に国家の仕事と思っています。

 AIのインフラを考える上で、ABCIはその要石とも言える重要な計算資源です。


 さくらインターネットも高火力コンピューティングなど、比較的安価なサービスを提供していますが、まだまだハードルが高く、個人が気軽に使うというわけにはいきません。


 だからこそ我が国にはABCIが必要なのです。


 こんなインタビューにつきあってるヒマがあったら、その才能を発揮して、なにかマシな深層学習のツールでも作っていただいたほうがよっぽど国のためになると思うんですけどね。どうですか、中島さん。


 あーあと

私が担当者であれば、まずは「専用ハードウェアによる機械学習のアクセラレーション」というテーマの研究の提案を各大学にさせ、優秀な提案には一件当たり1千万程度の予算を与えて、設計・試作をしてもらいます。そして、その結果次第では、ベンチャー企業として独立するためのさらなる資金を与えるなり、既存の企業への技術移転をしてもらい、実用化を目指します。


 こんなの数十億じゃそもそも無理ですから。最低100億は必要です。そしてもう予算がついてるプロジェクトもあります。


 ちょっと現状に疎すぎませんか。


 ASICの試作を一千万とかそもそも不可能ですよ。最低でも数億、ちゃんと動くものならやっぱり百億はかかります。そんな安価にできるなら、さすがにルネサスとかとっくにやってますよ。


 これって「一千万やるから画期的な電気自動車つくれ」とか「一千万やるから画期的なスマートフォンを試作しろ」くらい無茶ですよ。


 

文系でも一冊でChainerからTensorFlowまで学べる新刊「はじめての深層学習プログラミング」 07:15

 Chainerがバージョンアップする度に文句を言っていましたが、すったもんだの挙句、ついに半年前から修正修正また修正を繰り返していた本が発売と相成りました。


 その名も「はじめての深層学習プログラミング」


 教養本というか読み物本である「よくわかる人工知能」を書く裏側で、技術書も同時に書いていたわけです。

 なぜ書いたかというと、主に社内の情報共有のため。とりわけ我が社の文系社員であり、人類総プログラマー化計画の実験対象でもあるゴトーくんこと後藤大喜に読ませるためです。


 今週から「秋葉原プログラミング教室」で、「AIプログラミングコース」が始まるのですが、そのテスト版とでも言うべきイベントで、僕がAIのプログラミングについて話す機会が先月ありました。


 すると、それを聴いていた文系の学生が「ちょっと僕もやってみたいんであの資料もらえますか」と言ってきました。人工知能というのはそれほどまでに興味を引きつける対象なのもしれません。


 というわけで出ましたこの本。

 昨日、ついに見本誌が届きました。

https://i.gyazo.com/9c7105bd66df3acc0082a2479136c097.png


 気をつけたのは、できるだけ難しい数式を使わないこと。

 機械学習の話になると、すぐに皆さん難しい数式を使いたがる。

 あれは性癖なんでしょうか。


 たとえばChainer Playgroundというオフィシャルの入門サイト(https://play.chainer.org/)があるのですが・・・


https://i.gyazo.com/5344a79fee260aa1a75d45513f3fd3b3.png


 いきなりこれかよ!

 パラメトリックモデルとかの用語は基本的にどうでもいいので、なぜここで説明しているか不明ですし、線形変換のモデルを数式で説明しているのもやりすぎです。

 

 まあ正直、プログラマーの中には数学が得意でない方が数多く含まれていまして、プログラマー業界の中でも特に数式を大量に扱う、僕のような3Dゲームプログラマーであっても、数式というのはできるだけ避けて通りたい存在です。


 なのに、いきなり、出会い頭にこの数式!

 しかしビビッてはいけません。この数式が出てきたとしても、プログラムそのものは簡単なんです。だけど数式で説明しないと、たぶん頭のいい人たちは「気持ち悪い」のです。


 まあ、普段お世話になっているプリファードネットワークスさんの仕事にケチをつけたいわけではありませんが、この「Chainer Playground」をやってみると


 「ああ、PFNの人達は本当に頭が良すぎて、頭が良くない人(オレ)たちのことをなにも理解してくれないんだな」


 という気分が絶望的なまでに深まります。

 うん、これが理解出来る人は、そもそも既に機械学習のなんたるかを理解してる人だけだよね。


 とにかく、Chainer Playgroundがあったら、どんな人でも無料でChainerに入門できて、入門書書く意味がないじゃん!と密かに思っていたのですが、どうやら入門書を書いた意味はありそうだ、ということでホッとしています。


 話を本に戻すと、本書では、中学校卒業くらいの数学的知識で・・・といってもまあそのレベルでも盤石とは言えない人がほとんどでしょうから、もっと噛み砕くと、数学的知識がほぼなくても、AIのプログラミングを学ぶことが出来ます。


 なぜなら僕が数式をキライだからです。

 

 そして、僕もまあ大学院の授業とか受けたんですけど、一般的にいろんな先生がいろんな数式でいろんなことを説明してくれるのですが、プログラミングに落とせなければ数式は飾りです。逆に言うと、プログラミングに落としてあれば数式はそもそも必要ありません。


 その昔、昔々に書かれたコンピュータグラフィックスの本は、離散コサイン変換についての解説と数式、そしてコードの実装が載っていました。



https://i.gyazo.com/bc7051c24178bb806123d93020e1d8dd.png

https://ja.wikipedia.org/wiki/離散コサイン変換



 ちなみにこの数式、僕は一度も理解しようと思ったことがありません。

 さらにはVRAMの構造からアドレスまで。そうしないと、JPEG画像を表示することができなかったのです。


 今日、同じことはこう書けます。

import cv2
img = cv2.imread('hoge.jpg')
cv2.imshow("img",img)

 JPEGの実装の中身の理論とか、基本的に使う側からしたらどうでもいいのです。ここに真剣にこだわるのは、総裁(http://blogs.itmedia.co.jp/fukuyuki/)のように電機メーカーでデジカメの出力するJPEGを極限まで高画質にしようとするみたいなド変態の仕事をする人だけです。


 おなじことがニューラルネットワークのプログラミングにも言えます。

 最新の論文を読んで自力で実装しようという場合には、多少の数式が出てきますが、それとて三次元グラフィックスに比べたらごく当たり前の式しか出てきません。そして式で説明されるよりもプログラムで説明されるほうが遥かに簡単に説明されます。


 どこまでをブラックボックスとして扱って良いのか、どこまで中身を知っておいたほうが良いのか、ということは実際のプログラムに落として初めて理解できます。

 

 そしてニューラルネットワークのプログラミングは、今やChainerやTensorFlow、Kerasといった高度に抽象化されたライブラリが沢山できているために、ほとんど面倒なことを考えずに使うことが出来るのです。


 そして面倒なことが抽象化されていると、ニューラルネットワークのプログラミングそのものは恐ろしく簡単になります。


 本書で最初に出てくる画像認識のプログラムはものすごく短いです。

https://i.gyazo.com/c80724df1747ac44523435b73c3d17db.png


 これを何も考えずに写経するだけで、まあなんとなく人工知能のプログラミングっぽいことはできるようになります。


 こういうところから入って、少しずつややこしい話になって、最後は深層強化学習で超人工生命を育てる・・・というところまで行きます。


 そういうことですので、もし人工知能について知りたい、と思うなら、文系でも理系でもぜひ本書を手にとって読んで欲しいと思います。


 技術書としては薄くて安い本ですし、前提となる知識もほとんどいらないので、「よくわかる人工知能」で人工知能に興味を持った方にはぜひ手にとっていただきたい本です。キーボードが打てれば誰でもAIのプログラミングをマスターできます。


 反対に、既にニューラルネットワークのプログラミングをバリバリしてる人からすると少し物足りないと思います。そういう人はもっと難しい数式の書いてある本とかを読んでいただくのがいいでしょう。


 プロお断り!

 そこだけはご注意ください