beruponの日記

物置
 

2016-07-10

MSYS2

MSYS2でMingw-w64を使ってtiny-cnnビルドしたら色々とトラブルに遭遇した。cmakeでgeneratorを指定していなかった為かlibファイルが見つけられなかった。

pacman -S mingw-w64-x86_64-cmake

これを入れないと駄目だったらしい。ビルド成功したけど出来上がったバイナリがちゃんと動かない。。

Release BuildではなくDebug Buildにするには、cmakeのオプションに -DCMAKE_BUILD_TYPE=Debug と付ける必要があった。

しかし確認用にソースコードをちょこっといじってmakeするとビルドが遅いのなんの。。複数のexamplesを不必要にBuildしてしまうし。

まぁそれは CMakeLists.txt の書き方いかんで対処出来るかも。。

結局諦めてVirtualBox上のLinuxVMを使ったところサクっとうまくいった。ひでぶ

トラックバック - http://d.hatena.ne.jp/berupon/20160710

2016-07-05

トラックバック - http://d.hatena.ne.jp/berupon/20160705

2016-06-29

Radeon RX 480

秋葉原に行ってTSUKUMO本店で2016/06/29 22:00から販売開始のRX480を購入した。値段は税込みで3万2千円弱。何年かしたら2万円くらいに下がってるんだろうか。。

Mini-ITX用のケースだとボードを挿せないので、ケースからマザーボードとかを取り外して使用。電源スイッチを入れるためだけケースのケーブル使用

光学ドライブケーブルを繋いでいないのでドライバAMD Radeon Software Crimson Edition 16.6.2)はネットからダウンロードする事にした。しかし探しても見つからない。しばらく探して見つかった。

http://support.amd.com/en-us/kb-articles/Pages/AMD-Radeon-Software-Crimson-Edition-16.6.2-Release-Notes.aspx

トラックバック - http://d.hatena.ne.jp/berupon/20160629

2016-06-19

GPU

Chainer+CUDA7.5インストール記念 学習速度比較」という記事を読んだ。

http://qiita.com/wakaba130/items/29ad1e72674d93fae3ba#gpu%E5%AE%9F%E8%A1%8C

GPU速いなー、GeForce GTX 980 Ti だと一秒間に35000枚近い画像学習している。そのうち速いGPUだと一秒で10万枚とか学習出来ちゃうんだろうなぁ。。

何やらneonというライブラリが高速らしいけど、大きいネットワークだとそれでも学習時間が掛かってるっぽい。

https://github.com/NervanaSystems/neon

学習時間が掛かると結果の確認が大変なので、Trial and error がしにくい筈だけれど、そこは工夫でなんとかしてるんだろう。

トラックバック - http://d.hatena.ne.jp/berupon/20160619

2016-06-09

ジョコビッチの生まれ変わる食事: あなた人生を激変させる14日間プログラム

を読んだ。同じものを大量に摂取しつづけると体が嫌がる。

トラックバック - http://d.hatena.ne.jp/berupon/20160609

2016-06-08

pronounciation

igzist or egzist... hmmm...

http://dictionary.cambridge.org/pronunciation/english/exist

トラックバック - http://d.hatena.ne.jp/berupon/20160608

2016-06-04

tiny-cnn

昨日に引き続きtiny-cnn

https://github.com/nyanp/tiny-cnn

作者は多分日本人っぽい。2013/01頃に作り始めたみたいだ。

http://nyanp.hatenablog.com/entry/20130108/p1

tiny-cnnレポジトリのdataフォルダには、mnistの訓練データは入っているけれど、cifarの訓練データは含まれていない。

http://www.cs.toronto.edu/~kriz/cifar.html

から cifar-10-binary.tar.gz をダウンロードして得たデータ指定して example_cifar_train プロジェクトを実行してみると、1回のepochの実行に 620秒程掛かる。(Core i5-4670 @ 3.40GHz)これが30回分なので学習完了するのに5時間以上必要だ。

tiny-cnnC++11で書かれているけれど、もっと単純にC言語で書かれた実装も見てみたいな。

トレーニング結構時間が掛かるのでNeuralNetwork構築の試行錯誤時間が掛かって大変そう。

まぁ何もしないで何も生まれる事は無いのだから何かするしかない。

トラックバック - http://d.hatena.ne.jp/berupon/20160604
 
プロフィール

berupon

beruponについて