chainer-fast-neuralstyle - 屋根の上

chainer-fast-neuralstyle  

話題のスタイル変換で遊んでみた。
軽い気持ちで学習させたら1エポックに半月かかって泣いた。
GPUもセットアップした法がいいです。

コードはこちらです。
https://github.com/yusuketomoto/chainer-fast-neuralstyle

とりあえず結果から。
output1_0.jpginput_0.jpg
output1_1.jpginput_1.jpg
output1_2.jpginput_2.jpg
output1_3.jpginput_3.jpg
output1_4.jpginput_4.jpg

学習させたスタイルはこれ。
やっぱりテクスチャとかがないから、線画の黒い線が結果に現れたきがする。
書き方のスタイルとかまで理解させるのは難しいみたい。
353.png


メモ


以下は学習から出力するまでのメモ。
1.まずはクローン
clone https://github.com/yusuketomoto/chainer-fast-neuralstyle.git


2.学習画像集のダウンロード。
wget http://msvocds.blob.core.windows.net/coco2014/train2014.zip

解凍
unzip train2014.zip


3.初期の学習データにVGGのやつを使うみたい。まずダウンロード。
wget http://www.robots.ox.ac.uk/~vgg/software/very_deep/caffe/VGG_ILSVRC_16_layers.caffemodel

chainer用に変換。ちょっと時間がかかる。
python create_chainer_model.py


4.学習。-sでスタイル画像 -dでダウンロードしてきた画像集のフォルダを指定。-rでリジュームできるからつける。
python train.py -s スタイル画像 -d train2014 -r


5.が風変換。train.pyが吐いた.modelを使う。サンプルも用意されてるからそれでも。
python generate.py sample_images/変換したい画像.jpg -m models/学習モデル.model -o sample_images/出力名.jpg



train.pyでエラーがでたら、ここをhttps://github.com/yusuketomoto/chainer-fast-neuralstyle/issues/40

Posted on 00:25 [edit]

category: 未分類

tb: 0   cm: 0

Comments

Post a comment

Secret

Trackbacks

TrackbacksURL
→http://tin0.blog.fc2.com/tb.php/134-81ed72ac
Use trackback on this entry.

プロフィール

月別アーカイブ

カテゴリ

*