201609 - 屋根の上

厚塗りたのしい  

今日はご飯食べるの忘れるくらい書いてた。
屋内ならイメージできるようになってきた。
屋外は一気に難しくなるから、まだ練習
453.png
456.png
454.png
455.png
457.png

Posted on 00:49 [edit]

category: 未分類

tb: 0   cm: 0

illust  

e
450.png
451.png
452.png

Posted on 14:23 [edit]

category: 未分類

tb: 0   cm: 0

chainer-fast-neuralstyle  

話題のスタイル変換で遊んでみた。
軽い気持ちで学習させたら1エポックに半月かかって泣いた。
GPUもセットアップした法がいいです。

コードはこちらです。
https://github.com/yusuketomoto/chainer-fast-neuralstyle

とりあえず結果から。
output1_0.jpginput_0.jpg
output1_1.jpginput_1.jpg
output1_2.jpginput_2.jpg
output1_3.jpginput_3.jpg
output1_4.jpginput_4.jpg

学習させたスタイルはこれ。
やっぱりテクスチャとかがないから、線画の黒い線が結果に現れたきがする。
書き方のスタイルとかまで理解させるのは難しいみたい。
353.png


メモ


以下は学習から出力するまでのメモ。
1.まずはクローン
clone https://github.com/yusuketomoto/chainer-fast-neuralstyle.git


2.学習画像集のダウンロード。
wget http://msvocds.blob.core.windows.net/coco2014/train2014.zip

解凍
unzip train2014.zip


3.初期の学習データにVGGのやつを使うみたい。まずダウンロード。
wget http://www.robots.ox.ac.uk/~vgg/software/very_deep/caffe/VGG_ILSVRC_16_layers.caffemodel

chainer用に変換。ちょっと時間がかかる。
python create_chainer_model.py


4.学習。-sでスタイル画像 -dでダウンロードしてきた画像集のフォルダを指定。-rでリジュームできるからつける。
python train.py -s スタイル画像 -d train2014 -r


5.が風変換。train.pyが吐いた.modelを使う。サンプルも用意されてるからそれでも。
python generate.py sample_images/変換したい画像.jpg -m models/学習モデル.model -o sample_images/出力名.jpg



train.pyでエラーがでたら、ここをhttps://github.com/yusuketomoto/chainer-fast-neuralstyle/issues/40

Posted on 00:25 [edit]

category: 未分類

tb: 0   cm: 0

とりあえず見てきた。  

「君の名は」
いつもの新海映画は背景に集中できるんだけど、今回は作画まですごかったから目が忙しかった。良い意味で。
前半半分くらいが入れ替わる描写なんだけど、めまぐるしくシーンが変わってあまり感情移入できなかった。
後半はびっくりの展開。山が何回もあって、どこで泣けば良いのかわからなかった。
DVDが出たらもう少し落ち着いて見たいな。

447.png
448.png
449.png

Posted on 11:03 [edit]

category: 未分類

tb: 0   cm: 0

a  

考えるのが嫌い。
知っているもの、思いついたものを書くのが一番楽しい
443.png
444.png
445.png
446.png

Posted on 15:14 [edit]

category: 未分類

tb: 0   cm: 0

プロフィール

月別アーカイブ

カテゴリ

*