GoogleColaboratory で Context Encoder を試してみた

シェアする

  • このエントリーをはてなブックマークに追加
スポンサーリンク

はじめに

今回は、GoogleColaboratoryを使ってKeras-GANに実装されているContext Encoder を試していきたいと思います。Context Encoder はシーンの欠落している部分を予測し、その欠落部分の画像を生成します。潜在変数ベクトルを使って画像を生成し、その生成画像と元の欠落部分の画像の誤差が小さくなるようにして生成画像の精度を上げるといった流れです。

他のGANについてもこちらでまとめてあります。

GoogleColaboratoryでGAN超高速入門

GoogleColaboratoryの使い方はこちら

論文:https://arxiv.org/abs/1604.07379

Keras-GAN にある Context Encoder のコードはこちら


対象者

 Context Encoder を手っ取り早く試してみたい方。色々なGANに興味があるけど書き方がわからない方。Kerasでの実装を知りたい方。

 GANの基本を知っていることが前提になっています。

 こちらはGANの基本を押さえることができる良記事になっているので、読んでから進むことをお勧めします。


Context Encoder

前回同様、Keras-GANにあるコードではGoogleColaboratoryではエラーが返ってきてしまうので、書き直しました。今回、データセットはCifar10を使用しています。また、Cifar10の画像サイズが32×32なので、欠落部分の画像サイズは今回8×8に設定しています。


Cifar10

 GoogleColaboratory上では見づらいので30000epoch学習させて5000epoch毎にサンプル画像を出力させています。学習回数とサンプル画像を出力するインターバルはtrain関数の引数で変更できるので、変更しながら試してみてください。

コード

出力結果

最初は欠落部分うまく復元できてなかったが、最終的にはあまり違和感なく補完できてるのがわかる。


 今回は、Context Encoder をGoogleColaboratory上で試してみました。GoogleColaboratoryを使うことで簡単に試すことができると思うのでぜひやってみてください。

他のGANについてもこちらでまとめてあります。

GoogleColaboratoryでGAN超高速入門

最後まで読んでいただきありがとうございました。よろしければこの記事をシェアしていただけると励みになります。よろしくお願いします。

スポンサーリンク
レクタングル広告(大)
レクタングル広告(大)

シェアする

  • このエントリーをはてなブックマークに追加

フォローする

スポンサーリンク
レクタングル広告(大)