📅  2022-09-20

stable diffusionに触れてみる

🔖  Art🔖  Gadget

AI画像の可能性


 このところなにかと話題のAIによる画像生成。その一つ、オープンソースものだというstable diffusionをローカル環境でやってみました。本家はGPUとかスペックの要求が高いのですが、これをIntel CPUで動かせるという、stable diffusion openvinoなるフォークが出ていると聞き、さっそくgit cloneしてみました。ちなみに使ったマシンは2018年のmacbook proです。

https://github.com/bes-dev/stable_diffusion.openvino

 cloneしたフォルダにターミナルで移動して、pipでrequire.txtをインストールします(pythonはもちろん導入ずみ)。少しウォーニングも出ましたが、とりあえず大丈夫のようです。出したい絵の説明を英語で書いて、pythonで実行します。初回だけダウンロードが始まって、少し待たされますが、しばらくすると、iterationの回数と時間の表示になり、やがて終了します(2回目以降はiterationから開始されます)。するとそのフォルダ内にoutput.pngという名前で、画像が出来ています。iterationは32回(本家は50回くらいと聞きました)で、うちのmacbook proだと3分半くらいで1枚出ます(別のCore i5-1135G7のwin11ミニマシンだと、4分強かかりました)。

 "a mountain view with trees and a hutch”としたら、こんなのが出ました(画像が見えない場合には、ページをリロードしてみてください)。

なんか微妙に変な感じもしますが、まあよしとしましょう。

 "a lake side view with a cotage and a boat”ではこんなのが。

写真がベースになっているのは明らかですが、なぜか赤いボートがお好きなようで、別の入力でも赤のボートが出ました。背景が緑っぽいからでしょうか?

 "ruin buildings with cyberpunk feelings”というのもやってみました。

ゲームの雰囲気ですね。なるほど、どういう素材で学習させているかが少し感じられますね。

 微調整しなくても楽しめますが、いろいろチューニング方法なども出回っているようなので、ちょっと試してみたいですね。

タグ

)