答案就是:KaggleKaggle提供了一个无需设置,可定制的Jupyter Notebooks环境。可以免费访问GPU和社区发布的数据和代码。 Kaggle本身就是做科学计算的,用于模型训练,大数据分析等等。 重要的是,国内完全可以直接访问。这一点非常重要,省去了各种网络魔法的麻烦。 具体步骤 1,使用email注册Kaggle 注册成功后登录,点击个人图标,查看Profile 点击Account 你会看到具体的GPU以及TPU情况 目前每周GPU可用时长30小时,TPU可用时长20小时。每周重置。一般来说,都是用不完的。 2,创建自己的notebook,启动SD Web UI 当然,kaggle网站有大量的公开notebook,你可用搜一下,看看有没有你需要的。 这里,我们拉取AUTOMATIC1111代码,启动一个基本的Stable Diffusion Web UI。 #需要首先安装一下Python3.10!conda create -n webui_env -c cctbx202208 -y!source /opt/conda/bin/activate webui_env && conda install -q -c cctbx202208 python -y!/opt/conda/envs/webui_env/bin/python3 -m pip install -q torch==1.13.1+cu117 torchvision==0.14.1+cu117 -f https://download.pytorch.org/whl/torch_stable.html!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui%cd /kaggle/working/stable-diffusion-webui#使用2/18的版本,最新的可能与gpu不兼容!git checkout 0cc0ee1bcb4c24a8c9715f66cede06601bfc00c8#下载模型,放到/kaggle/working/目录中!wget -O /kaggle/working/stable-diffusion-webui/models/ChilloutMix.safetensors -L https:///api/download/models/11745#最后,执行启动UI%cd /kaggle/working/stable-diffusion-webui!/opt/conda/envs/webui_env/bin/python3 launch.py --no-half --share --enable-insecure-extension-access 注意: 这里模型我们使用的是ChilloutMix。当然,你也可以用其它的Stable Diffusion模型。具体可以到上自行查看。 如果访问有问题,可以去 model4ai.web.app。上面的模型也挺多的。 画的好不好,选择合适的模型也是一个关键因素 侧边选项中,记得选择GPU加速器。否则,默认CPU一般是跑不动的。 大概3、5分钟,启动完成后,你会看到 打开这个地址,就是熟悉的UI了。跟本地运行看到的一摸一样。 Done. |
|