- 识别并分割原图中的人像(支持单人和多人)
- 保留背景,并对原图中的人像进行风格迁移

1. 先在terminal中运行这样一段代码:
sudo chmod -R 777 .
sudo chmod -R 777 [path/to/interpreter]
请将[path/to/interpreter]
替换成自己的编译器路径,例如我的是:/Users/zhujiaxin/miniforge3/envs/studydeeplearning/bin/python
【删掉第一步】
-
将原图放入
./input
,请使用jpg、png、jpeg等常用格式
P.S.如果运行设备为mac,有的时候图片不会显示后缀名。这样的图片模型是无法读出的,请将其发送到微信传输助手后转存,即完成“无后缀”→“.jpg”的转换 -
windows用户需修改
./AnimeGANv2/test.py
以及./Mask_RCNN/predict.py
,将其中的device
修改为设备对应的device。
(windows设备对应device我都留了注释,只要把AnimeGANv2中的‘mps’和Mask_RCNN中的'cpu‘替换掉就可以) -
阅读
./Mask_RCNN/readme.md
,并根据指示下载模型预训练权重文件放入./Mask_RCNN/save_weights
-
修改
./run_all.py
中的interpreter_path
(参考1.) -
运行
run_all.py
,等待模型return后即可在./result
文件夹中找到最终生成结果。
-
如需调试单个模型,则需根据
./AnimeGANv2/test.py
以及./Mask_RCNN/predict.py
中的长“#”分割线备注,注释掉相应语句,再对模型对应的test.py
或者predict.py
进行运行。 -
文件的保存路径在
test.py
和predict.py
较为靠前的位置,找不到可搜索关键字“dir
”,由对应路径可找到模型中间产物的对应位置,方便调试。
如果没挂梯子,图片加载需要等一下
从左到右依次为:
- 原图
- 风格化全图
- 人像风格化,但可以看出背景的建筑很模糊
- 背景保持的人像风格迁移
- 人像风格化,同时背景建筑与原图别无二致