Skip to content

ZhuJiaxin2/AnimeStyle-image-transfer-with-background-preserved

Repository files navigation

供测试人员阅读的readme

模型功能

  1. 识别并分割原图中的人像(支持单人和多人)
  2. 保留背景,并对原图中的人像进行风格迁移

模型结构

截屏2023-07-05 上午10 04 58

关于如何快速上手跑模型

必读

1. 先在terminal中运行这样一段代码:

   sudo chmod -R 777 .
   sudo chmod -R 777 [path/to/interpreter]

请将[path/to/interpreter]替换成自己的编译器路径,例如我的是:/Users/zhujiaxin/miniforge3/envs/studydeeplearning/bin/python 【删掉第一步】

  1. 将原图放入./input,请使用jpg、png、jpeg等常用格式
    P.S.如果运行设备为mac,有的时候图片不会显示后缀名。这样的图片模型是无法读出的,请将其发送到微信传输助手后转存,即完成“无后缀”→“.jpg”的转换

  2. windows用户需修改./AnimeGANv2/test.py以及./Mask_RCNN/predict.py,将其中的device修改为设备对应的device。
    (windows设备对应device我都留了注释,只要把AnimeGANv2中的‘mps’和Mask_RCNN中的'cpu‘替换掉就可以)

  3. 阅读./Mask_RCNN/readme.md,并根据指示下载模型预训练权重文件放入./Mask_RCNN/save_weights

  4. 修改./run_all.py中的interpreter_path(参考1.)

  5. 运行run_all.py,等待模型return后即可在./result文件夹中找到最终生成结果。

选读

  1. 如需调试单个模型,则需根据./AnimeGANv2/test.py以及./Mask_RCNN/predict.py中的长“#”分割线备注,注释掉相应语句,再对模型对应的test.py或者predict.py进行运行。

  2. 文件的保存路径在test.pypredict.py较为靠前的位置,找不到可搜索关键字“dir”,由对应路径可找到模型中间产物的对应位置,方便调试。

模型效果

如果没挂梯子,图片加载需要等一下

WechatIMG135

WechatIMG136

WechatIMG133

WechatIMG134

体现背景保持

从左到右依次为:

  • 原图
  • 风格化全图
    • 人像风格化,但可以看出背景的建筑很模糊
  • 背景保持的人像风格迁移
    • 人像风格化,同时背景建筑与原图别无二致

IMG_9987

About

image-transfer-with-background-preserved, based on AnimeGANv2 and Mask-RCNN

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published