Python Barbershop實現照片換發型功能

前言

最近看到一個開源項目(Barbershop),可以將照片中的發型更換成另一個,很神奇。先給大傢看看項目給出的效果圖。

先說說我在安裝使用該項目的感受,因為作者給的安裝說明太少,我邊看代碼邊安裝環境花瞭整整8個小時,順便還在等安裝的過程中,追瞭10集電視劇《輸贏》。

看在我堅持弄瞭這麼長時間,並把踩過的坑,安裝這麼長時間的份上,我覺著還是給個贊的。

下面開始我的安裝使用記錄。

先提供一下Barbershop項目地址:github倉庫

環境部署

下面進入最坑的部分,首先我們看一下項目給出的安裝說明。

其實隻有兩條,conda導入environment/environment.yaml環境,下載II2S圖片。就這兩句話讓我裝瞭一晚上,天知道我經歷瞭啥。坑踩瞭一邊,可以按照我的流程裝,應該問題不大。

1、導入environment/environment.yaml環境

先創建conda虛擬環境,使用一下命令:

conda env create -f environment/environment.yaml

2、安裝pytorch

這裡有不會的話,可以看我另一篇文章,有詳細的搭建方法:機器學習基礎環境部署 

3、依賴庫安裝

我就不提我踩瞭多少坑瞭,下面我把需要的項目沒提供的依賴,總結發在下面。

dlib

Ninja

gdown

scikit-image

IPython

opencv-python

版本可以選擇最新的,因為我用最新的跑起來瞭。

4、 cl.exe環境變量配置

需要安裝一下Microsoft Visual Studio,我選擇的版本是2019版本。

提供一下下載地址:下載 Visual Studio Tools 

這裡需要註意安裝的時候需要把C++選上。

按照自己的機器位數,選擇路徑添加到環境變量路徑裡。下面是我的路徑。

添加環境變量

5、模型下載

項目在運行的時候其實是會自己下載模型的,但是從google雲盤經常失敗,而且該項目要的模型特別多,我放在百度雲盤上分享出來,大傢可以下我的。

模型文件鏈接  提取碼:tuan

首先人臉68特征數據放到項目的cache目錄內。其次另外的6個pt文件放到項目的pretrained_models目錄內。

6、發型數據下載

按照項目給出的地址從雲盤下載到input/face目錄內。這邊我還是提供百度雲盤的分享鏈接,下不下來可以用我的。

鏈接  提取碼:TUAN

7、代碼調整

項目align_face.py文件中,不會檢查模型是否存在,還是會下載,需要調整一下。如下圖:

項目驗證

OK,環境如果你按照我上面說的部署成功瞭,恭喜。下面我來驗證一下效果。

先看看我準備的照片。

把照片放到unprocessed目錄下,註意編號需要和input/face內的文件編號不同。

1、預處理照片

首先我們執行命令預處理unprocessed目錄內的照片。命令如下:

python align_face.py
(Barbershop) C:\Users\yi\PycharmProjects\Barbershop>python align_face.py
Downloading Shape Predictor
126.jpg: Number of faces detected: 1

可以看到input/face目錄多瞭一個文件,預處理把原照片的人臉處理出來瞭。

2、換發型

下面看一下我準備換的發型是哪張。

換個短發。執行命令如下:

python main.py --im_path1 126.png --im_path2 94.png --im_path3 94.png --sign realistic --smooth 5

看下執行結果

(Barbershop) C:\Users\yi\PycharmProjects\Barbershop>python main.py --im_path1 126.png --im_path2 94.png --im_path3 94.png --sign realistic --smooth 5
Loading StyleGAN2 from checkpoint: pretrained_models/ffhq.pt
Setting up Perceptual loss...
Loading model from: C:\Users\yi\PycharmProjects\Barbershop\losses\lpips\weights\v0.1\vgg.pth
...[net-lin [vgg]] initialized
...Done
Number of images: 2
Images: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [10:39<00:00, 319.74s/it]
Number of images: 2
Images: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [02:08<00:00, 64.04s/it]
Loading StyleGAN2 from checkpoint: pretrained_models/ffhq.pt
C:\Users\yi\PycharmProjects\Barbershop\models\Alignment.py:97: UserWarning: where received a uint8 condition tensor. This behavior is deprecated and will be removed in a
 future version of PyTorch. Use a boolean condition instead. (Triggered internally at  ..\aten\src\ATen\native\TensorCompare.cpp:328.)
  new_target_final = torch.where(OB_region, torch.from_numpy(new_target_inpainted), new_target)
Align Step 2:   0%|                                                                                                                             | 0/100 [00:00<?, ?it/s]E
:\ProgramData\Anaconda3\envs\Barbershop\lib\site-packages\torch\nn\functional.py:3680: UserWarning: The default behavior for interpolate/upsample with float scale_factor
 changed in 1.6.0 to align with other frameworks/libraries, and now uses scale_factor directly, instead of relying on the computed output size. If you wish to restore th
e old behavior, please set recompute_scale_factor=True. See the documentation of nn.Upsample for details.
  "The default behavior for interpolate/upsample with float scale_factor changed "
E:\ProgramData\Anaconda3\envs\Barbershop\lib\site-packages\torch\nn\functional.py:3635: UserWarning: Default upsampling behavior when mode=bicubic is changed to align_co
rners=False since 0.4.0. Please specify align_corners=True if the old behavior is desired. See the documentation of nn.Upsample for details.
  "See the documentation of nn.Upsample for details.".format(mode)
Loading StyleGAN2 from checkpoint: pretrained_models/ffhq.pt
Setting up Perceptual loss...
Loading model from: C:\Users\yi\PycharmProjects\Barbershop\losses\masked_lpips\weights\v0.1\vgg.pth
...[net-lin [vgg]] initialized
...Done
Setting up Perceptual loss...
Loading model from: C:\Users\yi\PycharmProjects\Barbershop\losses\masked_lpips\weights\v0.1\vgg.pth
...[net-lin [vgg]] initialized
...Done

等瞭很長時間,結果出來瞭。最後的效果圖如下

對比一下看看,還是很不錯的吧,我這麼長的安裝時間沒有白費。

總結

該項目最終的效果是非常好的,隻是安裝的過程比較繁瑣。而且在我跑最終融合的效果時,我似乎都快聞到顯卡的焦味瞭。花費瞭很多時間,解決瞭很多問題,也有瞭很多收獲,成長不外如此。

以上就是Python Barbershop實現照片換發型功能的詳細內容,更多關於Python Barbershop照片換發型的資料請關註WalkonNet其它相關文章!

推薦閱讀: