Justin Pinkey의 블로그에서 흥미로운 글을 발견했는데, 레이어 스와핑이라는 것이다.
https://www.justinpinkney.com/ukiyoe-yourself/
https://www.justinpinkney.com/stylegan-network-blending/
이 사람이 딥러닝 관련 직장에 근무하면서 취미나 토이 프로젝트 같은 느낌으로 GAN을 자주 다루는 것으로 보인다.
Github - https://github.com/justinpinkney
여튼 그래서 나도 Pretrain된 Anime-image 모델을 가져와서 쭐어콘 이미지로 훈련해 보았다.
(같은 자리에 있으면 같은 시드)
첫번째가 훈련 전 모델의 출력이고, 아래로 내려올수록 훈련이 더 진행된 상태이다.
쭐어콘 데이터셋의 컬러 스펙트럼이 다양하지가 않아서 푸른 계열의 특징은 잘 살지 않지만 훈련 전 이미지 특징을 잘 가지고 있는 이미지들도 보인다. 쭐어콘 데이터셋의 배경이 모두 흰색이라 배경색이 머리색으로 바뀐 이미지도 있다.
그리고 이거 훈련하면서 느낀건데 Pretrain된 비슷한 모델을 가져와서 학습 시키는 게 쌩으로 처음부터 학습시키는 것보다 매우매우매우 좋다.
낮은 해상도의 레이어를 anime-face로 높은 해상도의 레이어를 미세조정된 쭐어콘 모델로 하고 레이어 스와핑을 해봤다.
(숫자는 모델의 분기, 64면 64x64까지 하위 레이어를 사용한다는 의미)
원본
![]() |
![]() |
![]() |
128
![]() |
![]() |
![]() |
64
![]() |
![]() |
![]() |
32
![]() |
![]() |
![]() |
반대로
원본
![]() |
![]() |
![]() |
128
![]() |
![]() |
![]() |
64
![]() |
![]() |
![]() |
32
![]() |
![]() |
![]() |
위의 이미지들은 모두 실제 존재하지 않고 모델이 만들어낸 이미지들이다.
그래서 실제 이미지에서 어떤 성능이 나올지 실험해봤다.
일단 아무사진이나 받음
(이제와서 드는 생각인데 ESRGAN으로 화질올리고 할걸 어제 왜 그생각을 못했지?)
그리고 Projection으로 anime-face모델에서 가장 비슷한 생성이미지를 찾음
왼쪽부터 64 -> 32 -> 16
![]() |
![]() |
![]() |
나중에 더 훈련된 모델로 생성한건데 컬러는 조금 소실되었지만 이미지가 더 부드러워 보인다.
물론 위 이미지들은 잘 나온 걸 좀 추린거고 잘 안나오는 것도 되게 많다.
특히 쭐어콘에 없는 포즈나 색감인 경우는 더욱더 그렇다.
원본 -> 프로젝션 -> 32
![]() |
![]() |
![]() |
'Deep Learning > Fine Tuning' 카테고리의 다른 글
진짜 볼짤콘을 향하여 (0) | 2022.02.15 |
---|---|
FineTuning Parameter Test (0) | 2022.02.12 |
Pix2pixHD로 볼짤콘 모델 업데이트 (0) | 2022.01.18 |
볼짤콘 스타일 Pix2pix 모델 업로드 (0) | 2022.01.14 |
anime-face to 볼짤콘 (0) | 2021.12.30 |
anime-face to 쭐어콘 2 (0) | 2021.12.30 |