베이스 모델을 stylegan2로 바꿔서 돌려봤는데...(stylegan2, fastgan 중에 선택할 수 있다.)
(스압 좀 길어요 글만 읽고 싶으면 맨아래로 ㄱㄱ)
그냥 답이 없는듯하다... 이 모델에서는 ADA를 사용하지 않았는데 ADA가 없어서 그런건지 그냥 데이터셋이 답이 없는건지... ADA도 사실 이미지 수를 늘리는 일종의 트릭이니 작은 데이터셋에서는 fastgan이 훨씬 효과적인듯 하다.
근데 fastgan에서는 자가복제 문제가 생기는데,
실제 이미지 중 세 명 이상이 나오는 이미지는 하나도 없는데도 불구하고 저런 이미지들이 생긴다. 엄청나게 빨리 수렴하긴 하지만 그 뒤로는 계속 발산하는 것도 문제고.
내가 샤워하면서 생각해낸 게 있는데, (아르키메데스 괜히 목욕탕에서 유레카를 외친게 아닌 것 같다.)
stylegan2를 사용하되 latent vector의 차원 수를 줄이는 것이다. 단순한 이미지에 너무 많은 스타일을 찾아내려고 하니깐 작동이 잘 안되는 것 같다. 그리고 ADA도 있어야될 것 같으니 내가 기존에 쓰던 stylegan2 모델에 PG 모듈을 이식해서 써보는게 좋을듯?
1. fastgan 자가복제, 발산 문제 해결하기
2-1. stylegan2 잠재벡터 줄여서 돌려보기
2-2. 기존 stylegan2 모델에 PG 모듈 이식해보기
'Deep Learning > GAN' 카테고리의 다른 글
Projected GAN 5 (0) | 2021.12.16 |
---|---|
Projected GAN 4 (0) | 2021.12.14 |
Projected GAN 3 (0) | 2021.12.13 |
Projected GAN 1 (0) | 2021.12.06 |
styleGAN 학습을 위한 여정 7 - 진짜 끝 (0) | 2021.12.01 |
styleGAN 학습을 위한 여정 6 (0) | 2021.11.30 |