GANs Quantitative Evaluation - Python, Deep Learning
Ғылым және технология
Source code(Github): github.com/kairess/pytorch-fid
Dependencies:
- python3
- pytorch
- torchvision
- numpy
- scipy
- matplotlib
- Pillow
Reference
- GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium arxiv.org/pdf/1706.08500.pdf
- 대립생성망의 성능 비교에 관한 연구: www.kdiss.org/journal/download...
Contact Brad: kairess87@gmail.com
Support Brad: toon.at/donate/helloworld
Пікірлер: 21
크으으 역시 빵형
잘 보고 있어요!! :) 주변에 추천 많이 했습니다>_
@bbanghyong
4 жыл бұрын
오오 고마워요! 추천 한번당 실력 실력 열단계 업!
개큰도움이되었습니다 감사하모니카
한계점이 크리티컬하지만, 참고할 만 하네요~ 감사합니당
호옹 다시 돌아오셨네
오호!! 엄청신기하네용!! 파이썬은... 어디까지.. 가능한걸까...
안녕하세요! 영상 잘 보았습니다! FID를 측정해봤는데 똑같은 이미지에 대해서는 0이 나오는데 실제 데이터셋-실제 데이터셋 하면 100-200 사이의 점수가 나오는데요. 원래 이런게 맞는건가요..?
Image의 context를 정량적으로 측정할 수가 없어 그런지 노이즈에 더 취약하긴 하네요.. 설명 잘 들었습니다 감사합니다 :)
안녕하세요 빵형 좋은 정보를 알려주셔서 감사합니다~ 내용을 듣다가 궁금한게 생겨서 질문드려요. 리얼이미지와 페이크 이미지가 가우시안 분포를 따른다고 말씀하셨는데, 왜 가우시안 분포를 따른다고 전제를 하는지가 궁금하고, 또 한가지는 이미지가 가우시안 분포를 따른다는 의미가 정확히 와닿지 않아서 어떤 의미로 말씀하시는건지 궁금합니다!
@user-wc3kh1sd4p
4 жыл бұрын
논문원문에 "For practical reasons we only consider the first two polynomials, that is, the first two moments: mean and covariance. The Gaussian is the maximum entropy distribution for given mean and covariance, therefore we assume the coding units to follow a multidimensional Gaussian." 라고 명시되어 있습니다 이뜻을 이해하시고 싶으시면, ''ratsgo.github.io/machine%20learning/2017/10/26/MEMs/''를 한번 읽어보시면 좋으실꺼 같습니다. 해당 블로그에서는 discrete 한 경우를 설명하는데, 연속형인 분포에서는 med가 가우시안 분포가 됩니다.
@jundamin
3 жыл бұрын
평균과 분산만을 이용하기 때문에 가우스 분포라고 가정하는 겁니다.(가우스 분포는 평균과 분산이 같으면 같은 가우스 분포가 되거든요.) 그렇기 때문에 가우스 분포로 근사하는 것이라고 보시면 됩니다.
FID가 작을수록 각 픽셀값도 맞아들어간다고 생각 할 수 있나요?
Nash equilibrium이 제목에 있으니 멋있어 보이긴하네요. 각론과는 별개로
@bbanghyong
4 жыл бұрын
내쉬 균형 말만해도 멋있어보이죠 ㅎㅎ
형 요즘 다시 시작 한거야??
검사속도가 엄청 느린데, 원래 그런가요? 130초 가까이 소요됩니다. cuda=False 되어 있는것을 True로 바꿨는데도 그렇네요.
@tipy7155
4 жыл бұрын
그래픽카드를 사시죠 컴 성능 차이입니다
Gan은 파이토치랑 1.x텐서를 사용하던데 왜그런걸까요?
@bbanghyong
4 жыл бұрын
옛날에 그냥 토치를 사용하시던 분들이 파이토치로 많이 넘어왔어요. 텐서플로는 2.0넘어오면서 많이바뀌었는데 1버전이 익숙해서 아직도 그걸 씁니다!