너무 감사드립니다.. 모델이 도대체 어떻게 distribution을 예측한다는 건지 이해를 못했었는데 드디어 이해했습니다....
@eloqlo5 ай бұрын
감사합니다. 명확하게 이해하는데 도움이 많이 되네요
@user-wp6jf3tl7j5 ай бұрын
강남우 교수님께 정말 감사합니다. 딱 학생들 눈높이에서 그리고 처음 접한다라는 관점에서 설명을 되게 잘 해주십니다. Diffusion도 강의 해주시면 너무 행복할 것 같습니다.
@seungjae3296 ай бұрын
24:47 여기서 적분식 안에 값이 p_data(x)log(D*(x))인데 log2를 넣어주는 것이 맞나요? 자세히 반대로 계산해보니 log (2*p_data(x)/2*(p_data(x)+p_g(x)))로 변형하고 integral{ p_data(x) (-log2) }에서 확률이므로 적분해서 -log2만 튀어나오네요! 혹시나 다른 분들께 도움될까하여 댓글 남깁니다. 강남우 교수님 너무나도 알기 쉽게 잘 설명해주셔서 감사합니다!
@user-ip3sw7pe5y4 ай бұрын
p_data 항 뿐만 아니라 p_g 항에도 각각 log2 씩 들어가서 수식에 문제가 없는 것 같습니다!
@user-dh4ud1dr8u6 ай бұрын
너무 잘가르쳐주시네요ㅜ석사과정인데 교수님 강의들으면서공부하고잇습니다!
@user-mn5gw3df1k6 ай бұрын
안녕하세요! 질문이 있는데요. ELBO 유도할 때 왼쪽 아래 참고에 있는 expectation 식이 어떻게 integral로 변하게 되는 건지 자세히 좀 알 수 있을까요?
감사합니다. 교수님! 인공지능의 확률 이해에 큰 도움이 되었습니다. 감사 인사를 안드릴 수 없는 명강의입니다. ^^
@user-nc6ni8sj1s9 ай бұрын
교수님! 정말 좋은 강의입니다. 반복하여 제것으로 만들고 싶습니다. 다시 한번 깊이 감사드립니다.
@heejuneAhn9 ай бұрын
인간적인 강의네요. 잘 배우고 갑니다. 가정하고 근사화 하는 부분 때문에 상당히 찝찝했는데. 그와 관련하여 상당히 친절하게 명료하게 표현을 해주어서 마음이 좀 편해지네요. (VAE의 encoder 가 많이 사용되는 것은 약간 잘못된 이야기 인 것 같구요, AutoEncoder에서 Encoder를 Classifier 같은 descrimate 네트웍의 사전학습용으로 사용하는 경우가 많이 있었습니다.) GAN이 성능이 좋다고는 하지만 Latent space에대한 제어가 어려워서 DALL-E 1에서는 VAE가 채택되었고, 이제는 Difussion 모델로 교체가 되면서 과저의 네트웍이 되고 있지만, 개념 자체는 여전히 사용될 것으로 보입니다.
@user-cd2eg7ev6p10 ай бұрын
변수가 3개가 되어도 같은 방식으로 진행하면 되나요?
@kevli637310 ай бұрын
좋은 강의 감사합니다!
@user-gt1bh4fz4d11 ай бұрын
설명 감사합니다! 많은 도움 되었습니다.
@user-xr2yi8lo5f Жыл бұрын
좋은 강의 감사드립니다.
@user-tm1te1rb3t Жыл бұрын
설명 너무 감사합니다!!
@user-lv2kq8lm3d Жыл бұрын
13:30에 적합방정식을 구하는데 벽을 없애는 이유와 t0, tb로 인한 비틀림 각의 합이 왜 0인지 모르겠습니다 ㅠ
@mmusici5639 Жыл бұрын
교수님 인장압축에서 축력을 구할때와 마찬가지로 자르고 나서 어느부분을 남길지는 편한대로 선택하면 되는거죠??
@justinch1317 Жыл бұрын
좋은 강의 감사드립니다.
@user-rw3ws7ld3k Жыл бұрын
'설명의 신'이십니다..
@hyundai_worldwide Жыл бұрын
감사합니다.
@user-bd3xn4rs1v Жыл бұрын
고체역학 ppt자료 받을 수 있을까요?
@hyundai_worldwide Жыл бұрын
감사합니다.
@hyundai_worldwide Жыл бұрын
감사합니다.
@user-yv1nt1wj6x Жыл бұрын
감사합니다 교수님
@user-yv1nt1wj6x Жыл бұрын
정말 감사합니다 교수님
@user-yv1nt1wj6x Жыл бұрын
이 내용을 석사 1학년 때 먼저 봤다면 얼마나 좋았을까..
@ksjksjgg Жыл бұрын
좋은 내용 감사합니다
@ksjksjgg Жыл бұрын
좋은 강의 감사합니다
@ksjksjgg Жыл бұрын
좋은 내용 감사합니다
@jinwookim4978 Жыл бұрын
너무 많은 도움이 되었습니다 정말 감사합니다
@tknam3278 Жыл бұрын
와 너무 좋은 자료와 강의 감사합니다!! ㅠㅠ
@user-pm1ik5ic1f Жыл бұрын
좋은영상 감사합니다.
@mschoy0372 Жыл бұрын
진짜 명강의!
@mschoy0372 Жыл бұрын
진짜 명강의입니다....
@heb1727 Жыл бұрын
감사합니다. 정리가 잘됩니다.
@user-rg6cv5tw1j Жыл бұрын
차근차근 꼼꼼하게 알려주셔서 감사합니다.
@user-ou7gb2uf5i Жыл бұрын
강의 감사합니다
@user-ou7gb2uf5i Жыл бұрын
강의 감사합니다
@user-ou7gb2uf5i Жыл бұрын
강의 감사합니다
@user-ee8zz4py9g Жыл бұрын
강의 잘 보고 있습니다. 감사합니다. 혹시 powerpoint 자료 좀 받을 수 있을까요?
Пікірлер
강의 자료 받은데 사이트에 없어졌네요 ㅠㅠ 명강의 감사합니다!
ddpm공부하다가 이까지 와버렸네요 감사합니다.
좋은 강의 감사합니다.다
19:20 풀이 (d)에 반지름 1.5inch아니고 연결볼트의 지름이니깐 1inch아닌가요? 행어주 주부분 폭으로 잘못 넣으신거 같은데
정말 많은 도움 받았습니다. 영상 공유해주셔서 감사합니다!
이해하기 쉬운 좋은 강의 감사합니다!
강의에 감동해서 눈물이 나버렸습니다... 감사합니다.
도움이 많이 됐습니다. 조곤조곤 설명해 주셔서 머리에 훨씬 잘 들어오는 것 같습니다ㅎㅎ
너무 감사드립니다.. 모델이 도대체 어떻게 distribution을 예측한다는 건지 이해를 못했었는데 드디어 이해했습니다....
감사합니다. 명확하게 이해하는데 도움이 많이 되네요
강남우 교수님께 정말 감사합니다. 딱 학생들 눈높이에서 그리고 처음 접한다라는 관점에서 설명을 되게 잘 해주십니다. Diffusion도 강의 해주시면 너무 행복할 것 같습니다.
24:47 여기서 적분식 안에 값이 p_data(x)log(D*(x))인데 log2를 넣어주는 것이 맞나요? 자세히 반대로 계산해보니 log (2*p_data(x)/2*(p_data(x)+p_g(x)))로 변형하고 integral{ p_data(x) (-log2) }에서 확률이므로 적분해서 -log2만 튀어나오네요! 혹시나 다른 분들께 도움될까하여 댓글 남깁니다. 강남우 교수님 너무나도 알기 쉽게 잘 설명해주셔서 감사합니다!
p_data 항 뿐만 아니라 p_g 항에도 각각 log2 씩 들어가서 수식에 문제가 없는 것 같습니다!
너무 잘가르쳐주시네요ㅜ석사과정인데 교수님 강의들으면서공부하고잇습니다!
안녕하세요! 질문이 있는데요. ELBO 유도할 때 왼쪽 아래 참고에 있는 expectation 식이 어떻게 integral로 변하게 되는 건지 자세히 좀 알 수 있을까요?
감사합니다
안녕하세요 교수님 강의로 공부 하고있는 학생입니다. 강좌의 강의노트는 공유를 안하시나요??
28:35 여기까지봄
감사합니다. 교수님! 인공지능의 확률 이해에 큰 도움이 되었습니다. 감사 인사를 안드릴 수 없는 명강의입니다. ^^
교수님! 정말 좋은 강의입니다. 반복하여 제것으로 만들고 싶습니다. 다시 한번 깊이 감사드립니다.
인간적인 강의네요. 잘 배우고 갑니다. 가정하고 근사화 하는 부분 때문에 상당히 찝찝했는데. 그와 관련하여 상당히 친절하게 명료하게 표현을 해주어서 마음이 좀 편해지네요. (VAE의 encoder 가 많이 사용되는 것은 약간 잘못된 이야기 인 것 같구요, AutoEncoder에서 Encoder를 Classifier 같은 descrimate 네트웍의 사전학습용으로 사용하는 경우가 많이 있었습니다.) GAN이 성능이 좋다고는 하지만 Latent space에대한 제어가 어려워서 DALL-E 1에서는 VAE가 채택되었고, 이제는 Difussion 모델로 교체가 되면서 과저의 네트웍이 되고 있지만, 개념 자체는 여전히 사용될 것으로 보입니다.
변수가 3개가 되어도 같은 방식으로 진행하면 되나요?
좋은 강의 감사합니다!
설명 감사합니다! 많은 도움 되었습니다.
좋은 강의 감사드립니다.
설명 너무 감사합니다!!
13:30에 적합방정식을 구하는데 벽을 없애는 이유와 t0, tb로 인한 비틀림 각의 합이 왜 0인지 모르겠습니다 ㅠ
교수님 인장압축에서 축력을 구할때와 마찬가지로 자르고 나서 어느부분을 남길지는 편한대로 선택하면 되는거죠??
좋은 강의 감사드립니다.
'설명의 신'이십니다..
감사합니다.
고체역학 ppt자료 받을 수 있을까요?
감사합니다.
감사합니다.
감사합니다 교수님
정말 감사합니다 교수님
이 내용을 석사 1학년 때 먼저 봤다면 얼마나 좋았을까..
좋은 내용 감사합니다
좋은 강의 감사합니다
좋은 내용 감사합니다
너무 많은 도움이 되었습니다 정말 감사합니다
와 너무 좋은 자료와 강의 감사합니다!! ㅠㅠ
좋은영상 감사합니다.
진짜 명강의!
진짜 명강의입니다....
감사합니다. 정리가 잘됩니다.
차근차근 꼼꼼하게 알려주셔서 감사합니다.
강의 감사합니다
강의 감사합니다
강의 감사합니다
강의 잘 보고 있습니다. 감사합니다. 혹시 powerpoint 자료 좀 받을 수 있을까요?