오토인코더의 모든 것 - 1/3

Ғылым және технология

발표자: 이활석(NAVER)
tv.naver.com/naverd2 더욱 다양한 영상을 보시려면 NAVER Engineering TV를 참고하세요.
발표일: 2017.11.
최근 딥러닝 연구는 지도학습에서 비지도학습으로 급격히 무게 중심이 옮겨지고 있습니다. 본 과정에서는 비지도학습의 가장 대표적인 방법인 오토인코더의 모든 것에 대해서 살펴보고자 합니다. 차원 축소 관점에서 가장 많이 사용되는 Autoencoder와 (AE) 그 변형들인 Denoising AE, Contractive AE에 대해서 공부할 것이며, 데이터 생성 관점에서 최근 각광받는 Variational AE와 (VAE) 그 변형들인 Conditional VAE, Adversarial AE에 대해서 공부할 것입니다. 또한, 오토인코더의 다양한 활용 예시를 살펴봄으로써 현업과의 접점을 찾아보도록 노력할 것입니다.
1. Revisit Deep Neural Networks
2. Manifold Learning
3. Autoencoders
4. Variational Autoencoders
5. Applications
발표 슬라이드:
www.slideshare.net/NaverEngineering/ss-96581209

Пікірлер: 53

  • @ByungJoonSong
    @ByungJoonSong2 жыл бұрын

    이런 강의를 무료로 볼 수 있는 세상이라는게, 놀라울 따름입니다. 좋은 강의 감사합니다.

  • @gwanghyunbradleykim1083
    @gwanghyunbradleykim10834 жыл бұрын

    감동의 도가니탕입니다 감사합니다 이활석님!

  • @user-jp1eg8dz4e
    @user-jp1eg8dz4e2 жыл бұрын

    반복해서 보고있습니다. 감사합니다 .

  • @yeonwoosung491
    @yeonwoosung4914 жыл бұрын

    좋은 강의 공유해주셔서 감사합니다! 많이 배우고 갑니다!

  • @bntejn
    @bntejn5 жыл бұрын

    좋은 강의 공유해주셔서 감사합니다!

  • @gyeonghokim
    @gyeonghokim3 жыл бұрын

    정말 좋은 강의 고맙습니다

  • @leeminize
    @leeminize5 жыл бұрын

    정말 명쾌한 강의 감사드립니다.

  • @user-fz9mb9mm9d
    @user-fz9mb9mm9d5 жыл бұрын

    너무 좋네요 강의

  • @firstpenguin5653
    @firstpenguin56533 жыл бұрын

    여전히 이 강의는 오토인코더의 시작과 끝이네요. 감사합니다.

  • @fhzh123
    @fhzh1235 жыл бұрын

    감사합니다!!

  • @user-wb1tz2bc8f
    @user-wb1tz2bc8f3 жыл бұрын

    전문가의 질 높은 강의 공유에 큰 감사를 표합니다 :D

  • @user-hr3tn9jg8p
    @user-hr3tn9jg8p4 жыл бұрын

    2년 전 자료이지만 여전히 훌륭하네요

  • @user-kc4eg4xk4l
    @user-kc4eg4xk4l4 жыл бұрын

    활석님 강의 믿고 들었습니다~ 따봉!!

  • @hoxyoh2584
    @hoxyoh25842 жыл бұрын

    최고의강의, 감사합니다.

  • @ilovemyminutes
    @ilovemyminutes3 жыл бұрын

    섬세한 설명 감사드립니다!!!

  • @jasonhan778
    @jasonhan7784 жыл бұрын

    와우... 좋은강의 감사합니다

  • @bktsys
    @bktsys5 жыл бұрын

    Thank you for your kind presentation!

  • @user-sh6lg3tr7r
    @user-sh6lg3tr7r4 жыл бұрын

    감사합니다.

  • @yuminkim7264
    @yuminkim72646 жыл бұрын

    감사합니다!

  • @user-uw4zp6qu3x
    @user-uw4zp6qu3x3 жыл бұрын

    좋은 강의 감사합니다^^

  • @user-zb9xd4dj4y
    @user-zb9xd4dj4y3 жыл бұрын

    좋은 강의 감사드립니다 ㅠㅠ 더 많은 강의를 보고싶네용..

  • @user-mn2kx6fk5k
    @user-mn2kx6fk5k13 күн бұрын

    레전드입니다 감사합니다

  • @choihojo
    @choihojo Жыл бұрын

    좋은 강의 감사합니다.

  • @samuelpark7543
    @samuelpark75434 ай бұрын

    좋은 강의 감사합니다

  • @kotai2003
    @kotai20034 жыл бұрын

    처음의 1.Revisit Deep Neural Networks만 띄어서 별개로 개제했으면 좋겠습니다. 기초를 잡는데 굉장히 좋은 내용입니다.

  • @KIMSHIUHN
    @KIMSHIUHN4 жыл бұрын

    금과옥조..... 갓강의입니다

  • @user-cs1vs7qz3d
    @user-cs1vs7qz3d2 жыл бұрын

    와우 감사합니다.

  • @user-rm6pq2de8o
    @user-rm6pq2de8o6 жыл бұрын

    이야 감사합니다!

  • @user-ei6ty5cb1i
    @user-ei6ty5cb1i4 жыл бұрын

    개꿀개꿀 개꿀띠에요

  • @user-hq1jz5pb8w
    @user-hq1jz5pb8w3 ай бұрын

    5년이 지난 영상임에도 배울게 아직 많은 영상입니다!!

  • @uoaj
    @uoaj3 жыл бұрын

    1:03:15

  • @hyeungyunkim3169
    @hyeungyunkim31694 жыл бұрын

    11page에서 ML설명할때 (x,y,f)가 확률 events의 random 변수라는 것을 정의하여야 한다. 또한 system identification관점에서 ML을 생각해야죠

  • @nicewook
    @nicewook6 жыл бұрын

    감사히 보고 있습니다. 전체를 다 꿰고 계신 분의 강의라는 생각이 듭니다. 질문이 하나 생겼습닏.41:48 에서 MLE 부분을 듣고 있습니다. 가우시안 분포 또는 베르누이 분포를 따를거다라는 식으로 가정을 한다는 부분이었는데 (물론 완벽한 전체 y는 모르겠지만) 우리는 y 레이블 값들을 왕창 가지고 있는데 이것의 실제 분포를 그려보고 가장 유사한 분포로 가정을 할 수는 없는 것일까요?

  • @JongGwanLim

    @JongGwanLim

    5 жыл бұрын

    실제 가지고 있는 empirical data에 기반하여 분포를 그려볼 수는 있습니다만 그럴 경우 generalization에는 불리할 수 있습니다. 내가 가진 데이터셋에 최적화된 결과니까요.

  • @kgvfffggrvgff

    @kgvfffggrvgff

    3 жыл бұрын

    통상적으로 자연계의 분포는 가우시안 분포로 수렴되는걸로 알고있습니다. 따라서 빅데이터라는 개념으로보면 데이터가 많으면 많을수록 가우시안분포로 가정을 하는것이 일반화의 측면으로는 맞는것같습니다. 그리고 만약 어떤현상에 대해서 모수를 정확히 알고있으면 그 모수에 맞는 정확한 분포를 넣는게 맞지만 통상 우리가 접근하는 분석 대상은 모수가 계속 변화하기 때문에 정확한 분포라고 구해도 결국 그 한순간에 맞기때문으로 저는 이해하고있습니다. 혹시 아니면 누가 좀 말씀 주세요...T T

  • @user-ef5et7iv8u
    @user-ef5et7iv8u11 ай бұрын

    1:13:15

  • @lfirnnne
    @lfirnnne2 жыл бұрын

    오토인코더 설명해주실때 RBM을 요즘 안쓴다는게 왜 그런건지 알 수 있을까요?

  • @user-ux3wg1xj9s
    @user-ux3wg1xj9s6 ай бұрын

    29:00 Backprop

  • @user-tx9lv3bt8h
    @user-tx9lv3bt8h3 жыл бұрын

    좋은 강의를 올려주셔서 감사합니다. 질문이 있어 댓글을 남깁니다. 21:04 에서 왜 gradient of L의 제곱이 L2 norm이 되는 거죠?

  • @yuno_kim
    @yuno_kim Жыл бұрын

    17:33

  • @user-uu7bi8if5g
    @user-uu7bi8if5g4 жыл бұрын

    안녕하세요! 좋은 강의 감사합니다! 혹시 깃허브 계정 남겨주실 수 있을까요??

  • @chanlee-qi7re
    @chanlee-qi7re5 жыл бұрын

    혹시 backpropagation의 두 가정에 대해서 조금 더 수학적으로 설명한 논문이나 참고할만한 자료가 있나요?

  • @kimchi_taco

    @kimchi_taco

    4 жыл бұрын

    Ian Goodfellow의 deep learning book 이요

  • @dhyoo970111
    @dhyoo970111 Жыл бұрын

    25:21

  • @hyeungyunkim3169
    @hyeungyunkim31694 жыл бұрын

    17page p(x:x)와 p(x)에 대하여 정의가 불분명하네요

  • @jackjack-xz7dz
    @jackjack-xz7dz3 жыл бұрын

    19:50

  • @jackjack-xz7dz

    @jackjack-xz7dz

    3 жыл бұрын

    49:30

  • @jackjack-xz7dz

    @jackjack-xz7dz

    3 жыл бұрын

    1:07:32

  • @jackjack-xz7dz

    @jackjack-xz7dz

    3 жыл бұрын

    1:30:00

  • @jackjack-xz7dz

    @jackjack-xz7dz

    2 жыл бұрын

    1:13:52

  • @jackjack-xz7dz

    @jackjack-xz7dz

    2 жыл бұрын

    1:19:00

  • @bayesianlee6447
    @bayesianlee64475 жыл бұрын

    s.o.t.a