어텐션 매커니즘 (Attention Mechanism) 이해하기

Пікірлер: 15

  • @zungwooker
    @zungwooker2 жыл бұрын

    영상 잘 봤습니다. 삽화도 보기 좋고 설명이 이해하기에도 좋네요. 많은 도움이 되었습니다 감사합니다.

  • @user-lj5mx3dj6b
    @user-lj5mx3dj6b2 жыл бұрын

    최근에 딥러닝을 정리하면서 세미나 자료를 만들고 있는데 정리가 참 잘되어 있는것 같습니다. 감사합니다

  • @user-hh8ry9zu5g
    @user-hh8ry9zu5g2 жыл бұрын

    구조 설명이 너무 잘 되어있어서 공부하는데 도움이 많이 되었습니다 감사합니다

  • @yonghunkim2303
    @yonghunkim23033 жыл бұрын

    제가 필요한 내용들이 잘 설명되어 있네요! 목소리도 듣기 좋으시고, 그래서 두번째 구독자가 되어봅니다:)

  • @tazoria
    @tazoria Жыл бұрын

    와... 너무 유익해요 ㅠㅠㅠㅠㅠㅠ감사합니다

  • @gaidna4387
    @gaidna4387 Жыл бұрын

    공부에 참고가 많이 됬습니다.

  • @horasmodifiedvideos9954
    @horasmodifiedvideos9954 Жыл бұрын

    4:45 RNN에서 가중치는 공유되지 않나요? 저 부분 설명이 잘 이해가 안가네요. x1-x4 모두 같은 가중치를 쓰는 것으로 알고 있습니다.

  • @user-dl6kb8tz2p
    @user-dl6kb8tz2p4 ай бұрын

    고수이십니다.

  • @jm-px3mr
    @jm-px3mr2 жыл бұрын

    무림의 고수님!!!

  • @asdfd3744
    @asdfd37446 ай бұрын

    출력벡터가 무엇인줄 알고 기계가 내적을 진행하나요?

  • @sion5224
    @sion5224 Жыл бұрын

    "어텐션 매커니즘(Luong attention)을 한국어로 가장 알기 쉽게 잘 풀어서 설명한 영상"

  • @OneBeanJinho
    @OneBeanJinho8 ай бұрын

    GOAT

  • @pennoo
    @pennoo Жыл бұрын

    혹시 장삐쭈님의 동생 되시나요? 장삐쭈 넘나 좋아..

  • @donghopark7558
    @donghopark75582 жыл бұрын

    중간에 화면이 잘려서 보이는데 저만 그런건가요..ㅜ 좋은 영상 감사합니다!

  • @jm-px3mr

    @jm-px3mr

    2 жыл бұрын

    저도 그래요. 일부러 확대하신 것 같기도 하고

Келесі