영상 잘 봤습니다. 삽화도 보기 좋고 설명이 이해하기에도 좋네요. 많은 도움이 되었습니다 감사합니다.
최근에 딥러닝을 정리하면서 세미나 자료를 만들고 있는데 정리가 참 잘되어 있는것 같습니다. 감사합니다
구조 설명이 너무 잘 되어있어서 공부하는데 도움이 많이 되었습니다 감사합니다
제가 필요한 내용들이 잘 설명되어 있네요! 목소리도 듣기 좋으시고, 그래서 두번째 구독자가 되어봅니다:)
와... 너무 유익해요 ㅠㅠㅠㅠㅠㅠ감사합니다
공부에 참고가 많이 됬습니다.
4:45 RNN에서 가중치는 공유되지 않나요? 저 부분 설명이 잘 이해가 안가네요. x1-x4 모두 같은 가중치를 쓰는 것으로 알고 있습니다.
고수이십니다.
무림의 고수님!!!
출력벡터가 무엇인줄 알고 기계가 내적을 진행하나요?
"어텐션 매커니즘(Luong attention)을 한국어로 가장 알기 쉽게 잘 풀어서 설명한 영상"
GOAT
혹시 장삐쭈님의 동생 되시나요? 장삐쭈 넘나 좋아..
중간에 화면이 잘려서 보이는데 저만 그런건가요..ㅜ 좋은 영상 감사합니다!
저도 그래요. 일부러 확대하신 것 같기도 하고
Пікірлер: 15
영상 잘 봤습니다. 삽화도 보기 좋고 설명이 이해하기에도 좋네요. 많은 도움이 되었습니다 감사합니다.
최근에 딥러닝을 정리하면서 세미나 자료를 만들고 있는데 정리가 참 잘되어 있는것 같습니다. 감사합니다
구조 설명이 너무 잘 되어있어서 공부하는데 도움이 많이 되었습니다 감사합니다
제가 필요한 내용들이 잘 설명되어 있네요! 목소리도 듣기 좋으시고, 그래서 두번째 구독자가 되어봅니다:)
와... 너무 유익해요 ㅠㅠㅠㅠㅠㅠ감사합니다
공부에 참고가 많이 됬습니다.
4:45 RNN에서 가중치는 공유되지 않나요? 저 부분 설명이 잘 이해가 안가네요. x1-x4 모두 같은 가중치를 쓰는 것으로 알고 있습니다.
고수이십니다.
무림의 고수님!!!
출력벡터가 무엇인줄 알고 기계가 내적을 진행하나요?
"어텐션 매커니즘(Luong attention)을 한국어로 가장 알기 쉽게 잘 풀어서 설명한 영상"
GOAT
혹시 장삐쭈님의 동생 되시나요? 장삐쭈 넘나 좋아..
중간에 화면이 잘려서 보이는데 저만 그런건가요..ㅜ 좋은 영상 감사합니다!
@jm-px3mr
2 жыл бұрын
저도 그래요. 일부러 확대하신 것 같기도 하고