[Deep Learning 101] L1, L2 Regularization

Ғылым және технология

안녕하세요, 여러분! 오늘은 L1,L2 Regularization에 대해 소개해드리고자 영상을 준비해보았습니다. Regularization, 정규화에 대해 많이 들어보셨을 것으로 생각이 됩니다. 오늘 소개드릴 regularization은 딥러닝 모델의 학습과 최적화에 필요한 개념으로써 여러 딥러닝 모델들을 보다 더 잘 학습시키고 최적화 하는데 도움이 되기를 바랍니다.이 영상이 여러분이 딥러닝을 더 깊이 이해하는 데 도움이 되기를 바라며, 관심 있는 분들의 많은 시청 부탁드립니다. 감사합니다.
#regularization #l1l2 #정규화 #deeplearning #artificialintelligence #딥러닝 #인공지능
🎵 Song: 'Sappheiros - Embrace' is under a creative commons license license.
kzread.info/dron/xLK.html...
🎶 Music promoted by BreakingCopyright:
• 🍀 Chill Instrumental [...

Пікірлер: 21

  • @user-kt5ye4jz8t
    @user-kt5ye4jz8t18 күн бұрын

    직관적인 이해 감사합니다.진짜 감사합니다!

  • @phdshinAI

    @phdshinAI

    18 күн бұрын

    네 시청해주셔서 감사합니다! 앞으로도 많은 시청 부탁드려요

  • @wyj1023
    @wyj10236 ай бұрын

    정말 좋은강의 고맙습니다. 양질의 설명과 정성에 감사드립니다!

  • @phdshinAI

    @phdshinAI

    6 ай бұрын

    네 시청해주시고 좋은 댓글로 응원해주셔서 감사합니다!

  • @jayjeon5932
    @jayjeon5932Ай бұрын

    정말 쉽게 설명해주셔서 감사합니다!!!

  • @phdshinAI

    @phdshinAI

    Ай бұрын

    도움이 되셨다니 기쁩니다. 앞으로도 많은 시청 부탁드립니다!

  • @studyhard1928
    @studyhard19285 ай бұрын

    정말 이해하기 쉽게 설명을 해주셔서 많은 도움이 되었습니다. 감사합니다!

  • @phdshinAI

    @phdshinAI

    5 ай бұрын

    도움이 되셨다니 다행입니다. 감사합니다!

  • @user-ky3dg4uj6q
    @user-ky3dg4uj6q6 ай бұрын

    이렇게 좋은 채널 찾았습니다 감사합니다

  • @phdshinAI

    @phdshinAI

    6 ай бұрын

    네 감사합니다. 앞으로도 많은 시청 부탁드립니다.

  • @user-kt1vm9vv9y
    @user-kt1vm9vv9y3 ай бұрын

    @7:49 에서는 -식을 안으로 넣으면 A앞에도 -가 붙어야 되는거 아닌가요?

  • @phdshinAI

    @phdshinAI

    3 ай бұрын

    앗 네 엄밀히 말하면 그렇습니다. 날카로운 지적 감사합니다. (-A +/- 람다)가 되어주어야 하는것입니다.

  • @Chaterbones_official
    @Chaterbones_official2 ай бұрын

    5:42 어차피 MSE도 양수고, l1 regularization 항도 절댓값의 합이니 양수인데, 그럼 l1 regularization 항이 0일 때 MSE가 최소가 되는 게 맞지 않나요? 아니면 람다가 음수도 될 수 있는 건가요?

  • @phdshinAI

    @phdshinAI

    2 ай бұрын

    네 안녕하세요. 좋은 질문 감사합니다. 맞아요 저도 첨에 그 부분이 잘 이해가 가지 않았던것 같습니다. 다시 설명드려보도록 하겠습니다. MSE도 양수고 L1 regularization이 양수인것도 맞습니다. 그런데 L1 regularization이 0이 될 때 MSE가 최소가 되지는 않습니다. 여기서 MSE는 순수하게 모델의 예측값과 실제값사이의 오차를 말합니다. 그러면 만약 L1 regularization이 0이 된다고 가정하면 어떤 상황을 의미할까요? 모든 모델의 가중치 값들 w1, w2, w3,...이 다 0이 되어버린다는 것을 의미합니다. 그러면 어떤 입력이 들어와도 모델의 예측값도 0이 되어버리기 때문에 오히려 오차는 커져버립니다. 그러면 MSE + L1 값은 최소가 되지 않겠지요. regularization이 하는 일은 L1도 줄여가면서 또 동시에 MSE도 최소가 되는 적절한 지점을 찾아가는 것입니다. 답변이 되셨으면 좋겠고, 또 궁금하신것 언제라도 질문주세요. 감사합니다!

  • @Chaterbones_official

    @Chaterbones_official

    2 ай бұрын

    @@phdshinAI 아~ 그러네요! L1 Regularization 항이 0이 되면까지만 생각했지, 그게 0이 되려면 모든 weight가 0이어야 한다는 건 까맣게 잊어버렸네요ㅠㅠㅠ 감사합니다

  • @user-tc6qu1ju2c
    @user-tc6qu1ju2c5 ай бұрын

    대학교 전공 선택 잘하는 팁 ㅡ 이 제목으로 유튜브 동영상 만들어 주시면 좋겠어요 ㅎ

  • @phdshinAI

    @phdshinAI

    5 ай бұрын

    네 아주 중요한 부분이지요. 대학교 전공 선택은 본인의 꿈과 전망을 두루두루 고려해봐야겠지요. 제 채널과는 성격이 맞지 않지만, 유튜브에 다른 많은 분들이 좋은 영상을 이미 올려놓지 않았나 생각합니다.

  • @user-tc6qu1ju2c
    @user-tc6qu1ju2c5 ай бұрын

    님 컴퓨터 공학과 지원한 동기가 무엇인가요?ㅎ

  • @phdshinAI

    @phdshinAI

    5 ай бұрын

    네 인공지능을 알고싶어서 지원했습니다. ㅎㅎ

  • @user-tc6qu1ju2c
    @user-tc6qu1ju2c5 ай бұрын

    님 성공 하세요 ㅎ

  • @phdshinAI

    @phdshinAI

    5 ай бұрын

    넵 감사합니다. 늘 노력하겠습니다.

Келесі