[핵심 머신러닝] 정규화모델 1(Regularization 개념, Ridge Regression)

Regularization (정규화) 모델의 배경, 개념을 설명하고 개념적인 Regularization 모델인 Ridge Regression 에 대해 설명한다.

Пікірлер: 73

  • @user-mj8iw9yi1u
    @user-mj8iw9yi1uАй бұрын

    교수님 너무 좋은 강의 잘듣고 있습니다. 감사합니다

  • @jungeunk
    @jungeunk6 ай бұрын

    정규화 방법 제약 조건에 대한 그래프 항상 이해가 전혀 안 갔었는데, 이 영상 보고 드디어 이해 했습니다. 차근차근 설명해주셔서 감사합니다 교수님!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    6 ай бұрын

    고맙습니다!

  • @user-oo5me9sn1o
    @user-oo5me9sn1o3 ай бұрын

    산업공학과로 전과 준비중인 학생입니다. 교수님의 명쾌한 강의 덕분에 큰 도움 얻고 갑니다 감사합니다!!

  • @user-pw6np4ot1j
    @user-pw6np4ot1j3 ай бұрын

    글로만 읽어서 이해하기 어려움이 있었지만 교수님 덕분에 이해가 충분했습니다 감사합니다.

  • @Starcell170
    @Starcell1703 жыл бұрын

    설명이 진짜 너무 깔끔해요. 좋은 강의 감사합니다.

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다!

  • @DonDon-gs4nm
    @DonDon-gs4nm4 жыл бұрын

    와 진짜 설명을 너무 잘하시는 것 같습니다...! 좋은 강의 올려주셔서 정말 감사드립니다.

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    감사합니다!

  • @haone8433
    @haone84334 жыл бұрын

    쉽게설명해주셔서 너무좋은것같아요 정말초보자입장에서들었을때 잘알려주셔서감사합니다

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    감사합니다!

  • @user-dc7ge6lr2j
    @user-dc7ge6lr2j4 жыл бұрын

    와 너무 재밌어요 꼭 계속 올려주세요!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    감사합니다!

  • @seongapark9242
    @seongapark92427 ай бұрын

    흐름이 너무 매끄러워서... 다 이해해버렸습니다... 감사합니다!

  • @jongdeoklee6717
    @jongdeoklee67175 жыл бұрын

    이해하기 쉽게 잘 설명해주셔서 감사합니다.

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    5 жыл бұрын

    관심가져 주셔 감사합니다!

  • @Kevin031
    @Kevin0312 жыл бұрын

    설명 너무 자세하고 스무스합니다 큰도움받고갑니다~

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    2 жыл бұрын

    도움이 되셨다니 감사합니다. 감사합니다~

  • @user-on6pb2ib3d
    @user-on6pb2ib3d5 жыл бұрын

    헐. 대박. 주요한 point 를 잘 짚어 주시는 것 같습니다. 앞으로도 계속 부탁드립니다.

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    5 жыл бұрын

    감사합니다!

  • @hwanginchan4478
    @hwanginchan44783 жыл бұрын

    이해가되는 설명 감사합니다!

  • @user-xh5rq1tb3f
    @user-xh5rq1tb3f Жыл бұрын

    교수님 여전히 강의 보고있습니다! 이해가 너무 잘됩니다 감사합니다 ㅎㅎ

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    Жыл бұрын

    감사합니다!

  • @chanwoongjhon9367
    @chanwoongjhon93674 жыл бұрын

    6:53 least squares estimation 17:22 lamda 쓰인 이유: 미래 데이터의 정확성을 높이기 위해. lamda는 유저가 결정 22:38 ridge regression 33:20 least squares estimation과 ridge regression과의 차이

  • @user-sl9yr2dj7z
    @user-sl9yr2dj7z3 жыл бұрын

    와 진짜 이해 잘돼요 설명 대박..! 감사합니다 교수님!!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다!

  • @ph3633
    @ph3633 Жыл бұрын

    다른 유튜브 강의에서는 찾을 수 없던 설명 감사합니다...!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    Жыл бұрын

    감사합니다 ~

  • @dsadassad21310dsa
    @dsadassad21310dsa4 жыл бұрын

    너무 좋은 강의 잘 들었습니다!! 온라인 상에 나와있는 강의 중에 가장 이해가 잘 되는 것 같아요ㅜㅜ 감사합니다 :)

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    감사합니다!

  • @e.k1656

    @e.k1656

    3 жыл бұрын

    이해가 안되던 개념인데 확실히 개념을 잡아주셔서 감사해요

  • @superdope7782
    @superdope77822 жыл бұрын

    양질의 강의 너무 감사드립니다!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    2 жыл бұрын

    감사합니다!

  • @3h936
    @3h9363 жыл бұрын

    미국에서 데이터 분석 공학 석사과정중인데.. 학교 수업 듣고 완벽히 이해못했는데... 이 강의는 진짜 너무 물 흐르듯이 이해가 되네요... 감사합니다 ㅠㅠ

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다!

  • @MZ-pj4eq
    @MZ-pj4eq3 жыл бұрын

    교수님, 감사합니다!!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다!

  • @abcdeee1315
    @abcdeee13153 жыл бұрын

    안녕하십니까 교수님! 경영학과 학생입니다. 릿지회귀에 대해서 궁금했는데 싹 해결되었습니다. 머신러닝에 관심이 많은데, 교수님의 채널이 정말 큰 도움이 될것 같습니다. 좋은 강의 너무 감사드립니다!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다~

  • @annlove1226
    @annlove12263 жыл бұрын

    이해가 정말 잘 됩니다 감사합니다

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다!

  • @kwangminkim1735
    @kwangminkim17355 жыл бұрын

    정말 감사합니다

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    5 жыл бұрын

    감사합니다!

  • @dbsehdgur
    @dbsehdgur3 жыл бұрын

    LASSO 이용한 연구 하고있습니다. 좋은 강의 잘 들었습니다.

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다!

  • @user-py4wv1ss8c
    @user-py4wv1ss8c3 жыл бұрын

    감사합니다!!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다.

  • @dino3297
    @dino32973 жыл бұрын

    릿지회귀에서 분산이 작아진다는게 어떤의미인가요? 분산이 작아진다는건 예측값들의 흩어짐 정도가 커진다는 소리인데, 베타값이 작아지면 예측값들의 흩어짐 정도가 커지는건가요?

  • @user-cm9jf6zj9m
    @user-cm9jf6zj9m3 жыл бұрын

    와우...대박.. 사랑합니다 ..

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다 ^*

  • @yym3055
    @yym30555 жыл бұрын

    재밌다 ..

  • @user-ly9oc5qc8f

    @user-ly9oc5qc8f

    5 жыл бұрын

    감사합니다.

  • @user-ie8zj1xo1r
    @user-ie8zj1xo1r Жыл бұрын

    성범이형 폼 미쳤다

  • @yjh8317
    @yjh83173 жыл бұрын

    이거보다 좋은 강의를 본적이 없음 외국강의 제외하고...

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다!

  • @__Kimes
    @__Kimes2 жыл бұрын

    진짜 들으면서 운다 못알아듣는 영어로 받아쓰다시피 하다가 빛을 봤다..ㅠ

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    2 жыл бұрын

    감사합니다~

  • @josephahn2624
    @josephahn26243 жыл бұрын

    안녕하세요, regularization에 대해 어느 정도 이해가 되었네요, split bregman method에 대해 공부하고 있는데 너무 어렵네요ㅠㅠ

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    네. "split bregman method" 이해하기 쉽지 않은 방법론입니다.

  • @user-ym9jt6vs4t
    @user-ym9jt6vs4t3 жыл бұрын

    34:00 교수님 편미분되는 과정에서 2Xty 앞에 - 부호가 빠졌습니다

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    그렇네요... 세세한 부분까지 잘 봐 주셔 감사합니다!

  • @haone8433
    @haone84334 жыл бұрын

    23:40 에서 t와 람다는 제약을가한다는 의미로 같다고알고있습니다 t가 작을수록 제약의 정도가 커지고 람다는 작을수록 제약을 안두는쪽으로흘러가는걸로알고있는데 둘은 역수의 관계인가요? 그렇다면 어떻게 증명되는지알고싶네요 t를 30으로 두면 람다는 30분의 1로 뒀을때 같은식이되는건가요

  • @choonlog

    @choonlog

    3 жыл бұрын

    저도 궁금한 부분이었는데, 생각해보니.. 제약텀의 시그마를 풀어서 쓰면 [람다*(베타_1)^2 + 람다*(베타_2)^2] 인데, 이것은 어떤 최대값보다는 항상 같거나 작을겁니다(loss를 minimize할 때 MSE와 regularization term 둘 다를 만족시켜야 하기 때문에 반드시 regularization term의 어떤 최대값이 존재하게 됩니다). 그 최대값을 x라 두면 람다*(베타_1)^2 + 람다*(베타_2)^2

  • @haone8433
    @haone84334 жыл бұрын

    23:40 에서 배타제곱의합이 t보다 작게하자는 제약에서 베타제곱이 t랑같다는 제약으로놨을때 차이점이 뭔지궁금합니다 한마디로 제약이

  • @user-nd7zk4ts1r
    @user-nd7zk4ts1r4 жыл бұрын

    통계학 공부중인 학생입니다. penalized logistic regression 공부중인데, 패널, 제약의 이해가 힘들었습니다. 덕분에 많이 배우고 갑니다!!! 감사합니다 '^' 질문이 있습니다..! penalized, regularized method는 같은 뜻인가요..?

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    네. 같은 의미로 보시면 됩니다...

  • @user-nd7zk4ts1r

    @user-nd7zk4ts1r

    4 жыл бұрын

    @@user-yu5qs4ct2b 답변 감사합니다!

  • @TD-td2ji
    @TD-td2ji4 жыл бұрын

    29:42 에서 B1, B2값이 줄어든 것 까지는 이해가 되는데, 그때의 베타값들을 MSE식에 대입했을 때 MSE값이 줄어들었다고 볼 수 있는 근거는 무엇인가요? 만약 Y축이 B2가 아니라 MSE의 크기라면, 기존의 LSE점보다 낮은 곳에 점이 찍혀있으니 MSE가 줄어들었다고 이해 하겠는데, 위 슬라이드에서는 Y축이 MSE의 크기를 나타내는 것이 아닌, 단순 B2의 값이 줄어든 것을 의미하잖아요

  • @user-nd7zk4ts1r

    @user-nd7zk4ts1r

    4 жыл бұрын

    지나가던 통계학과 학생입니다!! beta_LS point에서 beta_j 값이 이동한다면 MSE는 항상 커집니다. MSE를 최소로 하는 beta point가 LS니까요(이 경우 penalty가 없는 LSE겠죠?). 베타들에 제약을 두어서 MSE가 LS_point에서 벗어나면서 제약이 만족되는 동시에 MSE가 가장 작은 beta_point(beta_ridge)를 찾는겁니다. 이때는 MSE가 LS때보다 커지지만(bias가 증가하지만), 분산이 작아지기때문에 좋은 성질을 갖는다고 이해했습니다. 조심스럽게 제 의견을 적었는데, 도움이 되셨길 바랍니다 ;)

  • @jeffchoi6179
    @jeffchoi61794 жыл бұрын

    김성범이라 쓰고 갓이라 읽는다.

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    감사합니다~

  • @user-bz8nm6eb6g
    @user-bz8nm6eb6g2 жыл бұрын

    감사합니다!!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    2 жыл бұрын

    감사합니다~