[핵심 머신러닝] 로지스틱회귀모델 1 (로지스틱함수, 승산)

로지스틱 회귀모델의 기본 개념, 로지스틱 함수, 승산 (Odds)에 대해 설명합니다.

Пікірлер: 30

  • @user-ny6il8zb3t
    @user-ny6il8zb3t3 жыл бұрын

    이렇게 완벽한 강의를 ㅠㅠ 정말 돈주고도 못듣는 강의를 해주셔서 감사드려요!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다!

  • @gt4065b
    @gt4065b5 жыл бұрын

    Thank you so much for this lecture~~ Great Lecture~ Loved it~

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    5 жыл бұрын

    Thank you so much for your support!

  • @MZ-pj4eq
    @MZ-pj4eq3 жыл бұрын

    교수님, 강의 감사합니다!!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    감사합니다!

  • @user-ne6rk7bw2u
    @user-ne6rk7bw2u4 жыл бұрын

    좋은 강의 감사합니다

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    감사합니다 ~

  • @yoorakim8474
    @yoorakim84744 жыл бұрын

    좋은 강의 감사합니다!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    감사합니다!

  • @minimini4542
    @minimini4542 Жыл бұрын

    승산 개념이 잘 이해가 되지않았었는데 영상이 도움되었습니다. 감사합니다!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    Жыл бұрын

    도움이 되었다니 저도 기쁩니다!

  • @user-yo2rz6ih7p
    @user-yo2rz6ih7p2 ай бұрын

    이런 영상은 이과생들이 꼭 알아야 할 지식이다..

  • @user-kb8rw5dy1z
    @user-kb8rw5dy1z4 жыл бұрын

    정말 양질의 강의 감사드립니다. 제 머리에 흩어져있던 모든 개념들이 퍼즐 맞춰지듯이 정리가 되네요. 좋은 강의력에 깔끔한 시각화까지 더해져 군더더기가 없었던 것 같습니다 감사합니다~!~!

  • @user-kb8rw5dy1z

    @user-kb8rw5dy1z

    4 жыл бұрын

    하루만에 1강부터 랜덤포레스트까지 전부 시청해버렸습니다. 이번 학기에 딥러닝 수강하고 있는데 큰 그림 잡는 데에 정말정말 좋은 강의인 것 같네요 다시 한 번 감사드립니다

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    감사합니다!

  • @lillllilliiilllj
    @lillllilliiilllj5 жыл бұрын

    늦깍이로 경제학 석사과정에서 공부중입니다. 매우 도움이 되어 감사합니다

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    5 жыл бұрын

    감사합니다!

  • @Bulgogi_Haxen
    @Bulgogi_Haxen11 ай бұрын

    처음에 4:24에서 오차항이 0이라는 가정은 선형회귀가 binary data에는 적합하지 않는다는 설명하고 관련이 있는걸까요? 아니면 로지스틱 회귀에서의 가정일까요? 로지스틱 회귀에서는 반응 변수들이 베르누이 분포를 따르기 때문에 오차항에 대한 가정이 필요 없다고 알고있었어가지고 여쭤봐요.. 강의랑은 관련이 없지만.. 혹시 GLM들의 모집단 분포를 표현할 때는 항상 오차항을 넣어서 표현하는걸까요? 예를 들어 아래처럼요.. Y_i = \beta_0 + \beta_1 x_1 + .... + error g( E(Y_i) ) = \beta_0 + \beta_1 x_1 + .... \beta_k x_k 정말 죄송하지만 한가지만 더 여쭤볼게요... 로지스틱 회귀를 할 때는 그러면 로지스틱 함수에 관측된 설명변수들(X)을 통해 확률을 계산하고(회귀 계수는 뭐.. 여러가지 방법으로 초기화한다음에), 이를 통해 MLE를 통해서 회귀계수들을 조정하고, 이렇게 모델링된 확률( P(Y=1|X) ), 로지스틱 함수)을 Logit 변환을 통해 선형식으로 표현하는 이유가 단순하게, 선형회귀처럼 각 회귀계수들의 의미를 해석하기 편하도록 하기 위한건가요? (GLM 모두 포함해서.. ) 쓰다보니.. GLM 모두가 회귀계수 해석을 위해 만들어진건가보군요... 어렵네요 ㅠ.ㅠ.ㅠ.ㅠ.ㅠ... 항상 공부하면서 다른 영상들도 많은 도움을 받고 있습니다. 감사합니다.

  • @user-zj9xw7di1h
    @user-zj9xw7di1hАй бұрын

    10:45에서 로지스틱 함수 b0와b1은 무엇을 의미하는건가요??

  • @kksean4240
    @kksean42403 жыл бұрын

    페르미디락 분포함수에 나오는 sigmoid함수네요~!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    페르미-디랙 분포(Fermi-Dirac distribution) 처음 들었는데 흥미로운 내용인 것 같습니다.

  • @user-xz7tc3wc1l
    @user-xz7tc3wc1l3 жыл бұрын

    절단값을 추정하는 '요덴의 인덱스(youden index) 기법' 이 무엇인지 아시는지요? ㅠㅠ

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    3 жыл бұрын

    저도 처음 듣는 index 인데 검색을 해 보니 몇 가지 자료가 있네요... m.blog.naver.com/PostView.naver?isHttpsRedirect=true&blogId=sharp_kiss&logNo=221794149640

  • @user-kg7hr7fq6f
    @user-kg7hr7fq6f4 жыл бұрын

    교수님 강의감사합니다 강의를 듣다가 궁금한게있습니다. 혹시 odd취하고 log취한다고하셨었는데 log가아니라 ln을취해야하는거 맞는지 여쭙고싶습니다!

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    네. 맞습니다. 자연로그 ln이 보다 정확한 표현입니다~

  • @Jason-jj5te

    @Jason-jj5te

    2 жыл бұрын

    통계에서는 log가 ln입니다

  • @user-ub4hm9oi3t
    @user-ub4hm9oi3t4 жыл бұрын

    교수님 죄송하지만 영상에 쓰인 PPT는 따로 구할 수는 없는지요?

  • @user-yu5qs4ct2b

    @user-yu5qs4ct2b

    4 жыл бұрын

    죄송하지만 아직 공개는 하고 있지 않습니다. 추후 고려해 보겠습니다. 감사합니다.

  • @user-un4fd3yg2u
    @user-un4fd3yg2u2 жыл бұрын

    Aiing robots IingO2 bioingH2 nanoH6 robots O2OK

Келесі