Пікірлер

  • @user-wx1ty7yj3r
    @user-wx1ty7yj3r3 ай бұрын

    6년 전 자료라는게 놀랍네요. 설명뿐 아니라 질문들 또한 너무 좋았습니다.

  • @NaN_000
    @NaN_0005 ай бұрын

    Could you kindly provide the pseudocode?

  • @gaspell
    @gaspell8 ай бұрын

    fourier feature가 어떻게 high frequency 들에 잘 피팅되게 하는건가요? 그니까음 ntk 가 stationary 해지는 것과 high freq에 잘 피팅된다는 것 과 어떻게 연관이 있는 건가요???

  • @aswinorlandods5908
    @aswinorlandods590810 ай бұрын

    its cool sir

  • @gaspell
    @gaspell10 ай бұрын

    super resolution에서 좋겠네요 잘 봤습니다

  • @jeffreylim5920
    @jeffreylim5920 Жыл бұрын

    5:00 likelihood 가 tracktable 하다는게 아직 이해가 안가네요 (한번 더 영상보고 답글에 답 달아보겠습니다..!)

  • @jeffreylim5920
    @jeffreylim5920 Жыл бұрын

    z 가 intracktable 한 이유는 모든 z 를 추적할 수 없기 때문인데 모든 p(x | p x_i) 는 추적할 수 있는걸까요

  • @jeffreylim5920
    @jeffreylim5920 Жыл бұрын

    그렇다. P(X) 를 알아낼때 marginal prob 를 알아내는 것은 불가능하지만 chain prob 곱을 알아내는 건 가능한 것이다.

  • @gouravnaik3273
    @gouravnaik3273 Жыл бұрын

    if this video was in english :)

  • @hojinius
    @hojinius Жыл бұрын

    감사합니다~!

  • @kimchi_taco
    @kimchi_taco Жыл бұрын

    교수님, Consistency Model 분석 해주시면 안될까요?

  • @Ethan-po8ji
    @Ethan-po8ji Жыл бұрын

    wow, though I can't understand what you are talking, still getting some useful information from your nicely done ppt

  • @user-th8dr3iu5g
    @user-th8dr3iu5g Жыл бұрын

    덕분에 아웃라인을 잡고 논문 읽는데 도움이 많이 되었습니다! 감사합니다

  • @jeffreylim5920
    @jeffreylim5920 Жыл бұрын

    1. sampling 은 미분이 안됨. 2가지 remedy 가 제시됨 - 외주 (reparameterization trick) : stochastic 한 부분은 업데이트가 일어나지 않는 분포에서 random 값 가져와서 업데이트가 일어나는 discrete한 부분과 더해줌 - 치환 (score function estimator) : 확률 형태를 뽑기 위해 d logx = 1/x 의 성질 이용해서 식을 바꿈. 2. 1의 방법들은 continuous 한 z 를 뽑을 때는 좋은데 discrete 한 z 를 뽑을 때는 적용하기 곤란함 - 미분가능한 discrete variable 샘플링 방법인 gumbel softmax 도입. - 외주 방법(gumbel noise) 을 통해 랜덤성을 확보하고, temperature + softmax 를 통해 argmax 역할을 대체하면서 미분도 가능함

  • @mingyukim3857
    @mingyukim3857 Жыл бұрын

    안녕하세요, 유교수님 김민규입니다. 요새 INRs 관련 연구들을 팔로우업 하고 있는데 너무 유익한 세미나 해주셔서 감사합니다~ 이에 더해 NTK를 이렇게 자연스럽게 설명해주실 수 있는 분도 어디있을까싶네요! 또 이렇게 도움받아 갑니다~

  • @user-vb4wd8uq6e
    @user-vb4wd8uq6e Жыл бұрын

    감사합니다 유재준 교수님! 어려운 논문 너무 이해하기 쉽게 설명해주셔서.... ㅠ

  • @hotohoto2
    @hotohoto2 Жыл бұрын

    32:49 "구지 깔끔한 x 에 noise를 넣어주지?" 제 소견으로는 y대신 깔끔한 x를 사용하면 또 다른 의미에서 low density 영역을 사용하게 되기 때문에 좋지 않은 방법인 것 같습니다. 반쪽은 깨끗한 관측 데이터이고 반쪽은 noise로 채워진 데이터는 스코어 함수 학습시에 보지 못했을 것입니다. 이런 x를 그대로 사용하는 것 보다는 signal은 x에서 가져오되 전체적인 noise의 비율은 스코어 함수를 학습할 때와 최대한 비슷한 형태가 되도록 y를 만들어 사용하는 것이 보다 좋은 성능을 기대할 수 있는 자연스러운 방법이지 않나 생각이 듭니다.

  • @Rototornik
    @Rototornik Жыл бұрын

    What's the point of having a title in english if there are no subtitles?

  • @ADIIIIIIIIIIIIIIIIIIIIIIIIIIII
    @ADIIIIIIIIIIIIIIIIIIIIIIIIIIII Жыл бұрын

    course name being english, its common for other language classes

  • @Vanadium404
    @Vanadium40410 ай бұрын

    FR

  • @thesmallnotesduo
    @thesmallnotesduo Жыл бұрын

    Talk about stating the bleeding obvious.

  • @ADIIIIIIIIIIIIIIIIIIIIIIIIIIII
    @ADIIIIIIIIIIIIIIIIIIIIIIIIIIII Жыл бұрын

    me

  • @kimchi_taco
    @kimchi_taco Жыл бұрын

    굉장한 설명 감사합니다. 25:50 논문 구현에서 f(x,t)는 구체적으로 무엇인가요? ddpm에서 sqrt(1-beta)*x_t의 극한 모양일것 같다고 예상됩니다만.

  • @kimchi_taco
    @kimchi_taco Жыл бұрын

    kzread.info/dash/bejne/lpOsm5SvoKy9drA.html 이 f(x,t) and g(t)의 모양이 DDPM에서 어떻게 되는건지 설명합니다. 그걸 이해하고 나니 30:00 에서 무슨 이야기를 하는지도 이해가 되네요.

  • @HoonsBe
    @HoonsBe Жыл бұрын

    와 정말 이해가 잘되는 강의였습니다! 다른분들 질문도 그렇고 대답하시는 강연자분도 그렇고 이해에 도움이 되는 질의가 가득하네요

  • @rlgnswk7512
    @rlgnswk75122 жыл бұрын

    잘 설명해주셔서 감사합니다! 교수님 덕분에 새로운 인사이트를 얻고 갑니다!!

  • @temporary9490
    @temporary94902 жыл бұрын

    듣고 나니 감동의 눈물이 흘러내렸습니다 교수님 감사합니다...

  • @kimchi_taco
    @kimchi_taco2 жыл бұрын

    11:30 DDPM은 clever하게 ∆ logP == N(0,1)이 되는 상황을 만들어 그냥 fisher divergence를 loss로 쓴거였군요.

  • @user-oy3jt6rf5f
    @user-oy3jt6rf5f2 жыл бұрын

    좋은 강의 감사합니다~

  • @redpeppertunaattradersday1967
    @redpeppertunaattradersday19672 жыл бұрын

    유익한 영상 감사합니다! 논문 읽으면서 NTK 에 대해서도 어렴풋이 이해하고 있었는데 알기 쉽게 설명해주셔서 너무 좋네요 ㅎㅎ

  • @jaejunyoo
    @jaejunyoo2 жыл бұрын

    도움이 되셨다니 다행입니다.

  • @kimchi_taco
    @kimchi_taco2 жыл бұрын

    미친 설명입니다! 'Lil'Log: What are Diffusion Models?' 블로그 읽고 'score matching이 뭐지?' 하고 넘어갔었는데, 잘 배웠습니다.

  • @user-qv5kg7ik6t
    @user-qv5kg7ik6t2 жыл бұрын

    대충만 알고 있었는데 듣고 나니 전체적으로 연결이 되네요 ㅎ 감사합니다 ^^

  • @SceneTheElla
    @SceneTheElla2 жыл бұрын

    최강설명...

  • @Choikwangmin
    @Choikwangmin2 жыл бұрын

    문득 든 생각인데, 만약에 입력이 좌표가 아니라 이미지나 음성이라면, 입력 신호의 주파수를 변조해서 뉴럴넷의 입력으로 넣으면 신호를 복원할 때 효과가 있을까요? ㅎㅎ

  • @jaejunyoo
    @jaejunyoo2 жыл бұрын

    그렇게 하도록 한게 Fourier feature라고 생각하고 있긴 합니다 ㅎㅎ

  • @Choikwangmin
    @Choikwangmin2 жыл бұрын

    여윽시 유교수님 ㅋㅋ 재밌는 얘기들 많이 듣고 갑니다 ㅎㅎ

  • @jaejunyoo
    @jaejunyoo2 жыл бұрын

    ㅎㅎ 감사합니다 광민님 잘 지내시죠? ㅎㅎ

  • @Choikwangmin
    @Choikwangmin2 жыл бұрын

    @@jaejunyoo 넵 그럭저럭요 ㅎㅎ 다시 학생으로 돌아간다면 유교수님 학생이 되고싶군요 ㅋㅋ 종종 재밌는 얘기들 들려주세요 ㅎ 이번 리뷰도 유익했네요 ^^

  • @ghdrlqud
    @ghdrlqud2 жыл бұрын

    너무너무 좋은 자료 감사드립니다

  • @user-xx7fc6qo7i
    @user-xx7fc6qo7i2 жыл бұрын

    이해하는데 많은 도움이 되었습니다. 감사합니다. 😀

  • @kadadtemha
    @kadadtemha2 жыл бұрын

    Hi, can you share the presentation?

  • @user-jt5fj9fk4q
    @user-jt5fj9fk4q2 жыл бұрын

    감사함니다

  • @MingiKwon
    @MingiKwon2 жыл бұрын

    감사합니다

  • @harshgehlot5093
    @harshgehlot50933 жыл бұрын

    Please upload it in english .

  • @jaewoopark8149
    @jaewoopark81493 жыл бұрын

    좋은 강의 감사합니다!!

  • @km-ss7st
    @km-ss7st3 жыл бұрын

    확실히 cnn보다 미래지향적인 방향으로 보입니다!

  • @user-sc5kc6tj5l
    @user-sc5kc6tj5l3 жыл бұрын

    Implicit neural Representation에 대한 의문이 확 풀렸습니다 감사합니다~

  • @jaejunyoo
    @jaejunyoo2 жыл бұрын

    도움이 되셨다니 다행입니다.

  • @hanyoseob
    @hanyoseob3 жыл бұрын

    유재준 교수님 :D 오늘도 많이 배우고 갑니다 !!!

  • @jaejunyoo
    @jaejunyoo2 жыл бұрын

    요섭형!!!!! ㅋㅋ 보고싶습니다.

  • @hanyoseob
    @hanyoseob2 жыл бұрын

    @@jaejunyoo 아이고 ㅋㅋ 우리 유재준 교수님 ㅋㅋㅋ LAIT 에 무궁한 발전을 기원합니다 !! 연구실이 너무 멋집니다 😄 부러웡 ㅋㅋㅋ

  • @ehkim1977
    @ehkim19773 жыл бұрын

    감사합니다. :-) 설명 잘 들었습니다.

  • @MingiKwon
    @MingiKwon3 жыл бұрын

    감사합니다. 상당히 흥미롭군요

  • @kimchi_taco
    @kimchi_taco3 жыл бұрын

    흥미로운 논문 잘 배웠습니다. 내용의 깊이와 넓이, 전달력 모두 최고시네요. 최근에 MLP-Mixer에서 MLP를 FFT로 교체한 FNet이라고 나왔는데, FFT를 scatter layer로 교체해서 누가 Scatterfomer논문 쓰면 될것 같습니다. kzread.info/dash/bejne/fH6GldJ7nJqeqto.html

  • @johnwu5908
    @johnwu59083 жыл бұрын

    잘봤습니다. 좋은영상 감사합니다

  • @jeffreylim5920
    @jeffreylim59203 жыл бұрын

    35페이지짜리 논문을 35분만에 볼 수 있다니..!

  • @jamesang7861
    @jamesang78613 жыл бұрын

    we need AI to translate this into english...

  • @shingookang6396
    @shingookang63963 жыл бұрын

    설명을 왜 이렇게 잘하세요

  • @javax0
    @javax03 жыл бұрын

    좋은 설명 감사합니다. 그런데 혼동되는 부분이 있네요.. Transform Matrix 들은 Training 대상이고, cij (capsule-wise scale factor) 는 inference 과정 중 feature에 따라 dynamic 하게 계산되어야 하는 것이지요?

  • @_sanso9994
    @_sanso99943 жыл бұрын

    설명 정말 잘 들었습니다. 이미지 인식 모델에 한번 적용해 봐야겠어요 :)

  • @mashup3594
    @mashup35944 жыл бұрын

    Sir can you plz translate it in English ..

  • @user-td1vp3uw7n
    @user-td1vp3uw7n4 жыл бұрын

    제가 깨달은 바를 바탕으로 15:08 Diagonal biLSTM 파트 부연설명하자면, 오른쪽->왼쪽 hidden state들을 왼쪽->오른쪽 hidden state에 간편하게 더해주기 위해서, 15:15와 같은 방식으로 parallelization 하되(이 경우 왼쪽으로 skew하겠죠) 아웃풋 맵을 전부 한칸씩 밑으로 내려서, 왼쪽->오른쪽 hidden state에 더합니다. 한칸 씩 밑으로 안 내린다면 해당 픽셀이 미래 정보(자기와 같은 열 오른쪽에 있는)를 보게됩니다.