AGIST

AGIST

Gwangu Institute of Science and Technology(GIST) Artificial Intelligence Group

PV-RCNN paper brief review

PV-RCNN paper brief review

Пікірлер

  • @user-xe4mv1mh1u
    @user-xe4mv1mh1u8 ай бұрын

    도움이 많이 되었습니다. 감사합니다.

  • @alawyarammah488
    @alawyarammah488 Жыл бұрын

    although I do not understand the Chinese language, I've got the main ideas with these slides (thank you a lot)

  • @John-sj5sk
    @John-sj5sk Жыл бұрын

    해당 자료 설명은 GNN입니다. GCN 이 아니라.

  • @Dududung97
    @Dududung972 жыл бұрын

    좋은 강의 감사합니다

  • @user-wm8mk1hw5v
    @user-wm8mk1hw5v2 жыл бұрын

    간단한 정리 감사합니다

  • @user-ru3ol7rk6q
    @user-ru3ol7rk6q2 жыл бұрын

    혹시 quantization loss for voxelization이 어떤 것을 의미하는지 설명 부탁드려도 될까요??

  • @elmehdioutbarkate3710
    @elmehdioutbarkate37102 жыл бұрын

    한국어를 못해도 너무 감사합니다

  • @kwankiahn4893
    @kwankiahn48932 жыл бұрын

    감사합니다, 이해하는데 큰 도움이 됐어요.

  • @dutranngoc9121
    @dutranngoc91212 жыл бұрын

    i wish this video is eng

  • @goodlife656
    @goodlife6563 жыл бұрын

    참고자료를 활용하여 더 멋진 자료를 만드신거 같습니다. 잘 봤습니다. 감사합니다

  • @_Intake__Gourab
    @_Intake__Gourab3 жыл бұрын

    This is good!

  • @robotman7101
    @robotman71013 жыл бұрын

    감사합니다.

  • @robotman7101
    @robotman71013 жыл бұрын

    thanks

  • @ryan_soo6655
    @ryan_soo66553 жыл бұрын

    감사합니다...! 정말 잘 이해가 되었습니다.

  • @prashant_canada
    @prashant_canada3 жыл бұрын

    can i get a code for it please?

  • @gogoraranyny
    @gogoraranyny3 жыл бұрын

    감사합니다 그래프 공부하다가 막햤었는데 단번에 이해됐습니다

  • @xianchaowu5181
    @xianchaowu51813 жыл бұрын

    The PPT is wonderful! Just could not understand the Korean voice... Appreciate if there are any English voice for explaining...

  • @doclsvlc7878
    @doclsvlc78783 жыл бұрын

    지나가는 학부생인데 잘봤습니다.

  • @user-sz8hb3pv5f
    @user-sz8hb3pv5f3 жыл бұрын

    좋은 자료 공유 감사합니다^^. 혹시 KODAS 데이터셋을 공유해주실 수 있을까요? 현재 KODAS 홈페이지에 문제가 있는지 데이터셋 다운로드가 안되네요ㅠ 가능하시다면 부탁드리겠습니다~

  • @Nanum0320
    @Nanum03203 жыл бұрын

    너무너무 유익한 발표입니다

  • @ruind.8511
    @ruind.85113 жыл бұрын

    감사합니다!

  • @kyung-taekim4004
    @kyung-taekim40044 жыл бұрын

    감사합니다. 설명도 좋았고, 준비하신 강의 자료도 대단히 좋았습니다.

  • @user-xb4zb5oe4x
    @user-xb4zb5oe4x4 жыл бұрын

    감사합니다!

  • @user-wm8mk1hw5v
    @user-wm8mk1hw5v4 жыл бұрын

    깔끔한 정리 감사합니다.

  • @naveedilyas1262
    @naveedilyas12624 жыл бұрын

    I need this presentation in english subtitles

  • @KarlVonBismark
    @KarlVonBismark2 жыл бұрын

    U should learn Korean jajaja

  • @nichevo
    @nichevo4 жыл бұрын

    всё ясно

  • @zyxwvutsrqponmlkh
    @zyxwvutsrqponmlkh4 жыл бұрын

    AAAAHHHH the moon speak is THICK. Onion Ha Say YO!!!! >_< I can't this level of moon, my brain to mush and melts out my ears. The google trans literate returns results such as. "If you multiply the Rye Cloud on the very right, you will be able to save Lycra from the original treasury." I can't even.

  • @coprocopter
    @coprocopter4 жыл бұрын

    Kim on you

  • @aliboudjema78
    @aliboudjema784 жыл бұрын

    thank u for this presentation , i wonder if you have english version ?

  • @juyounglee6347
    @juyounglee63474 жыл бұрын

    유익한 영상 감사합니다!

  • @curieuxjy
    @curieuxjy4 жыл бұрын

    와..정말 좋은 강의 감사합니다!! 👍

  • @curieuxjy
    @curieuxjy4 жыл бұрын

    좋은 강의 감사합니다!

  • @agist8551
    @agist85514 жыл бұрын

    질의응답 정리입니다 :) Q: Figure 1 이 정확히 어떤의미 인지 감이 잡힌다. A: x_0와 주변의 y의 관계를 이용하여서 입력 단계에서 볼수 없었던 새로운 features들을 만들수있습니다. 이를 이용하여 이후 이어지는 논문인 Deep Continuous Fusion for Multi-Sensor 3D Object Detection에서는 BEV feature map을 조금 더 dense하게 만드는데 사용합니다. 여기서 BEV feature map을 dense하게 만드는 이유는 보통 일반적인 접근법인 LiDAR data를 image plane으로 projection하여 depth information으로 사용하는것이 아닌 image의 feature를 BEV feature map으로 projection하기 때문입니다. 이때 발생하는 image는 dense, LiDAR는 sparse한 차이 문제를 해결할 수 있게 됩니다. Q: Locality Enforcing이 어떤의미인지? A: Locality Enforcing을 하지않게 되면 각각의 포인트들이 모든 점들과의 관계를 고려해야하기 때문에 이는 계산량 증가로 이어지게됩니다. 이를 방지하기위하여 주변 K개의 점 또는 정해진 반경 안의 점들만을 고려하도록 Locality를 Enforcing하는것입니다. Q: 컨볼루션을 통과하게되면 point가 출력되는지 feature가 출력되는지 궁금하다. A: 컨볼루션을 통과하여 출력되는것이 h인데 이것은 feature vector입니다. 따라서 feature를 출력하는것으로 보는게 맞는것같습니다.

  • @agist8551
    @agist85514 жыл бұрын

    Q. XGBoost나 배깅을 쓰면 더 성능이 좋을것 같은데 시도 해봤는지? A. 아직 해보지 않았습니다. 잘 몰라서 생각해보지 않은 방법이었는데 좋은 의견 감사합니다. Q. 인풋이 (200,9) 였는데 이해가 잘 가지 않습니다. A. 데이터의 양이 부족하기 때문에 환자의 데이터를 늘리기위해 최대데이터길이를 가진 환자의 길이로 모두 다 패딩으로 맞추니까 8000개의 데이터로 맞춰졌습니다. 한번에 넣기에는 환자에 대한 데이터가 너무 작기 떄문에 40등분 하여서 200개씩 총 40시행을 진행해 다수결 알고리즘 을 진행하였습니다. Q. 시계열 데이터를 사용하게 되면 사실 LSTM을 사용하는 것보다 1D-CNN을 사용할때 결과가 좋은경우들을 많이 봤습니다. 1D-CNN도 한번 사용해서 결과를 내보는것도 좋을것 같습니다. 딥러닝을 사용하면 사실 해석도 매우 중요한데 논문에 어필할수 있는 것들에 대한것도 준비 하는게 좋을것 같습니다.. 그리고 준호님이 전력예측에 대한 연구를 하시는데 타임시그널 예측에는 딥러닝보다 전통적인 기술들인 Moving Average모델 혹은 ARMA모델에 대해서 성능이 훨씬 잘 나왔다고 하셨는데 이쪽도 참고해보시면 좋을것 같습니다. A. - Q. 딥러닝을 사용하기에 데이터가 너무 작지 않나? A. 사실 환자의 데이터가 너무 작아서 딥러닝을 쓰기에 무리가 있는데 일단 제가 쉽개 생각할수있는 패딩과 프레임을 씌우는 것으로 데이터를 늘려봤고, 데이터의 문제를 해결할수 있는 방안을 좀더 해결해 봐야 할것 같다. Q. 혹시 파라미터 설정등에대한 참고할만한 다른 논문들을 찾을수 있는지? A. 보행데이터로 MCI를 진단하는 논문을 찾기가 어려웠습니다. 그래서 저도 보행데이터를 진단에 사용한 논문들은 보행특성이 뚜렷하게 나타나는 파킨슨 환자 진단에 대한 논문들이 많아서 딥러닝을 사용하기 위해서 그 논문들을 참고할 것 입니다. Q. 아무래도 보행특성이다 보니 xyz축의 값을 그대로 사용하는 것보다 3차원 공간의 움직임에 대한 피쳐들이 중요할것 같다 유클리드 거리나. 각 타임스탬프별로 움직인 방향과 거리를 고려해서 피쳐를 만들어서 실험해보는것도 좋을것 같다. A. -

  • @atchutram9894
    @atchutram98944 жыл бұрын

    English subtitles shall be appreciated!

  • @wangjack5316
    @wangjack53164 жыл бұрын

    Hello, the pdf file is not accessible.

  • @user-vu3ni5wx8p
    @user-vu3ni5wx8p4 жыл бұрын

    발표자님 인사이트가 진짜 많이 도움되네요 잘 봤습니다!

  • @jong-hunlee4107
    @jong-hunlee41074 жыл бұрын

    감사합니다^^

  • @BluePanda-io
    @BluePanda-io5 жыл бұрын

    Why!!!! Please an english version :(

  • @oclis711
    @oclis7115 жыл бұрын

    중간에 목소리를 낮추셨네요. 내용은 좋은데 말씀이 빨라서 몇번을 다시 들어야 했네요.

  • @Rainyfeyn
    @Rainyfeyn5 жыл бұрын

    CNSL의 아이돌 !!! 잘 들을게요!

  • @phd.y
    @phd.y5 жыл бұрын

    매우 유익합니다~

  • @yongyilee1807
    @yongyilee18075 жыл бұрын

    bagging, boosting, stacking 관련한 개념들 잘 설명해 주셔서 감사합니다!! Adaboost와 XGboost 부분이 실제로 많이 쓰인다고 하니 더 공부해 봐야 겠네요 :D