[DMQA Open Seminar] Bootstrap Your Own Latent (BYOL)

최근 self-supervised learning은 pretext task 기반의 방법에서 contrastive learning 방법으로 중심을 옮겨가면서 연구가 꾸준하게 이루어지고 있다. Contrastive learning은 self-supervised learning에 positive & negative sample 개념을 도입함으로써 분명 많은 성능 개선을 이루어냈다. 하지만 negative sample을 사용할 때 배치 사이즈 크기나 증강기법 선택 등에 따른 성능 편차가 크게 나타나기 때문에 학습 시 고려해야할 점이 많다는 문제 또한 가지고 있다. 이번 세미나에서는 positive sample만을 사용함으로써 기존 contrastive learning의 한계점을 극복한 self-supervised learning 방법론인 bootstrap your own latent (BYOL) 에 대해서 알아보고자 한다.
[1] Grill, J. B., Strub, F., Altché, F., Tallec, C., Richemond, P. H., Buchatskaya, E., ... & Valko, M. (2020). Bootstrap your own latent: A new approach to self-supervised learning. arXiv preprint arXiv:2006.07733.
[2] Richemond, P. H., Grill, J. B., Altché, F., Tallec, C., Strub, F., Brock, A., ... & Valko, M. (2020). BYOL works even without batch statistics. arXiv preprint arXiv:2010.10241.
[3] He, K., Fan, H., Wu, Y., Xie, S., & Girshick, R. (2020). Momentum contrast for unsupervised visual representation learning. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 9729-9738).
[4] Chen, T., Kornblith, S., Norouzi, M., & Hinton, G. (2020, November). A simple framework for contrastive learning of visual representations. In International conference on machine learning (pp. 1597-1607). PMLR.

Пікірлер: 1

  • @user-yf1ni4vp7v
    @user-yf1ni4vp7v3 жыл бұрын

    23:00 SimCLR에서는 color distortion을 주지 않으면 학습에서 color histogram 값만으로 정답을 유추해도 유효한 반면에 BYOL에서는 online network가 target network의 representation을 예측하려고 하기 때문에 color representation 외에도 다른 representation 값을 유추하지 않는다면 학습에 실패하기 때문이라고 생각했습니다. 혹시 지금은 이부분에서 추가적인 설명을 해주실 수 있으신가요?