[Deep Learning 101] 합성곱신경망 CNN, Convolutional Neural Network

Ғылым және технология

안녕하세요 이번에는 CNN의 구조와 직관적 이해를 돕는 영상을 준비해보았습니다. 많은 시청 부탁드립니다. 감사합니다.
#CNN #convolutionalneuralnetworks #합성곱신경망 #뉴럴네트워크 #딥러닝 #신경망 #인공지능
🎵 Song: 'Sappheiros - Embrace' is under a creative commons license license.
kzread.info/dron/xLK.html...
🎶 Music promoted by BreakingCopyright:
• 🍀 Chill Instrumental [...

Пікірлер: 68

  • @MrJackkim
    @MrJackkim6 ай бұрын

    훌륭한 강의에 진심으로 감사의 말씀을 드립니다.~

  • @phdshinAI

    @phdshinAI

    6 ай бұрын

    격려의 말씀 저도 감사드립니다😊

  • @joeson4208
    @joeson420810 ай бұрын

    감사합니다 박사님

  • @phdshinAI

    @phdshinAI

    10 ай бұрын

    네 감사합니다!!

  • @user-ot5gr7ch5l
    @user-ot5gr7ch5l2 ай бұрын

    정말 감사드립니다 박사님. 수준높고 이해하기 쉬운 영상 만들어주셔서 정말 감사합니다. 자료 준비에 얼마나 많은 노력을 쏟으셨을지 가늠이 안갑니다. 다시한번 감사드립니다. 언제나 행복하고 건강하세요.

  • @phdshinAI

    @phdshinAI

    2 ай бұрын

    힘이되는 좋은 커멘트 감사합니다! 앞으로도 계속 이해하기 쉬운 인공지능 관련 영상 업로드 할 수 있도록 노력하겠습니다. 계속 많은 시청 부탁드려요! 감사합니다.

  • @happyjena12
    @happyjena127 ай бұрын

    자료가 좋습니다 감사합니다

  • @phdshinAI

    @phdshinAI

    7 ай бұрын

    네 좋은 댓글 감사합니다! 앞으로도 유익한 영상 자주 올리도록 노력하겠습니다 😊

  • @user-ky3dg4uj6q
    @user-ky3dg4uj6q6 ай бұрын

    이해하기 쉽네요 감사합니다

  • @phdshinAI

    @phdshinAI

    6 ай бұрын

    네 시청해주셔서 감사합니다! 쉽게 배울 수 있는 딥러닝 영상 많이 올리도록 노력하겠습니다.

  • @bopark1783
    @bopark17835 ай бұрын

    영상 전부 보고 있습니다!!! 항상 감사합니다~~~

  • @phdshinAI

    @phdshinAI

    5 ай бұрын

    네 항상 시청해주셔서 감사합니다!!

  • @ysjang05050
    @ysjang050502 ай бұрын

    This is great tutorial for capturing the essence of conv kernels' roles. Truly amazing! Thank you!

  • @phdshinAI

    @phdshinAI

    2 ай бұрын

    You're very welcome! Thanks for your kind words. Stay tuned!

  • @user-th7cu9ll4j
    @user-th7cu9ll4j13 күн бұрын

    좋은 컨텐츠 감사드립니다!

  • @phdshinAI

    @phdshinAI

    12 күн бұрын

    네 저도 시청해주셔서 감사합니다!

  • @DONGGREEG
    @DONGGREEG7 ай бұрын

    와 이렇게 세세하고 쉬운 설명은 처음이네요..정말 감탄했습니다 감사합니다

  • @phdshinAI

    @phdshinAI

    7 ай бұрын

    감사합니다!! 앞으로도 좋은영상 많이 올리도록 노력하겠습니다 😊

  • @user-lh9uf2lu5w
    @user-lh9uf2lu5w11 ай бұрын

    Ai 특히 컴퓨터비전쪽에 관심이 많아서 많은 영상을 찾아봤는데 이 영상이 가장 쉽게 이해가 잘되는거 같네요! 구독 누르고 갑니다!!!

  • @phdshinAI

    @phdshinAI

    11 ай бұрын

    네 감사합니다! 앞으로도 쉽고 재미난 영상을 올려드리도록 노력하겠습니다!

  • @suhyu_n217
    @suhyu_n2172 ай бұрын

    감사합니다 덕분에 구체적이고 논리적인 틀을 이해 할 수 있었어요ㅜㅜㅜㅜ

  • @phdshinAI

    @phdshinAI

    2 ай бұрын

    넵 도움을 드릴수 있어서 저도 기쁩니다🤗

  • @danny04278
    @danny04278Ай бұрын

    그는 신인가?

  • @phdshinAI

    @phdshinAI

    Ай бұрын

    아..과찬의 말씀이십니다..그래도 도움을 드린것 같아 저도 기쁩니다. 힘이 되는 댓글에 감사드려요!

  • @user-ew4dl7wk3u
    @user-ew4dl7wk3uАй бұрын

    수학적인 정보 말고 이런 개념이 필요했는데 정말 감사합니다!

  • @phdshinAI

    @phdshinAI

    Ай бұрын

    도움이 되셨다니 저도 기쁩니다! 앞으로도 많은 시청 부탁드려요~

  • @user-rv3fr2tz8n
    @user-rv3fr2tz8n4 ай бұрын

    이해하기 쉬운 영상 너무 감사드립니다ㅠㅜ. CNN관련 프로젝트를 진행해야했는데 좀 어렵더라구요.. 덕분에 기본 개념 이해 잘 했습니다. 다른 영상들도 봐야겠네요

  • @phdshinAI

    @phdshinAI

    4 ай бұрын

    도움이 되셨다니 다행입니다. 화이팅입니다!

  • @icmansss
    @icmansss8 ай бұрын

    그림들과 설명자료들이 너무 이해하기 쉽네요! 좋은 강의 감사합니다~ 이렇게 기초 딥러닝 관련 개념들 많이 올려주세요!! ㅠㅠ

  • @phdshinAI

    @phdshinAI

    8 ай бұрын

    넵 감사합니다!! 기초 딥러닝 개념에 대해 계속해서 올려드리도록 노력하겠습니다! 시청해주셔서 또 좋은 댓글로 응원해주셔서 감사합니다!

  • @jhryu68
    @jhryu6811 ай бұрын

    정말로 이해하기 쉬운 설명에 감탄했습니다. CNN에 대한 개념을 정확하게 이해할 수 있었습니다. 정말 감사합니다~~~ 다른 강의들도 기대가 됩니다!

  • @phdshinAI

    @phdshinAI

    11 ай бұрын

    감사합니다!! 개념은 앞으로 점점 더 어려워질텐데 어떻게 쉽게 풀어서 설명할까 벌써부터 걱정은 되지만.. 앞으로도 계속 봐주시고 또 나누어주시길 부탁드립니다 감사합니다!

  • @jhryu68

    @jhryu68

    11 ай бұрын

    @@phdshinAI 저도 딥너링 프로그램을 할 수 있을거 같은 자신감이 조금씩 생기고 있습니다. 감사합니다

  • @hrpark5264
    @hrpark52648 ай бұрын

    좋은 강의 감사합니다. 3blue1brown처럼 영상자료들이 직관적으로 이해하는데 큰 도움이 돼요

  • @phdshinAI

    @phdshinAI

    8 ай бұрын

    앗 네 +_+ 3blue1brown은 정말 최고의 채널이죠. 저도 그렇게 직관적으로 설명할 수 있도록 노력하고 있는데, 그렇게 말씀해 주시니 기쁘고 또 힘이 납니다. 감사드립니다. 앞으로 계속 좋은 영상 올릴 수 있도록 노력하겠습니다. 감사합니다!

  • @RyanKim1102

    @RyanKim1102

    8 ай бұрын

    @@phdshinAI 한국의 3b1b?? 이건 못참죠 응원합니다

  • @phdshinAI

    @phdshinAI

    8 ай бұрын

    앗 네.. 저도 3b1b 같은 채널이 될수만 있다면 정말 좋겠습니다............ㅠㅠ 노력하겠습니다 ㅎㅎ

  • @user-jk1xh2jz9o
    @user-jk1xh2jz9o8 күн бұрын

    양질의 영상 감사합니다. 필터들이 역전파와 경사하강법을 이용해서 학습된다고 설명하셨는데, 그 구체적인 원리가 역전파 알고리즘 영상에서 설명하신 원리와 같은지, 또 fully connected layer도 마찬가지인지 질문드리고 싶습니다.

  • @phdshinAI

    @phdshinAI

    6 күн бұрын

    네 큰틀에서 보면 모든 신경망의 학습 알고리즘은 역전파와 경사하강법을 기반으로 하고 있습니다. Fully connected layer도 마찬가지입니다. 감사합니다!

  • @user-jk1xh2jz9o

    @user-jk1xh2jz9o

    Күн бұрын

    친절한 답변 감사합니다!

  • @user-rj4vq4ns2j
    @user-rj4vq4ns2j5 күн бұрын

    안녕하세요 영상 잘 보고 있습니다. CNN강의를 보기 전 퍼셉트론1부터 정독하였는데, 역전파와 경사하강기법은 최적의 node와 node를 연결하는 시냅스 값을 찾아가는 알고리즘으로 이해했습니다. 본 강의에서 CNN은 Kernel의 최적 weight를 학습하는 것(역전파와 경사하강기법을 사용하여)으로 이해했는데 제대로 이해한 것이 맞을까요? node와 node 사이를 연결하는 시냅스의 weight update방식으로 개념을 이해했더니 살짝 헷갈립니당. 아마 fully-connected layer에서는 시냅스의 weight를 학습하는 것 같은데 맞나요?

  • @phdshinAI

    @phdshinAI

    4 күн бұрын

    네 영상 시청 감사합니다! 제대로 이해하신것 같아요. Kernel이 결국 격자형태 (n x n)의 weights 입니다. 그러므로 CNN이든 fully connected layer든 결국 학습은 노드와 노드간의 weight를 update하는 것입니다. weight의 이름이 CNN에서는 kernel이라는 점만 다를 뿐입니다. 감사합니다!

  • @user-rj4vq4ns2j

    @user-rj4vq4ns2j

    4 күн бұрын

    @@phdshinAI 답변 감사드립니다. 지금까지 블로그, 다른 지식 공유 유튜브를 보아도 재미도 부족하고 궁금한 것에 대하여 충족되지 않았는데 이렇게 재미있고 답변도 빠른 곳은 처음입니다. 존경스럽습니다 혹시 전체적으로 심화버전(수학식)까지 다루실 계획은 없는지 여쭙고싶습니다

  • @phdshinAI

    @phdshinAI

    2 күн бұрын

    아 심화버전은.. 제 채널의 취지와 맞지(..않다는 핑게로 자신의 부족한 실력을 커버하려한..) 않을수도 있어서 최대한 수학은 배제하려고 노력은 하고 있습니다. 그러나 필요하다면 언젠가는 심화버전도 다룰 필요가 있을것 같습니다. 먼저는 두루두루 관련된 분야의 개념 위주로 쉽게 알려드리고 차차 수학식 부분도 커버하고 논문을 보는법 등도 추가하려고 합니다. 지켜봐 주세요! 감사합니다

  • @user-qc3wq1cb2j
    @user-qc3wq1cb2j6 ай бұрын

    CNN강의만 찾아보고있는데 제일 이해하기 쉬웠어요 ㅜㅜ 진짜 감사합니다 혹시 파이토치 강의도 해주실 수 있나요???

  • @phdshinAI

    @phdshinAI

    6 ай бұрын

    네 도움이 되셨다니 기쁩니다. 파이토치 강의는CNN관련 말씀하시는 거라면, 바로 다음 영상에서 파이토치로 간단한 CNN을 구현하는 영상이 준비되어 있습니다. 파이토치 일반 코딩 관련 강의는 제 채널에서 다루면 넘 좋겠는데 아마 딥러닝 머신러닝, 그리고 인공지능 관련 영상들을 주로 먼저 업로드하고, 추후에 개설할 계획입니다. 하지만 중간중간에, 모델들을 설명하면서 파이토치로 구현한 영상들도 있으니 참고하여 보시면 좋을듯 합니다. 칭찬&좋은 제안에 감사드려요!

  • @seungchullee9774
    @seungchullee97748 ай бұрын

    소중한 강의 감사합니다. 13:54부터 강아지, 고양이 분류하는 예가 나오는데 14:53에서 각 feature들을 잘 구분하는 kernel로 변화된다고 하는데, kernel의 가중치가 변화되는것 아닌가요?

  • @phdshinAI

    @phdshinAI

    8 ай бұрын

    네 맞습니다. 모든 학습은 결국 가중치, w를 변화시키는 것이니까요. 커널의 가중치가 변화된다는 뜻을 커널로 변화된다는 표현으로 해보았습니다 ;) 좋은 질문과 댓글 감사합니다. 앞으로도 영상 시청중, 표현에 의문이 생기시면 언제든 댓글로 남겨주시면 제가 부연설명 남기도록 하겠습니다. 감사합니다!!

  • @user-hm4gy9jj4u
    @user-hm4gy9jj4u8 ай бұрын

    좋은 영상 감사합니다! 이해가 안 되는 부분이 있는데 질문 드려도 될까요 ㅠㅠ 합성곱 층이 깊어질수록 복잡한 형태의 feature를 처리할 수 있다고 하셨는데 그럼 단순히 직선의 형태를 가진 특징 맵으로 사각형의 특징맵을 뽑아낼 수 있다는 건가요..? 어떻게 이게 기능한지 이해가 가질 않습니다 😢

  • @phdshinAI

    @phdshinAI

    8 ай бұрын

    네 안녕하세요? 좋은 질문 감사합니다. 질문은 언제나 대환영입니다! 질문을 통해서 저도 배우게 되기도 하고, 또 영상의 부족한 부분이 질문과 답변을 통해서 채워지기도 하니까요. 합성곱 층이 깊어질 수록 복잡한 형태의 feature를 처리할 수 있다는 것은 합성곱 신경망의 중요한 특징입니다. 그러나 신경망, 특히 딥러닝같이 깊은 신경망에서 각 층들이 어떤 feature를 처리하는지 그 형태를 정확히 알아내는 것은 거의 불가능합니다. 그래서 딥러닝을 다른말로 블랙박스라고도 부릅니다. 그 안에서 어떤 정보가 어떻게 처리되는지 알아내기가 어렵기 때문이지요. 다만 합성곱 신경망의 경우는 커널의 크기가 작기 때문에, 이미지를 처리하고 학습할 때, 낮은 층에서는 주로 직선 (혹은 직선에 준하는 아주 간단한 형태의 로컬 피처)과 같은 로컬 피처들을 주로 처리하게 되고, 위로 갈 수록 좀더 복잡한 형태를 한다고 알려져 있습니다. 그러나 단순한 형태에서 복잡한 형태로 특징들을 처리하게 된다하여, 반드시 신경망이 하위단계에서 직선 형태를 가진 특징맵을 구성하고 상위단계에서 사각형 특징맵을 구성된다는 것을 뜻하는 것은 아닙니다. 아마도 질문자께서도 이런 부분을 알고 계셔서 위의 질문을 하신 것이 아닐까 생각됩니다. 제 영상에서 직선에서 도형의 형태로 올라가는 부분은 특징의 차원이 복잡해져간다는 개념의 이해를 돕기 위해 모식적으로 그려둔 부분이고 실제로 합성곱 신경망에서 직선특징이, 또 사각형이나 삼각형 특징이 실제로 처리된다는 뜻은 아니었습니다. 혹시 오해하셨다면 죄송합니다. 다시한번 좋은 질문 감사합니다!

  • @iridium3
    @iridium37 ай бұрын

    안녕하세요 박사님 다 채널 2d 컨볼루션 연산에서 궁금한 점이 있는데 달리 물어볼 곳이 없어 박사님께 여쭤봅니다. 만약 input image가 4*4에 3channel이고 kernel이 3*3에 2channel 이라고 하면 이를 normal convolution 연산 시 3D 컨볼루션처럼 (3*3*2)*(2*2*2) (커널크기)*(input-kernel+1)와 같이 계산되나요 아니면 각 kernel에 대한 conv값인 (3*3*2*2)*3 에 *2를 하나요? 또 depthwise separable 연산 시 저렇게 channel 크기가 다른 경우 channel wise 연산이 안될텐데 위와 같이 input channel 수와 kernel chaennel 수가 다를 때 어떻게 연산되나요? 항상 양질의 강의와 답변 감사드립니다

  • @phdshinAI

    @phdshinAI

    7 ай бұрын

    안녕하세요! 양질의 질문 감사합니다!! 일단 normal convolution에 대해서 먼저 말씀을 드릴게요. 제가 @iridium3님의 질문을 제대로 이해한 건지는 모르겠지만, 만약 input image가 4x4x3 (hwc)이고 kernel이 3x3x2라면, padding이 없고 stride가 1이라는 가정하에, output 은 2x2x2가 됩니다. 일단 커널의 크기가 3x3x2이기 때문에 그에 해당하는 input image의 3x3x2를 떼어와서 element-wise곱을 해서 그 값들을 다 합해서 하나의 output값을 정하고, 또 padding없고 stride가 1이라면, 위에 말씀하신 바 처럼, input_size - kernel_size+1 = 2가 되어, 높이 방향으로도 두번의 convolution연산, 길이 방향으로도 두번, 깊이 방향으로도 두번의 연산을 해야하기 때문에, 2x2x2 (hwc)의 아웃풋이 나오게 되겠지요. 그런데 이게 @iridium3님의 질문에 맞는 답인지는 모르겠습니다. 그리고 depthwise seperable연산은 제가 channel크기가 같은 경우만 봤었고, 채널 수가 다른 경우도 되는건지는 제가 생각해 본 바는 없는데 참으로 신박한 생각인것 같습니다. depthwise convolution이 연산량을 줄이는 장점이 있다고 들었는데 채널수가 다른 경우에도 된다고 한다면 쓰임새가 더 많지 않을까 하는데요 (이미 있을는지도 모르겠지만). 암튼 상당히 좋은 생각같습니다. 솔직히 저는 거기까지는 모르겠습니다. 한번 공부해보셔서 알려주시면 저도 도움받고 채널 시청해주시는 다른 분들도 도움을 받지 않을까 합니다. 매우 감사합니다.

  • @iridium3

    @iridium3

    7 ай бұрын

    @@phdshinAI 답신 감사드립니다. 제가 봤던 발문에서 kernel의 channel 수가 생략되어 있어서 그게 관용적으로 생략된 건지 모르고 착각을 하여 저런 질문을 드린 것 같습니다. 혼동 드려 죄송합니다. 다만, 착각한 김에 제 짧은 지식으로 고찰을 해보았는데, 결국 conv 결과는 input에 대한 kernel의 속성이 고루 반영되어야 된다 생각하여, channel 길이가 맞지 않을 경우 depth wise separable 계산 자체가 성립하진 않지만, 다른 kernel의channel을 이용하여 임의로 추가해주는 방식을 이용하여 연산량을 줄이는 시도는 해볼 만 하다는 생각은 들었습니다. (예를 들어, ch1, ch2, (ch1+ch2+noise)/3 과 같은 방식입니다.) 항상 별거 아닌 질문에도 통찰력 있는 고견을 내주시어 감사합니다.

  • @phdshinAI

    @phdshinAI

    7 ай бұрын

    좋은 질문이신데 죄송하지 않으셔도 됩니다 ^^ 덕분에 저도 더 찾아보게 된것 같습니다. 그런데 저도 depth wise separable의 인풋 아웃풋 채널수에 관해서는 생각해본 적은 없는데, 아마 누군가가 시도해보기도 하지 않았을까 싶기도 하지만, 때로는 이런 일들을 통해 새로운 지식이 탄생하기도 하니까요 아무튼 상당히 좋은 의문점이라고 생각이 듭니다..^^

  • @juncresite
    @juncresite9 ай бұрын

    명강의 진심으로 감사드립니다!! 혹시 Resnet, U-net 강의도 가능할까요🥹🥹

  • @phdshinAI

    @phdshinAI

    9 ай бұрын

    네 (과한) 칭찬에 감사를 드립니다 :) ResNet과 U-Net도 준비중에 있습니다. ResNet이나 U-Net등은 좀 advanced 모델이어서 순서를 뒤로 계획했었습니다. 일단 가장 기본적인 CNN과 RNN등을 마친 뒤에 딥러닝의 이론적인 부분들 (크로스 엔트로피, 옵티마이저 방법 등등)을 다루고 난 뒤에 advanced 모델들을 소개하려고 합니다. 조금만 기다려주시면, 다 보실 수 있으실 거에요. 영상 시청해주시고, 또 좋은 댓글도 달아주셔서 감사합니다. 더 쉽고 재미있는 영상으로 찾아뵙겠습니다. 감사합니다!!

  • @juncresite

    @juncresite

    9 ай бұрын

    @@phdshinAI감사합니다 박사님 ! Deep learning을 한달정도 전에 처음 접한 뒤 관심이 생겨 Deep learning을 이용한 논문을 준비중입니다. 쓰고자 하는 논문에서 Resnet과 U net을 다루고 있어 부탁드렸습니다. 저 같은 입문자에게 박사님의 동영상은 한줄기의 희망입니다 ㅎㅎ 앞으로도 잘 부탁드리겠습니다😊😊

  • @phdshinAI

    @phdshinAI

    9 ай бұрын

    @@juncresite 네 딥러닝 접하신지 한달밖에 안되셨는데, ResNet과 U-Net을활용한 논문을 쓰신다니 대단하신것 같아요. 제 영상이 도움이 되기를 바랍니다. 저 외에도 다른 좋은 영상이 유튜브에 많이 있으니 차근차근 공부하시면 충분히 하실 수 있으실것 같아요. 저도 최대한 빨리 커버하도록 노력하겠습니다. 감사합니다😀

  • @juncresite

    @juncresite

    9 ай бұрын

    독학으로 딥러닝 분야를 공부하려다보니 어려움이 참 많네요.. 실례가 안된다면 제가 혼자 계속 공부해도 도저히 이해가 안가는 부분들은 혹시 이메일로 질문 드려도 될까요?

  • @phdshinAI

    @phdshinAI

    9 ай бұрын

    아 답변이 늦어서 죄송합니다ㅠ 네 제가 아는 선에서 최대한 도와드리도록 하겠습니다! 언제든지 이메일 주세요

  • @jackykim428
    @jackykim428 Жыл бұрын

    일단 1등 찍고 갑니다. 영상은 정신 멀쩡할때 다시 보겠습니다😊 혹시 괜찮으시면 딥러닝 관련해서 조언을 구하고 싶은게 있는데 가능할까요?

  • @phdshinAI

    @phdshinAI

    Жыл бұрын

    네 제가 감히 조언해드릴 위치는 아니겠지만, 제 이메일 fusionlab.ai@gmail.com로 연락주시면 제가 성실히 답해드리도록 하겠습니다. :)

  • @jackykim428

    @jackykim428

    Жыл бұрын

    @@phdshinAI 아... 감사합니다...뭐 잘 모르지만 뭔가 큰건 아니지만 ... 전문가의 조언을 받으면 더 좋지 않을까 해서요...감사합니다 메일드리겠습니다

  • @user-id9cc3sy8o
    @user-id9cc3sy8o6 ай бұрын

    안녕하세요 인공지능 개발자를 지망하는 고3입니다 먼저 퀄리티 높은 강의에 감사드립니다 요즘 예전 영상부터 시청하면서 인공지능 공부를 하고 있는데요, 이번 영상에서 합성곱층에 활성화 함수를 사용하여 비선형성을 도입한다는 부분이 이해가 잘 가지않네요ㅠ 혹시 추가적인 설명 부탁드려도 될까요? 비선형성을 도입한다는 점이 특히 이해가 가지않습니다

  • @phdshinAI

    @phdshinAI

    6 ай бұрын

    안녕하세요. 인공지능 개발자를 지망하는 고3이라니 너무 반갑습니다! 반드시 뜻한 바를 이루시길 기도합니다. 잘 아시겠지만, 신경망 기술은 인간의 뇌를 모방하여 인공지능을 구현하려는 시도에서 시작되었습니다. 그 핵심에는 '인공 뉴런'이라는 단순한 단위가 있습니다. 이 인공 뉴런들은 입력값과 가중치의 곱의 총합, 즉 '가중합'을 계산합니다. 수학적으로 이는 aw1 + bw2 + cw3 + ... + b = y와 같이 표현되며, 이러한 형태의 함수를 '선형 함수'라고 부릅니다. 가장 기본적인 선형 함수는 일차함수, 즉 y = ax + b의 형태를 띱니다. 하지만, 선형 함수만으로는 인간 뇌의 복잡한 기능을 모방하기에 부족함이 있었습니다. 이에 따라, 인공 뉴런의 기본 선형성에 복잡성을 추가할 필요성이 대두되었습니다. 이를 위해 비선형 함수인 시그모이드 함수나 tanh 함수가 활성화 함수로 도입되었습니다. 이러한 비선형 활성화 함수의 추가는 신경망의 기능을 혁신적으로 향상시켜, 훨씬 복잡한 패턴도 효과적으로 분류할 수 있게 만들었습니다. 비선형성을 도입한다고 해서 상당히 복잡한 고차원 함수를 사용하는 것은 아닙니다. 시그모이드, tanh, ReLU 같은 간단한 비선형함수들은 신경망 계산에 적절한 복잡성을 추가합니다. 단일 뉴런에서 보면 이 변화가 크게 두드러지지 않을 수 있지만, 수백, 수천 개의 뉴런으로 구성된 딥러닝 네트워크에서 이러한 작은 변화들이 복합적으로 작용해, 현재의 딥러닝이 수행할 수 있는 복잡한 기능들을 가능하게 만든 것입니다. 비선형성을 이해하는데 도움이 되었는지 모르겠습니다. 앞으로도 궁금하신것 있으면 언제든 답글이나 이멜 주세요. 감사합니다!

  • @user-id9cc3sy8o

    @user-id9cc3sy8o

    6 ай бұрын

    @@phdshinAI 답변 감사드려요 설명을 듣고나니 비선형성 도입 이유가 이해가 가네요 친절한 설명 감사합니다

  • @iridium3
    @iridium38 ай бұрын

    강의 감사합니다 강의제목에 딥러닝 101은 어떤의미인가요?

  • @phdshinAI

    @phdshinAI

    8 ай бұрын

    네 시청해주셔서 감사드립니다. 보통 어떤 과목에 101을 붙이면 보통 대학교 수준의 개론서를 뜻합니다. 그래서 딥러닝 101하면 딥러닝 개론의 의미가 있습니다. 제가 채널 플레이리스트를 만들때, 딥러닝의 기초를 소개하고자하여 그런 제목을 붙여보았습니다. :)

Келесі