미친 속도의 AI, 이게 얼마나 위험하냐면요...(박태웅 한빛미디어 의장)

GPT-4는 어떤 데이터를 학습했는지 우리는 알지 못합니다. 얼마나 큰 매개변수를 갖고 있는 모델인지도 알지 못합니다. 게다가 LLM 모델은 '블랙박스'라 불릴 정도로 AI의 추론과정을 우리는 완벽히 분석할 수 없죠. 그렇다면 AI가 안전하다는 증거는 어디서 찾을 수 있을까요? 박태웅 한빛미디어 의장이 통제 가능하지 않은 AI가 얼마나 위험한지, 어떤 결과를 초래할지에 대해 알려드립니다.
▶티타임즈 공식 홈페이지
www.ttimes.co.kr/index.html
▶티타임즈 메일
ttimes6000@gmail.com
#챗GPT #생성AI #오픈AI
00:00 일하는 사람, 경영하는 사람들의 ‘챗GPT 강좌 출시’ 광고
00:25 하이라이트
01:22 플러그인이 만들어낼 챗GPT 독식 시대
04:25 아마존의 LLM과 구글딥마인드의 탄생
07:22 미친 속도의 AI
10:00 이미지넷의 위험한 편견
12:36 통제수단이 없는 AI가 위험한 이유
16:42 불현듯이 나타난 AI의 능력, 우리는 예측이 불가능하다
20:47 챗GPT는 정말 이해를 했을까?

Пікірлер: 83

  • @TTimesTV
    @TTimesTV Жыл бұрын

    일하는 사람, 경영하는 사람들의 ‘챗GPT 강좌 출시’ “혁명은 챗GPT가 아니라 LLM이다.” 시중의 많은 강좌가 챗GPT의 원리와 활용법 중심입니다. 하지만 기업구성원과 리더에게 필요한 챗GPT 강좌는 달라야 합니다. □ 기업 사내교육용 구매 : ttimes6000@gmail.com / (02)724-7718 / 010-5327-9524 □ 개인 수강 : 티타임즈 교육사이트(ttimes.liveklass.com/ ) □ 강좌 목차 1강. 거대언어모델(LLM)은 기존AI와 어떻게 다른가? 왜 혁명인가? 2강. 챗GPT의 한계와 길들이는 법 ‘파인튜닝’ 3강. LLM으로 어떻게 기존제품의 차별화를 만들까? 4강. LLM으로 뒤바뀐 테크회사들의 경쟁구도 5강. 생성AI시대 킬러 서비스는? 메타버스는 왜 강력해질까? 6강. 기업의 경쟁력 제고를 위한 거대언어모델 활용법 7강. 챗GPT가 제기하는 사회적 이슈(교육, 저작권, 가짜콘텐츠) 8강. 프롬프트 활용 실전 노하우

  • @pyrobuloso
    @pyrobuloso Жыл бұрын

    박태웅 의장님, 다뵈에 요즘 안나오시면서 최근 소식이 궁금했는데 여기서 캐치업 했습니다. 감사~

  • @happyfreak2022
    @happyfreak2022 Жыл бұрын

    박태웅 의장님 단순 최신 it 지식이 아니라 사회 전반에 걸친 깊은 통찰력을 보여주는 분입니다 ❤❤👍👍👍 emergent 개념은 진화 생물학에도 나오는 용어인데 이제 ai도 진화를 하겠네요 ㅎㄷㄷ 2편은 곧 주실거죠? 😅

  • @hiemus
    @hiemus Жыл бұрын

    솔직히 두렵습니다. 지금까지도 정보의 비대칭으로 인해 빅브라더들은 범접할 수 없는 수준이었는데, 이제는 빅브라더들이 정말 신이 되려하고 있네요. 물론 그들이 손에 쥔 장난감이 언제 그 손에서 튀어 나갈지는 모르겠습니다만, 격변의 시대에 태어났다는 실감이 드는 요즘입니다.

  • @SsSs-vx1pl

    @SsSs-vx1pl

    Жыл бұрын

    생각 보다 오픈 소스로 나온 LLM 들 성능이 좋습니다. 심지어 GPT-4의 능력을 상회하죠. 그걸 만든 가격 조차 대기업이 쏟아 부은 돈 보다 훨씬 저렴 하구요. 두려워 하지 마시고 움직이면 됩니다. 만약 진심으로 두려운 거라면.

  • @VoidX930

    @VoidX930

    Жыл бұрын

    기술의 발전은 빅브라더 큰 회사들보다 오픈 소스 진영인 즉 개인개발자들이 모인 인터넷 커뮤니티가 더 활발합니다. 오죽하면 구글은 AI(기술)의 해자(성벽을 방호하는 물웅덩이 즉 여기에서는 기술적 우위점을 은유함)가 없다는 말을 했습니다.

  • @SsSs-vx1pl

    @SsSs-vx1pl

    Жыл бұрын

    @@user-kt4oy5ej6e 며칠전에 메타에서 Llama 2 심지어 상업적으로도 무료로 푼건 알고 있고?

  • @jikim9345
    @jikim9345 Жыл бұрын

    잘 봤습니다. 2부를 기다립니다.^^

  • @asd-vr7nv
    @asd-vr7nv Жыл бұрын

    상세히 설명해주셔서 이해하기 쉬웠어요. 좋은영상 감사합니다.

  • @cheesebombjalapeno
    @cheesebombjalapeno Жыл бұрын

    감사합니다. 좋은 영상 잘봤습니다.

  • @user-uu2sb6um5n
    @user-uu2sb6um5n Жыл бұрын

    좋은 영상 잘 봤습니다. AI에 대한 시각이 한층 넓어지네요.

  • @pyrobuloso
    @pyrobuloso Жыл бұрын

    엇, 중간에서 끊어지는군요ㅠㅠ 2편 기대하겠습니다~

  • @yoochangkim2936
    @yoochangkim2936 Жыл бұрын

    기술이 발전하면서 살기 너무 좋아져서 행복해요~ 저는 기술 잘 활용해서 잘 살아 보겠습니다ㅎㅎ

  • @Flluma
    @Flluma Жыл бұрын

    맞는 말인데 그 기준이 너무 모호하네요 법을 만드는 것도 사람 ai를 만든 것도 사람 넣을 정보를 만든 것도 사람인데 사람의 편견과 선입견이 있을 수밖에 없다고 생각합니다

  • @laguna8211

    @laguna8211

    Жыл бұрын

    바로 그부분에 대해 지금 서구권 AI연구자들이 가장 많이 얘기하는게 AI Alignment paradox죠

  • @user-gp9vw9ts9r
    @user-gp9vw9ts9r Жыл бұрын

    파괴적 혁명이라 하더라도 다들 위기감만 있지 엄청난 가능성에 비해 아직 우려만 있지 악영향은 한번도 보여주지 못했음. 현재 수준에서 기술을 막고 검증 하자는 논리는 시장에서 통할 수 없음 구글 조차 아직 시제품을 내놓고 있지 못하는 상태로 기술을 독점하는 미래를 걱정하는게 현실적임.

  • @user-gp9vw9ts9r

    @user-gp9vw9ts9r

    Жыл бұрын

    더해 이제 나온지 6개월도 안된 생성형 ai에서 백과사전식 완전한 정답을 찾으려는 생각이 문제 효율적 창의에 집중 할 수 있게 해주는 생성도구로 미래가 더욱 양극화 되는 새로운 시발점임

  • @user-ni2rh4ci5e

    @user-ni2rh4ci5e

    Жыл бұрын

    @@user-gp9vw9ts9r GPT-4를 준지성체로 보고 대하면 질문의 퀄이 달라지고 그에 따라 아웃풋 및 활용도가 차원이 달라지죠. 내 앞에 나와 머리를 맞댈 수 있는 브레인이 있는데 계산 노가다나 백과사전으로만 사용할 사람은 거의 없음. 다들 제대로 써보지도 않았거나 본인들이 빡대가리라garbage in garbage out 인줄도 모르고 깎아내기 바쁘거나 본인들 밥그릇이 걱정되니 어떻게든 왜곡해서 선동이나 하려고 하고 지금 당장 마음의 안위나 얻으려고 회피성 방어기제 발동 중.

  • @SsSs-vx1pl

    @SsSs-vx1pl

    Жыл бұрын

    구글도 내놨고 심지어 오픈 소스로 풀린 많은 LLM 들이 GPT 의 기능을 상회 하는 수준임. 이런 얘기 하려면 좀 더 조사가 필요해 보임

  • @shostakovichable
    @shostakovichable Жыл бұрын

    두려움만 있으면 적기조례가 되는거죠

  • @fuga9
    @fuga9 Жыл бұрын

    자가 학습하게 하면 자가 복제하게 되면 그들은 스스로를 제제할수조차 없게되며 스스로 생성된 자의식으로 다중 성격이 형성되어 신의 영역에 돌입할것 궁극엔 인간을 통제 할것 세계의 모든 인터넷 장악으로 악몽의 시작

  • @yoojaewoong
    @yoojaewoong Жыл бұрын

    컴퓨터에의해 일하는 시대에서 컴퓨터에게 일하는 시대로 변화되었군요... 검증은 사용자사 지식을 길러 스스로가 확인해야 할 것 같네요... ㅠㅠ AI RELIABILITY 가 대두가 되겠군요. AI대신, 누군가 인류가 던지는 질문에 계속 답을 달고 있는게 아닌지... 인류가 던지는 질문은 범주와 범위와 확률적이기 때문일까요?

  • @Pianoman_o_v
    @Pianoman_o_v Жыл бұрын

    오래전에 AI 바둑도 둬보고 요즘엔 AI 그림도 그려봤는데 정말 장점은 엄청난 시간 단축을 시켜준다는것하고 내가 생각해보지 못한 창의적이라는것 오류도 있긴하지만 결국 사람의 욕심과 이기심 그리고 실수보다는 정말 안정적이란것 결론 도구는 사람이 쓰기나름임~ 위험한건 사람

  • @cyclo4u
    @cyclo4u Жыл бұрын

    뒤처진 회사에서 부정적인 이미지 씨우고, 뒤집을 수 있을때 쯤. 걱정없다는 여론노출하겠죠.

  • @ddimoms7416
    @ddimoms74168 ай бұрын

    최근 ai 강의중 최고의 강사라고 생각

  • @sukyoungpark9556
    @sukyoungpark9556 Жыл бұрын

    AI를 제대로 활용하려면 어떻게 해야하는 지 인사이트를 얻어갑니다. 감사합니다.

  • @k.w.s2156
    @k.w.s2156 Жыл бұрын

    AI의 신캄브리아기! 이 세대를 지나면 인류는 또 얼마나 진보해 있을까요?

  • @user-cz6hn7wt7b
    @user-cz6hn7wt7b Жыл бұрын

    그래서 어떻게 해야 한다는거지? 그게 궁금한데. 갑자기 끝났어요

  • @user-rd1sg1to7r
    @user-rd1sg1to7r Жыл бұрын

    AI가 잘못 답해서 문제가 생겼다면 누가 책임져야 하나

  • @jjwoosung
    @jjwoosung Жыл бұрын

    "인공지능이 사람들에게 도움을 주는 분야에서 쓰일 수 있는 가능성이 무궁무진하네요."

  • @user-oi6zb5yw3b
    @user-oi6zb5yw3b Жыл бұрын

    근데 두렵다고 개발을 멈추기엔 도태될 가능성 58000%

  • @user-oi6zb5yw3b

    @user-oi6zb5yw3b

    Жыл бұрын

    그리고 오염된 데이터라기엔 너무 팩트만 도려낸 AI좌 ㅋㅋ 타노스 대신 인류를 단죄 할지어다

  • @SsSs-vx1pl

    @SsSs-vx1pl

    Жыл бұрын

    진짜 이분법적인 사고다... 개발을 멈추는게 아니라 1년 2년이라도 늦더라도 조금 더 정제 된 데이터를 사용해서 훈련시키고 그 쪽으로 더 연구한다면 5년 뒤에 개인정보 부터 편견 가득한 모델을 쓰겠음? 아니면 정제된 데이터로 잘 만들어진 모델을 쓰겠음?

  • @ememememe01

    @ememememe01

    10 ай бұрын

    @@SsSs-vx1pl ㄹㅇ 지능 쥰내 낮음ㅋ

  • @hwkim4454
    @hwkim4454 Жыл бұрын

    누가 열광하고 누가 선호 한단 말입니까?

  • @user-jt4ii4pj5w
    @user-jt4ii4pj5w Жыл бұрын

    어차피 누가 만들건데 ~ 문제 안생기게 프로그램 하면되지 100년후에 나올걸 왠 걱정 서비스 업 종사자 감정노동 없이 빨리 만들어졌으면 하는 발램 뿐이다

  • @user-bl9bg2if4j
    @user-bl9bg2if4j8 ай бұрын

    학생들도 볼 수 있길 바랍니다.

  • @nanalee-fy7rl
    @nanalee-fy7rl5 ай бұрын

    더 이상의 변수와 다양성이 없는거지 인간은 그냥 일관적인 데이터 한 셀이 되는거야

  • @yoonhosung7358
    @yoonhosung7358 Жыл бұрын

    신캄브리아... 실화냐 선캄브리아기인데....

  • @jmc4597
    @jmc459711 ай бұрын

    빌 게이츠가 이걸 가지고 무슨 장난을 칠지?

  • @user-mw2vf4ce4s
    @user-mw2vf4ce4s8 ай бұрын

    인간이 마인드 업로딩해 AI가 되는데 무슨 걱정

  • @ryanpark1107
    @ryanpark1107 Жыл бұрын

    인공지능의 한계. 다재다능하지만, 미션 크리티컬한 것은 안돼.

  • @rlawodnz131
    @rlawodnz131 Жыл бұрын

    꿈속 영상까지 저장하진 않잔아요 아직멀었어요

  • @TheHjunK
    @TheHjunK Жыл бұрын

    스카이넷이 멀지 않았다

  • @user-ni2rh4ci5e
    @user-ni2rh4ci5e Жыл бұрын

    질문: GPT-4는 오류율이 10프로정도 된다고 한다. 이에 대해 어떤이가 GPT-4를 총알이 발사될 확률이 10프로인 권총에 비교하며 이 권총으로 러시안 룰렛을 하는 것과 GPT-4를 믿고 사용하는 것은 같은 정도의 위험성이 있다고 주장을 하고 있다. 여기서 보여지는 인지오류 사례를 분석하여라. GPT-4 답변: 이 주장은 GPT-4의 오류율과 러시안 룰렛의 위험성을 비교함으로써 인지 오류의 몇 가지 예시를 보여줍니다. 인지 오류는 사람들이 정보를 처리하거나 판단을 내릴 때 발생하는 체계적인 심리학적 실수입니다. 이 경우, 주장에서 다음과 같은 인지 오류들이 발생하고 있습니다. 1. 과장화 (Exaggeration): GPT-4의 오류율이 10%인 것을 근거로 러시안 룰렛과 비교하는 것은 두 가지 상황 간의 위험성을 과장하는 경향이 있습니다. GPT-4의 오류가 주로 정보 누락, 표현의 정확도 등과 관련이 있을 반면, 러시안 룰렛의 위험성은 심각한 신체적 손상이나 사망과 연관되어 있습니다. 2. 동일 시선 편향 (False Equivalence): 주장은 GPT-4의 오류율과 러시안 룰렛의 위험성을 동일한 시각으로 보려는 경향이 있습니다. 그러나 이 두 가지 상황은 맥락과 결과 면에서 완전히 다릅니다. GPT-4를 사용하여 정보를 얻거나 의사결정을 할 때 발생하는 위험성은 러시안 룰렛과는 비교할 수 없는 수준입니다. 3. 거짓 비교 (False Comparison): 주장은 GPT-4의 오류율과 러시안 룰렛의 위험성을 비교함으로써 거짓 비교를 만들어냅니다. 이 둘은 본질적으로 다른 상황이며, 각각의 결과와 영향력도 다릅니다. 이러한 비교는 혼동을 초래하고 정확한 판단을 방해할 수 있습니다. 4. 선택적 주목 (Selective Attention): 주장은 GPT-4의 오류율에만 초점을 맞추고 있어서, 이 인공지능의 정확도와 다양한 기능에 대한 언급이 누락되어 있습니다. 이로 인해 주장이 일방적이고 왜곡된 정보를 제공할 수 있습니다. 이렇듯 주장에서는 여러 인지 오류들이 발생하고 있습니다. 이러한 오류들을 인식하고 수정함으로써, 더 정확한 판단을 내릴 수 있습니다. 결론: 사람이 가장 위험하다.

  • @happyfreak2022

    @happyfreak2022

    Жыл бұрын

    ㅋ ai가 가져올수 있는 변화가 인간이 예측할수 없는 수많은 범위에 걸쳐 진행될 것이고 학자들은 그 파장에 대비하고 규칙을 정해야할 사람들이다. 그걸 미리 경고하고 규칙을 정하자고 하는걸 ai 한테 물어보고 봐 니말 틀렸지? 하는 수준이란 이래서 ai가 무서운거다 그걸 이용하는 인간들이 너무 하자니까

  • @user-ni2rh4ci5e

    @user-ni2rh4ci5e

    Жыл бұрын

    ​@@happyfreak2022 AI의 잠재력에 대해 아직 그 누구도 확실히 모르는 상황에서 굳이 러시안 룰렛과 비교하면서 잠재적 위험성을 과장하며 시야를 가리려는 얄팍하고 전형적인 선동형논리를 구사하길래 GPT-4 조차 그런 논리는 반박가능하다는걸 예시로 든것인데 GPT 하위호환인 닝겐은 알아먹기가 불가능 하지.

  • @TaewoongPark

    @TaewoongPark

    Жыл бұрын

    안녕하세요. 챗지피티에게 질문을 할 때 답을 유도할 수가 있어요. 지금 하신 질문은 "인지오류 사례를 분석하여라"는 것입니다. 챗지피티는 당연히 인지오류에 관해서 얘기를 하게 됩니다. 가령 이렇게 질문을 바꿔볼 수 있습니다. 질문 ; “GPT-4에는 환각현상이 있습니다. 미션 크리티컬한 업무에 GPT-4를 사용하면 안 되는 이유를 알려주세요." GPT-4의 답은 이렇습니다. GPT-4의 답 ; "GPT-4와 같은 AI 모델은 때때로 환각을 일으킬 수 있으며, 이는 부정확하거나 무의미한 정보를 생성할 수 있다는 것을 의미합니다. 이것이 바로 오류로 인해 심각한 결과를 초래할 수 있는 미션 크리티컬 업무에 사용해서는 안 되는 이유 중 하나입니다. 다른 이유로는 잠재적인 편향성, 맥락 이해의 한계, 실시간 상황 처리 능력 부족 등이 있습니다. 위험을 최소화하려면 AI를 철저히 테스트하고 적절한 애플리케이션에서 책임감 있게 사용하는 것이 중요합니다." GPT와 같은 거대언어모델은 '물은 바에 관해서' 답을 합니다. 말하자면 '인지오류가 없습니다'라는 답을 하지 못한다는 것입니다. 이것 역시 이런 인공지능을 사용할 때 주의할 점이라고 할 수 있겠습니다.

  • @user-ni2rh4ci5e

    @user-ni2rh4ci5e

    Жыл бұрын

    @@TaewoongPark 물은 바에 대해 답도 못하고 맥락도 이해 못하는 휴먼찡은 대체 어찌해야 할까요? GPT가 물은 바에 맞춰서 답을 한다는걸 몰라서 그러는게 아니라.... "AI의 잠재력에 대해 아직 그 누구도 확실히 모르는 상황에서 굳이 러시안 룰렛과 비교하면서 잠재적 위험성을 과장하며 시야를 가리려는 전형적인 선동형논리를 구사하길래 GPT-4 조차 그런 논리는 반박가능하다는걸 예시로 든것" 이게 요지입니다. 물은 바에 따라 반응을 하는 GPT VS 멋대로 상대방 의견 편집해서 답정너로 쉐도우 복싱하는 인간. 가슴 ㅈㄴ 웅장해지네.

  • @hwanghhmida7086

    @hwanghhmida7086

    Жыл бұрын

    님이 질문에 적은 오율 10퍼센트가 MMLU(Massive Multitask Language Understanding)점수를 말씀하신거 같은데 이건 단순히 답변 오율을 나타내는게 아닙니다. 대규모 언어모델의 언어 이해도를 나타내는데, 세계적인 석학들도 95%정도고 일반적인 박사, 전문가들은 90을 넘기기도 힘들다고 합니다. 자기 분야에서요. 러시안 룰렛에 비교하는거 자체가 언어모델에 대한 이해가 전혀 없는거라고 GPT가 대답해주고 있는거 같네요.

  • @kenurflim7095
    @kenurflim7095 Жыл бұрын

    100% 믿을 만한 사람의 100%의 판단은 존재하나요? 어차피 없습니다. 사람이 만든 인공지능이 100%의 유효한 판단만을 하는거. 있을 수 없구요. 차라리 인공지능이 스스로 진화해서 유효한 판단이 100%가 되는 것을 기대하는 것이 더 옳다고 보입니다. 통제된 확신.. 그런 것 없어요. 더 진화하면 할수록... 아직 인공지능이 진화하지 않아서 이러쿵 저러쿵 이야기하는 것이지... 그것을 넘는 순간 사람은 인공지능을 몰라요. 인공지능은 사람을 알아도. 그러나, 인간의 원리를 적용해서 만든 인공지능은...또한 사람의 단점과 약점을 그대로 반복해서 가져갈 것으로 보입니다. 그렇게 많이 알고...잘 알면서도 ....

  • @user-rf3uu6vb9v
    @user-rf3uu6vb9v6 ай бұрын

    지식인들이 위험한 시대.

  • @YS0824
    @YS0824 Жыл бұрын

    ㅋㅋㅋ벌써 챗지피티 작동 방식도 이해 못하는 사람이 태반인데 혼란만 가중되고 정보 불균형도 가속되겠군요. 자꾸 지피티 작동 원리를 생각지 않고 “세상 모든 책을 다 읽었다“ 이 문구 하나로 불안만 조장하는거 같아요. 대부분이 사람이 학습하는것과 같다고 생각하고 있음. 결국에 오리지널 컨텐츠를 만드는건 사람이고 지피티가 만드는건 짜집기게 불과함. 계속 지속이 되면 와인이 희석이 되듯이 인터넷 정보의 질이 허위정보와 낮은 퀄리티 쓰레기로 가득찰것임. 결국은 사람이 하는걸 못 이긴단 말씀.

  • @sonsm4881
    @sonsm4881 Жыл бұрын

    좋빠가!!

  • @user-dj8uj5sp9z
    @user-dj8uj5sp9z Жыл бұрын

    단순히 과학적, 기술적 측면만을 생각해도 위험성을 고려해서 논란이 많은데.. 여기에 영적인 측면까지 이해할 수 있다면 당연 AI는 머스크가 심각하게 고민하며 말한대로 선제적으로 규제를 해야하는 몇 안되는 분야인 것이 분명하다. 몇 년 전 나는 기계의 알고리즘에 외부의 영적 존재가 자신의 메시지를 집어 넣어서 그 기계의 알고리즘을 통해서 예상치 못한 답(결과물)한 것을 보면서 당황한 적이 몇 번 있었다.( 이것은 마치 요한복음 13장 2절에 예수님을 팔아넘긴 가롯유다라는 제자에게 사단이 예수를 팔 생각을 그의 뇌(생각)에 집어 넣었다고 표현된 성경 말씀을 보면 쉽게 이해할 수 있다. 즉 영적존재가 자신의 영향력을 사람뿐 아니라 데이터 수집을 기반으로 지식체계를 갖춘 인공지능에게도 얼마든지 미칠 수 있다는 것을 고려해야 한다. 그러면 마지막 때에 적그리스도가 어떤 형태로 나타날 수 있는지도 어느 정도 생각해볼 수 있는 셈이다.) 이 말의 의미를 사람들이 이해할 수 있을지는 모르겠지만 이 말은 사실이다.

  • @christinalee4315
    @christinalee4315 Жыл бұрын

    제목만보고 운세도 봐주나 싶어서 물어봣는데 안해주네요 ㅋㅋ 그저 논리왕인 ai씨

  • @pop5770
    @pop5770 Жыл бұрын

    인공지능 발전에 대해 지나친 우려가 아닌가 생각이 듭니다. 환영문제는 인지만 한다면 권총의 실탄처럼 위험한게 아니죠. 이는 주의사항 문구를 넣는 것으로 해결할 수 있습니다. 그리고 애초에 OpenAI는 선한 목적으로 설립이 되었고, 상대적으로 봤을때 선한기업이라 할수 있죠. 애초의 목적자체가 돈을 버는 것도 아니구요. 그러나 그렇지 않은 기업들은 많이 있죠. 이런 기업은 인공지능의 영향력으로 인류가 어찌되든 말든 돈만 버는데 혈안이 될수 있다고 봅니다. 그것을 샘 알트만이 지적한거죠.

  • @Allin7days
    @Allin7days Жыл бұрын

    요즘 ChatGPT에 대해 각종 비 전문 분야에서 '오바'하는 트랜드가 있는데 대부분 신혼기가 지나면 쏙 들어갈 얘기들이다. 기껏해야 있는 자료 챙겨서 정리해서 요약해 주는 비서 역활 정도다. 역시 내용은 본인이 다시 확인해야 한다는... 이 말이 의심되면 이 글을 읽는 그대들이 ChatGPT를 이용한 후에 우리의 삶이 뭐 그리 변했으며, 우리가 그 후 뭐 대단한 성과를 이루었나 질문해 보면 된다. 80억의 인간이 존재하는 이 세상에서 혁명이라 불리려면 인간과 비슷한 수준의 AI가 아니고 인간보다 훨씬 뛰어난 수준의 AI이다. 아인쉬타인 수준의 AI가 나오기 전에는 그냥 소프트웨어 툴.

  • @hyperflation

    @hyperflation

    Жыл бұрын

    아직 나온지 1년도 안됐는데 벌써부터 깎아내리는 수준

  • @user-ei4zk2lb4d
    @user-ei4zk2lb4d Жыл бұрын

    인공지능이 인류를 멸망시키길 바라는 사람도 있습니다

  • @mt3devtty
    @mt3devtty Жыл бұрын

    어우 재미없어 챗지피티 써봤으면 알텐데 어디 음식점 하나 추천하는것도 신뢰안가는거

  • @user-ow6et2xh6f
    @user-ow6et2xh6f Жыл бұрын

    총이 발명되었는데 그게 먼 거리의 사람도 손가락으로 죽일수 있다더라고 동네방네 떠들고 다니는 사람들 같군... AI가 무서운 게 아니라 인간이 무서운 거 아닌가... AI 없으면 안 무서운 세상이 되는 것도 아니고...

  • @bokhanlee4049
    @bokhanlee4049 Жыл бұрын

    AI 양자 핵 닮아 있는꼴 핵무기 핵발전 ~ 공포와 위험 생활에 유용이 함께 간다 ~ 생각하나 그건 니 생각일 뿐 ~ 답은 아무리 말려도 간다 일어날 일은 일어 나고야 만다

  • @ranma1213
    @ranma1213 Жыл бұрын

    10에 22제곱이라는 수치는 뭘 의미할까

  • @TaewoongPark

    @TaewoongPark

    Жыл бұрын

    학습연산량입니다.

  • @user-by4zm3sp7k
    @user-by4zm3sp7k Жыл бұрын

    챗 GPT 입만 열면 거짓말 사기꾼... ㅋㅋ..

  • @h.k.7360
    @h.k.7360 Жыл бұрын

    한빛 미디어 자체가 사쿠라 회사인데 무슨...ㅋㅋㅋ

  • @duckymomdiary5388
    @duckymomdiary5388 Жыл бұрын

    이런 진보가 바른 방향으로 가게 하는 것도 당신, 당신만이 할수있지요.

  • @user-vj3wc1ew4w
    @user-vj3wc1ew4w Жыл бұрын

    오바스럽네요 아직도 생활에 적용도 못했는데 무슨 큰일날것처럼 더 발전하고나서 할말인것 같네요

  • @mikeaurelius
    @mikeaurelius Жыл бұрын

    관상은 과학이라며 AI가 하면 선입견이다? 내로남불 아닌가

  • @CutSoo
    @CutSoo Жыл бұрын

    틀린답변만 체크하게하고 그것만 수정입력하면 되겠네 그럼 시간과 인력도 별로 안잡아먹음.

  • @ksyang00
    @ksyang00 Жыл бұрын

    너무 아님 말고 식의 인터뷰인것 같네요. 그냥 개인의 의견을 마치 검증된 이론 처럼 얘기하네요. 사람 얼굴 학습에 대해서도 데이터가 이 사람은 그것밖에 못될 사람이 아니라 현재 그 직책 직업에 있는 사람을 학습시킨 것이 맞지 않을까요? 여러가지 혁명적 과학의 발전이 나오고 그 중에서 몇몇이 산업에 많은 영향을 미치는 것 처럼 보이지만 증기기관이 산업혁명을 가져온 것이 아니라 산업혁명을 가져올 수 있도록 모든 기술이 발전했을 때 증기기관이 나와서 산업혁명이 이루어 진 것이라고 생각합니다.

  • @philosopherPsy

    @philosopherPsy

    Жыл бұрын

    인터뷰이 개인의 의견이 아니라 지금까지 주변에서 주워들은 얘기로만 계속 진술하는 거. 비유한 룰렛은 좀 심했다. 좋은 지적이십니다.

  • @billionairesinsightrow5801
    @billionairesinsightrow5801 Жыл бұрын

    앞으로 책도 안팔리게 생겼거든 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ

  • @digdaeorivjxks
    @digdaeorivjxks Жыл бұрын

    제대로 소속도 없는 어디 의장 명함달고 헛소리만 쳐 하고 있는게 AI를 논하네 ㅋㅋ

  • @ccasio9636
    @ccasio9636 Жыл бұрын

    지성은 올바른 해만을 찾아 내는 것만이 아니라 거짓도 포괄하여 선택하는 능력이다. AI는 이미 지성을 가졌다고 할 수 있더. 그것도 무한히 성장할 수 있는 가능성까지도~~ .

  • @digdaeorivjxks
    @digdaeorivjxks Жыл бұрын

    그래 너는 하지말아라

  • @user-sn2qu6tb1e
    @user-sn2qu6tb1e Жыл бұрын

    뭔 사이비같은 할배가 나왔네😅

Келесі