Дмитрий Коробченко

Дмитрий Коробченко

Образовательные видео по темам: нейронные сети, машинное обучение, искусственный интеллект.

Привет, меня зовут Дмитрий Коробченко. Я являюсь экспертом в области нейронных сетей и машинного обучения. Сейчас я Deep Learning R&D инженер и руководитель направления в NVIDIA. До этого работал в Samsung Electronics. Занимаюсь исследованиями и разработкой в сфере Deep Learning. Время от времени выступаю на конференциях, веду интенсивы, мастер-классы и научно-популярные лекции по нейронным сетям и другим топикам.

На этом канале будут выпускаться образовательно-развлекательные видео по различным темам, связанным с нейронными сетями, машинным обучением и другими смежными технологиями.

Если такое вам интересно, обязательно подписывайтесь :)

Пікірлер

  • @tendz1n
    @tendz1n2 күн бұрын

    .

  • @ibiza_forever
    @ibiza_forever8 күн бұрын

    спасибо за уроки!

  • @GgGg-qz8rp
    @GgGg-qz8rp8 күн бұрын

    вода вода вода

  • @Urasic
    @Urasic29 күн бұрын

    Из этого видео я понял две вещи, то что я тупой и то что моя нееросеть останется необразованной🥲

  • @ALxOBR15Q
    @ALxOBR15Q29 күн бұрын

    Нихуя не понятно но ЛАЙК!

  • @makspuzankov0057
    @makspuzankov0057Ай бұрын

    Спасибо большое! Что у вас за тема в visual studio?

  • @user-rr7yi3ru2p
    @user-rr7yi3ru2pАй бұрын

    парень с причёской из 60-ых))) kzread.info/dash/bejne/i56gpqOSnqnbp6g.html&ab_channel=BESTMOVIES

  • @genapak4864
    @genapak4864Ай бұрын

  • @_AbUser
    @_AbUserАй бұрын

    Наверное не стоило для демонстрации обратного распространения дополнительно на#евертить таких функций активации.. Теперь у всех мозги загажены кучей ненужных производных а в чем смысл обратного распространения понять уже никто не надеется...

  • @limoshkamilk9887
    @limoshkamilk9887Ай бұрын

    Классный формат👍👍👍, супер❤. Все чётко, автор молодец❤

  • @frozenplay1417
    @frozenplay1417Ай бұрын

    О, скьюб на столе!

  • @Not_creative_beats
    @Not_creative_beatsАй бұрын

    что такое веса...?

  • @pauline012t
    @pauline012tАй бұрын

    Про класс Neuron ох как жизненно 😅😶 прям классика. А видео шикарное🔥

  • @MrAlexPhilippov
    @MrAlexPhilippovАй бұрын

    Неоправданно много и со слишком большой амплитудой трясёт руками. Это бессодержательное мельтешение в кадре сильно отвлекает. Если нужно показывать лицо себя любимого (по каким-то причинам), то можно в углу маленькое окошко оставлять, а основной кадр на содержательную часть отводить.

  • @user-os4zr4ow8h
    @user-os4zr4ow8hАй бұрын

    А для чего если есть chatgpt?

  • @user-xr6yv6dg4c
    @user-xr6yv6dg4cАй бұрын

    Я вот вообще ноль по этой теме, могу чисто открыть блокнот написать что нибудь и печать 😢

  • @dirt5506
    @dirt5506Ай бұрын

    Вы первый кто интересно объясняет! Очень круто)))

  • @user-to6xp3nt5g
    @user-to6xp3nt5gАй бұрын

    В ахуях, месяц назад начал всë изучать, поэтапно всë, что не понимал изучал, пришлось вернуться к школьной математике))) к работе функций, линейная функция, парабола и всë такое, очень трудно было понимать сначала, начался ад когда я перешёл к производным, но я прошёл всë это. Спустя 100 роликов про нейросети и матанализ, миллион охуеваний со всего, наконец-то ура, я понял как работает логика нахождения градиента ошибки, дело просто в матанализе, в векторах частных производных, или просто в производных, которые показывают куда растëт функция и велечину роста в по определённому параметру. И недавно я снова решил посетить этот ролик, и вдруг, оказалось что здесь так всë подробно и разжëванно объясняется, я некоторые моменты, которые упустил из виду смог отсюда взять, спасибо!!! Жаль что забросили канал

  • @timurotube
    @timurotube2 ай бұрын

    Дмитрий, жаль что вы перестали новые видео делать(((

  • @timurotube
    @timurotube2 ай бұрын

    то что так долго искал. Спасибо!

  • @timurotube
    @timurotube2 ай бұрын

    что такое softmax?

  • @arsenask13
    @arsenask132 ай бұрын

    где ты когда так нужен (шел 2024 год)

  • @_AbUser
    @_AbUser2 ай бұрын

    Что прикольно, то это то, что начинать бы объяснение было бы нагляднее с конца.. ))))

  • @Biohack-1
    @Biohack-12 ай бұрын

    Капец такой толковый канал видео уже 3 года и так мало подписчиков....

  • @user-hi5yw8dd6z
    @user-hi5yw8dd6z2 ай бұрын

    IZVLEKATOR 3000 🤣

  • @user-yk5vp8pb3m
    @user-yk5vp8pb3m2 ай бұрын

    Согласен. Ничего не понятно

  • @quenbyako
    @quenbyako3 ай бұрын

    4:37 "пусть откуда-то дано dE по dH в численном виде" 5:48 "ну что давайте все это выводить по очереди" 5:53 "при условии что dE по dH нам дан" Ты прикалываешься? Прикольчики любишь, да? Приколдесики пулять, шутеечки шутить? Я РАЗРАБОТЧИК С 7 ЛЕТНИМ СТАЖЕМ И Я ТЕБЯ НЕ ПОНИМАЮ, АЛО, МОЖНО БОЛЕЕ ПОНЯТНО?))))

  • @Holme4
    @Holme43 ай бұрын

    То-есть, у меня 16 примеров для обучения, я прогоняю все 16 через нейросеть, записываю значения выхода в список, использую формулу MSE, и после этого корректирую веса? Меня учили иначе, прогоняем пример, вычисляем ошибку, распространяем ошибку, корректируем веса. повторяем все для 16 примеров. Какой метод правильный и что будет работать быстрее и точнее?

  • @dmitrijjerdev2393
    @dmitrijjerdev23933 ай бұрын

    Наконец-то нашел кого-то, у кого "Пишем с нуля" не равно "Для начала подключим тензорфлоу" Лайк, подписка, а там посмотрим, может и до колокольчика дойдёт 👍

  • @eugenesamrinov5771
    @eugenesamrinov57713 ай бұрын

    По-моему mse это не совсем евклидово расстояния. Евклидово расстояние с корнём, а у Вас с 1/n

  • @OnTheWayToTheDirection
    @OnTheWayToTheDirection3 ай бұрын

    import numpy as np import random INPUT_DIM = 4 OUT_DIM = 3 H_DIM = 5 x = np.array.randn(1, INPUT_DIM) y = random.randint(0, OUT_DIM-1) W1 = np.random.randn(INPUT_DIM, H_DIM) b1 = np.random.randn(1, H_DIM) W2 = np.random.randn(H_DIM, OUT_DIM) b2 = np.random.randn(1, OUT_DIM) ALPHA = 0.0001 NUM_EPOCHS = 100 def relu(t): return np.maximum(t, 0) def softmax(t): out = np.exp(t) return out / np.sum(out) def sparse_cross_entropy(z, y): return -np.log(z[0,y]) def to_full(y, num_classes): y_full = np.zeros((1, num_classes)) y_full[0,y] = 1 return y_full def relu_deriv(t): return (t >= 0).astype(float) for ep in NUM_EPOCHS: for i in range(len(dataset)): x, y = dataset[i] # forward: t1 = x @ W1 + b1 h1 = relu(t1) t2 = h1 @ W2 + b2 z = softmax(t2) E = sparse_cross_entropy(z, y) # backpropogation: y_full = to_full(y, OUT_DIM) dE_dt2 = z - y_full dE_dW2 = h1.T @ dE_dt2 dE_db2 = dE_dt2 dE_dh1 = dE_dt2 @ W2.T dE_dt1 = dE_dh1 * relu_deriv(t1) dE_dW1 = x.T @ dE_dt1 dE_db1 = dE_dt1 # Update: W1 = W1 - ALPHA * dE_dW1 b1 = b1 - ALPHA * dE_db1 W2 = W2 - ALPHA * dE_dW2 b2 = b2 - ALPHA * dE_db2

  • @prognoz2007
    @prognoz20073 ай бұрын

    Ну блин воще!!!!!!Просто гений. Респект от доктора физмат наук

  • @Astro69i
    @Astro69i3 ай бұрын

    Самое понятное видео и по делу. без воды.

  • @ggInzox
    @ggInzox3 ай бұрын

    А если так подумать я даже в 13 лет понял много чего спс

  • @back88
    @back884 ай бұрын

    Вы просто отличный и шикарный. Молодцы!

  • @makarov3832
    @makarov38324 ай бұрын

    жаль, что канал заброшен(((

  • @raimisbrosroyale3013
    @raimisbrosroyale30134 ай бұрын

    Автор вернись пожалуйста!!!

  • @ivpolevoi
    @ivpolevoi4 ай бұрын

    Почему никто не делает нейросеть с диалогами

  • @Koctyan777
    @Koctyan7774 ай бұрын

    Отличная подача, наконец то нашёл подходящее "понятное " обучение

  • @defix_gamedev
    @defix_gamedev4 ай бұрын

    нихуя не понятно

  • @user-st4ih8cu6l
    @user-st4ih8cu6l4 ай бұрын

    Благодарю вас!

  • @old891
    @old8914 ай бұрын

    так и при первом прогоне с рандомными данными получился правильный ответ - можно было время сэкономить))

  • @maximfx7479
    @maximfx74795 ай бұрын

    Интересный контент!я ранее почему то не находил ваши ролики! Информация довольно углубленная по теме нейронки ,почему так мало просмотров тоже удивлен

  • @user-gc8xq6yo7j
    @user-gc8xq6yo7j5 ай бұрын

    батч)))) batch - партия, пакет, серия, группа. туземцы forever))))))

  • @zix2421
    @zix24215 ай бұрын

    9:03 жесть, это было неожиданно. Вы куда пропали, ребята, отличный потенциальный канал, вроде

  • @user-mg1dg3lf9p
    @user-mg1dg3lf9p5 ай бұрын

    Как сломать мозг за 15 минут))) Очень крутая подача, спасибо!

  • @user-ox5hk5nu3t
    @user-ox5hk5nu3t5 ай бұрын

    лучшее наглядное видео про нейронки, которое я видел

  • @maksimkozyrev4208
    @maksimkozyrev42085 ай бұрын

    Привет! Мне не так уж много лет, 3- 4 года пишу сайты на react node js, до этого учил python сейчас решил вернуться и посмотреть про нейронки, автору спасибо большое, прям такое детское влечение появилось ❤

  • @LongKatanaLK
    @LongKatanaLK5 ай бұрын

    Нихуя не понятно, но очень интересно

  • @okmouk4042
    @okmouk40426 ай бұрын

    Идеальная подача! Если бы по всему CS были такие восхитительные обучающие видео, программисты бы без труда лутали петабайты качественных знаний и конкуренция на рынке IT превысила бы все мыслимые и немыслимые границы!