Логистическая Регрессия | Logistic Regression | Линейная модель для классификации |МАШИННОЕ ОБУЧЕНИЕ

Поддержать канал можно оформив подписку на
🎉 boosty.to/mach...
🎉 machine...
🎉 А можете скидывать монеты на www.donational...
Канал в TG t.me/machine_l...
Группа в VK machine...
Преподаю на курсах в онлайн-университете на программах, связанных с ИИ и Data Science:
go.redav.onlin... (Нетология)
Приходите ко мне на занятия!
Курсы на платформе Stepik:
1. Библиотеки Python для Data Science stepik.org/a/1...
2. Введение в нейронные сети (Keras/Tensorflow) stepik.org/a/1...
❓ Вопросы, на которые найдем ответы в этом видео:
- Что такое логистическая регрессия
- Как обучается логистическая регрессия
- Что такое правдоподобие
- Что такое функция потерь logloss (кросс-энтропия)
🌟 Линейная регрессия • РЕАЛИЗАЦИЯ ЛИНЕЙНОЙ РЕ...
0:00 Введение
0:05 План занятия
0:20 Что нужно знать для занятия
0:49 Поддержка boosty.to/mach...
0:49 Поддержка machine...
1:14 Что такое логистическая регрессия
2:06 Линейная классификация
4:11 Сигмоида для линейной классификации
6:02 Логистическая регрессия простыми словами
6:24 Как обучается логистическая регрессия
6:43 Сравнение логистических регрессий
8:00 Введение в logloss
8:06 Правдоподобие Likelihood
8:42 Простой пример расчета правдоподобия
10:51 Расчет правдоподобия на всех данных
12:34 Получили логистическую функцию потерь
12:41 Расчет логлосса на правдоподобии
13:13 Сравнение кросс-энтропии
13:38 Вывод кросс-энтропии из правдоподобия
13:41 Формула подсчета правдоподобия
14:08 Пример расчета правдоподобия по формуле
15:40 Вывод формулы logloss
16:08 Метод максимального правдоподобия
16:22 Как из правдоподобия получить logloss
17:34 Градиент по logloss
18:06 Резюме обучения логистической регрессии
18:40 Спойлер к следующему видео
18:54 Резюме занятия
19:01 Логистическая регрессия - это линейная регрессия с сигмоидой
19:21 Правдоподобие
19:30 Logloss, Логлосс, Cross-entropy, Кросс-энтропия
19:42 ♡

Пікірлер: 44

  • @pashamorozov8257
    @pashamorozov82573 ай бұрын

    Спасибо большое. Ооооочень доступно и понятно, как и все видеоролики. Вы талант!

  • @pavelkoloyan7187
    @pavelkoloyan7187 Жыл бұрын

    Спасибо. Очень понятно объясняешь. Смотрю твои видео для закрепления материала. Если, что то не догоняю после твоих видео все становиться на места). Про расчет градиента очень бы хотелось послушать. Тема довольно важная кажеться😃👍

  • @poigrushkin9433
    @poigrushkin9433 Жыл бұрын

    Ура, жду следующее видео, это было прекрасным

  • @machine_learrrning

    @machine_learrrning

    Жыл бұрын

    Огромное спасибо за приятные слова! 😊 Уже совсем скоро, а точнее в субботу выйдет видео про реализацию логистической регрессии

  • @xandrviking1113
    @xandrviking11138 күн бұрын

    Спасибо. Хоть кто-то объяснил толком на графике 😊

  • @mariakupfer1240
    @mariakupfer1240 Жыл бұрын

    О Боже, я наконец-то всё поняла! Спасибо большое! Я правда уже долгое время не могла понять, что такое Правдоподобие и как оно связано с Логистической регрессией! Пошла смотреть другие ваши видео 😊

  • @leshamas_
    @leshamas_ Жыл бұрын

    Большое спасибо за разъяснения! Видео очень ёмкое и подробное для каких-то 20 минут =)

  • @petrgolovnin1992
    @petrgolovnin1992 Жыл бұрын

    Юлия, благодарю за урок! Для чего нужно делать градиентный спуск из logloss и как его делать? Будет супер, если такой урок сделаете)

  • @user-gw2hb6nd6x
    @user-gw2hb6nd6x Жыл бұрын

    Как всегда, отличное объяснение! Спасибо!

  • @user-wk6cb2yf8l
    @user-wk6cb2yf8l Жыл бұрын

    Спасибо, очень доступно, ждём продолжение)

  • @machine_learrrning

    @machine_learrrning

    Жыл бұрын

    Пожалуйста! Продолжение будет завтра :)

  • @user-wr7vn3ve5e
    @user-wr7vn3ve5e Жыл бұрын

    Спасибо! Отличный урок!

  • @machine_learrrning

    @machine_learrrning

    Жыл бұрын

    Пожалуйста, очень рада, что урок понравился 😊

  • @Goressi
    @Goressi Жыл бұрын

    Прекрасное объяснение, спасибо!

  • @ramzesi201
    @ramzesi2016 ай бұрын

    одно из лучших видео что я видел

  • @Midjt
    @Midjt6 ай бұрын

    Браво! Прекрасное объяснение! 5+

  • @Tolyeschebudet
    @Tolyeschebudet Жыл бұрын

    👏👏 Отлично!

  • @aly7401
    @aly7401 Жыл бұрын

    Спасибо огромное, это лучшее объяснение правдоподобия. А планируется ли видео по подробному разбору roc-auc?

  • @machine_learrrning

    @machine_learrrning

    Жыл бұрын

    Про ROC-AUC уже было видео: kzread.info/dash/bejne/qGqEsqlxesKrl9Y.html

  • @aly7401

    @aly7401

    Жыл бұрын

    @@machine_learrrning спасибо, не заметила его с первого раза

  • @user-fr7df3tw1v
    @user-fr7df3tw1v Жыл бұрын

    Шикарно👏

  • @user-bv7gn9le4l
    @user-bv7gn9le4l12 күн бұрын

    Я достиг катарсиса, спасибо

  • @user-ku4nn5pw8p
    @user-ku4nn5pw8p11 ай бұрын

    Спасибо за контент! Видео помогают суммаризировать информацию - ставлю лайк под каждым вашим роликом) По данному видео возникло 3 вопроса: 1. Почему на 11:55 мы делим на N? Вроде как когда я изучал статистику, при поисках ОМП (оценок макс правдопод) мы не делили правдоподобие на N. 2. Совпадение ли, что на 17:10 формула похожа на энтропию Шеннона? Если нет, то как это связано?)) 3. Как получилась формула для градиента logloss? Вы сказали, что выведите формулу в след видео с реализацией - я поверхностно пробежался по таймкодам, но вывода не нашел(

  • @user-ku4nn5pw8p

    @user-ku4nn5pw8p

    11 ай бұрын

    И еще хочу уточнить - на 17:40 вы говорите про то, что мы ищем веса лог. регрессии через градиентный спуск. Но я тут прохожу параллейно логистическую регрессию с одним номинативными предикторами на курсе по статистике и там эти веса - логарифмы отношения шансов отнесения обьекта к классу (log[1ый класс/2ой класс]). Формула с логарифмами - это частный случай для номинативных переменных, который перестает работать в случае количественных переменных?..

  • @LoSb_Krakov
    @LoSb_Krakov Жыл бұрын

    Я понял, что такое правдоподобие, ура!

  • @tchntrn
    @tchntrn10 ай бұрын

    leaRRRning это отсылка на что?)) Клевый ролик)

  • @LoSb_Krakov
    @LoSb_Krakov Жыл бұрын

    Спасибо!

  • @ds_sss_rank
    @ds_sss_rank11 ай бұрын

    логлосс вроде это бинарная кросс-энтропия, а не кросс-энтропия 17:30 за видео спасибо

  • @Putinka1000
    @Putinka1000 Жыл бұрын

    Хотелось бы ссылку на donation alerts, яндекс кошелек и т.п., чтобы иметь возможность единоразово отблагодарить без регистрации. За видео спасибо.

  • @machine_learrrning

    @machine_learrrning

    Жыл бұрын

    А такая ссылка есть :) www.donationalerts.com/r/machine_learrrning Буду рада за поддержку!

  • @user-bj9bf8jn9h
    @user-bj9bf8jn9h8 ай бұрын

    Кто-нибудь объясните пожалуйста про логарифм на 12:21

  • @leowhynot
    @leowhynot Жыл бұрын

    есть видео про подробное получение градиента? хотелось бы еще узнать как высчитываются веса в sklearn модели logreg. неужели все через градиентный спуск?

  • @machine_learrrning

    @machine_learrrning

    Жыл бұрын

    Про градиентный спуск рассказываю и его показываю в видео про реализацию линейных моделей: 1. линейная регрессия kzread.info/dash/bejne/fX51m6NqoZzSZ6g.html 2. логистическая регрессия kzread.info/dash/bejne/pKmKrZJwiamTgrg.html В этих моделях могут использоваться другие методы оптимизации, более подробно стоит смотреть по агрументу solver в классах sklearn, к примеру, для логрег: scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html

  • @user-zj6cw9mt3d
    @user-zj6cw9mt3d Жыл бұрын

    Спасибо, а логистическая регрессия умеет работать с пропусками в данных ?

  • @machine_learrrning

    @machine_learrrning

    Жыл бұрын

    нет, к сожалению, такой способности у модели нет

  • @doniyordjon_pro
    @doniyordjon_pro Жыл бұрын

    Интересно, градиент из логлосса

  • @Roc19961
    @Roc19961 Жыл бұрын

    А, так вот почему игноришь в лс, ты монтируешь

  • @iotone7525
    @iotone7525 Жыл бұрын

    Кажется, что вы это объясняете это тем, кто это уже все знает, а я ничего не понял. Очень хочется все это понять и объяснить людям ПОНЯТНО, на примере. Просто начинаешь смотреть, какие-то непонятные обозначения. Скалярное произведение. Че за скалярное произведение, че это вообще такое и так все. ну нафиг.

  • @machine_learrrning

    @machine_learrrning

    Жыл бұрын

    Может быть для начала ознакомитесь с видео про линейную регрессию, где как раз-таки получаем это скалярное произведение? kzread.info/dash/bejne/fX51m6NqoZzSZ6g.html А если говорить кратко, то это перемножение коэффициентов (весов) на признаки (характеристики данных)

  • @iotone7525

    @iotone7525

    Жыл бұрын

    @@machine_learrrning Спасибо, попробую

  • @iotone7525
    @iotone7525 Жыл бұрын

    Знаете как это выглядит моими глазами? Смотрю на график, там числа, че за числа, че это? непонятно. Ладно, поехали дальше. бла бла бла, Скалярное произведение. Че? Че это такое? Начинаешь гуглить. результат операции над двумя векторами, являющийся скаляром, то есть числом, не зависящим от выбора системы координат. Используется в определении длины векторов и угла между ними. Че? Че? Что это вообще значит? может если я прочитаю че такое вектор мне станет понятно? ок. математический объект, характеризующийся величиной и направлением. Что? че за объект? Что за величина? Направление в пространстве или где? Как это? ааааааа

  • @guts909

    @guts909

    6 ай бұрын

    Линейная алгебра в помощь. Там нет ничего сложно. Можете поизучать и потом намного понятнее станет всё

  • @osvab000

    @osvab000

    Ай бұрын

    Вот поэтому математику не любят. Там очень много такого, что можно не произносить и объяснить за секунды... Но речь загромождают не нужной терминологией! Мало людей могут объяснить сложное - простысми словами. Здесь я тоже ничего не понял про правдоподобие!

  • @kosby5963
    @kosby596310 ай бұрын

    Ты милашка) материал хороший, подписался.

Келесі