Лекция 12. AUC, ROC кривые. Логистическая регрессия (Анализ данных на Python. Ч2)

compscicenter.ru/
Анализ несбалансированных выборок. Accuracy, precision, recall, F1. ROC кривая (ROC curve) для определения порогового значения. ROC кривая (ROC curve) для сравнения классификаторов. Area under curve (AUC). Логистическая регрессия (Logistic regression).
Лекция № 12 в курсе "Анализ данных на Python в примерах и задачах. Часть 2" (осень 2018).
Преподаватель курса: Вадим Леонардович Аббакумов
Страница лекции на сайте CS центра: bit.ly/2SVcug3

Пікірлер: 16

  • @vladimirkimbris8109
    @vladimirkimbris81092 жыл бұрын

    Вадим Леонардович, хочу поблагодарить вас за этот прекрасный курс! Благодаря Вам, получил работу в сфере Data Science, Спасибо Вам большое! Вы преподаватель от Бога!

  • @Vadim_Abbakumov

    @Vadim_Abbakumov

    2 жыл бұрын

    Удачи! Поздравляю! Спасибо за теплые слова

  • @shandi1241
    @shandi12413 жыл бұрын

    Ну что могу сказать, в сентябре выхожу data-аналитиком на новую работу :), до этого 6 лет java enterprise, готовился по Вашим лекциям. Жаль, на матмехе СПбГУ не удалось попасть к Вам на курс. Надеюсь карма в мире есть, поэтому желаю всех благ. Спасибо Вам, Вадим Леонардович.

  • @Vadim_Abbakumov

    @Vadim_Abbakumov

    3 жыл бұрын

    И Вам спасибо, удачи!

  • @kingcchultz3366
    @kingcchultz33663 жыл бұрын

    Прекрасное видео, только благодаря этой лекции и гайда с coderlessons смог сделать практическую работу в универе.

  • @numaki2506
    @numaki25063 жыл бұрын

    Я вот вспоминаю как нам преподавали курс по ML в универе и у меня появляется чувство что меня обплевали, препод приходил на пару говорил "открывайте учебник и читайте" и уходил пить чай. Вот бы все преподы рассказывали материал как Вадим Леонардович

  • @Sibbarb9

    @Sibbarb9

    2 жыл бұрын

    Если бы преподов тоже получали 200+

  • @user-wx2pr2io7u
    @user-wx2pr2io7u4 жыл бұрын

    Time code. Теория начинается с 9:20

  • @linkernick5379
    @linkernick53793 жыл бұрын

    Глубокое замечание на 35:25, ведь действительно, мы используем классификаторы для конкретного порога, а roc-auc-и сравниваются по всем возможным. В этом смысле F_beta гораздо осмысленнее.

  • @user-ou8bf3rm3o
    @user-ou8bf3rm3o5 жыл бұрын

    Возможно ли, что вычисление частичной площади под кривой (только для тех порогов, которые реально будут использоваться) решит задачу корректного сравнения классификаторов с помощью AUC? И «красный» классификатор, у которого AUC, вычисленный по всем порогам, меньше, чем у «чёрного», станет лучше по частичной AUC?

  • @Vadim_Abbakumov

    @Vadim_Abbakumov

    5 жыл бұрын

    Затрудняюсь с ответом

  • @Gyringag

    @Gyringag

    4 жыл бұрын

    А для каких "тех" порогов? Порог использоваться будет только один, и их сравнение это и есть сравнение расстояния до 1

  • @Calmy100
    @Calmy1005 жыл бұрын

    спасибо за курс! ссылка на сайте ведет на 11 лекцию, вместо 12

  • @CompscicenterRu

    @CompscicenterRu

    5 жыл бұрын

    Спасибо огромное! Поправили

  • @Sibbarb9
    @Sibbarb92 жыл бұрын

    Коллеги понятно

  • @Satmek
    @Satmek5 жыл бұрын

    Звук тихий

Келесі