Лекция 7. XGboost. (Анализ данных на Python в примерах и задачах. Ч2)
compscicenter.ru/
Теоретическое обоснование метода. Пример решения задачи в Python с использованием XGboost. Несбалансированные выборки. Precision, Recall, F1. Информативность переменных (Importance). Подбор параметров в XGboost.
Лекция №7 в курсе "Анализ данных на Python в примерах и задачах. Часть 2" (осень 2018).
Преподаватель курса: Вадим Леонардович Аббакумов
Страница лекции на сайте CS центра: bit.ly/2S9Pwyp
Все видео курса: bit.ly/2NEwnWR
Пікірлер: 14
Отличные лекции, спасибо большое!
Спасибо огромное!
Видео 6 лекции будет немного позже.
@RenescoRocketman
5 жыл бұрын
Отлично, а то уж испугался, что пропустили.
Очень ждем 6 лекцию
@CompscicenterRu
5 жыл бұрын
Готово, выложили 6 лекцию.
Ну где же, где ж она, 6я лекция? Не охота начинать смотреть 7ю с пропуском.
@CompscicenterRu
5 жыл бұрын
По техническим причинам для 6 лекции нужно подготовить скринкаст, это займёт какое-то время. Поэтому пока, к сожалению, точную дату назвать не можем.
@CompscicenterRu
5 жыл бұрын
Ура, опубликовали 6 лекцию.
@RenescoRocketman
5 жыл бұрын
Вот это и правда Ура. Спасибо.
Не совсем понятно зачем делать dropna если xgboost работает с пропусками?
@Vadim_Abbakumov
4 жыл бұрын
Советую разобраться, КАК именно XGBoost работает с пропусками. Он считает, что распределение пропусков информативно и использует информацию о пропусках для предсказания. Когда аналитик считает, что в задаче пропуски появляются непонятным для него способом, лучше без них. Я так и сделал
Смотрю в 2023, представляю что бы творилась если бы сейчас, если бы повторили эту фразу 57:20 )
@hopelesssuprem1867
9 ай бұрын
с языка снял)