Fine-Tuning в ChatGPT. Как дообучить LLM (простым языком и на примере)

Разбираем, что такое:
В видео рассказываю как устроен fine tuning в ChatGPT и других LLM.
Содержание
1:16 - про Zero-shot, one-shot, few-shots в Prompt Engineering
3:47 - что такое fine-tuning моделей
5:57 - плюсы и минус использования файн-тюнинга
8:51 - советы по подготовке дата сетов
11:45 - мой личный пример файн-тюнинга chatgpt
Presentation:
docs.google.com/presentation/...

Пікірлер: 22

  • @user-vz4vc6dy4r
    @user-vz4vc6dy4rКүн бұрын

    10 в нулевой степени это 1 10 в первой степени это 10 А видос крутой

  • @secondlifetools6060
    @secondlifetools606020 күн бұрын

    это охрененно полезная инфа! продолжай пожалуйста.

  • @yarafilms
    @yarafilms8 ай бұрын

    Прям мега полезно! Как раз искал понятные материал, буду пробовать! Спасибо! ;)

  • @TheAmadur
    @TheAmadur4 ай бұрын

    Это топовый видос. Очень помог, спасибо

  • @yason24ru
    @yason24ru9 ай бұрын

    Крутой видос. Спасибо большое

  • @dmitriyneledva4693
    @dmitriyneledva46936 ай бұрын

    очень крутое видео!

  • @user-ud3rv5xo6z
    @user-ud3rv5xo6z8 ай бұрын

    Спасибо

  • @moresevas
    @moresevas8 ай бұрын

    Отличный видос! Хотелось бы обсудить вот что: всегда ли возможны другие режимы, кроме zero-shot? Например, работаем через API чтобы оценивать ответы студентов на тест по физике, допустим из 20 заданий. Каким образом мы можем проапгрейдить zero-shot(s), если от раза к разу у нас разные 20 заданий по разным темам физики?

  • @Singularity_is_Coming

    @Singularity_is_Coming

    8 ай бұрын

    в файн тюнинге зеро-шот под такую задачу идеально зайдет, нужно побольше примеров из разных тем и LLM будет справляться с разными темами без проблем. для файтюнинга я бы делал 1 запрос = 1 задание и собрал датасет хотя бы на 200-300 задач с ответами. а как улучшить уже сам zero-shot промпт рассказал в новом видео: kzread.info/dash/bejne/dGtlyMaTgL26Z7A.html

  • @kiryllshynharow9058
    @kiryllshynharow90586 ай бұрын

    2:39 Чтоооо? 10^1 это ну уж точно не сотня. Математически это 10, но судя о масштабе по подписи "Number of Examples in Context (K)" по горизонтальной оси отложены тысячи примеров

  • @Singularity_is_Coming

    @Singularity_is_Coming

    6 ай бұрын

    спасибо за комментарий, верно заметили! там 10 примеров а не 100

  • @Roman-hv3ss
    @Roman-hv3ssАй бұрын

    Огонь! С огромным интересом посмотрел. Подписка. А можно таким образом дообучить локальные нейронки?

  • @Singularity_is_Coming

    @Singularity_is_Coming

    Ай бұрын

    Да, можно и локальные конечно, но ресурсов нужно много для этого, если модели большие

  • @povezlo46
    @povezlo464 ай бұрын

    Спасибо за полезный урок, Денис. Однозначно подписка. А что там по деньгам получилось? во сколько обошлось тебе обучить эту модель писать в стиле Нориса?

  • @Singularity_is_Coming

    @Singularity_is_Coming

    4 ай бұрын

    Поскольку база небольшая, вышло недорого, что-то около 1$

  • @wmsl3944
    @wmsl39444 ай бұрын

    Привет, какой у тебя Git?

  • @DizroAI
    @DizroAI5 ай бұрын

    У меня есть небольшая база данных, и я пытаюсь разработать процесс обработки больших новостных текстов. Какую модель лучше всего использовать в этом случае, и как ее правильно настроить? На вход модели будет подаваться обширный новостной контент, а требуется получить отформатированный и сокращенный вариант текста.

  • @Singularity_is_Coming

    @Singularity_is_Coming

    5 ай бұрын

    лучше всего конечно GPT-4, но нужно смотреть насколько существенная разница в качестве, т.к. разница в цене существенная - ~5-10 раз

  • @mr.grixakrushkas5667
    @mr.grixakrushkas56677 ай бұрын

    Это лора чтоль, или есть отличия?

  • @user-xo1yo6hi3u
    @user-xo1yo6hi3u7 ай бұрын

    +

  • @IlyaPanfilov
    @IlyaPanfilov7 ай бұрын

    Зачем спалил ключ на 12:29) или это пасхалка?

  • @Singularity_is_Coming

    @Singularity_is_Coming

    6 ай бұрын

    пасхалка, а вообще то тестовый ключ был для видео)

Келесі