Fine-Tuning в ChatGPT. Как дообучить LLM (простым языком и на примере)
Разбираем, что такое:
В видео рассказываю как устроен fine tuning в ChatGPT и других LLM.
Содержание
1:16 - про Zero-shot, one-shot, few-shots в Prompt Engineering
3:47 - что такое fine-tuning моделей
5:57 - плюсы и минус использования файн-тюнинга
8:51 - советы по подготовке дата сетов
11:45 - мой личный пример файн-тюнинга chatgpt
Presentation:
docs.google.com/presentation/...
Пікірлер: 22
10 в нулевой степени это 1 10 в первой степени это 10 А видос крутой
это охрененно полезная инфа! продолжай пожалуйста.
Прям мега полезно! Как раз искал понятные материал, буду пробовать! Спасибо! ;)
Это топовый видос. Очень помог, спасибо
Крутой видос. Спасибо большое
очень крутое видео!
Спасибо
Отличный видос! Хотелось бы обсудить вот что: всегда ли возможны другие режимы, кроме zero-shot? Например, работаем через API чтобы оценивать ответы студентов на тест по физике, допустим из 20 заданий. Каким образом мы можем проапгрейдить zero-shot(s), если от раза к разу у нас разные 20 заданий по разным темам физики?
@Singularity_is_Coming
8 ай бұрын
в файн тюнинге зеро-шот под такую задачу идеально зайдет, нужно побольше примеров из разных тем и LLM будет справляться с разными темами без проблем. для файтюнинга я бы делал 1 запрос = 1 задание и собрал датасет хотя бы на 200-300 задач с ответами. а как улучшить уже сам zero-shot промпт рассказал в новом видео: kzread.info/dash/bejne/dGtlyMaTgL26Z7A.html
2:39 Чтоооо? 10^1 это ну уж точно не сотня. Математически это 10, но судя о масштабе по подписи "Number of Examples in Context (K)" по горизонтальной оси отложены тысячи примеров
@Singularity_is_Coming
6 ай бұрын
спасибо за комментарий, верно заметили! там 10 примеров а не 100
Огонь! С огромным интересом посмотрел. Подписка. А можно таким образом дообучить локальные нейронки?
@Singularity_is_Coming
Ай бұрын
Да, можно и локальные конечно, но ресурсов нужно много для этого, если модели большие
Спасибо за полезный урок, Денис. Однозначно подписка. А что там по деньгам получилось? во сколько обошлось тебе обучить эту модель писать в стиле Нориса?
@Singularity_is_Coming
4 ай бұрын
Поскольку база небольшая, вышло недорого, что-то около 1$
Привет, какой у тебя Git?
У меня есть небольшая база данных, и я пытаюсь разработать процесс обработки больших новостных текстов. Какую модель лучше всего использовать в этом случае, и как ее правильно настроить? На вход модели будет подаваться обширный новостной контент, а требуется получить отформатированный и сокращенный вариант текста.
@Singularity_is_Coming
5 ай бұрын
лучше всего конечно GPT-4, но нужно смотреть насколько существенная разница в качестве, т.к. разница в цене существенная - ~5-10 раз
Это лора чтоль, или есть отличия?
+
Зачем спалил ключ на 12:29) или это пасхалка?
@Singularity_is_Coming
6 ай бұрын
пасхалка, а вообще то тестовый ключ был для видео)