Нейро-помощник без программирования и бесплатно:RAG = Ollama + Flowise
Приглашаю в Телеграм общаться по это теме: t.me/AiExp01
Жүктеу.....
Пікірлер: 12
@kvoloshenko5 ай бұрын
Все ссылки здесь: t.me/AiExp01/61
@rostislavshatskiyАй бұрын
Низкий Вам поклон за решение! Хочу отметить, что у Вас отличные данные в области риторики. 5+
@svdminskАй бұрын
Большое спасибо за информацию!
@StanislavEremeev4 ай бұрын
Огромное спасибо! Наконец то нашел достойный канал без воды всякой! Огромный респект за проделанную работу!
@dimademenko16885 күн бұрын
Здравствуйте, подскажите пожалуйста, как на основе Flowise реализовать логику если гпт не может ответить на вопрос то создавать пост запрос в теле которого будет этот вопрос. Я сделал через request post нод и он отправляется но асистент не может вносить изменения в тело запроса( Заранее спасибо)
@kozsv4 ай бұрын
Только сегодня писал в другом видео что нужно такие материалы для развития локальных моделей, и вот нашёл 😅
@alefinvestАй бұрын
Стоит попробувать потестить
@emelyanovaleksey2600Ай бұрын
А есть возможность запустить эмбединги тоже локально?
@kvoloshenko
Ай бұрын
Да конечно, вот спискок моделей t.me/AiExp02/1626
@andreysorokin12365 ай бұрын
Какой нужен комп чтобы развернуть эту модель?
@kvoloshenko
5 ай бұрын
см. по памяти инфу под табличкой github.com/jmorganca/ollama#model-library ну и GPU как можно больше, исходя из возможностей, но не менее 12 Gb
Пікірлер: 12
Все ссылки здесь: t.me/AiExp01/61
Низкий Вам поклон за решение! Хочу отметить, что у Вас отличные данные в области риторики. 5+
Большое спасибо за информацию!
Огромное спасибо! Наконец то нашел достойный канал без воды всякой! Огромный респект за проделанную работу!
Здравствуйте, подскажите пожалуйста, как на основе Flowise реализовать логику если гпт не может ответить на вопрос то создавать пост запрос в теле которого будет этот вопрос. Я сделал через request post нод и он отправляется но асистент не может вносить изменения в тело запроса( Заранее спасибо)
Только сегодня писал в другом видео что нужно такие материалы для развития локальных моделей, и вот нашёл 😅
Стоит попробувать потестить
А есть возможность запустить эмбединги тоже локально?
@kvoloshenko
Ай бұрын
Да конечно, вот спискок моделей t.me/AiExp02/1626
Какой нужен комп чтобы развернуть эту модель?
@kvoloshenko
5 ай бұрын
см. по памяти инфу под табличкой github.com/jmorganca/ollama#model-library ну и GPU как можно больше, исходя из возможностей, но не менее 12 Gb