Пока не подняли LLM
на какой-то виртуалке и обращения к БД пока тоже не сделаны
предлагаю поднимать LLM
локально. Для этого я сделал compose.yaml
. Поднимать его
очевидно нужно с помощью docker compose
.
По сути гайд такой:
1) Ставим Docker
(надеюсь все с этим справятся)
2) С помощью docker compose
поднимаем LLM
командой в духе:
docker compose up --build
3) Отправляем промпты на API
модельки, можно делать это с помощью
curl
пример можно найти в официальной доке, либо с помощью самописного
скрипта на Python
, который лежит в LLM/tester
4) Пары вопрос ответ пока что можете сохранять у себя, думаю в будущем просто
заведем файлик database/database.json
, куда положим все пары
P.S. Убиваем контейнер так: =)
docker compose down