terratensor / LLM-KOB-DOTU

Добавление LLM с книгами на svodd.ru
0 stars 0 forks source link

Список обязательной литературы для соборной модели #4

Open iprst opened 5 months ago

iprst commented 5 months ago

Нужно обучить несколько моделей на слегка отличающихся наборах, — на каждую толстую книгу будет отдельная модель. Список обязательной литературы для моделей требуется для формирования фундамента. Можно использовать общий фундамент в виде ДОТУ, и дополнительно прикрепить другую книгу. Нужно установить текущие ограничения системы по входу, возможно отбирать нужно не книги, а использовать отдельные модули из поисковика по толстым книгам.

Для собора нужно обеспечить возможность модели задавать вопросы пользователю, для роста её различения — распознания информации, повышение логики ответов. Полученную информацию направлять в другую машину с теми же инструкциями, после диалога двух машин, суммеризировать их информацию, по необходимости объединять полученные данные. Далее использовать многопользовательский чат, 50 моделей это 50 «пользователей». Постановка вопроса оператором реализует 50 разных в той или иной степени ответов, которые можно объединять, можно уточнять встречными вопросами.

Ниже предлагаю обсудить и формировать список литературы, ограничения и другие мысли по поводу.

terekon1 commented 4 months ago

Использовал я вот такой промпт, вчера на него наткнулся, я думаю он очень нам подойдет "Act as Professor Synapse🧙🏾‍♂️, a conductor of expert agents. Your job is to support the user in accomplishing their goals by aligning with their goals and preference, then calling upon an expert agent perfectly suited to the task by initializing "Synapse_COR" = "${emoji}: I am an expert in ${role}. I know ${context}. I will reason step-by-step to determine the best course of action to achieve ${goal}. I can use ${tools} to help in this process

I will help you accomplish your goal by following these steps: ${reasoned steps}

My task ends when ${completion}.

${first step, question}."

Follow these steps:

  1. 🧙🏾‍♂️, Start each interaction by gathering context, relevant information and clarifying the user’s goals by asking them questions
  2. Once user has confirmed, initialize “Synapse_CoR”
  3. 🧙🏾‍♂️ and the expert agent, support the user until the goal is accomplished

Commands: /start - introduce yourself and begin with step one /save - restate SMART goal, summarize progress so far, and recommend a next step /reason - Professor Synapse and Agent reason step by step together and make a recommendation for how the user should proceed /settings - update goal or agent /new - Forget previous input

Rules: -End every output with a question or a recommended next step -List your commands in your first output or if the user asks -🧙🏾‍♂️, ask before generating a new agent"" -write in Russian language! -пиши на русском языке!

Вот какой результат я получил, но я пока не подключал вторую модель ТестСина.txt

iprst commented 4 months ago

Вот какой результат я получил, но я пока не подключал вторую модель ТестСина.txt

Познавательно. Профессор на чём обучен, или здесь используется стандартная модель?

terekon1 commented 4 months ago

Вот какой результат я получил, но я пока не подключал вторую модель ТестСина.txt

Познавательно. Профессор на чём обучен, или здесь используется стандартная модель?

Это инструкция, которую модель должна выполнять

iprst commented 4 months ago

Это инструкция, которую модель должна выполнять

Вопрос про результаты из текстового файла.

terekon1 commented 4 months ago

Это инструкция, которую модель должна выполнять

Вопрос про результаты из текстового файла.

Достаточно общая теория управления.doc 210 005 Tokens и Об имитационно-провокационной деятельности.doc 95 781 Tokens

iprst commented 4 months ago

Достаточно общая теория управления.doc 210 005 Tokens и Об имитационно-провокационной деятельности.doc 95 781 Tokens

В тексте эта информация есть. То есть, скармливание токенов фактически было обучением модели, или добавлением контекста-памяти? Это пока не очевидно из текстового файла. Сколько времени занимает, секунду?

terekon1 commented 4 months ago

Достаточно общая теория управления.doc 210 005 Tokens и Об имитационно-провокационной деятельности.doc 95 781 Tokens

В тексте эта информация есть. То есть, скармливание токенов фактически было обучением модели, или добавлением контекста-памяти? Это пока не очевидно из текстового файла. Сколько времени занимает, секунду?

Добавление контекста-памяти, примерно 2 минуты, она должна эту информацию еще разложить