Closed yuezhao238 closed 7 months ago
When fine-tuning ChatGLM-6B, we used Chinese prompts, which included the game state, historical speeches, votes, visible skills, and speech instructions. The prompts in the paper are translated into English to make them accessible to a broader audience.
Thanks for your reply!
I will keep an eye on training code releases.
Thanks for your patience!
Hi, as far as i know, ChatGLM-6B has a max sequence length equals to 2048. While in the Hyperparameters part of your paper, I find a parameter named Sequence Length upto 4096 or 8192. How can I implement it when training with Huggingface Trainer or SFTTrainer? I'd appreciate it if you share one piece of data in training format and the minimization implement of training setting! Thanks for your precious time!
We use ChatGLM3, please refer to https://github.com/THUDM/ChatGLM3, a training sample is as follows:
game_id: 20230901142819_58102 label: 四号认为五号视角有偏差,九是狼,六七划水,八号视角奇怪。四是预言家,九是杀。建议投票掉九。 content: 现在你扮演一个狼人杀玩家,我提供给你一些你即将要发言的立场信息,这些信息是还未发生的,不是历史信息,请你串联起来这些信息,生成一段发言文本。 先给你一些游戏背景: 任务类型:游戏对话生成 任务场景:九人狼人杀游戏发言。 好人阵营:3个村民、预言家、女巫、猎人; 狼人阵营:3个狼人。
常用术语解释如下:
你正在玩九人狼人杀游戏,假设你是狼人杀玩家4,身份是预言家。
目前场上发言是: 第1天玩家9说:找预言家局要聊好,闭眼玩家牌都打你,更何况三张狼人牌把你自己狼坑了。预言家能力高一低的问题。我一张首置卖的牌肯定会被点评,但狼人牌不一定打我。找支点打你,不一定打我这张九。 第1天玩家8说:八号玩家建议找预言家,认为九号牌有点画蛇添足,但行为上做好,不排除是好人牌。他认为第一天的发言偏良性,但行为上是表水,容易被狼人利用。他强调要听发言,找预言家,不要乱打。 第1天玩家7说:七号牌说八号牌很会表水,九号牌也聊了很多。第一轮大家都可能会表水,第二轮上票后再来聊理由,聊得通再当狼打。 第1天玩家6说:等预言家出来才能精彩起来。九号牌有防守动作,但不足以打出狼人底牌。七八九我给三张容错牌,因为我没抓到定匪。听发言是重点,后队还剩五张牌,后缀应该很精彩。 第1天玩家5说:五号玩家觉得跳九标局可能有容错,知狼七在尬打八九两张牌,但他觉得八九两张容错牌更有意义。他听感知狼七劣于三张牌,可能是七六两张牌,知狼六在划水,不敢工作。
你的历史查验信息是: 第1天晚上,你查了9, 它的身份是狼人
我提供给你的场内信息格式: { "身份类型": {"<身份>": [编号,编号,...]}, "动作类型": {"<动作>": [[主语编号, 宾语编号], [主语编号, 宾语编号]]} } 例如: { "身份类型": {"狼人":[3,5]}, "动作类型": {"查杀":[[1,6],[2,3]]} } 表示3号和5号是狼人,1号查杀6号, 2号查杀3号,主宾不可逆; 玩家编号只可能是:1,2,3,4,5,6,7,8,9,unknown 请替换成发言者的玩家 id
注意,生成的发言结果应该严格满足以下 10 点要求:
现在你就是狼人杀玩家4,第1天第一轮发言,身份是预言家,我提供给你的即将要发言的关键信息: {'身份类型': {'预言家': [4], '狼人': [9], '有偏差': [5], '划水': [6, 7], '视角奇怪': [8]}, '动作类型': {'查杀': [[4, 9]], '归票': [[4, 9]]}} 请严格遵循关键信息生成发言,发言文本在 100 字以内, 现在轮到你发言了:
Thank you very much!
Hi, thanks for this great work!
Would you please clarify the language of prompts used when finetuning ChatGLM-6b? In your paper, I can find some English prompts. Did you use these English prompts when finetuning on Chinese gameplay data?
Thanks for your precious time!