Open PureNatural opened 8 months ago
拟定题目:OSATG-GPT:Instruction-tuning Large Language Models with Open Source Atom Tasks on GitHub 拟投期刊:information sciences (SCI 1区 top, CCF-B) 时间计划: 5-6月:完成数据集构建 7-8月:完成实验 8-9月:投稿
discusstion数据可以通过GraphQL的方式获取,返回的数据大致如下:
对比GitHub网站原内容:
有一个关键字段如上图,可以判断该评论是否标记为答案,对问答数据集的构建很有帮助
具体文档:https://docs.github.com/zh/graphql/guides/using-the-graphql-api-for-discussions
目前可以确定的任务有19个,数据集也确定可以拿到,后续预计设计24个任务左右,本月可以将数据集定好
可以定义的任务基本上能超过30个,但为了工作进度,本次实验优先证明方法的有效性,所以在第一阶段先选取质量更好的任务作为原子任务,后续再增加任务的数量
最后确定原子任务24个:
Description
因为后续会讨论很多实验方面以及数据集构建方面的细节,故将开源领域大模型的科研进展放到open-research仓库中讨论,我根据现有实验室资源以及GitHub的现有的功能,将任务大致划分为以下部分:
任务还是有点多,可能会适当删减,我认为可以先确定方法的有效性,再一次次扩大数据集并添加更多任务,这样更稳一些
同时 @衍童 最近在看LLaMA-Factory,可以支持后续大模型的微调以及开发。
今天王老师组会上提到,针对不同的仓库可能模型设计的问题和答案是不同的,这个我也确实考虑到了,因为同一个问题在不同的仓库下是有可能都会被问到的,但因为仓库不同,所以答案不一定相同,这个需要一开始设计任务时做好处理,我计划从仓库入手获取数据集,先考虑以下几个热门仓库: https://github.com/vercel/next.js https://github.com/gatsbyjs/gatsby https://github.com/nodejs/node https://github.com/tailwindlabs/tailwindcss https://github.com/laravel/framework