没有合适的资源?快使用搜索试试~ 我知道了~
WizardCoder代码大语言模型论文研读+原理解析
需积分: 5 5 下载量 167 浏览量
2023-08-03
11:40:09
上传
评论 1
收藏 36KB DOCX 举报
温馨提示
试读
2页
《WizardCoder: Empowering Code Large Language Models with Evol-Instruct》代码大语言模型论文研读 Architecture:Decoder-Only Model Size:15B Evol-Instruct:1) Streamlined the evolutionary instructions by removing deepening, complicating input, and In-Breadth Evolving. 2) Simplified the form of evolutionary prompts by unifying the evolutionary prompt template. Huggingface:https://huggingface.co/WizardLM/WizardCoder-15B-V1.0
资源推荐
资源详情
资源评论
《WizardCoder:利用 Evol-Instruct 为代码大模型赋能》
受到 Evol-Instruct(该方法生成具有不同难度级别的指令)方法的启发,本研
究旨在,通过代码特定 Evol-Instruct 方式生成复杂的代码指令数据,来增强当前
最先进的开源代码大型语言模型 StarCoder 的能力。
首先,使用基本代码指令数据 Code Alpaca 来进行演化。随后,利用新创建
的代码遵循指令训练集对 StarCoder 进行微调,从而得到了 WizardCoder。
【Evol-Instruct,是一种使用 LLM 自动大规模生产各种难度级别的开放域指
令的新方法,以提高 LLM 的性能。该方法随机选择深度演化或读取以将简单的
指令升级为更复杂的指令或创建一个新的指令。深度演化包括五种操作:添加约
束、深化、具体化、增加推理步骤及使输入复杂化。In-breadth Evolving 是突变,
即根据给定的指令生成全新的指令。】
在早期的指令微调中,主要目标是增强语言模型的跨任务泛化能力。这是通
过使用大量公共 NLP 任务语料对语言模型进行微调来实现的。(通过使用多样的
NLP 任务指令微调语言模型,在应用于新任务时可以显著提高性能。但这往往
无法与真实用户的意图相吻合)。OpenAI 采取的方法是,通过征求人工标注员提
供大量包含不同形式和广泛任务类型的人类指令语料。然而,与这些进展相关的
数据集和模型参数不对公众开放。Alpaca 则采用了一种自我指导方法,利用
ChatGPT 生成数据进行训练。Vicuna 利用从 ShareGPT.com 收集的用户共享对话
来训练其模型。WizardLM 引入了 Evol-Instruct 方法,涉及演化现有指令数据以
生成更复杂和多样化的数据集。
为了将 Evol-Instruct 适应于代码领域,对进化提示进行了以下修改:
---通过移除深化、复杂化输入和突变,来精简进化指令;
---通过统一进化提示模板,来简化进化提示的形式;
---解决代码领域的具体特征,添加了两个进化指令:代码调试和代码时空复
杂性约束。
资源评论
畅想未来2020
- 粉丝: 33
- 资源: 10
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功