# 寻找那些ChatGPT/GPT4开源“平替”们
ChatGPT/GPT4开源“平替”汇总,持续更新
ChatGPT爆火出圈,国内很多高校、研究机构和企业都发出类似ChatGPT的发布计划。ChatGPT没有开源,复现难度极大,即使到现在GPT3的完全能力也没有任何一个单位或者企业进行了复现。刚刚,OpenAI又官宣发布了图文多模态的GPT4模型,能力相对ChatGPT又是大幅提升,似乎闻到了以通用人工智能主导的第四次工业革命的味道。
无论是国外还是国内,目前距离OpenAI的差距越来越大,大家都在紧锣密鼓的追赶,以致于在这场技术革新中处于一定的优势地位,目前很多大型企业的研发基本上都是走闭源路线,ChatGPT和GPT4官方公布的细节很少,也不像之前发个几十页的论文介绍,OpenAI的商业化时代已经到来。当然,也有一些组织或者个人在开源平替上进行了探索,本文章汇总如下,本人也会持续跟踪,有更新的开源平替及时更新此处
## 一、自主模型篇
该类方法主要采用非LLAMA等微调方式,自主设计或者优化GPT、T5模型,并实现从预训练、监督微调、强化学习等全周期过程。
### ChatYuan
ChatYuan(元语AI)是由元语智能开发团队开发和发布的,自称第一个国内最早的一个功能型对话大模型,可以写文章、写作业、写诗歌、做中英文间的翻译;一些法律等特定领域问题也可以提供相关信息。该模型目前只支持中文,github链接是:
https://github.com/clue-ai/ChatYuan
从披露的技术细节看,底层采用7亿参数规模的T5模型,并基于PromptClue进行了监督微调形成了ChatYuan。该模型基本上是ChatGPT技术路线的三步的第一步,没有实现奖励模型训练和PPO强化学习训练。
### Colossal AI
最近,ColossalAI开源了他们的ChatGPT实现。分享了他们的三步策略,完整实现了ChatGPT核心的技术路线:其Github如下:
https://github.com/hpcaitech/ColossalAI
本人基于该项目,更加明确了三步策略,并进行了分享:
第一阶段(stage1_sft.py):SFT监督微调阶段,该开源项目没有实现,这个比较简单,因为ColossalAI无缝支持Huggingface,本人直接用Huggingface的Trainer函数几行代码轻松实现,在这里我用了一个gpt2模型,从其实现上看,其支持GPT2、OPT和BLOOM模型;
第二阶段(stage2_rm.py):奖励模型(RM)训练阶段,即项目Examples里train_reward_model.py部分;
第三阶段(stage3_ppo.py):强化学习(RLHF)阶段,即项目train_prompts.py
三个文件的执行需要放在ColossalAI项目中,其中代码中的cores即原始工程中的chatgpt,cores.nn在原始工程中变成了chatgpt.models
### ChatGLM
ChatGLM是清华技术成果转化的公司智谱AI开源的GLM系列的对话模型,支持中英两个语种,目前开源了其62亿参数量的模型。其继承了GLM之前的优势,在模型架构上进行了优化,从而使得部署和应用门槛变低,实现大模型在消费级显卡上的推理应用。详细技术可以参考其github:
ChatGLM-6B开源地址为:https://github.com/THUDM/ChatGLM-6B
从技术路线上看,其实现了ChatGPT强化学习人类对齐策略,使得生成效果更佳贴近人类价值,其目前能力域主要包括自我认知、提纲写作、文案写作、邮件写作助手、信息抽取、角色扮演、评论比较、旅游建议等,目前其已经开发了正在内测的1300亿的超大模型,算是目前开源平替里面参数规模较大的对话大模型。
VisualGLM-6B(更新于2023年5月19日)
该团队近期开源了ChatGLM-6B的多模态版,支持图像、中文和英文的多模态对话。语言模型部分采用ChatGLM-6B,图像部分通过训练BLIP2-Qformer构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。VisualGLM-6B依靠来自于CogView数据集的30M高质量中文图文对,与300M经过筛选的英文图文对进行预训练,中英文权重相同。该训练方式较好地将视觉信息对齐到ChatGLM的语义空间;之后的微调阶段,模型在长视觉问答数据上训练,以生成符合人类偏好的答案。
VisualGLM-6B开源地址为:https://github.com/THUDM/VisualGLM-6B
ChatGLM2-6B(更新于2023年6月27日)
该团队近期开源了ChatGLM的二代版本ChatGLM2-6B,相对第一代版本,其主要特性包括采用了更大的数据规模,从1T提升到1.4T;最突出的莫过于其更长的上下文支持,从2K扩展到了32K,允许更长和更高轮次的输入;另外起大幅优化了推理速度,提升了42%,占用的显存资源也大幅降低。
ChatGLM2-6B开源地址为:https://github.com/THUDM/ChatGLM2-6B
### PaLM-rlhf-pytorch
其号称首个开源ChatGPT平替项目,其基本思路是基于谷歌语言大模型PaLM架构,以及使用从人类反馈中强化学习的方法(RLHF)。PaLM是谷歌在今年4月发布的5400亿参数全能大模型,基于Pathways系统训练。其可以完成写代码、聊天、语言理解等任务,并且在大多数任务上具有强大的少样本学习性能。同时采用了ChatGPT一样的强化学习机制,能让AI的回答更加符合情景要求,降低模型毒性。
Github地址为:https://github.com/lucidrains/PaLM-rlhf-pytorch
### GPTrillion
该项目号称开源的最大规模模型,高达1.5万亿,且是多模态的模型。其能力域包括自然语言理解、机器翻译、智能问答、情感分析和图文匹配等。其开源地址为:
https://huggingface.co/banana-dev/GPTrillion
(2023年5月24日,该项目是愚人节玩笑节目,项目已删除,特此说明)
### OpenFlamingo
OpenFlamingo是一个对标GPT-4、支持大型多模态模型训练和评估的框架,由非盈利机构LAION重磅开源发布,其是对DeepMind的Flamingo模型的复现。目前开源的是其基于LLaMA的 OpenFlamingo-9B模型。Flamingo模型在包含交错文本和图像的大规模网络语料库上进行训练,具备上下文少样本学习能力。OpenFlamingo实现了原始Flamingo中提出的相同架构,在一个新的多模态C4数据集的5M样本和LAION-2B的10M样本上训练而来。该项目的开源地址是:
https://github.com/mlfoundations/open_flamingo
### MOSS (更新于2023年4月21日)
今年2月21日,复旦大学发布了MOSS,并开放公测,在公测崩溃后引起一些争议。现在该项目迎来重要更新和开源。开源的MOSS支持中英两个语种,且支持插件化,如解方程、搜索等。参数量大16B,在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。该项目的开源地址是:
https://github.com/OpenLMLab/MOSS
### mPLUG-Owl (更新于2023年5月7日)
与miniGPT-4、LLaVA类似,其是一个对标GPT-4的开源多模态大模型,其延续了mPLUG系列的模块化训练思想。其目前开源了7B参数量的模型,同时第一次针对视觉相关的指令理解提出一个全⾯的测试集 OwlEval,通过人工评测对比了已有模型,包括LLaVA、MiniGPT-4等工作,其展示出更优的多模态能力,尤其在多模态指令理解能力、多轮对话能力、知识推理能力等方⾯表现突出。目前遗憾的是跟其他图文大模型一样,仍然只支持�
没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论
收起资源包目录
ChatGPT已经流行起来,标志着向AGI迈出了关键的一步。该项目旨在编译ChatGPT的开源替代方案,包括文本模型、多模式模型等,为每个人提供便利.zip (6个子文件)
ChatGPT爆火,开启了通往AGI的关键一步,本项目旨在汇总那些ChatGPT的开源平替们,包括文本大模型、多模态大模型等,为大家提供一些便利_FindTheChatGPTer
项目内附说明
如果解压失败请用ara软件解压.txt 42B
FindTheChatGPTer-main
images
ceval.png 608KB
superclue.png 529KB
Open-LLM-Leaderboard.png 613KB
AlpacaEval.png 418KB
README.md 61KB
共 6 条
- 1
资源评论
2401_87496566
- 粉丝: 948
- 资源: 5016
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 激活QuarkPC-V1.8.5.140-pc-pf30002-(zh-cn)-release-(Build1953118-24
- rm命令参数详解PDF
- 2023592003 杨龙龙.zip
- Draw XXL is an extensive set of visual debugging and development
- 数据分析可视化:散点图矩阵与雷达图的生成
- jquery.table2excel.js
- 暴风电视刷机数据 50R5 屏V500DJ6-QE1 机编60000AM0R00 屏参30173402 V1.0.42版本
- markdown使用说明PDF
- PassFab for PDF,这是一款专门用于破解PDF密码的工具
- 2024.11游戏规则.zip
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功