背景
在 Stanford Alpaca 开源之后,其实出现了很多可以本地化部署的工程,和以往
挂羊头卖狗肉的那种本地做转发,还需要 openAI key 的不同,确实是本地化,
可以断网运行的那种。
着急上手的话直接看 3
1. Stanford Alpaca
官方地址: github.com/tatsu-lab/s… 可惜的是,由于官方 demo 已经下线,所以
体验不到,只能看文档了解下。
简单的说就是,斯坦福大学根据早期的开源模型,进行了学术上的训练。效果按
官方的说法,和 chatGPT 的 text-davinci-003 基本一致 ,但有个 LLama 禁止商业
的协议,所以官方不提供模型下载,想要他们训练哈 ode 模型,得申请。入口
反正填了也未必能申请下来,所以这个只做背景了解即可
2. Alpaca-Lora
官方地址: github.com/tloen/alpac…
大概介绍下, 官方的说法, Alpaca-Lora 是 Stanford Alpaca 的平替,可以直接
访问 LLama-7B 模型,至少,github 上很多开源项目都是基于这个工程,国内的
某些宣称自研的和这个看起来。。。懂的都懂。
由于 cpu 没打到要求,所以没跑起来。
3. Chinese-LLaMA-Alpaca
官方地址: github.com/ymcui/Chine…