GPT-3 论文提到,参数在 10 亿至 1000 亿级别的模型只需几十个提示词,即可
展示出令人印象深刻的学习能力。
然而,这些大模型也极耗资源,导致在经济意义上难以实现规模化部署。但这
一切随着 ChatGPT 的到来而宣告终结。
就在 ChatGPT 发布后不久,OpenAI 又开放了 ChatGPT API,允许开发人员在自
己的应用程序中接入 ChatGPT。
ChatGPT API 使用成本
ChatGPT API 的价格随使用方式而变化。其成本为每 1000 个 token 计费 0.002
美元。每个 token 约为一个英文单词的 3/4,就是说,一条请求内的 token 数
量等于提示词 + 所生成的输出 token 的总和。
假定大家每天需要处理 1000 个小文本块,每个文本块对应一页文本(即 500
个单词,约合 667 个 token),那么日均成本就是 0.002 美元 /1000x667*1000=
约 1.3 美元。听起来还可以!
但如果每天需要处理上百万份这类文档,情况又会如何呢?那计算下来就是日均
1300 美元,每年约 50 万美元!达到这个规模,ChatGPT 就从酷炫的玩具一下
子成了沉重的业务运营负担!
开源生成式模型
在 ChatGPT 赢得众人惊叹之后,一系列开源项目也相继问世。
Meta 发布了 LLaMA ,一个具有数十亿参数的大语言模型,且性能优于 GPT-3。
斯坦福随后在 52K 指令遵循演示中对 LLaMA 的 7B 版本做了微调,最终得出
的 Aplaca 模型同样胜过 GPT-3。
一组研究人员最近还展示了名为 Vicuna 的 13B 参数微调版 LLaMA 模型,其表
现已达 ChatGPT 的九成功力以上。而且企业选择开源生成式模型,而不用
OpenAI 家 GPT 系列模型的理由也有很多。可能是不满于 OpenAI 的服务经常
中断,可能是开源大模型更易于定制,也可能是使用成本更有优势。
虽然开源模型可以免费使用,但用于托管和部署模型的基础设施却不可能凭空得
来。
BERT 这类早期 transformer 模型倒是可以在装有高配 CPU 和普通 GPU 的个
人计算机上轻松运行和微调,但如今的大语言模型却需要更多资源。一种常见的
解决方案,是使用 AWS 等云服务商托管和部署这类模型。那么,免费的开源模
型在 AWS 那边到底会产生多少成本?