GPT 是什么?
我们在上篇文章探讨了 BERT 与 GPT 的基础,下面来看看究竟 GPT 是什么。
� GPT 发展史
GPT 是由 OpenAI 团队研发创造, OpenAI 是由创业家埃隆·马斯克、美国创
业孵化器 Y Combinator 总裁阿尔特曼、全球在线支付平台 PayPal 联合创始人
彼得·蒂尔等人于 2015 年在旧金山创立的一家非盈利的 AI 研究公司,拥有多位
硅谷重量级人物的资金支持,启动资金高达 10 亿美金;OpenAI 的创立目标是
与其它机构合作进行 AI 的相关研究,并开放研究成果以促进 AI 技术的发展。不
过 2023 年的情况是,马斯克已经非其股东,且公司转化为了盈利组织。
OpenAI 已经创建了全世界最强大的大语言模型之一。该模型名为 GPT-3,由
1,750 亿个统计性联系组成,可以理解为这个模型有 1750 亿个参数,或者说类
似于有 1750 亿个“神经元”。
该模型在约三分之二互联网、整个维基百科和两个大型图书数据集中进行训练。
在训练过程中,OpenAI 发现,早期 GPT-3 很难准确提供用户想要的结果,一
个团队提议使用“强化学习”系统完善该模型,“强化学习”是从试错中学习以
取得最大化回报的人工智能系统(后面会做介绍)。
该团队认为,一款聊天机器人或许是不错的候选方法之一,因为以人类对话的形
式持续提供反馈,使人工智能软件很容易知道其做得好的地方和需要改进的情况。
因此,2022 年初,该团队开始开发这款聊天机器人,也就是后来的 ChatGPT
(PS:这个项目其实普遍不被内部看好,差点被取消掉)。
� GPT 的训练