要谈起当下最火的 AI,大家肯定不能不提到 ChatGPT。这款模型是由
OpenAI 开发的,它不仅可以生成自然语言文本,还可以执行一些自然
语言处理任务,例如回答问题、翻译、分类等。在 ChatGPT 成功上线
之前,这款模型的发展历程可谓是十分曲折,今天我们就来一起揭秘
ChatGPT 的发展史吧!
首先,让我们回到 2018 年, OpenAI 发布了 GPT-1 模型,该模型采
用了 Transformer 架构,能够在大规模文本上进行自然语言处理任务。
GPT-1 使用了一个单向的 Transformer 模型来进行语言建模,预训练
了 40 亿个单词。
但 GPT-1 也有不少缺点
比如 :
1、过拟合
由于 GPT-1 训练使用的数据量巨大,模型在训练时很容易出现过拟合
现象。这会导致模型在应用场景中的泛化能力下降,从而影响模型的实
际效果。
2、训练时间长