GPT(Generative Pre-training Transformer)于2018年6月由OpenAl首次提出,
GPT模型考虑到在自然语言理解中有大量不同的任务,尽管大量的未标记文本语料库非常丰富,但用于学习这
些特定任务的标记数据却很少,这使得经过区分训练的模型很难充分执行。同时,大多数深度学习方法需要大
量手动标记的数据,这限制了它们在许多缺少注释资源的领域的适用性。
通过对未标记文本的不同语料库进行语言模型的生成性预训练,然后对每个特定任务进行区分性微调,可以实
现这些任务上的巨大收益。和之前方法不同,GPT在微调期间使用任务感知输入转换,以实现有效的传输,同
时对模型架构的更改最小。