ChatGPT 算法原理
每一代 GPT 模型的参数量都爆炸式增长,堪称“越大越好”。2019 年
2 月发布的 GPT-2 参数量为 15 亿,而 2020 年 5 月的 GPT-3,参数量
达到了 1750 亿。
还是有很多读者对于 ChatGPT 充满期待(幻想?梦想),今天给大家
分享技术层面的拆解,读完之后是否是会理性一点呢?enjoy~
文末推荐几篇直接采访 ChatGPT 创始人视角的文章,共赏 enjoy~
去年 12 月 1 日,OpenAI 推出人工智能聊天原型 ChatGPT,再次赚足
眼球,为 AI 界引发了类似 AIGC 让艺术家失业的大讨论。
ChatGPT 是一种专注于对话生成的语言模型。它能够根据用户的文本
输入,产生相应的智能回答。
这个回答可以是简短的词语,也可以是长篇大论。其中 GPT 是
Generative Pre-trained Transformer(生成型预训练变换模型)的缩
写。
通过学习大量现成文本和对话集合(例如 Wiki),ChatGPT 能够像人
类那样即时对话,流畅的回答各种问题。(当然回答速度比人还是慢一
些)无论是英文还是其他语言(例如中文、韩语等),从回答历史问题,