
AI 的“下一步”,OpenAI 并没有让市场等太久。
3 月 15 日,OpenAI 正式发布了多模态预训练大模型 GPT-4。作为迄今为止规
模最大、功能最强大的多模态预训练模型,GPT-4 实现了语言与图片的融合,
令计算机更好地理解了人类的交流方式。
“这是 OpenAI 努力扩展深度学习的最新里程碑。”OpenAI 在对 GPT-4 的官方
介绍中表示,“GPT-4 是一个大型多模态模型,它接受图像和文本输入、进行文
本输出,虽然在许多现实场景中它尚不如人类,但在各种专业和学术基准上表现
出与人类相当的性能。”
自 1956 年人工智能概念首次被提出后,人工智能在巅峰与暗流中游走数年,如
今再次来到了转折时刻。
“我能考赢 90%的人类”
从整体而言,GPT-4 实现了多重能力的跃升。
与此前的版本相比,GPT4 在语言、文本、图像三个层面利用大量数据训练 AI
系统。由此,GPT-4 具备强大的识图能力,文字输入限制也提升至 2.5 万字;
GPT-4 的回答准确性也显著提升,还能够生成歌词、创意文本从而实现风格变
化。同时,GPT-4 在各类专业测试及学术基准上也表现优良。
“在日常对话中,GPT-4 与 GPT-3.5 之间的差距或许微妙,但当任务复杂度足够
高的时候,GPT-4 将具备更可靠、更具创造性的特点,且能够处理更细致的指
令。”围绕 GPT-4 与前代大模型的对比,OpenAI 介绍称。
例如,根据 OpenAI 公布的实验数据,GPT-4 参加了多种基准考试测试,包括美
国律师资格考试 Uniform Bar Exam、法学院入学考试 LSAT、“美国高考” SAT
数学部分和证据性阅读与写作部分的考试,在这些测试中,它的得分高于 88%
的应试者。相较之下,GPT-3.5 版本大模型的成绩是倒数 10%。