深度学习基础 —— 构建基于 Transformer 的自然语言处理应用
学习最具突破性的 Transformer 技术,完成端到端的应用开发
在过去的十年中,自然语言处理 (NLP) 的应用呈爆炸式增长。随着人工智能助手的大量出现,以及企
业将更多的人机交互体验融入到业务中,理解如何使用 NLP 技术来操作、分析和生成基于文本的数
据是至关重要的。现代技术可以像人类一样,捕捉语言的细微差别、使用情境和复杂程度。如果设计
正确得当,开发人员可以使用这些技术来构建强大的 NLP 应用,在聊天机器人、AI 语音代理等众多
程序中实现自然顺畅的人机交互。
深度学习模型在 NLP 中得到了广泛的应用,因为它们能够对众多语境和语言进行准确的概括。基于
Transformer 的模型,比如 BERT (Bidirectional Encoder Representations from Transformers),在问
答系统的 SQuAD 指标、实体识别、意图识别、情感分析等方面实现了与人类基准相媲美的准确率,
推动了 NLP 产生革命性的进展。
在此课程中,您将学习如何使用基于 Transformer 的自然语言处理模型完成文本分类任务(如文档归
类)和命名实体识别 (NER) 任务,以及如何分析各种模型特性、限制和特点,从而基于衡量标准、应
用领域和可用资源来为特定用例选定最适合的模型。