在对话系统的发展历程中,我们可以看到从早期的规则驱动阶段,到基于智能助手的时代,再到当前的深度学习主导时期,技术的进步不断推动着对话系统的智能化。黄民烈博士(黄民烈,清华大学CoAI实验室)在"CCAC 2021 黄民烈 对话系统中的情绪智能1"中探讨了情绪智能在对话系统中的应用。 1966年的MIT Eliza是最早的对话系统之一,它基于规则来模拟人类对话。随着时间的推移,技术发展到1994年的ALICE,以及2015年利用序列到序列(Seq2Seq)模型的对话系统,如GUS和Alexa,再到2020年Google的Meena,这些系统的规模和复杂性都在显著增加。Meena模型拥有2.6亿参数,经过400亿词的数据训练,耗时30天在TPUv3 Pod上运行,展示了深度学习在对话系统中的强大能力。 Facebook的Blender模型进一步提升了对话的多样性,包括技能融合、个性、知识和共情。Blender的参数量达到9.4亿/2.7亿/0.9亿,使用大量社交媒体评论进行训练,旨在打造一个更接近人类的开放域聊天机器人。 在中国,中文对话系统如EVA,具有28亿参数,训练数据达到了750亿单词,显著提升了中文对话生成的质量,如在Sensibleness、Specificity和SSA等评估指标上的表现,优于其他模型如CDial-GPT和CPM。 然而,对话系统面临的挑战仍然很大。包括如何确保对话的合理性、特异性,以及实现情感的细腻处理。情绪智能,即能够理解和表达自己和他人的情感,是对话系统中关键的一环。它需要系统能理解用户的情绪,提供相应的支持,如同情和情感支持,这在社会聊天机器人的发展中尤为重要。 美国心理学家John D. Mayer和Peter Salovey提出的“情绪智能”概念强调了监控、识别和适当地表达情绪的能力,并利用情感信息指导思考和行为。在对话系统中,情绪智能可以帮助系统更好地理解用户的情绪状态,从而提供更加贴切和富有同理心的回应。 未来的对话系统将不仅满足信息需求,还能在多个场景和领域内具备多种技能,实现知识基础、个性嵌入和情感复杂性。这意味着系统需要具备扎实的知识基础,能够根据情境和用户个性进行适应,同时要能理解和表达情感,为用户提供有温度的交流体验。 对话系统的发展正朝着更加人性化、情绪智能的方向迈进,通过深度学习和大规模数据训练,以及对情绪理解和表达的研究,我们可以期待更加智能且富有情感的聊天机器人在未来与我们进行更加自然、深入的互动。
剩余38页未读,继续阅读
评论0
最新资源