- 条件随机场是目前机器学习模型中最有效的模型之一,广泛地应用于自然语言处理(例如词性标注、浅层句法分析)和图像模式识别(例如对复杂图像中物体的识别)等领域中。该教程详细地探讨了条件随机场的由来,把朴素贝叶斯(NB)、隐马尔科夫(HMM)、最大熵马尔科夫模型(MEMM)与条件随机场的关系探讨得十分详尽,让读者由浅入深,由简入繁,可谓浅显易懂、耳目一新、使人受益匪浅!5 11浏览会员免费
- 本书共分为四大部分:, 基础篇(1~10章)介绍了Spark的用途、扩展、安装、运行模式、程序开发、编程模型、工作原理,以及SparkSQL、SparkStreaming、MLlib、GraphX、Bagel等重要的扩展;, 实战篇(11~14)讲解了搜索结果的排序、个性化推荐系统、日志分析系统、自然语言处理、数据挖掘等方面的案例;, 高级篇(15~18)则讲解了Spark的调度管理、存储管理、监控管理、性能优化、最佳实践以及重点算法的解读;, 扩展篇(19~20)讲解了Sparkjob-server和Tachyon。4 19浏览会员免费
- 自然语言处理的宝典,英文版,第二版,很经典的,希望对大家有帮助:)20个字符好难才能凑齐啊~~~4 518浏览会员免费
- 驾驭文本 文本的发现、组织和处理,pdf完整带书签版!5 297浏览会员免费
- 计算机自然语言处理是用计算机通过可计算的方法对自然语言的各级语言 单位(字、词、语句、篇章等等)进行转换、传输、存贮、分析等加工处理的 科学。是一门与语言学、计算机科学、数学、心理学、信息论、声学相联系的 交叉性学科。国际互联网技术的飞速发展,极大地推动了信息处理技术的发展, 也为信息处理技术不断提出新的需求。语言作为信息的载体,语言处理技术已 经日益成为全球信息化和我国社会和经济发展的重要支撑性技术。 本书全面阐述了自然语言处理技术的基本原理和实用方法,全书共分为基 础、原理和应用三个篇章。第一章是概论;由第二章、第三章构成本书的基础 篇,论述了自然语言处理技术的数学基础和中文语言处理特有的自动分词技术; 第四章、第五章构成了本书的原理篇,分别论述了基于统计和基于语言学规则 的语言处理技术的基本原理;第六章、第七章、第八章、第九章构成了本书的 应用篇,论述了在音字转换、自动文摘、信息检索、手写体识别等应用领域中 的实用语言处理方法。 本书可供有志于从事自然语言处理技术研究和应用开发的计算机相关专业 的研究生,大学高年级学生和科技人员参考,也可以作为相关专业研究生的专 业课教材。5 630浏览会员免费
- 中科院宗成庆 自然语言处理 期末试题2 2033浏览会员免费
- 这本书有什么不同: 1、从书名,到大纲,到内容,基本都来自ChatGPT的自述,本人只是负责编辑。 2、整个成书过程只用了2小时不到。 3、同时生成中英文版本。0 1974浏览免费
- jurafsky and martin speech and language processing 2nd edition pdf download 第二版,非第一版草稿版。自然语言处理圣书!必读!3 449浏览会员免费
- Py Torch是一个基于 Torch的 Python开源机器学习库,用于自然语言处理等应用程序。它主要由Facebook的人工智能小组开发,不仅能够实现强大的GPU加速,同时还支持动态神经网络,这点是现在很多主流框架如 TensorFlow都不支持的。 Py Torch提供了两个高级功能:1具有强大的GPU加速的张量计算(如 Numpy)2包含自动求导系统的深度神经网络除了 Facebook之外Twitter、GMU和 Salesforce等机构都采用了 Py Torch官方教程包含了 Py Torch介绍,安装教程;60分钟快速入门教程,可以迅速从小白阶段完成一个分类器模型0 3767浏览会员免费
- PyTorch是一个基于Torch的Python开源机器学习库,用于自然语言处理等应用程序。它主要由Facebookd的人工智能小组开发,不仅能够 实现强大的GPU加速,同时还支持动态神经网络,这一点是现在很多主流框架如TensorFlow都不支持的。 PyTorch提供了两个高级功能: 1.具有强大的GPU加速的张量计算(如Numpy) 2.包含自动求导系统的深度神经网络 除了Facebook之外,Twitter、GMU和Salesforce等机构都采用了PyTorch。 官方教程包含了 PyTorch 介绍,安装教程;60分钟快速入门教程,可以迅速从小白阶段完成一个分类器模型;计算机视觉常用模型,方便基于自己的数据进行调整,不再需要从头开始写;自然语言处理模型,聊天机器人,文本生成等生动有趣的项目。0 2049浏览会员免费
- 在3.24凌晨 OpenAI 在 ChatGPT 4.0 的基础上发布 ChatGPT Plugins (ChatGPT 插件集),它能将 ChatGPT 连接到第三方应用程序 这是 AI 的 App Store 时刻,AI 经历了「iPhone」时刻后,如今也有了应用商店。 一、ChatGPT 4 插件功能 这些插件使 ChatGPT 能够与开发人员定义的 API 进行交互,极大增强 ChatGPT 的功能,适应无数广泛的场景。 总的来说可以支持 1.连接最新的互联网,检索实时信息 例如,体育比分、股票价格、最新消息等。- 意味着你不需要再等 Bing 了。 而这个更重要的意义在于:如果 ChatGPT 本身的数据库里没有(目前 ChatGPT 4.0 的数据只是 2021 年的),它能帮你不断搜索互联网找到相关的信息——例如,一个刚刚出现的的东西,它都可以帮你总结,生成这个东西的综述。 2.高效的写程序、调试程序的助手 意味着每一个人有一个可以写程序、交互式调试程序的魔法师,ChatPGT 插件成为真正的高5 7629浏览会员免费
- 自然语言的绝对经典,据说是google公司技术人员必读书籍,非常实用!5 181浏览会员免费
- 第三届全国中文知识图谱研讨会,清华大学自然语言处理实验室刘知远演讲PPT,《大规模知识图谱的表示学习 趋势与挑战》5 428浏览会员免费
- ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程0 3847浏览免费
- 命名实体识别是自然语言处理的一项关键技术. 基于深度学习的方法已被广泛应用到中文实体识别研究中. 大多数深度学习模型的预处理主要注重词和字符的特征抽取, 却忽略词上下文的语义信息, 使其无法表征一词多义, 因而实体识别性能有待进一步提高. 为解决该问题, 本文提出了一种基于BERT-BiLSTM-CRF模型的研究方法. 首先通过BERT模型预处理生成基于上下文信息的词向量, 其次将训练出来的词向量输入BiLSTM-CRF模型做进一步训练处理. 实验结果表明, 该模型在MSRA语料和人民日报语料库上都达到相当不错的结果, F1值分别为94.65%和95.67%.1 1w+浏览会员免费
- 中国科学院大学自然语言处理 宗老师 题目,希望对大家有用!1 1127浏览会员免费
- 报告了GPT-4的开发情况,这是一个大规模的多模态模型,可以接受图像和文本输入并产生文本输出。虽然在许多现实世界的场景中, GPT-4的能力不如人类,但它在各种专业和学术基准上表现出人类水平的性能,包括在模拟的律师考试中,以大约前10%的考生的分数通过。 GPT-4是一个基于Transformer的模型,经过预训练可以预测文档中的下一个标记。训练后的调 整过程导致在衡量事实性和坚持理想行为方面的表现得到改善。这个项目的一个核心部分是开发基础设施和优化方法,这些方法在广泛的规模中表现得可预测。这使我们能够根据以不超过GPT-4的1/1000的计算量训练的模型准确地预测GPT-4的某些方面的性能。0 1469浏览免费
- 基于MATLAB的文本挖掘 - 英文版,适合搞自然语言处理的人看。4 267浏览会员免费
- 中国科学院大学,春季学期,宗成庆老师的自然语言处理的期末试卷。国科大宗成庆老师nlp课程的期末试卷。1 2082浏览免费
- 实用负载均衡技术:网站性能优化攻略实用负载均衡技术:网站性能优化攻略4 1189浏览会员免费
- ChatGPT 作为一种强大的自然语言处理模型,已经成为人工智能领域的重要研究方向之一。在不断的发展和创新中,ChatGPT 已经具备了很强的自然语言处理能力,其可以实现自然语言的生成、理解和交互,为人类的生产和生活带来了巨大的便利和创新。 本书从入门到精通,介绍了 ChatGPT 的基础知识、实现方法、进阶应用以及最新进展等多个方面。同时,本书的全部内容均是由 ChatGPT 完成,展现了 ChatGPT 强大的能力和广阔的应用前景。通过学习本书,读者可以深入解 ChatGPT 的相关知识和应用,掌握 ChatGPT 的实现方法,同时也可以了解 ChatGPT 在人工智能领域的最新进展和未来发展趋势。0 1159浏览免费
- 在cygwin下安装并成功运行srilm。 Srilm是著名的自然语言处理中语言模型的计算开源程序。 本文档为国立台湾师范大学陈柏林教授课件。 给各位自然语言处理同仁共享。5 317浏览免费
- 深入学习,机器学习的经典教材,自然语言处理,数据挖掘5 49浏览会员免费
- Foundations_of_Statistical_Natural_Language_Processing.pdf 统计自然语言处理基础 ,学习这方面的经典教材5 258浏览会员免费
- PYTHON自然语言处理中文翻译 Natural Language Processing with Python 这本书提供了自然语言处理非常方便的入门指南。通过它,你将学到如何写能处理大量非结构化文本的 Python 程序。你将获得有丰富标注的涵盖语言学各种数据结构的数据集, 而且你将学到分析书面文档内容和结构的主要算法。5 230浏览会员免费
- 简要介绍Python(NLP),使⽤Python的NLTK库。NLTK是Python的⾃然语⾔处理⼯具包,在NLP领域中,最常使⽤的⼀个Python库。 简单来说,⾃然语⾔处理(NLP)就是开发能够理解⼈类语⾔的应⽤程序或服务。 这⾥讨论⼀些⾃然语⾔处理(NLP)的实际应⽤例⼦,如语⾳识别、语⾳翻译、理解完整的句⼦、理解匹配词的同义词,以及⽣成语法正确整句⼦和段落。 搜索引擎: ⽐如⾕歌,Yahoo等。⾕歌搜索引擎知道你是⼀个技术⼈员,所以它显⽰与技术相关的结果; 社交⽹站推送:⽐如Facebook News Feed。如果News Feed算法知道你的兴趣是⾃然语⾔处理,就会显⽰相关的⼴告和帖⼦。 语⾳引擎:⽐如Apple的Siri。2 4240浏览会员免费
- Graphs are ubiquitous. There is hardly any domain in which objects and their relations cannot be intuitively represented as nodes and edges in a graph. Graph theory is a well-studied sub-discipline of mathematics, with a large body of results and a large number of efficient algorithms that operate on graphs. Like many other disciplines, the fields of natural language processing (NLP) and information retrieval (IR) also deal with data that can be represented as a graph. In this light, it is somewhat surprising that only in recent years the applicability of graph-theoretical frameworks to language technology became apparent and increasingly found its way into publications in the field of computational linguistics. Using algorithms that take the overall graph structure of a problem into account, rather than characteristics of single objects or (unstructured) sets of objects, graph-based methods have been shown to improve a wide range of NLP tasks. In a short but comprehensive overview of the field of graph-based methods for NLP and IR, Rada Mihalcea and Dragomir Radev list an extensive number of techniques and examples from a wide range of research papers by a large number of authors. This book provides an excellent review of this research area, and serves both as an introduction and as a survey of current graph-based techniques in NLP and IR. Because the few existing surveys in this field concentrate on particular aspects, such as graph clustering (Lancichinetti and Fortunato 2009) or IR (Liu 2006), a textbook on the topic was very much needed and this book surely fills this gap. The book is organized in four parts and contains a total of nine chapters. The first part gives an introduction to notions of graph theory, and the second part covers natural and random networks. The third part is devoted to graph-based IR, and part IV covers graph-based NLP. Chapter 1 lays the groundwork for the remainder of the book by introducing all necessary concepts in graph theory, including the notation, graph properties, and graph representations. In the second chapter, a glimpse is offered into the plethora of graph-based algorithms that have been developed independently of applications in NLP and IR. Sacrificing depth for breadth, this chapter does a great job in touching on a wide variety of methods, including minimum spanning trees, shortest-path algorithms, cuts and flows, subgraph matching, dimensionality reduction, random walks, spreading activation, and more. Algorithms are explained concisely, using examples, pseudo-code, and/or illustrations, some of which are very well suited for classroom examples. Network theory is presented in Chapter 3. The term network is here used to refer to naturally occurring relations, as opposed to graphs being generated by an automated process. After presenting the classical Erdo ̋s-Re ́nyi random graph model and showing its inadequacy to model power-law degree distri- butions following Zipf’s law, scale-free small-world networks are introduced. Further, several centrality measures, as well as other topics in network theory, are defined and exemplified. Establishing the connection to NLP, Chapter 4 introduces networks constructed from natural language. Co-occurrence networks and syntactic dependency networks are examined quantitatively. Results on the structure of semantic networks such as WordNet are presented, as well as a range of similarity networks between lexical units. This chapter will surely inspire the reader to watch out for networks in his/her own data. Chapter 5 turns to link analysis for the Web. The PageRank algorithm is de- scribed at length, variants for undirected and weighted graphs are introduced, and the algorithm’s application to topic-sensitive analysis and query-dependent link analysis is discussed. This chapter is the only one that touches on core IR, and this is also the only chapter with content that can be found in other textbooks (e.g., Liu 2011). Still, this chapter is an important prerequisite for the chapter on applications. It would have been possible to move the description of the algorithms to Chapter 2, however, omitting this part. The topic of Chapter 6 is text clustering with graph-based methods, outlining the Fiedler method, the Kernighan–Lin method, min-cut clustering, betweenness, and random walk clustering. After defining measures on cluster quality for graphs, spectral and non-spectral graph clustering methods are briefly introduced. Most of the chapter is to be understood as a presentation of general graph clustering methods rather than their application to language. For this, some representative methods for different core ideas were selected. Part IV on graph-based NLP contains the chapters probably most interesting to readers working in computational linguistics. In Chapter 7, graph-based methods for lexical semantics are presented, including detection of semantic classes, synonym detection using random walks on semantic networks, semantic distance on WordNet, and textual entailment using graph matching. Methods for word sense and name disambiguation with graph clustering and random walks are described. The chap- ter closes with graph-based methods for sentiment lexicon construction and subjectivity classification. Graph-based methods for syntactic processing are presented in Chapter 8: an unsupervised part-of-speech tagging algorithm based on graph clustering, minimum spanning trees for dependency parsing, PP-attachment with random walks over syn- tactic co-occurrence graphs, and coreference resolution with graph cuts. In the final chapter, many of the algorithms introduced in the previous chapters are applied to NLP applications as diverse as summarization, passage retrieval, keyword extraction, topic identification and segmentation, discourse, machine translation, cross-language IR, term weighting, and question answering. As someone with a background in graph-based NLP, I enjoyed reading this book. The writing style is concise and clear, and the authors succeed in conveying the most important points from an incredibly large number of works, viewed from the graph- based perspective. I also liked the extensive use of examples—throughout, almost half of the space is used for figures and tables illustrating the methods, which some readers might perceive as unbalanced, however. With just under 200 pages and a topic as broad as this, it necessarily follows that many of the presented methods are exemplified and touched upon rather than discussed in great detail. Although this sometimes leads to the situation that some passages can only be understood with background knowledge, it is noteworthy that every chapter includes a section on further reading. In this way, the book serves as an entry point to a deeper engagement with graph-based methods for NLP and IR, and it encourages readers to see their NLP problem from a graph-based view. For a future edition, however, I have a few wishes: It would be nice if the figures and examples were less detached from the text and explained more thoroughly. At times, it would be helpful to present deeper insights and to connect the methodologies, rather than just presenting them next to each other. Also, some of the definitions in Chapter 2 could be less confusing and structured better. Because this book emphasizes graph-based aspects for language processing rather than aiming at exhaustively treating the numerous tasks that benefit from graph-based methods, it cannot replace a general introduction to NLP or IR: For students without prior knowledge in NLP and IR, a more guided and focused approach to the topic would be required. The target audience is, rather, NLP researchers and professionals who want to add the graph-based view to their arsenal of methods, and to become inspired by this rapidly growing research area. It is equally suited for people working in graph algorithms to learn about graphs in language as a field of application for their work. I will surely consult this volume in the future to supplement the preparation of lectures because of its comprehensive references and its richness in examples.5 511浏览会员免费
- 《ChatGPT使用秘籍:150个ChatGPT提示词模板(中英文版)全面揭秘!.pdf》是一份非常实用的ChatGPT提示词模板资源,适用于所有对ChatGPT模型有兴趣的人群,包括自然语言处理爱好者、机器学习从业者、语言模型研究者等。 这份资源主要介绍了150个ChatGPT提示词模板,其中包括中英文版,涵盖了各种常见的场景和话题,如问候、聊天、娱乐、购物、旅游、科技等。通过使用这些模板,用户可以快速构建出自己的ChatGPT对话系统,提高对话质量和效率。 使用这份资源的目标是帮助用户更好地理解ChatGPT模型的应用和实现,提供实用的工具和技巧,让用户能够更加轻松地构建出高质量的对话系统。同时,这份资源也可以作为学习ChatGPT模型的参考资料,帮助用户深入了解这一领域的研究和应用。 需要注意的是,这份资源并不是一份完整的ChatGPT教程,用户需要具备一定的自然语言处理和机器学习基础,才能更好地理解和应用其中的内容。另外,这份资源也不是一份通用的ChatGPT对话系统,用户需要根据自己的实际需求进行定制和调整。 总之,《ChatGPT使用秘籍:150个ChatGPT提示0 1083浏览免费
- 最新版中国科学院大学宗成庆老师的自然语言处理课程期末考试资源。不看?想挂?5 1141浏览会员免费
- 该书为斯坦福大学撰写的教材,自然语言处理的教程,介绍了正则表达式、自然语言处理的诸多模型、算法,该书尚未完稿,内部有部分章节空缺,仍然不影响它成为一本优秀的自然语言处理教材,该文件为英文电子版!感兴趣的可以下载学习。5 430浏览会员免费
- Deep Learning Natural Language Processing 斯坦福 CS224D 自然语言处理与深度学习1 185浏览会员免费
- 先运行main.py进行文本序列化,再train.py模型训练 dataset.py from torch.utils.data import DataLoader,Dataset import torch import os from utils import tokenlize import config class ImdbDataset(Dataset): def __init__(self,train=True): super(ImdbDataset,self).__init__() data_path = rH:\073-nlp自然语言处理5 4910浏览¥ 9.90
- 自然语言处理中的Transformer模型真正改变了我们处理文本数据的方式。Transformer是最近自然语言处理发展的幕后推手,包括Google的BERT。了解Transformer的工作原理、它如何与语言建模、序列到序列建模相关,以及它如何支持Google的BERT模型。现在,我喜欢做一名数据科学家,从事自然语言处理(NaturalLanguageProcessing,NLP)方面的工作。这些突破和发展正以前所未有的速度发生。从超高效的ULMFiT框架到Google的BERT,自然语言处理真的处于一个黄金时代。这场革命的核心是Transform5 5825浏览会员免费
- 自然语言处理原理与实现,邱锡鹏1 656浏览会员免费
- 计算语言学(Computational Linguistics, CL) 自然语言处理(Natural Language Processing, NLP) 自然语言理解(Natural Language Understanding, NLU) 人类语言技术(Human Language Technology, HLT) 语言信息处理(Language Processing Technology,LPT) (大致相同,又各有侧重。) 中文信息处理(Chinese Information Processing, CIP)4 357浏览会员免费
- ChatGPT应用展望.pdf0 1391浏览会员免费
- 介绍了支持向量机的基本原理,和核方法。具体介绍了常见的核函数。4 436浏览会员免费
- 2023年6月新书,适合中高级技术人员参考学习使用。主要内容: Chapter 1. GPT-4 and ChatGPT Essent?als Chapter 2. Taking a Deep Dive into the GPT-4 and ChatGPT APIs Chapter 3. Advanced Techniques to Unlock the Full Potential of GPT-4 and ChatGPT …… …………5 3365浏览会员免费
- 重塑心灵.pdf作为nlp入门书籍可以看看5 561浏览会员免费
- 计算语言学是一门涉及语言学、计算机科学和数学等多门学科的交叉学科,覆盖面广。刘颖编著的这本《计算语言学(修订版)》侧重最经典的工作,阐述计算语言学的基本理论和方法,主要介绍现代句法理论和语义理论,词法、句法和语义阶段重要的分析算法、统计语言学和机器翻译。本书结构完整,层次分明,条理清楚;既便于教学,又便于自学。可作为中文、外语、计算机等专业高年级本科生和研究生教材,也可供从事自然语言处理或信息处理的研究者参考。3 876浏览会员免费
- 课件<br>统计自然语言处理<br>不错3 44浏览免费
- 这是一篇关于自然语言处理的论文,介绍了汉语分词的n-gram算法,绝对值得推荐4 844浏览免费
- NB在自然语言处理中的应用,本文介绍了相关应用和公式推导。0 132浏览会员免费
- 本文试图对信息提取作一比较全面的概述,以期使读者对它有一个较为综合的了解。内容包括信息提取的含义、技术目标、实际背景和现状,以及其中设计到的主要技术环节、工程内容和难点等。并由此明确信息提取作为一门语言应用工程技术的定位和实际工作策略。0 179浏览会员免费
- ChatGPT是一款由OpenAI开发的大型语言模型,主要功能是回答用户的问题和完成各种语言任务,如对话生成、文本摘要、翻译、生成文本等。它使用了先进的深度学习技术和海量的语言数据进行训练,可以在各种语言领域提供高质量的语言处理服务。它可以做到: • 回答问题:chatGPT 拥有广泛的知识库,能够回答各种话题的问题,比如历史、科学、文化等。它能够提供详细的信息和细节,并且能够根据上下文调整回答。 • 对话能力:chatGPT 能够参与自然对话,可以与人类进行多轮交流。它通过文本或语音,理解人类的意图,使对话更加自然。 • 寻求方案:当人类遇到困难或问题时,chatGPT 可以提供有效的解决方案。它可以识别人类的需求,根据问题提供适当的帮助。 • 学习工具:chatGPT 作为一种学习工具,人类可以通过与它交流来提高语言能力和知识水平。它提供丰富的信息和知识,不断学习和更新,为人类提供更多的学习机会。 • 自动化:chatGPT 可以作为客服或人工智能助手使用。它能够与人类进行交流,帮助解决问题,提高工作效率和满意度。0 3420浏览免费
- 西门子1200PLC自由口通讯5 1325浏览会员免费
- 自然语言处理课件,入门学习资料必备,详细介绍了自然语言处理主要研究内容和算法0 695浏览会员免费
- 美:Christopher D.Manning 德:Hinrich Schutze 范春法,李庆中,王韵 李伟 曹德芳翻译5 111浏览会员免费
- 自然语言处理 实体关系抽取 Deep Belief Nets0 435浏览会员免费
- 自己设计的小项目,初始想法很简单,检验自己爬虫和nlp基本技能(分词、词向量(tokenize\onehot\tfidf\word2vec))和各类算法(朴素贝叶斯、svm、CNN、LSTM)掌握情况,进一步查漏补缺,提升工程能力和算法应用能力:) ** 第一部分:爬虫 ** 分析新浪网各类新闻网页结构,应用requests库,爬取并解析新浪各类新闻,包括汽车、教育、金融、娱乐、体育、科技共六类, 对于有“滚动”新闻链接的板块(如sport、tech、entertaimment),通过滚动新闻爬取数据:此类数据多为动态链接,需要异步加载,即自行分析json格式获取其中新闻url 对于没有“滚0 2764浏览会员免费
- ChatGPT-真格基金分享0 1416浏览会员免费
- Fundamentals+of+Predictive+Text+Mining 自然语言处理 文本挖掘 理论及实现方法5 104浏览会员免费
- GATE是一个用于开发和部署自然语言处理组件的集成环境,包括:GATE IDE、GATE Cloud、GATE Teamware等内容。5 788浏览会员免费
- 大型语言模型(LLM)已经彻底改变了人工智能领域,使得以前被认为只有人类才能完成的自然语言处理任务成为可能。在这项工作中,我们介绍了QWEN1,我们大型语言模型系列的第一个版本。QWEN是一个全面的语言模型系列,包括具有不同参数数量的不同模型。它包括QWEN,基本的预训练语言模型,以及QWEN-CHAT0 1195浏览免费
- 本篇讲解试图从最浅显的角度来让大家了解大语言模型的基础模型,Transformer模型,不涉及到任何数学公式和神经网络的基础知识。适合对于初学者的科普。0 1156浏览免费
- 关于文本匹配算法研究与优化的毕业设计论文,详细阐述了所用的函数库及意义;研究方案设计与研究方法;研究成果及分析等等0 2676浏览会员免费
- PYTHON自然语言处理 英文原版,实践性很强的书籍5 0浏览会员免费
- 中国人工智能系列白皮书——大模型技术-2023版 免费下载0 410浏览免费
- 国科大,宗成庆、赵军、张家俊老师自然语言处理,2019年春季期末考试真题5 930浏览会员免费
- 随着人工智能领域的迅速发展,大语言模型已经成为了自然语言处理和人工智能研究的焦点之一。它们能够自动生成人类语言风格的文本,具有广泛的应用前景,如智能助手、自动文本生成、机器翻译等。本文将深入探讨大语言模型的工作原理,从基本概念到模型结构,再到训练方法和应用领域,带你一窥大语言模型的奥秘。0 875浏览免费