- 自然语言处理大小:1MB本项目是在一个开源中文电子病历数据集上的命名实体识别(NER)任务的源码,其中包含了数据预处理、BERT-BiLSTM模型实现以及训练与测评的完整过程。本人有一篇博客是对其的详细说明,源码也注释详细,简单易读。本项目是在一个开源中文电子病历数据集上的命名实体识别(NER)任务的源码,其中包含了数据预处理、BERT-BiLSTM模型实现以及训练与测评的完整过程。本人有一篇博客是对其的详细说明,源码也注释详细,简单易读。5 2585浏览¥ 14.90
- python大小:628KB1.python程序 2.有数据集,可直接运行1.python程序 2.有数据集,可直接运行5 3781浏览¥ 20.90
- 中国科学院大学大小:24MB循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归且所有循环单元按链式连接的递归神经网络。目前RNN已经广泛应用于语音识别、文本分类等自然语言处理任务中。本文致力于解决和完成自然语言处理中的难题之一——机器自动写诗,采用循环神经网络(RNN)的变体长短时记忆网络(Long Short Term Memory networks, LSTM),通过合理的设计网络结构和算法实现了自动写诗和藏头诗的功能。循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归且所有循环单元按链式连接的递归神经网络。目前RNN已经广泛应用于语音识别、文本分类等自然语言处理任务中。本文致力于解决和完成自然语言处理中的难题之一——机器自动写诗,采用循环神经网络(RNN)的变体长短时记忆网络(Long Short Term Memory networks, LSTM),通过合理的设计网络结构和算法实现了自动写诗和藏头诗的功能。5 3044浏览¥ 22.90
- python大小:628KB1.python程序 2.可直接运行,有数据集1.python程序 2.可直接运行,有数据集5 3336浏览¥ 20.90
- pytorch大小:2MB本资源是使用Pytorch实现的基于CNN的中文文本分类源码,其中包括了数据集预处理、数据集统计分析,模型实现和训练全过程的源码。另外,代码中有详细的注释,对新人十分友好,欢迎下载学习。本资源是使用Pytorch实现的基于CNN的中文文本分类源码,其中包括了数据集预处理、数据集统计分析,模型实现和训练全过程的源码。另外,代码中有详细的注释,对新人十分友好,欢迎下载学习。5 1644浏览¥ 14.90
- 问答系统大小:120MB项目概况 本项目为一个使用深度学习方法解析问题,知识图谱存储、查询知识点,基于医疗垂直领域的对话系统的后台程序 项目的搭建大致分为三个模块: 基础数据爬取 知识图谱构建 自动问答实现 项目运行环境: python : python 3.6.8 运行系统: ubuntu 16.04 知识图谱: neo4j 3.2.2 图形数据库 py2neo 3.1.1 neo4j对应的python驱动 深度学习: jieba 0.39 numpy 1.17.0 pandas 0.25.0 tensorflow 1.10.0 文本匹配: ahocorasick (安装方法 pip install pyahocorasick) 必要说明: 1.深度学习模块深度网络的训练使用tensorflow的gpu版本, 在应用阶段由于要部署要服务器上使用的对应的tensorflow的cpu版本 2.若要clone项目,尽量保持扩展包的版本一致 项目运行方式 搭建知项目概况 本项目为一个使用深度学习方法解析问题,知识图谱存储、查询知识点,基于医疗垂直领域的对话系统的后台程序 项目的搭建大致分为三个模块: 基础数据爬取 知识图谱构建 自动问答实现 项目运行环境: python : python 3.6.8 运行系统: ubuntu 16.04 知识图谱: neo4j 3.2.2 图形数据库 py2neo 3.1.1 neo4j对应的python驱动 深度学习: jieba 0.39 numpy 1.17.0 pandas 0.25.0 tensorflow 1.10.0 文本匹配: ahocorasick (安装方法 pip install pyahocorasick) 必要说明: 1.深度学习模块深度网络的训练使用tensorflow的gpu版本, 在应用阶段由于要部署要服务器上使用的对应的tensorflow的cpu版本 2.若要clone项目,尽量保持扩展包的版本一致 项目运行方式 搭建知5 3681浏览¥ 20.90
- bert大小:11MB1、内容概要:本资源主要基于bert(keras)实现文本分类,适用于初学者学习文本分类使用。 2、数据集为电商真实商品评论数据,主要包括训练集data_train,测试集data_test ,经过预处理的训练集clean_data_train和中文停用词表stopwords.txt,可用于模型训练和测试,详细数据集介绍见商品评论情感数据说明文档。 3、源代码:word2vec_analysis.py 是基于Word2Vec进行词向量的生成,采用向量平均求得句向量,然后分别构建RandomForest和GBDT分类模型进行文本分类。 4、源代码:bert_model.py是基于keras-bert构建Bert模型对文本进行分类。1、内容概要:本资源主要基于bert(keras)实现文本分类,适用于初学者学习文本分类使用。 2、数据集为电商真实商品评论数据,主要包括训练集data_train,测试集data_test ,经过预处理的训练集clean_data_train和中文停用词表stopwords.txt,可用于模型训练和测试,详细数据集介绍见商品评论情感数据说明文档。 3、源代码:word2vec_analysis.py 是基于Word2Vec进行词向量的生成,采用向量平均求得句向量,然后分别构建RandomForest和GBDT分类模型进行文本分类。 4、源代码:bert_model.py是基于keras-bert构建Bert模型对文本进行分类。5 4223浏览¥ 29.90
- 深度学习大小:24MB循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归且所有循环单元按链式连接的递归神经网络。目前RNN已经广泛应用于语音识别、文本分类等自然语言处理任务中。本文致力于解决和完成自然语言处理中的难题之一——机器自动写诗,采用循环神经网络(RNN)的变体长短时记忆网络(Long Short Term Memory networks, LSTM),通过合理的设计网络结构和算法实现了自动写诗和藏头诗的功能。循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归且所有循环单元按链式连接的递归神经网络。目前RNN已经广泛应用于语音识别、文本分类等自然语言处理任务中。本文致力于解决和完成自然语言处理中的难题之一——机器自动写诗,采用循环神经网络(RNN)的变体长短时记忆网络(Long Short Term Memory networks, LSTM),通过合理的设计网络结构和算法实现了自动写诗和藏头诗的功能。5 4323浏览¥ 29.90
- transformer大小:182MB基于Transformer的长时间序列代码汇总(Autoformer,PEDformer,Informer,Crossformer,ETSformer,Pyraformer,TimesNet,Reformer,DLinear等15个时间序列预测,分类算法代码汇总)含电力,ETT油温,外汇,病情,交通车流量,天气等数据集基于Transformer的长时间序列代码汇总(Autoformer,PEDformer,Informer,Crossformer,ETSformer,Pyraformer,TimesNet,Reformer,DLinear等15个时间序列预测,分类算法代码汇总)含电力,ETT油温,外汇,病情,交通车流量,天气等数据集5 2768浏览¥ 14.90
- 文本分类大小:11MB1、内容概要:本资源主要基于TextCNN(keras)实现文本分类,适用于初学者学习文本分类使用。 2、数据集为电商真实商品评论数据,主要包括训练集data_train,测试集data_test ,经过预处理的训练集clean_data_train和中文停用词表stopwords.txt,可用于模型训练和测试,详细数据集介绍见商品评论情感数据说明文档。 3、源代码:word2vec_analysis.py 是基于Word2Vec进行词向量的生成,采用向量平均求得句向量,然后分别构建RandomForest和GBDT分类模型进行文本分类。 4、源代码:textcnn_model.py是基于Keras构建CNN、TextCNN卷积神经网络模型对文本进行分类。1、内容概要:本资源主要基于TextCNN(keras)实现文本分类,适用于初学者学习文本分类使用。 2、数据集为电商真实商品评论数据,主要包括训练集data_train,测试集data_test ,经过预处理的训练集clean_data_train和中文停用词表stopwords.txt,可用于模型训练和测试,详细数据集介绍见商品评论情感数据说明文档。 3、源代码:word2vec_analysis.py 是基于Word2Vec进行词向量的生成,采用向量平均求得句向量,然后分别构建RandomForest和GBDT分类模型进行文本分类。 4、源代码:textcnn_model.py是基于Keras构建CNN、TextCNN卷积神经网络模型对文本进行分类。5 3279浏览¥ 29.90
- 事件触发大小:50KB对事件触发控制进行仿真,并使其最终结果达到稳定(The event trigger control is simulated and the final result is stable)对事件触发控制进行仿真,并使其最终结果达到稳定(The event trigger control is simulated and the final result is stable)5 3382浏览¥ 29.90
- python大小:3MB不知道大家有没有遇到过这样的问题,就是在某个软件或者某个网页里面有一篇文章,你非常喜欢,但是不能复制。或者像百度文档一样,只能复制一部分,这个时候我们就会选择截图保存。但是当我们想用到里面的文字时,还是要一个字一个字打出来。那么我们能不能直接识别图片中的文字呢?答案是肯定的。不知道大家有没有遇到过这样的问题,就是在某个软件或者某个网页里面有一篇文章,你非常喜欢,但是不能复制。或者像百度文档一样,只能复制一部分,这个时候我们就会选择截图保存。但是当我们想用到里面的文字时,还是要一个字一个字打出来。那么我们能不能直接识别图片中的文字呢?答案是肯定的。5 2509浏览¥ 1.90
- matlab大小:441KB一个水下无人自主航行器(AUV)的MATLAB/simulink仿真程序,写得很详细,有附带的s函数和m文件供参考学习。(A MATLAB / Simulink simulation program for Unmanned Unmanned Unmanned Underwater Vehicle (AUV) is written in great detail, with s functions and M files attached for reference.)一个水下无人自主航行器(AUV)的MATLAB/simulink仿真程序,写得很详细,有附带的s函数和m文件供参考学习。(A MATLAB / Simulink simulation program for Unmanned Unmanned Unmanned Underwater Vehicle (AUV) is written in great detail, with s functions and M files attached for reference.)5 1301浏览¥ 9.90
- S参数大小:14KB利用S参数,即S11和S21反演介质的有效介电常数和有效磁导率(Inversion of effective permittivity and permeability of dielectrics using S parameters, i.e. S11 and S21)利用S参数,即S11和S21反演介质的有效介电常数和有效磁导率(Inversion of effective permittivity and permeability of dielectrics using S parameters, i.e. S11 and S21)5 2015浏览¥ 14.90
- bert大小:382MB基于bert模型的疫情期间网民情绪识别,有代码,数据,可直接运行 --原始数据 基于bert模型的疫情期间网民情绪识别,有代码,数据,可直接运行 --原始数据基于bert模型的疫情期间网民情绪识别,有代码,数据,可直接运行 --原始数据 基于bert模型的疫情期间网民情绪识别,有代码,数据,可直接运行 --原始数据5 5652浏览¥ 11.90
- IT技术大小:66MB涉及内容包括但不限于:中英文敏感词、语言检测、中外手机/电话归属地/运营商查询、名字推断性别、手机号抽取、身份证抽取、邮箱抽取、中日文人名库、中文缩写库、拆字词典、词汇情感值、停用词、反动词表、暴恐词表、繁简体转换、英文模拟中文发音、汪峰歌词生成器、职业名称词库、同义词库、反义词库、否定词库、汽车品牌词库、汽车零件词库、连续英文切割、各种中文词向量、公司名字大全、古诗词库、IT词库、财经词库、成语词库、地名词库、历史名人词库、诗词词库、医学词库、饮食词库、法律词库、汽车词库、动物词库、中文聊天语料、中文谣言数据、百度中文问答数据集、句子相似度匹配算法集合、bert资源、文本生成&摘要相关工具、cocoNLP信息抽取工具、国内电话号码正则匹配、清华大学XLORE:中英文跨语言百科知识图谱、清华大学人工智能技术系列报告、自然语言生成、NLU太难了系列、自动对联数据及机器人、用户名黑名单列表、罪名法务名词及分类模型、微信公众号语料、cs224n深度学习自然语言处理课程、中文手写汉字识别、中文自然语言处理 语料/数据集、变量命名神器、分词语料库+代码、任务型对话英文数据集、ASR 语音数据集 + 基于深度学习的中文语音识别系统、笑声检测器、Microsoft多语言数字/单位/如日期时间识别包、中华新华字典数据库及api(包括常用歇后语、成语、词语和汉字)、文档图谱自动生成、SpaCy 中文模型、Common Voice语音识别数据集新版、神经网络关系抽取、基于bert的命名实体识别、关键词(Keyphrase)抽取包pke、基于医疗领域知识图谱的问答系统、基于依存句法与语义角色标注的事件三元组抽取、依存句法分析4万句高质量标注数据、cnocr:用来做中文OCR的Python3包、中文人物关系知识图谱项目、中文nlp竞赛项目及代码汇总、中文字符数据、speech-aligner: 从“人声语音”及其“语言文本”产生音素级别时间对齐标注的工具、AmpliGraph: 知识图谱表示学习(Python)库:知识图谱概念链接预测、Scattertext 文本可视化(python)、语言/知识表示工具:BERT & ERNIE、中文对比英文自然语言处理NLP的区别综述、Synonyms中文近义词工具包、HarvestText领域自适应文本挖掘工具(新词发现-情感分析-实体链接等)、word2word:(Python)方便易用的多语言词-词对集:62种语言/3,564个多语言对、语音识别语料生成工具:从具有音频/字幕的在线视频创建自动语音识别(ASR)语料库、构建医疗实体识别的模型(包含词典和语料标注)、单文档非监督的关键词抽取、Kashgari中使用gpt-2语言模型、开源的金融投资数据提取工具、文本自动摘要库TextTeaser: 仅支持英文、人民日报语料处理工具集、一些关于自然语言的基本模型、基于14W歌曲知识库的问答尝试--功能包括歌词接龙and已知歌词找歌曲以及歌曲歌手歌词三角关系的问答、基于Siamese bilstm模型的相似句子判定模型并提供训练数据集和测试数据集、用Transformer编解码模型实现的根据Hacker News文章标题自动生成评论、用BERT进行序列标记和文本分类的模板代码、LitBank:NLP数据集——支持自然语言处理和计算人文学科任务的100部带标记英文小说语料、百度开源的基准信息抽取系统、虚假新闻数据集、Facebook: LAMA语言模型分析,提供Transformer-XL/BERT/ELMo/GPT预训练语言模型的统一访问接口、CommonsenseQA:面向常识的英文QA挑战、中文知识图谱资料、数据及工具、各大公司内部里大牛分享的技术文档 PDF 或者 PPT、自然语言生成SQL语句(英文)、中文NLP数据增强(EDA)工具、英文NLP数据增强工具 、基于医药知识图谱的智能问答系统、京东商品知识图谱、基于mongodb存储的军事领域知识图谱问答项目、基于远监督的中文关系抽取、语音情感分析、中文ULMFiT-情感分析-文本分类-语料及模型、一个拍照做题程序、世界各国大规模人名库、一个利用有趣中文语料库 qingyun 训练出来的中文聊天机器人、中文聊天机器人seqGAN、省市区镇行政区划数据带拼音标注、教育行业新闻语料库包含自动文摘功能、开放了对话机器人-知识图谱-语义理解-自然语言处理工具及数据、中文知识图谱:基于百度百科中文页面-抽取三元组信息-构建中文知识图谱、masr: 中文语音识别-提供预训练模型-高识别率、Python音频数据增广库、中文全词覆盖BERT及两份阅读理解数据、ConvLab:开源多域端到端对话系统平台、中文自然语言处理数据集、基于最新版本rasa搭建的对话系统、基于Tens涉及内容包括但不限于:中英文敏感词、语言检测、中外手机/电话归属地/运营商查询、名字推断性别、手机号抽取、身份证抽取、邮箱抽取、中日文人名库、中文缩写库、拆字词典、词汇情感值、停用词、反动词表、暴恐词表、繁简体转换、英文模拟中文发音、汪峰歌词生成器、职业名称词库、同义词库、反义词库、否定词库、汽车品牌词库、汽车零件词库、连续英文切割、各种中文词向量、公司名字大全、古诗词库、IT词库、财经词库、成语词库、地名词库、历史名人词库、诗词词库、医学词库、饮食词库、法律词库、汽车词库、动物词库、中文聊天语料、中文谣言数据、百度中文问答数据集、句子相似度匹配算法集合、bert资源、文本生成&摘要相关工具、cocoNLP信息抽取工具、国内电话号码正则匹配、清华大学XLORE:中英文跨语言百科知识图谱、清华大学人工智能技术系列报告、自然语言生成、NLU太难了系列、自动对联数据及机器人、用户名黑名单列表、罪名法务名词及分类模型、微信公众号语料、cs224n深度学习自然语言处理课程、中文手写汉字识别、中文自然语言处理 语料/数据集、变量命名神器、分词语料库+代码、任务型对话英文数据集、ASR 语音数据集 + 基于深度学习的中文语音识别系统、笑声检测器、Microsoft多语言数字/单位/如日期时间识别包、中华新华字典数据库及api(包括常用歇后语、成语、词语和汉字)、文档图谱自动生成、SpaCy 中文模型、Common Voice语音识别数据集新版、神经网络关系抽取、基于bert的命名实体识别、关键词(Keyphrase)抽取包pke、基于医疗领域知识图谱的问答系统、基于依存句法与语义角色标注的事件三元组抽取、依存句法分析4万句高质量标注数据、cnocr:用来做中文OCR的Python3包、中文人物关系知识图谱项目、中文nlp竞赛项目及代码汇总、中文字符数据、speech-aligner: 从“人声语音”及其“语言文本”产生音素级别时间对齐标注的工具、AmpliGraph: 知识图谱表示学习(Python)库:知识图谱概念链接预测、Scattertext 文本可视化(python)、语言/知识表示工具:BERT & ERNIE、中文对比英文自然语言处理NLP的区别综述、Synonyms中文近义词工具包、HarvestText领域自适应文本挖掘工具(新词发现-情感分析-实体链接等)、word2word:(Python)方便易用的多语言词-词对集:62种语言/3,564个多语言对、语音识别语料生成工具:从具有音频/字幕的在线视频创建自动语音识别(ASR)语料库、构建医疗实体识别的模型(包含词典和语料标注)、单文档非监督的关键词抽取、Kashgari中使用gpt-2语言模型、开源的金融投资数据提取工具、文本自动摘要库TextTeaser: 仅支持英文、人民日报语料处理工具集、一些关于自然语言的基本模型、基于14W歌曲知识库的问答尝试--功能包括歌词接龙and已知歌词找歌曲以及歌曲歌手歌词三角关系的问答、基于Siamese bilstm模型的相似句子判定模型并提供训练数据集和测试数据集、用Transformer编解码模型实现的根据Hacker News文章标题自动生成评论、用BERT进行序列标记和文本分类的模板代码、LitBank:NLP数据集——支持自然语言处理和计算人文学科任务的100部带标记英文小说语料、百度开源的基准信息抽取系统、虚假新闻数据集、Facebook: LAMA语言模型分析,提供Transformer-XL/BERT/ELMo/GPT预训练语言模型的统一访问接口、CommonsenseQA:面向常识的英文QA挑战、中文知识图谱资料、数据及工具、各大公司内部里大牛分享的技术文档 PDF 或者 PPT、自然语言生成SQL语句(英文)、中文NLP数据增强(EDA)工具、英文NLP数据增强工具 、基于医药知识图谱的智能问答系统、京东商品知识图谱、基于mongodb存储的军事领域知识图谱问答项目、基于远监督的中文关系抽取、语音情感分析、中文ULMFiT-情感分析-文本分类-语料及模型、一个拍照做题程序、世界各国大规模人名库、一个利用有趣中文语料库 qingyun 训练出来的中文聊天机器人、中文聊天机器人seqGAN、省市区镇行政区划数据带拼音标注、教育行业新闻语料库包含自动文摘功能、开放了对话机器人-知识图谱-语义理解-自然语言处理工具及数据、中文知识图谱:基于百度百科中文页面-抽取三元组信息-构建中文知识图谱、masr: 中文语音识别-提供预训练模型-高识别率、Python音频数据增广库、中文全词覆盖BERT及两份阅读理解数据、ConvLab:开源多域端到端对话系统平台、中文自然语言处理数据集、基于最新版本rasa搭建的对话系统、基于Tens5 4732浏览¥ 11.90
- 遗传算法大小:629KB1.python代码 2.有数据集1.python代码 2.有数据集5 3230浏览¥ 20.90
- 自然语言处理大小:78KB词云图 情感分析 LDA主题分析 机械压缩去词词云图 情感分析 LDA主题分析 机械压缩去词5 1893浏览¥ 9.90
- python大小:630KB1.python语言 2.有数据集,可直接运行1.python语言 2.有数据集,可直接运行5 3823浏览¥ 52.90
- 句子类型分类大小:390KB1、内容概要:本资源主要包括中文句子类型分类工具sentypes_v1.2及数据集 2、句子类型判别工具sentypes_v1.2的句子优先级为:正反问句,反问句,选择问句,疑问词问句,是非问句;祈使句,把字句,被子句,比较句,存在句,是字句,连字句;陈述句;其他句子。 3、sentypes_v1.2 工具包含五个命令参数,分别是输入文件、输出文件、分词模型(cws.model)、词性标注模型(pos.model)和句法分析模型(parser.model)。1、内容概要:本资源主要包括中文句子类型分类工具sentypes_v1.2及数据集 2、句子类型判别工具sentypes_v1.2的句子优先级为:正反问句,反问句,选择问句,疑问词问句,是非问句;祈使句,把字句,被子句,比较句,存在句,是字句,连字句;陈述句;其他句子。 3、sentypes_v1.2 工具包含五个命令参数,分别是输入文件、输出文件、分词模型(cws.model)、词性标注模型(pos.model)和句法分析模型(parser.model)。5 1148浏览¥ 20.90
- python大小:628KB1.python程序 2.有数据集,可直接运行1.python程序 2.有数据集,可直接运行5 2449浏览¥ 20.90
- 自然语言处理大小:616MBCSDN文章名:文档关键信息提取形成知识图谱:基于NLP算法提取文本内容的关键信息生成信息图谱教程及码源(含pyltp安装使用教程) https://blog.csdn.net/sinat_39620217/article/details/130864790 目标:输入一篇文档,将文档进行关键信息提取,进行结构化,并最终组织成图谱组织形式,形成对文章语义信息的图谱化展示。 如何用图谱和结构化的方式,即以简洁的方式对输入的文本内容进行最佳的语义表示是个难题。 本项目将对这一问题进行尝试,采用的方法为:输入一篇文档,将文档进行关键信息提取,并进行结构化,并最终组织成图谱组织形式,形成对文章语义信息的图谱化展示。CSDN文章名:文档关键信息提取形成知识图谱:基于NLP算法提取文本内容的关键信息生成信息图谱教程及码源(含pyltp安装使用教程) https://blog.csdn.net/sinat_39620217/article/details/130864790 目标:输入一篇文档,将文档进行关键信息提取,进行结构化,并最终组织成图谱组织形式,形成对文章语义信息的图谱化展示。 如何用图谱和结构化的方式,即以简洁的方式对输入的文本内容进行最佳的语义表示是个难题。 本项目将对这一问题进行尝试,采用的方法为:输入一篇文档,将文档进行关键信息提取,并进行结构化,并最终组织成图谱组织形式,形成对文章语义信息的图谱化展示。5 765浏览¥ 19.90
- 机器学习大小:49MB在国内这样一个非有效的市场中,分析投资者的情绪似乎更有意义。 这里我们利用标注语料分析股评情感,利用分析结果构建指标,之后研究指标与股市关系。 可以按以下顺序运行代码: python model_ml.py python compute_sent_idx.py python plot_sent_idx.py 数据 数据位于data目录下,包括三部分: 标注的股评文本:这些数据比较偏门,不是很好找,这里搜集整理了正负语料各4607条,已分词。 从东财股吧抓取的上证指数股评文本:约50万条,时间跨度为17年4月到18年5月。东财上证指数吧十分活跃,约7秒就有人发布一条股评。 上证指数数据:直接从新浪抓取下来的。 模型 情感分类模型也是文本分类模型,常用的包括机器学习模型与深度学习模型。 model_ml.py:机器学习模型,对比测试了8个模型。 model_dl.py:深度学习模型,对比测试了3个模型。 结果 在经过情感分析、指标构建这两个流程之后,我们可以得到一些有趣的结果,例在国内这样一个非有效的市场中,分析投资者的情绪似乎更有意义。 这里我们利用标注语料分析股评情感,利用分析结果构建指标,之后研究指标与股市关系。 可以按以下顺序运行代码: python model_ml.py python compute_sent_idx.py python plot_sent_idx.py 数据 数据位于data目录下,包括三部分: 标注的股评文本:这些数据比较偏门,不是很好找,这里搜集整理了正负语料各4607条,已分词。 从东财股吧抓取的上证指数股评文本:约50万条,时间跨度为17年4月到18年5月。东财上证指数吧十分活跃,约7秒就有人发布一条股评。 上证指数数据:直接从新浪抓取下来的。 模型 情感分类模型也是文本分类模型,常用的包括机器学习模型与深度学习模型。 model_ml.py:机器学习模型,对比测试了8个模型。 model_dl.py:深度学习模型,对比测试了3个模型。 结果 在经过情感分析、指标构建这两个流程之后,我们可以得到一些有趣的结果,例5 1343浏览¥ 22.90
- 自然语言处理大小:2MB包含:清华大学李军中文褒贬义词典、台湾大学NTUSD简体中文情感词典、知网Hownet情感词典、汉语情感词极值表和情感词汇本体等包含:清华大学李军中文褒贬义词典、台湾大学NTUSD简体中文情感词典、知网Hownet情感词典、汉语情感词极值表和情感词汇本体等5 688浏览¥ 14.90
- 知识图谱大小:19MB1、本项目完成了从无到有,以垂直网站为数据来源,构建起以疾病为中心的医疗知识图谱,实体规模4.4万,实体关系规模30万。并基于此,搭建起了一个可以回答18类问题的自动问答小系统,总共耗时3天。其中,数据采集与整理1天,知识图谱构建与入库0.5天,问答系统组件1.5天。总的来说,还是比较快速。 2、本项目以业务驱动,构建医疗知识图谱,知识schema设计基于所采集的结构化数据生成(对网页结构化数据进行xpath解析)。 3、本项目以neo4j作为存储,并基于传统规则的方式完成了知识问答,并最终以cypher查询语句作为问答搜索sql,支持了问答服务。 4、本项目可以快速部署,数据已经放在data/medical.json当中,本项目的数据,在本项目中的部署上,可以遵循项目运行步骤,完成数据库搭建,并提供搜索服务。1、本项目完成了从无到有,以垂直网站为数据来源,构建起以疾病为中心的医疗知识图谱,实体规模4.4万,实体关系规模30万。并基于此,搭建起了一个可以回答18类问题的自动问答小系统,总共耗时3天。其中,数据采集与整理1天,知识图谱构建与入库0.5天,问答系统组件1.5天。总的来说,还是比较快速。 2、本项目以业务驱动,构建医疗知识图谱,知识schema设计基于所采集的结构化数据生成(对网页结构化数据进行xpath解析)。 3、本项目以neo4j作为存储,并基于传统规则的方式完成了知识问答,并最终以cypher查询语句作为问答搜索sql,支持了问答服务。 4、本项目可以快速部署,数据已经放在data/medical.json当中,本项目的数据,在本项目中的部署上,可以遵循项目运行步骤,完成数据库搭建,并提供搜索服务。5 1093浏览¥ 19.90
- matlab大小:718Bmatlab批量读取全部sheet内容,可指定,并对无效内容处理,提取所需数据并画图matlab批量读取全部sheet内容,可指定,并对无效内容处理,提取所需数据并画图5 7804浏览¥ 9.90
- 单目相机大小:658KB三维重建,单目相机+结构光,实时扫描重建代码,三维重建,单目相机+结构光,实时扫描重建代码,5 2692浏览¥ 9.90
- NLP大小:2MB基于中文金融知识的LLaMA系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学基于中文金融知识的LLaMA系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学5 1629浏览¥ 19.90
- 实体识别大小:9MB人工智能-项目实践-实体识别-医疗实体识别 用BILSTM+CRF做医疗实体识别,框架为pytorch。 注意,代码已经修改了!! 由于pytorch-crf这个包在计算loss时会自动加上和的转移矩阵,所以我们不用再自己手动在样本和标签前后加这俩标记。 然后评估方法改为了CoNLL-2000的权威评估方法。人工智能-项目实践-实体识别-医疗实体识别 用BILSTM+CRF做医疗实体识别,框架为pytorch。 注意,代码已经修改了!! 由于pytorch-crf这个包在计算loss时会自动加上和的转移矩阵,所以我们不用再自己手动在样本和标签前后加这俩标记。 然后评估方法改为了CoNLL-2000的权威评估方法。5 1665浏览¥ 11.90
- bert大小:40MB利用BERT+CRF+BiLSTM的实体识别,建立知识图谱,建立知识问答系统利用BERT+CRF+BiLSTM的实体识别,建立知识图谱,建立知识问答系统5 873浏览¥ 19.90
- 自然语言处理大小:18MB本项目的任务为NLP中的情感分析。项目将文档进行构图,然后采用图卷积来进行文档嵌入学习,最后进行分类。项目包含数据集以及数据集预处理、建图、训练与测评的完整源码,源码注释清晰,还有相应的博客说明,对新人十分友好。本项目的任务为NLP中的情感分析。项目将文档进行构图,然后采用图卷积来进行文档嵌入学习,最后进行分类。项目包含数据集以及数据集预处理、建图、训练与测评的完整源码,源码注释清晰,还有相应的博客说明,对新人十分友好。5 642浏览¥ 14.90
- tensorflow大小:58MB1.本项目通过调取语音文件和标注文件,提取语音的梅尔倒谱系数特征,进行归一化处理。根据标注文件建立字典,选择WaveNet机器学习模型进行训练,经过softmax处模型保存。 2.项目运行环境:包括 Python 环境和Tensorflow环境,需安装Keras 2.2.0+TensorFlow1.9。 3.项目包括3个模块:方言分类、语音识别和模型测试。数据集由科大讯飞提供,内有长沙话、上海 话和南昌话3种方言,包含50~300KB的语音数据集19489条。同时分别构建了方言分类、语音识别训练模型,并搭建了图形用户界面。 4.准确率:方言分类中,在训练集上测试准确率超过了98%;模型可以实现语音识别及方言分类。 5.项目博客:https://blog.csdn.net/qq_31136513/article/details/1318582541.本项目通过调取语音文件和标注文件,提取语音的梅尔倒谱系数特征,进行归一化处理。根据标注文件建立字典,选择WaveNet机器学习模型进行训练,经过softmax处模型保存。 2.项目运行环境:包括 Python 环境和Tensorflow环境,需安装Keras 2.2.0+TensorFlow1.9。 3.项目包括3个模块:方言分类、语音识别和模型测试。数据集由科大讯飞提供,内有长沙话、上海 话和南昌话3种方言,包含50~300KB的语音数据集19489条。同时分别构建了方言分类、语音识别训练模型,并搭建了图形用户界面。 4.准确率:方言分类中,在训练集上测试准确率超过了98%;模型可以实现语音识别及方言分类。 5.项目博客:https://blog.csdn.net/qq_31136513/article/details/1318582545 646浏览¥ 9.90
- 最小二乘法大小:526KB四步相移法程序和最小二乘法相位解包裹程序,已经验证,此方法比较不错。(Four step phase-shift method program and least squares phase solution package, have validation, this method is good. )四步相移法程序和最小二乘法相位解包裹程序,已经验证,此方法比较不错。(Four step phase-shift method program and least squares phase solution package, have validation, this method is good. )5 1020浏览¥ 9.90
- python大小:63KB上市公司新闻文本分析与分类预测的基本步骤如下: • 从新浪财经、每经网、金融界、中国证券网、证券时报网上,爬取上市公司(个股)的历史新闻文本数据(包括时间、网址、标题、正文) • 从Tushare上获取沪深股票日线数据(开、高、低、收、成交量和持仓量)和基本信息(包括股票代码、股票名称、所属行业、所属地区、PE值、总资产、流动资产、固定资产、留存资产等) • 对抓取的新闻文本按照,去停用词、加载新词、分词的顺序进行处理 • 利用前两步中所获取的股票名称和分词后的结果,抽取出每条新闻里所包含的(0支、1支或多支)股票名称,并将所对应的所有股票代码,组合成与该条新闻相关的股票代码列表,并在历史数据表中增加一列相关股票代码数据 • 从历史新闻数据库中抽取与某支股票相关的所有新闻文本,利用该支股票的日线数据(比如某一天发布的消息,在设定N天后如果价格上涨则认为是利好消息,反之则是利空消息)给每条新闻贴上“利好”和“利空”的标签,并存储到新的数据库中(或导出到CSV文件) • 实时抓取新闻数据,判断与该新闻相关的股票有哪些,利用上一步的结果,对与某支股票相关的所有历史新闻文本(已贴标签)进行文本上市公司新闻文本分析与分类预测的基本步骤如下: • 从新浪财经、每经网、金融界、中国证券网、证券时报网上,爬取上市公司(个股)的历史新闻文本数据(包括时间、网址、标题、正文) • 从Tushare上获取沪深股票日线数据(开、高、低、收、成交量和持仓量)和基本信息(包括股票代码、股票名称、所属行业、所属地区、PE值、总资产、流动资产、固定资产、留存资产等) • 对抓取的新闻文本按照,去停用词、加载新词、分词的顺序进行处理 • 利用前两步中所获取的股票名称和分词后的结果,抽取出每条新闻里所包含的(0支、1支或多支)股票名称,并将所对应的所有股票代码,组合成与该条新闻相关的股票代码列表,并在历史数据表中增加一列相关股票代码数据 • 从历史新闻数据库中抽取与某支股票相关的所有新闻文本,利用该支股票的日线数据(比如某一天发布的消息,在设定N天后如果价格上涨则认为是利好消息,反之则是利空消息)给每条新闻贴上“利好”和“利空”的标签,并存储到新的数据库中(或导出到CSV文件) • 实时抓取新闻数据,判断与该新闻相关的股票有哪些,利用上一步的结果,对与某支股票相关的所有历史新闻文本(已贴标签)进行文本5 1336浏览¥ 22.90
- python大小:669MB本资源为本人文章《Python Djang 搭建自动词性标注网站(基于Keras框架和维基百科中文预训练词向量Word2vec模型,分别实现由GRU、LSTM、RNN神经网络组成的词性标注模型)》的项目实现资源,下载后通过终端输入 python manage.py runserver 命令即可启动项目进入网页。本资源为本人文章《Python Djang 搭建自动词性标注网站(基于Keras框架和维基百科中文预训练词向量Word2vec模型,分别实现由GRU、LSTM、RNN神经网络组成的词性标注模型)》的项目实现资源,下载后通过终端输入 python manage.py runserver 命令即可启动项目进入网页。5 658浏览¥ 9.90
- 三维重建大小:205KB利用MATLAB软件编程实现三维重建,对CT图像实现三维体绘制。(CT images of three-dimensional volume rendering reconstruction)利用MATLAB软件编程实现三维重建,对CT图像实现三维体绘制。(CT images of three-dimensional volume rendering reconstruction)5 1673浏览¥ 9.90
- 知识图谱大小:6MB1) app.py是整个系统的主入口<br> 2) templates文件夹是HTML的页面<br> |-index.html 欢迎界面<br> |-search.html 搜索人物关系页面<br> |-all_relation.html 所有人物关系页面<br> |-KGQA.html 人物关系问答页面<br> 3) static文件夹存放css和js,是页面的样式和效果的文件<br> 4) raw_data文件夹是存在数据处理后的三元组文件<br> 5) neo_db文件夹是知识图谱构建模块<br> |-config.py 配置参数<br> |-create_graph.py 创建知识图谱,图数据库的建立<br> |-query_graph.py 知识图谱的查询 6) KGQA文件夹是问答系统模块 |-ltp.py 分词、词性标注、命名实体识别 7) spider文件夹是模块 |- get_*.py 是之前取人物资料的代码,已经产生好ima1) app.py是整个系统的主入口<br> 2) templates文件夹是HTML的页面<br> |-index.html 欢迎界面<br> |-search.html 搜索人物关系页面<br> |-all_relation.html 所有人物关系页面<br> |-KGQA.html 人物关系问答页面<br> 3) static文件夹存放css和js,是页面的样式和效果的文件<br> 4) raw_data文件夹是存在数据处理后的三元组文件<br> 5) neo_db文件夹是知识图谱构建模块<br> |-config.py 配置参数<br> |-create_graph.py 创建知识图谱,图数据库的建立<br> |-query_graph.py 知识图谱的查询 6) KGQA文件夹是问答系统模块 |-ltp.py 分词、词性标注、命名实体识别 7) spider文件夹是模块 |- get_*.py 是之前取人物资料的代码,已经产生好ima5 1165浏览¥ 19.90
- 知识图谱大小:350MB农业知识图谱码源 - hudong_pedia.csv : 已经整理好的农业实体的百科页面的结构化csv文件 - labels.txt: 5000多个手工标注的实体类别 - predict_labels.txt: KNN算法预测的15W多个实体的类别 - /wikidataSpider/wikidataProcessing/wikidata_relation.csv: predict_labels.txt中实体在wikidata中对应的三元组关系 - attributes.csv: 部分实体的属性(互动百科页面中直接得到) - wikidataSpider/weatherData/static_weather_list.csv: 气候类型列表 - wikidataSpider/weatherData/weather_plant.csv:气候与植物的种植关系 - wikidataSpider/weatherData/city_weather.csv:城市与气候的关系农业知识图谱码源 - hudong_pedia.csv : 已经整理好的农业实体的百科页面的结构化csv文件 - labels.txt: 5000多个手工标注的实体类别 - predict_labels.txt: KNN算法预测的15W多个实体的类别 - /wikidataSpider/wikidataProcessing/wikidata_relation.csv: predict_labels.txt中实体在wikidata中对应的三元组关系 - attributes.csv: 部分实体的属性(互动百科页面中直接得到) - wikidataSpider/weatherData/static_weather_list.csv: 气候类型列表 - wikidataSpider/weatherData/weather_plant.csv:气候与植物的种植关系 - wikidataSpider/weatherData/city_weather.csv:城市与气候的关系5 1288浏览¥ 19.90
- lstm大小:3MB项目:中文电影评论情感分类 如: 输入 评论语句 --> model --> positive/negative 一、数据集 数据集在data目录下,已经打好标签(1--positive, 0--negative),也已经做好分词 数据集的处理: data_manager.py: 二、模型构建 基于lstm实现:network/mylstm.py 第一部分:词转成词向量 第二部分:2个RNN层 第三部分:用全连接层做分类, 转成概率格式 三、跑训练 train.py、model.py 1. 定义模型 2. 读取数据集 3. 训练:外循环是迭代、内循环批次 前向计算、计算误差、计算梯度、更新权重 4. 保存模型 四、预测 使用训练好的模型,predict_demo.py 1. 加载模型、词汇表 3. 把预测的句子转成词汇表下标表示 4. 送入模型进行前向计算 5. 判断是正向还是负向项目:中文电影评论情感分类 如: 输入 评论语句 --> model --> positive/negative 一、数据集 数据集在data目录下,已经打好标签(1--positive, 0--negative),也已经做好分词 数据集的处理: data_manager.py: 二、模型构建 基于lstm实现:network/mylstm.py 第一部分:词转成词向量 第二部分:2个RNN层 第三部分:用全连接层做分类, 转成概率格式 三、跑训练 train.py、model.py 1. 定义模型 2. 读取数据集 3. 训练:外循环是迭代、内循环批次 前向计算、计算误差、计算梯度、更新权重 4. 保存模型 四、预测 使用训练好的模型,predict_demo.py 1. 加载模型、词汇表 3. 把预测的句子转成词汇表下标表示 4. 送入模型进行前向计算 5. 判断是正向还是负向5 1850浏览¥ 20.90
- django大小:258KB本项目主要介绍使用Echarts进行图谱可视化的方法: 1) 知识图谱的静态展示(静态html文件) 2)使用Python的django框架进行开发,并将后台业务逻辑生成的数据传送到前端js中进行展示,实现动态图谱构建,满足工程实际需要。 动态与静态图谱均整合至项目源码中,使用不同路由即可访问。 注:结合博客理解本项目更佳,运行项目前请看readme文件!本项目主要介绍使用Echarts进行图谱可视化的方法: 1) 知识图谱的静态展示(静态html文件) 2)使用Python的django框架进行开发,并将后台业务逻辑生成的数据传送到前端js中进行展示,实现动态图谱构建,满足工程实际需要。 动态与静态图谱均整合至项目源码中,使用不同路由即可访问。 注:结合博客理解本项目更佳,运行项目前请看readme文件!5 3882浏览¥ 22.90
- ART大小:4MBmatlab_ART,SART算法,可以用于医学CT重建(ART, SART algorithm, can be used for medical CT reconstruction)matlab_ART,SART算法,可以用于医学CT重建(ART, SART algorithm, can be used for medical CT reconstruction)5 1142浏览¥ 39.90
- labview大小:2MB可以用USRP实现BPSK和QPSK的调制与解调,完成了链路的搭建。(Usrp_stanford course, you can use USRP to achieve BPSK and QPSK modulation and demodulation, the completion of the link to build.)可以用USRP实现BPSK和QPSK的调制与解调,完成了链路的搭建。(Usrp_stanford course, you can use USRP to achieve BPSK and QPSK modulation and demodulation, the completion of the link to build.)5 843浏览¥ 29.90
- 知识图谱大小:6MB本项目内容包括数据采集、知识存储、知识抽取、知识计算、知识应用五大部分 数据采集 本次项目主要采集构建了两个知识图谱和一个关系抽取数据集 人物知识图谱:主要包含各个人物的信息 关系抽取数据集:标注出自然语言中存在的实体以及他们之间的关系 实体关系知识图谱:构建《海贼王》中各个实体之间关系的知识图谱 知识存储 尝试使用了三元组数据库Apace Jena和原生图数据库Neo4j,并分别使用RDF结构化查询语言SPARQL和属性图查询语言Cypher,在知识图谱上进行查询。 知识抽取 基于之间构建的关系抽取数据集,利用deepke中提供的工具进行关系抽取实践,测试了包括PCNN、GCN、BERT等模型在我们构建数据集上的效果 知识计算 图计算:在Neo4j上对实体关系知识图谱进行了图挖掘,包括最短路径查询、权威结点发现、社区发现等 知识推理:在Apache Jena上对关系知识图谱进行了知识推理,补全了一部分的数据 知识应用 智能问答:基于REfO实现一个对于《海贼王》中人物的知识库问答系统(KBQA)。 可视化图片:通过D3对实体关系图片进行可视化,并整合了人物知识图谱中本项目内容包括数据采集、知识存储、知识抽取、知识计算、知识应用五大部分 数据采集 本次项目主要采集构建了两个知识图谱和一个关系抽取数据集 人物知识图谱:主要包含各个人物的信息 关系抽取数据集:标注出自然语言中存在的实体以及他们之间的关系 实体关系知识图谱:构建《海贼王》中各个实体之间关系的知识图谱 知识存储 尝试使用了三元组数据库Apace Jena和原生图数据库Neo4j,并分别使用RDF结构化查询语言SPARQL和属性图查询语言Cypher,在知识图谱上进行查询。 知识抽取 基于之间构建的关系抽取数据集,利用deepke中提供的工具进行关系抽取实践,测试了包括PCNN、GCN、BERT等模型在我们构建数据集上的效果 知识计算 图计算:在Neo4j上对实体关系知识图谱进行了图挖掘,包括最短路径查询、权威结点发现、社区发现等 知识推理:在Apache Jena上对关系知识图谱进行了知识推理,补全了一部分的数据 知识应用 智能问答:基于REfO实现一个对于《海贼王》中人物的知识库问答系统(KBQA)。 可视化图片:通过D3对实体关系图片进行可视化,并整合了人物知识图谱中5 813浏览¥ 19.90
- 人工智能大小:5MB包括上市公司所属行业关系、行业上级关系、产品上游原材料关系、产品下游产品关系、公司主营产品、产品小类共6大类。 上市公司4,654家,行业511个,产品95,559条、上游材料56,824条,上级行业480条,下游产品390条,产品小类52,937条,所属行业3,946条。 领域知识图谱的数据集,当前还比较缺失,而作为构建难度最大的产业链图谱领域更为空白。产业链作为产业经济学中的一个概念,是各个产业部门之间基于一定的技术经济关联,并依据特定的逻辑关系和时空布局关系客观形成的链条式关联关系形态。从本质上来说,产业链的本质是用于描述一个具有某种内在联系的企业群结构,产业链中大量存在着上下游关系和相互价值的交换,上游环节向下游环节输送产品或服务,下游环节向上游环节反馈信息。包括上市公司所属行业关系、行业上级关系、产品上游原材料关系、产品下游产品关系、公司主营产品、产品小类共6大类。 上市公司4,654家,行业511个,产品95,559条、上游材料56,824条,上级行业480条,下游产品390条,产品小类52,937条,所属行业3,946条。 领域知识图谱的数据集,当前还比较缺失,而作为构建难度最大的产业链图谱领域更为空白。产业链作为产业经济学中的一个概念,是各个产业部门之间基于一定的技术经济关联,并依据特定的逻辑关系和时空布局关系客观形成的链条式关联关系形态。从本质上来说,产业链的本质是用于描述一个具有某种内在联系的企业群结构,产业链中大量存在着上下游关系和相互价值的交换,上游环节向下游环节输送产品或服务,下游环节向上游环节反馈信息。5 244浏览¥ 19.90
- 自然语言处理大小:83KBNLP自然语言处理情感分析 舆情监测 需要用到的知网Hownet情感词典NLP自然语言处理情感分析 舆情监测 需要用到的知网Hownet情感词典5 924浏览¥ 11.90
- 源码软件大小:12MBLABVIEW机器视觉通用框架,直接套用于工程项目(LAbview machine vision general framework)LABVIEW机器视觉通用框架,直接套用于工程项目(LAbview machine vision general framework)5 424浏览¥ 19.90
- Cytoscape大小:145KB项目主要介绍cytoscape.js的使用方法: 1)构建静态html文件进行图谱展示 2)使用Python的django框架进行开发,并将后台业务逻辑生成的数据传送到前端js中进行展示,实现动态图谱构建,满足工程实际需要。 动态与静态图谱均整合至项目源码中,使用不同路由即可访问。 注:结合博客理解本项目更佳,运行项目前请看readme文件!项目主要介绍cytoscape.js的使用方法: 1)构建静态html文件进行图谱展示 2)使用Python的django框架进行开发,并将后台业务逻辑生成的数据传送到前端js中进行展示,实现动态图谱构建,满足工程实际需要。 动态与静态图谱均整合至项目源码中,使用不同路由即可访问。 注:结合博客理解本项目更佳,运行项目前请看readme文件!5 1619浏览¥ 22.90
- 自然语言处理大小:32MB微博文本情感分析数据 数据包含四种情感类型的文本文件及中文停词文本微博文本情感分析数据 数据包含四种情感类型的文本文件及中文停词文本5 1177浏览¥ 11.90
- 水轮机大小:14KBPID控制的水轮机调速器 simulink模型(Simlink Model of Hydraulic Turbine Governor Controlled by PID)PID控制的水轮机调速器 simulink模型(Simlink Model of Hydraulic Turbine Governor Controlled by PID)5 550浏览¥ 14.90
- matlab大小:3MB完整的仿真了地形匹配中的TERCOM算法,包含了地形数据。(A complete simulation of terrain matching in the TERCOM algorithm, including terrain data.)完整的仿真了地形匹配中的TERCOM算法,包含了地形数据。(A complete simulation of terrain matching in the TERCOM algorithm, including terrain data.)5 494浏览¥ 19.90
- matlab大小:34KB电力系统电压调节及一次调频的MATLAB仿真(Matlab simulation of primary frequency regulation)电力系统电压调节及一次调频的MATLAB仿真(Matlab simulation of primary frequency regulation)5 570浏览¥ 14.90
- 深度学习大小:835MB,智能标注的优势主要包括: 效率更高:智能标注可以自动化地进行标注,能够快速地生成标注结果,减少了人工标注所需的时间和精力,提高了标注效率。 精度更高:智能标注采用了先进的人工智能技术,能够对图像进行深度学习和处理,能够生成更加准确和精细的标注结果,特别是对于一些细节和特征的标注,手动标注往往存在误差较大的问题。 自动纠错:智能标注可以自动检测标注结果中的错误,并进行自动修正,能够有效地避免标注错误带来的影响,提高了标注的准确性。 灵活性更强:智能标注可以根据不同的应用场景和需求,生成不同类型的标注结果,能够满足用户的多样化需求,提高了标注的适用性。 项目链接:https://blog.csdn.net/sinat_39620217/article/details/129833001 https://blog.csdn.net/sinat_39620217/article/details/129835638,智能标注的优势主要包括: 效率更高:智能标注可以自动化地进行标注,能够快速地生成标注结果,减少了人工标注所需的时间和精力,提高了标注效率。 精度更高:智能标注采用了先进的人工智能技术,能够对图像进行深度学习和处理,能够生成更加准确和精细的标注结果,特别是对于一些细节和特征的标注,手动标注往往存在误差较大的问题。 自动纠错:智能标注可以自动检测标注结果中的错误,并进行自动修正,能够有效地避免标注错误带来的影响,提高了标注的准确性。 灵活性更强:智能标注可以根据不同的应用场景和需求,生成不同类型的标注结果,能够满足用户的多样化需求,提高了标注的适用性。 项目链接:https://blog.csdn.net/sinat_39620217/article/details/129833001 https://blog.csdn.net/sinat_39620217/article/details/1298356385 857浏览¥ 4.90
- 知识图谱大小:34MB* 项目功能 目前知识图谱在各个行业中应用逐步打开,尤其在金融,医疗,法律,旅游方面.知识图谱助力法律智能,能够在一定程度上利用现有大数据以及机器学习/深度学习与自然语言处理技术,提供一些智能的解决方案.本项目将完成两个大方向的工作: 1. 以为核心,收集相关数据,建成基本的知识图谱,法务资讯对话知识库,案由知识库. 2. 分别基于步骤1的结果,完成以下四个方面的工作: 1) 基于案由知识库的预测模型 2) 基于法务咨询对话知识库的法务问题类型分类 3) 基于法务咨询对话知识库的法务问题自动问答服务 4) 基于知识图谱的知识查询* 项目功能 目前知识图谱在各个行业中应用逐步打开,尤其在金融,医疗,法律,旅游方面.知识图谱助力法律智能,能够在一定程度上利用现有大数据以及机器学习/深度学习与自然语言处理技术,提供一些智能的解决方案.本项目将完成两个大方向的工作: 1. 以为核心,收集相关数据,建成基本的知识图谱,法务资讯对话知识库,案由知识库. 2. 分别基于步骤1的结果,完成以下四个方面的工作: 1) 基于案由知识库的预测模型 2) 基于法务咨询对话知识库的法务问题类型分类 3) 基于法务咨询对话知识库的法务问题自动问答服务 4) 基于知识图谱的知识查询5 409浏览¥ 19.90
- 稀疏贝叶斯大小:462KB稀疏贝叶斯学习的代码稀疏贝叶斯学习的代码5 1048浏览¥ 9.90
- 毕业设计大小:384MBPython实现基于BERT模型的中文文本情感分类项目源码+全部数据(毕业设计).zip 主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者。也可作为课程设计、期末大作业。包含全部项目源码、该项目可以直接作为毕设使用。项目都经过严格调试,下载即用确保可以运行! Python实现基于BERT模型的中文文本情感分类项目源码+全部数据(毕业设计).zip 主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者。也可作为课程设计、期末大作业。包含全部项目源码、该项目可以直接作为毕设使用。项目都经过严格调试,下载即用确保可以运行!Python实现基于BERT模型的中文文本情感分类项目源码+全部数据(毕业设计).zip 主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者。也可作为课程设计、期末大作业。包含全部项目源码、该项目可以直接作为毕设使用。项目都经过严格调试,下载即用确保可以运行!Python实现基于BERT模型的中文文本情感分类项目源码+全部数据(毕业设计).zip 主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者。也可作为Python实现基于BERT模型的中文文本情感分类项目源码+全部数据(毕业设计).zip 主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者。也可作为课程设计、期末大作业。包含全部项目源码、该项目可以直接作为毕设使用。项目都经过严格调试,下载即用确保可以运行! Python实现基于BERT模型的中文文本情感分类项目源码+全部数据(毕业设计).zip 主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者。也可作为课程设计、期末大作业。包含全部项目源码、该项目可以直接作为毕设使用。项目都经过严格调试,下载即用确保可以运行!Python实现基于BERT模型的中文文本情感分类项目源码+全部数据(毕业设计).zip 主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者。也可作为课程设计、期末大作业。包含全部项目源码、该项目可以直接作为毕设使用。项目都经过严格调试,下载即用确保可以运行!Python实现基于BERT模型的中文文本情感分类项目源码+全部数据(毕业设计).zip 主要针对计算机相关专业的正在做毕设的学生和需要项目实战练习的学习者。也可作为5 751浏览¥ 29.90
- VTK大小:6MB利用VTK三维重建软件与VS2010结合,读取格式为Dicom的系列图像,并能显示三维重建结果,语言为C++语言(Using VTK 3D reconstruction software and VS2010 combination, read the format of Dicom series of images, and can display three-dimensional reconstruction results, the language is C++ language)利用VTK三维重建软件与VS2010结合,读取格式为Dicom的系列图像,并能显示三维重建结果,语言为C++语言(Using VTK 3D reconstruction software and VS2010 combination, read the format of Dicom series of images, and can display three-dimensional reconstruction results, the language is C++ language)5 2134浏览¥ 9.90
- 自然语言处理大小:80MB微博用户评论情感分析python代码,完整的可运行的,(数据规模20w)微博用户评论情感分析python代码,完整的可运行的微博用户评论情感分析python代码,完整的可运行的,(数据规模20w)微博用户评论情感分析python代码,完整的可运行的5 642浏览¥ 11.90
- bert大小:338MB最简单的中文相似语句生成(文本数据增强)simbert 代码复现 可以直接运行 中文相似语句生成 文本数据增强 simbert 代码复现最简单的中文相似语句生成(文本数据增强)simbert 代码复现 可以直接运行 中文相似语句生成 文本数据增强 simbert 代码复现5 1507浏览¥ 11.90
- 文档资料大小:6MB本文主要针对用户在电商平台上留下的评论数据,对其进行分词、词性标注和去除停用词等文本预处理。基于预处理后的数据进行情感分析,并使用LDA主题模型提取评论关键信息,了解用户的需求、意见、购买原因,以及产品的优缺点,最终提出改善产品的建议。 该压缩文件主要内容有已经完成完整的实验报告(实验过程)和完整的爬虫代码和分析代码。本文主要针对用户在电商平台上留下的评论数据,对其进行分词、词性标注和去除停用词等文本预处理。基于预处理后的数据进行情感分析,并使用LDA主题模型提取评论关键信息,了解用户的需求、意见、购买原因,以及产品的优缺点,最终提出改善产品的建议。 该压缩文件主要内容有已经完成完整的实验报告(实验过程)和完整的爬虫代码和分析代码。5 536浏览¥ 11.90
- 自然语言处理大小:57MBNLP课件(自然语言处理课件)NLP课件(自然语言处理课件)5 1947浏览¥ 11.90