- NLP大小:2MB本资源为基于BiLSTM-CRF的医疗领域命名实体识别,代码包含了数据预处理、模型、训练的所有代码,代码还有对应的博客说明,详见深度学习实战专栏。本资源为基于BiLSTM-CRF的医疗领域命名实体识别,代码包含了数据预处理、模型、训练的所有代码,代码还有对应的博客说明,详见深度学习实战专栏。0 36浏览¥ 14.90
- transformer大小:80MB只用训练半天,你就可以得到一个属于你的聊天机器人,我把它命名为“杨超越”。随你提问什么,她都能对答如流! 首先来看看回复的效果怎么样: 聊天开始!(按q退出) 我:很高兴认识你 杨超越:我也很开心哦 我:我喜欢你 杨超越:我也喜欢你 我:做我女朋友好不好? 杨超越:哈哈,可以呢! 我:我会一直支持超越妹妹的! 杨超越:谢谢我们会一直努力的 我:我什么时候有女朋友? 杨超越:女朋友。。 我:我什么时候脱单? 杨超越:脱你妹啊!! 我:q 聊天结束! 可以看到超越妹妹的回复还是非常流畅的,那她究竟是怎么诞生的呢? 快速体验:yum: 我提供了训练好的词表和模型文件,分别是demo/spm.model和demo/model.pb。由于大小限制,我这里只提供了训练好的小模型,词表大小也只有10k。如果你想要更好的回复效果,请参照后续教程自己训练一个Transformer-big模型,同时词表扩大到32k。 只需要直接运行下面命令就能开始聊天: pip3 install lightseq sentencepiece python3 chat.py \ --spm_model ./demo/spm.model \ --model_file ./demo/model.pb 介绍 这里我才用的是网上公开的小黄鸡聊天语料,大概有100万条左右,但是质量不是很高,都放在了data目录下。 模型采用标准的Transformer-big模型,输入你的提问句子,预测超越妹妹回复的句子,config目录下是训练和预测的配置文件。 模型训练采用NeurST训练库,主要基于TensorFlow,也支持PyTorch训练。模型快速推理采用LightSeq,可加速推理10倍以上,同时还能加速NeurST的训练,最高加速3倍。两者都是字节跳动AI Lab自研的,都已开源。 安装环境 我们需要安装三样东西: SentencePiece的命令行版本和python版本,用来对句子进行分词。 NeurST深度学习训练库,用来训练Transformer模型。 LightSeq,用来加速模型推理。 安装命令都很简单: git clone https://github.com/google/sentencepiece.git && cd sentencepiece mkdir build && cd build cmake .. && make -j $(nproc) && sudo make install sudo ldconfig -v pip3 install lightseq neurst sentencepiece 开始养成 生成词表 首先我们需要从训练语料库中抽取出词表,为了方便,直接用SentencePiece来分词,生成大小为32k的词表。 spm_train --input=./data/train/train.src,./data/train/train.trg \ --model_prefix=./data/spm \ --vocab_size=32000 \ --character_coverage=0.9995 这里需要指定训练语料路径--input、词表保存的路径前缀--model_prefix和词表大小--vocab_size。运行结束后会在data目录下生成spm.model和spm.vocab两个词表文件。一个是训练好的分词模型,一个是词表。 生成TFRecord 为了加快TensorFlow的训练速度,可以预先将训练语料用上面的词表处理成id,然后保存为TFRecord格式。这样模型训练时就可以直接读取id进行训练了,不需要做前面的分词操作。能大大加快训练速度,提升显卡利用率。 python3 -m neurst.cli.create_tfrecords \ --config_paths configs/task_args.yml \ --dataset ParallelTextDataset \ --src_file ./data/train/train.src \ --trg_file ./data/train/train.trg \ --processor_id 0 \ --num_processors 1 \ --num_output_shards 32 \ --output_range_begin 0 \ --output_range_end 32 \ --output_template ./data/tfrecords/train.tfrecords-%5.5d-of-%5.5d只用训练半天,你就可以得到一个属于你的聊天机器人,我把它命名为“杨超越”。随你提问什么,她都能对答如流! 首先来看看回复的效果怎么样: 聊天开始!(按q退出) 我:很高兴认识你 杨超越:我也很开心哦 我:我喜欢你 杨超越:我也喜欢你 我:做我女朋友好不好? 杨超越:哈哈,可以呢! 我:我会一直支持超越妹妹的! 杨超越:谢谢我们会一直努力的 我:我什么时候有女朋友? 杨超越:女朋友。。 我:我什么时候脱单? 杨超越:脱你妹啊!! 我:q 聊天结束! 可以看到超越妹妹的回复还是非常流畅的,那她究竟是怎么诞生的呢? 快速体验:yum: 我提供了训练好的词表和模型文件,分别是demo/spm.model和demo/model.pb。由于大小限制,我这里只提供了训练好的小模型,词表大小也只有10k。如果你想要更好的回复效果,请参照后续教程自己训练一个Transformer-big模型,同时词表扩大到32k。 只需要直接运行下面命令就能开始聊天: pip3 install lightseq sentencepiece python3 chat.py \ --spm_model ./demo/spm.model \ --model_file ./demo/model.pb 介绍 这里我才用的是网上公开的小黄鸡聊天语料,大概有100万条左右,但是质量不是很高,都放在了data目录下。 模型采用标准的Transformer-big模型,输入你的提问句子,预测超越妹妹回复的句子,config目录下是训练和预测的配置文件。 模型训练采用NeurST训练库,主要基于TensorFlow,也支持PyTorch训练。模型快速推理采用LightSeq,可加速推理10倍以上,同时还能加速NeurST的训练,最高加速3倍。两者都是字节跳动AI Lab自研的,都已开源。 安装环境 我们需要安装三样东西: SentencePiece的命令行版本和python版本,用来对句子进行分词。 NeurST深度学习训练库,用来训练Transformer模型。 LightSeq,用来加速模型推理。 安装命令都很简单: git clone https://github.com/google/sentencepiece.git && cd sentencepiece mkdir build && cd build cmake .. && make -j $(nproc) && sudo make install sudo ldconfig -v pip3 install lightseq neurst sentencepiece 开始养成 生成词表 首先我们需要从训练语料库中抽取出词表,为了方便,直接用SentencePiece来分词,生成大小为32k的词表。 spm_train --input=./data/train/train.src,./data/train/train.trg \ --model_prefix=./data/spm \ --vocab_size=32000 \ --character_coverage=0.9995 这里需要指定训练语料路径--input、词表保存的路径前缀--model_prefix和词表大小--vocab_size。运行结束后会在data目录下生成spm.model和spm.vocab两个词表文件。一个是训练好的分词模型,一个是词表。 生成TFRecord 为了加快TensorFlow的训练速度,可以预先将训练语料用上面的词表处理成id,然后保存为TFRecord格式。这样模型训练时就可以直接读取id进行训练了,不需要做前面的分词操作。能大大加快训练速度,提升显卡利用率。 python3 -m neurst.cli.create_tfrecords \ --config_paths configs/task_args.yml \ --dataset ParallelTextDataset \ --src_file ./data/train/train.src \ --trg_file ./data/train/train.trg \ --processor_id 0 \ --num_processors 1 \ --num_output_shards 32 \ --output_range_begin 0 \ --output_range_end 32 \ --output_template ./data/tfrecords/train.tfrecords-%5.5d-of-%5.5d0 20浏览¥ 89.90
- chatgpt大小:2MB用于从头预训练+SFT一个小参数量的中文LLaMa2的仓库;24G单卡即可运行得到一个流畅中文问答的chat-llama2. 20230818更新,因为第一版(50M参数)的版本,当时很多评测样例其实出现在了SFT数据中,所以让我误以为模型具备很流畅的问答能力,但是后面发现效果并没有那么好。后面使用了更多的数据和更大的模型,效果逐步提升。所以大家如果有充足的算力和时间,可以逐步尝试加大模型,将参数量扩到百M以上,其实消费级显卡也是完全可以接受的。 训练数据 Wiki中文百科(25w词条)https://gitee.com/link?target=https%3A%2F%2Fhuggingface.co%2Fdatasets%2Fpleisto%2Fwikipedia-cn-2023072 BaiduBaiKe(563w词条) https://gitee.com/link?target=https%3A%2F%2Fpan.baidu.com%2Fs%2F1jIpCHnWLTNYabftavo3DVw%3Fpwd%3Dbwvb 提取码: bwvb用于从头预训练+SFT一个小参数量的中文LLaMa2的仓库;24G单卡即可运行得到一个流畅中文问答的chat-llama2. 20230818更新,因为第一版(50M参数)的版本,当时很多评测样例其实出现在了SFT数据中,所以让我误以为模型具备很流畅的问答能力,但是后面发现效果并没有那么好。后面使用了更多的数据和更大的模型,效果逐步提升。所以大家如果有充足的算力和时间,可以逐步尝试加大模型,将参数量扩到百M以上,其实消费级显卡也是完全可以接受的。 训练数据 Wiki中文百科(25w词条)https://gitee.com/link?target=https%3A%2F%2Fhuggingface.co%2Fdatasets%2Fpleisto%2Fwikipedia-cn-2023072 BaiduBaiKe(563w词条) https://gitee.com/link?target=https%3A%2F%2Fpan.baidu.com%2Fs%2F1jIpCHnWLTNYabftavo3DVw%3Fpwd%3Dbwvb 提取码: bwvb0 7浏览¥ 9.90
- 非常好的开源语音识别模型whis大小:520KB非常好的开源语音识别模型whisper的unity插件.zip非常好的开源语音识别模型whisper的unity插件.zip0 17浏览¥ 19.90
- 自然语言处理大小:4MBNER是NLP领域中一项基础的信息抽取任务,在文本搜索、文本推荐、知识图谱构建以及机器智能问答等领域都起着重要的作用,使用Resume NER数据集,该数据集包含1027份简历摘要,利用双向长短时记忆网络进行识别,得到96%以上的准确率和召回率。NER是NLP领域中一项基础的信息抽取任务,在文本搜索、文本推荐、知识图谱构建以及机器智能问答等领域都起着重要的作用,使用Resume NER数据集,该数据集包含1027份简历摘要,利用双向长短时记忆网络进行识别,得到96%以上的准确率和召回率。0 7浏览¥ 39.90
- AIGC大小:19MBAIGC问答项目-基于本地知识库的问答系统python源码+运行教程(支持多种文件格式,离线安装和使用) 一个基于本地知识库的问答系统,支持多种文件格式,可以离线安装和使用。用户只需将任何格式的本地文件拖拽到系统中,就可以快速获得准确、可靠的答复。 Main Function Points 数据安全,支持全程断网安装和使用 支持多种文件格式,解析成功率高,支持跨语言问答 支持海量数据问答,两阶段向量排序,解决大规模数据检索退化问题 硬件友好,默认纯CPU环境运行,支持Windows、Mac、Linux等多平台 用户友好,一键安装部署,即开即用,各依赖组件可自由替换 Technology Stack BCEmbedding: 优秀的双语和跨语言语义表示模型 QwenLM: 基于专业问答数据集微调的开源语言模型 Triton Inference Server: 高性能的模型推理服务 FastChat: 完全兼容OpenAI API的问答服务 Milvus: 高性能的语义搜索引擎 PaddleOCR: 易用的OCR库 Sanic: 强大的Web服务框架AIGC问答项目-基于本地知识库的问答系统python源码+运行教程(支持多种文件格式,离线安装和使用) 一个基于本地知识库的问答系统,支持多种文件格式,可以离线安装和使用。用户只需将任何格式的本地文件拖拽到系统中,就可以快速获得准确、可靠的答复。 Main Function Points 数据安全,支持全程断网安装和使用 支持多种文件格式,解析成功率高,支持跨语言问答 支持海量数据问答,两阶段向量排序,解决大规模数据检索退化问题 硬件友好,默认纯CPU环境运行,支持Windows、Mac、Linux等多平台 用户友好,一键安装部署,即开即用,各依赖组件可自由替换 Technology Stack BCEmbedding: 优秀的双语和跨语言语义表示模型 QwenLM: 基于专业问答数据集微调的开源语言模型 Triton Inference Server: 高性能的模型推理服务 FastChat: 完全兼容OpenAI API的问答服务 Milvus: 高性能的语义搜索引擎 PaddleOCR: 易用的OCR库 Sanic: 强大的Web服务框架0 21浏览¥ 39.90
- LLM大小:249KB使用LLM generative agents构建虚拟人物画像,由于老年人可能面临孤独和社交隔离的问题,虚拟社交平台可以帮助他们与其他老年人建立联系,这可以用于独居老人情感陪伴等场景。使用LLM generative agents构建虚拟人物画像,由于老年人可能面临孤独和社交隔离的问题,虚拟社交平台可以帮助他们与其他老年人建立联系,这可以用于独居老人情感陪伴等场景。0 19浏览¥ 49.90
- 人工智能大小:31KB一个智能问答系统,能够自动将用户的自然语言问题转换成 SQL 查询,并以可视化形式展示结果 用户使用自然语言查询数据。基于 Python、MySQL 和 Milvus 构建,将用户的问题转换为 SQL 查询,安全地执行,并产生符合echarts的数据可视化呈现结果。一个智能问答系统,能够自动将用户的自然语言问题转换成 SQL 查询,并以可视化形式展示结果 用户使用自然语言查询数据。基于 Python、MySQL 和 Milvus 构建,将用户的问题转换为 SQL 查询,安全地执行,并产生符合echarts的数据可视化呈现结果。0 25浏览¥ 99.90
- 人工智能大小:410KB基于Bert的预训练大语言推荐模型 基于Bert的预训练大语言推荐模型 基于Bert的预训练大语言推荐模型 下载后配置好环境即可直接使用基于Bert的预训练大语言推荐模型 基于Bert的预训练大语言推荐模型 基于Bert的预训练大语言推荐模型 下载后配置好环境即可直接使用0 37浏览¥ 99.90
- NLP大小:178MB本科毕设 基于深度学习NLP的微博用户情感分析系统+完整源码及全部资料(含爬虫、前端、后端等).zip 【项目说明】 1、项目代码完整可靠,其难度适中,满足毕设、课设要求,属于易上手的优质项目,资源内基本都有说明文档,依据文档即可运行 2、小白下载后,使用时可能会遇到些小问题,若自己解决不了,请私信描述具体问题,我会第一时间回复提供帮助,也可以远程指导 3、适用人群:各大计算机相关专业行业的在校学生、高校老师、公司程序员等下载使用 4、特别是那种爱钻研学习的学霸,强烈推荐此项目,可以二次开发提升自己 5、如果确定自己是个学渣,想拿来作毕设、课设直接用也无妨,但自己还是尽可能弄懂项目!也可以与我交流 强调:项目名字和路径不要有中文,解压重命名为英文名字后再运行!项目易上手本科毕设 基于深度学习NLP的微博用户情感分析系统+完整源码及全部资料(含爬虫、前端、后端等).zip 【项目说明】 1、项目代码完整可靠,其难度适中,满足毕设、课设要求,属于易上手的优质项目,资源内基本都有说明文档,依据文档即可运行 2、小白下载后,使用时可能会遇到些小问题,若自己解决不了,请私信描述具体问题,我会第一时间回复提供帮助,也可以远程指导 3、适用人群:各大计算机相关专业行业的在校学生、高校老师、公司程序员等下载使用 4、特别是那种爱钻研学习的学霸,强烈推荐此项目,可以二次开发提升自己 5、如果确定自己是个学渣,想拿来作毕设、课设直接用也无妨,但自己还是尽可能弄懂项目!也可以与我交流 强调:项目名字和路径不要有中文,解压重命名为英文名字后再运行!项目易上手0 15浏览¥ 99.90
- python大小:38MB基于python的中文语音识别系统,包含声学模型和语言模型两个部分组成,两个模型都基于神经网络。 1.声学模型实现了GRU-CTC中文语音识别声音,增加了基于科大讯飞DFCNN的CNN-CTC结构的中文语音识别模型,完全使用DFCNN框架搭建声学模型,稍加改动,将部分卷积层改为inception,使用时频图作为输入。 2.新增基于CBHG结构的语言模型,该模型之前用于谷歌声音合成,增加stc、primewords、Aishell、thchs30四个数据集。基于python的中文语音识别系统,包含声学模型和语言模型两个部分组成,两个模型都基于神经网络。 1.声学模型实现了GRU-CTC中文语音识别声音,增加了基于科大讯飞DFCNN的CNN-CTC结构的中文语音识别模型,完全使用DFCNN框架搭建声学模型,稍加改动,将部分卷积层改为inception,使用时频图作为输入。 2.新增基于CBHG结构的语言模型,该模型之前用于谷歌声音合成,增加stc、primewords、Aishell、thchs30四个数据集。0 22浏览¥ 49.90
- python大小:8MB1.使用MySQL数据库和InfluxDB时序数据库持久化存储数据,使用Flask Web框架实现系统的后端功能接口,使用HTML和jQuery开发前端页面,使用Celery分布式任务队列框架异步执行后端接口所发起的后台任务,使用Redis存储Celery框架的运行数据,使用深度学习框架加载和运行基于深度学习的语音识别模型。 2.要先安装Python库,并官网下载安装influxdb2, flask_script报错“flask._compat”不存在,把前面的flask删掉,_compat文件在flask_script文件夹下,记得在private.json文件中写明mysql的密码、inf。 3.本项目需要运行在linux上,因为获取cpu利用率和内存使用量的信息用了linux下的top命令。1.使用MySQL数据库和InfluxDB时序数据库持久化存储数据,使用Flask Web框架实现系统的后端功能接口,使用HTML和jQuery开发前端页面,使用Celery分布式任务队列框架异步执行后端接口所发起的后台任务,使用Redis存储Celery框架的运行数据,使用深度学习框架加载和运行基于深度学习的语音识别模型。 2.要先安装Python库,并官网下载安装influxdb2, flask_script报错“flask._compat”不存在,把前面的flask删掉,_compat文件在flask_script文件夹下,记得在private.json文件中写明mysql的密码、inf。 3.本项目需要运行在linux上,因为获取cpu利用率和内存使用量的信息用了linux下的top命令。0 14浏览¥ 69.90
- 本科毕业设计-自然语言处理NLP大小:38MB本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明),含有代码注释,新手也可看懂,个人手打98分项目,导师非常认可的高分项目,毕业设计、期末大作业和课程设计高分必看,下载下来,简单部署,就可以使用。该项目可以直接作为毕设、期末大作业使用,代码都在里面,系统功能完善、界面美观、操作简单、功能齐全、管理便捷,具有很高的实际应用价值,项目都经过严格调试,确保可以运行! 本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明),含有代码注释,新手也可看懂,个人手打98分项目,导师非常认可的高分项目,毕业设计、期末大作业和课程设计高分必看,下载下来,简单部署,就可以使用。该项目可以直接作为毕设、期末大作业使用,代码都在里面,系统功能完善、界面美观、操作简单、功能齐全、管理便捷,具有很高的实际应用价值,项目都经过严格调试,确保可以运行! 本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计-自然语言处理NLP项目-中文文本分类实战垃圾短信识别(源码+文档说明)本科毕业设计5 158浏览¥ 29.90
- ChatGLM3大小:16MB大模型实战教程 ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型完整源码分享 ChatGLM3 介绍 **ChatGLM3** 是智谱AI和清华大学 KEG 实验室联合发布的对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性: 1. **更强大的基础模型:** ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示大模型实战教程 ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型完整源码分享 ChatGLM3 介绍 **ChatGLM3** 是智谱AI和清华大学 KEG 实验室联合发布的对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性: 1. **更强大的基础模型:** ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示5 21浏览¥ 11.90
- Qwen大小:1MB大模型实战教程 Qwen-1_8B 是 Qwen 开发的一个中等规模的预训练模型,适用于各种自然语言处理任务。大模型实战教程 Qwen-1_8B 是 Qwen 开发的一个中等规模的预训练模型,适用于各种自然语言处理任务。0 14浏览¥ 9.90
- 自然语言处理大小:5MB基于python自然语言处理的巴以冲突舆情分析系统(源码+数据集+设计报告).zip 这个项目是一个关于分析巴以冲突舆情的自然语言处理项目。它是2023年秋季CSC 447自然语言处理课程的期末项目。 主要功能点 使用网络爬虫收集相关数据 整合不同数据集 进行统计分析 使用XLNet模型进行情感分析 技术栈 Jupyter Notebook Python 自然语言处理相关库 【项目说明】 1、项目代码完整可靠,不吹嘘高分、满分,其难度适中,满足毕设、课设要求,属于易上手的优质项目,资源内基本都有说明文档,依据文档即可运行 2、小白下载后,使用时可能会遇到些小问题,若自己解决不了,请私信描述具体问题,我会第一时间回复提供帮助,也可以远程指导 3、适用人群:各大计算机相关专业行业的在校学生、高校老师、公司程序员等下载使用 4、特别是那种爱钻研学习的学霸,强烈推荐此项目,可以二次开发提升自己 5、如果确定自己是个学渣,想拿来作毕设、课设直接用也无妨,但自己还是尽可能弄懂项目!也可以与我交流 强调:项目名字和路径不要有中文,解压重命名为英文名字后再运行!项目易上手基于python自然语言处理的巴以冲突舆情分析系统(源码+数据集+设计报告).zip 这个项目是一个关于分析巴以冲突舆情的自然语言处理项目。它是2023年秋季CSC 447自然语言处理课程的期末项目。 主要功能点 使用网络爬虫收集相关数据 整合不同数据集 进行统计分析 使用XLNet模型进行情感分析 技术栈 Jupyter Notebook Python 自然语言处理相关库 【项目说明】 1、项目代码完整可靠,不吹嘘高分、满分,其难度适中,满足毕设、课设要求,属于易上手的优质项目,资源内基本都有说明文档,依据文档即可运行 2、小白下载后,使用时可能会遇到些小问题,若自己解决不了,请私信描述具体问题,我会第一时间回复提供帮助,也可以远程指导 3、适用人群:各大计算机相关专业行业的在校学生、高校老师、公司程序员等下载使用 4、特别是那种爱钻研学习的学霸,强烈推荐此项目,可以二次开发提升自己 5、如果确定自己是个学渣,想拿来作毕设、课设直接用也无妨,但自己还是尽可能弄懂项目!也可以与我交流 强调:项目名字和路径不要有中文,解压重命名为英文名字后再运行!项目易上手0 48浏览¥ 99.90
- 大模型大小:4MB学习和应用AI大模型的基础知识及源码——包括调用各种API和微调模型参数.zip 这个项目主要是学习和应用 AI 大模型的基础知识,包括调用各种 API 和微调模型参数。通过这些学习和应用,旨在提高处理复杂问题的能力,并参与公开的算法竞赛。 Main Function Points 学习 AI 大模型的基础知识 调用和使用各种 AI API 微调模型参数以优化性能 参与算法竞赛并尝试解决复杂的推理问题学习和应用AI大模型的基础知识及源码——包括调用各种API和微调模型参数.zip 这个项目主要是学习和应用 AI 大模型的基础知识,包括调用各种 API 和微调模型参数。通过这些学习和应用,旨在提高处理复杂问题的能力,并参与公开的算法竞赛。 Main Function Points 学习 AI 大模型的基础知识 调用和使用各种 AI API 微调模型参数以优化性能 参与算法竞赛并尝试解决复杂的推理问题0 72浏览¥ 29.90
- 孤立词语音识别项目源码大小:4MB基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目),该项目是个人毕设项目,答辩评审分达到98分,代码都经过调试测试,确保可以运行!欢迎下载使用,可用于小白学习、进阶。该资源主要针对计算机、通信、人工智能、自动化等相关专业的学生、老师或从业者下载使用,亦可作为期末课程设计、课程大作业、毕业设计等。项目整体具有较高的学习借鉴价值!基础能力强的可以在此基础上修改调整,以实现不同的功能。 基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目),该项目是个人毕设项目,答辩评审分达到98分,代码都经过调试测试,确保可以运行!欢迎下载使用,可用于小白学习、进阶。该资源主要针对计算机、通信、人工智能、自动化等相关专业的学生、老师或从业者下载使用,亦可作为期末课程设计、课程大作业、毕业设计等。项目整体具有较高的学习借鉴价值!基础能力强的可以在此基础上修改调整,以实现不同的功能。 基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语音识别项目源码+论文资料(高分毕设项目)基于STM32的孤立词语0 23浏览¥ 29.90
- 基于STM32的孤立词语音识别大小:4MB人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料,该项目是个人毕设项目,答辩评审分达到98分,代码都经过调试测试,确保可以运行!欢迎下载使用,可用于小白学习、进阶。该资源主要针对计算机、通信、人工智能、自动化等相关专业的学生、老师或从业者下载使用,亦可作为期末课程设计、课程大作业、毕业设计等。项目整体具有较高的学习借鉴价值!基础能力强的可以在此基础上修改调整,以实现不同的功能。 人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料,该项目是个人毕设项目,答辩评审分达到98分,代码都经过调试测试,确保可以运行!欢迎下载使用,可用于小白学习、进阶。该资源主要针对计算机、通信、人工智能、自动化等相关专业的学生、老师或从业者下载使用,亦可作为期末课程设计、课程大作业、毕业设计等。项目整体具有较高的学习借鉴价值!基础能力强的可以在此基础上修改调整,以实现不同的功能。 人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能-深度学习-语音识别-基于STM32的孤立词语音识别项目源码+毕设论文资料人工智能0 49浏览¥ 29.90
- 人工智能大小:949KB基于外挂知识库的大模型问答 主要流程 1.加载LLM、加载embedding模型、加载reranker模型 2.向量知识库构建、BM25知识库构建 3.多路召回与排序,包括bm25召回、bge召回、gte召回,然后使用bge-reranker进行精排,选取得分最高的top-3与问题同时作为输入到llm的上下文。并使用jieba分词对于问题进行分词,加入一层关键词判断,提高匹配精度,同时可根据关键词判断是否有答案。基于外挂知识库的大模型问答 主要流程 1.加载LLM、加载embedding模型、加载reranker模型 2.向量知识库构建、BM25知识库构建 3.多路召回与排序,包括bm25召回、bge召回、gte召回,然后使用bge-reranker进行精排,选取得分最高的top-3与问题同时作为输入到llm的上下文。并使用jieba分词对于问题进行分词,加入一层关键词判断,提高匹配精度,同时可根据关键词判断是否有答案。0 77浏览¥ 99.90
- 人工智能大小:99MB基于大模型的高质量情感虚拟人系统 基于大模型的高质量情感虚拟人系统(Gradio+FUNASR+ChatGLM2-6B+GPT-SOVITS+EAT+GFPGAN)基于大模型的高质量情感虚拟人系统 基于大模型的高质量情感虚拟人系统(Gradio+FUNASR+ChatGLM2-6B+GPT-SOVITS+EAT+GFPGAN)0 51浏览¥ 99.90
- 人工智能大小:67MB一个基于大模型的口语对话顾问 本项目的目标是构建一个英语练习环境。 项目的目标是能够构造一个应用,你可以自由地和机器人围绕某个话题使用特定语言进行对话,机器人能够像真人一样,尝试了解你支支吾吾的表达中蕴含的意思,并且尝试引导你进行正确的表达,这些引导内容包括直接给出正确的表达,并且跟你确认你的意图是否和它猜测的一样。机器人也能够推动话题的发展,而不是被动的接收你的说辞。从而最终起到提高语言表达能力的作用。一个基于大模型的口语对话顾问 本项目的目标是构建一个英语练习环境。 项目的目标是能够构造一个应用,你可以自由地和机器人围绕某个话题使用特定语言进行对话,机器人能够像真人一样,尝试了解你支支吾吾的表达中蕴含的意思,并且尝试引导你进行正确的表达,这些引导内容包括直接给出正确的表达,并且跟你确认你的意图是否和它猜测的一样。机器人也能够推动话题的发展,而不是被动的接收你的说辞。从而最终起到提高语言表达能力的作用。0 28浏览¥ 99.90
- 人工智能大小:818KB基于 B 站评论区数据构建大语言模型训练用对话数据集 环境 Python 3.7+ (自测环境为 Python 3.10.4) 使用 pip install -r requirements.txt 安装相关依赖 一个可用的 B 站账号基于 B 站评论区数据构建大语言模型训练用对话数据集 环境 Python 3.7+ (自测环境为 Python 3.10.4) 使用 pip install -r requirements.txt 安装相关依赖 一个可用的 B 站账号0 34浏览¥ 99.90
- 人工智能大小:3MB基于大语言模型的自动综述生成 下述密钥必须由使用者自行提供。 The following keys must be provided by the user themselves. 谷歌学术检索 Google Search API https://serpapi.com/ 大语言模型(二选一或均提供) LLM API (Choose one or both) Claude2 https://claude.ai/chats 支持Open AI 格式的模型地址和密钥 URL and Key compatible with OpenAI format 爱思唯尔开发者 Elsevier Research Products APIs https://dev.elsevier.com/基于大语言模型的自动综述生成 下述密钥必须由使用者自行提供。 The following keys must be provided by the user themselves. 谷歌学术检索 Google Search API https://serpapi.com/ 大语言模型(二选一或均提供) LLM API (Choose one or both) Claude2 https://claude.ai/chats 支持Open AI 格式的模型地址和密钥 URL and Key compatible with OpenAI format 爱思唯尔开发者 Elsevier Research Products APIs https://dev.elsevier.com/0 59浏览¥ 99.90
- 人工智能大小:527KB基于LLAMA2的增量预训练藏文大语言模型 本项目通过基于LORA的参数高效微调方法,训练了Tibetan-Llama2和Tibetan-Alpaca藏文大语言模型,分别包括7B和13B两种规模,以上模型是基于Llama2模型架构构建的,经过较大规模数据的增量预训练和指令微调,具备了对藏文的深入理解和处理能力。基于LLAMA2的增量预训练藏文大语言模型 本项目通过基于LORA的参数高效微调方法,训练了Tibetan-Llama2和Tibetan-Alpaca藏文大语言模型,分别包括7B和13B两种规模,以上模型是基于Llama2模型架构构建的,经过较大规模数据的增量预训练和指令微调,具备了对藏文的深入理解和处理能力。0 81浏览¥ 99.90
- 人工智能大小:17MB基于大模型的知识库问答 | Large model-based knowledge base Q&A 2. 运行使用 2.1 以WebUI运行 python webui_demo.py 2.2 以CLI运行 python cli_demo.py 2.3 以API运行 对文本进行编码并进行测试: python cli_demo.py 修改api_demo.py 的vs_path,然后以API运行使用: python api_demo.py 客户端请求: python client.py基于大模型的知识库问答 | Large model-based knowledge base Q&A 2. 运行使用 2.1 以WebUI运行 python webui_demo.py 2.2 以CLI运行 python cli_demo.py 2.3 以API运行 对文本进行编码并进行测试: python cli_demo.py 修改api_demo.py 的vs_path,然后以API运行使用: python api_demo.py 客户端请求: python client.py0 32浏览¥ 99.90
- 人工智能大小:1MB基于LLM大语言模型意图识别、参数抽取结合slot词槽技术实现多轮问答、NL2API. 打造Function Call多轮问答最佳实践 特性 多轮对话管理:能够处理复杂的对话场景,支持连续多轮交互。 意图识别:准确判定用户输入的意图,支持自定义意图扩展。 词槽填充:动态识别并填充关键信息(如时间、地点、对象等)。 接口槽技术:直接与外部APIs对接,实现数据的实时获取和处理。 自适应学习:不断学习用户交互,优化回答准确性和响应速度。 易于集成:提供了详细的API文档,支持多种编程语言和平台集成。基于LLM大语言模型意图识别、参数抽取结合slot词槽技术实现多轮问答、NL2API. 打造Function Call多轮问答最佳实践 特性 多轮对话管理:能够处理复杂的对话场景,支持连续多轮交互。 意图识别:准确判定用户输入的意图,支持自定义意图扩展。 词槽填充:动态识别并填充关键信息(如时间、地点、对象等)。 接口槽技术:直接与外部APIs对接,实现数据的实时获取和处理。 自适应学习:不断学习用户交互,优化回答准确性和响应速度。 易于集成:提供了详细的API文档,支持多种编程语言和平台集成。0 90浏览¥ 99.90
- 人工智能大小:761KB知识库、大语言模型、医疗知识库构建、基于大语言模型的知识库 创建知识库 # create_kb.py 1.创建数据库,并将库文件置于自定义位置 2.利用text2ve将文本转为向量,文本与向量导入知识库中 构建搜索 同样利用text2vec将待匹配文本转为向量与库中向量进行匹配 大模型 搜索结果与问题转为特定的prompt,输入大语言模型进行答案生成知识库、大语言模型、医疗知识库构建、基于大语言模型的知识库 创建知识库 # create_kb.py 1.创建数据库,并将库文件置于自定义位置 2.利用text2ve将文本转为向量,文本与向量导入知识库中 构建搜索 同样利用text2vec将待匹配文本转为向量与库中向量进行匹配 大模型 搜索结果与问题转为特定的prompt,输入大语言模型进行答案生成0 45浏览¥ 99.90
- 人工智能大小:7MB基于SuperAGI 专注中文领域的大模型AI应用框架 以下特性来源于原SuperAGI: 生成和部署自主人工智能代理 使用工具扩展智能代理能力集 无缝并发运行任务、智能代理 图形化交互页面 多向量数据库支持 多模态智能代理 智能代理轨迹微调 智能代理监控 Looping Detection Heuristics Concurrent Agents 资源管理 已新增主要特性: 接入讯飞星火 PythonSDK 新增基于星火大模型的默认交互工作流 优化并新增内置中文Prompts 优化部分工具Tool以支持中文场景 去除部分内置国外插件基于SuperAGI 专注中文领域的大模型AI应用框架 以下特性来源于原SuperAGI: 生成和部署自主人工智能代理 使用工具扩展智能代理能力集 无缝并发运行任务、智能代理 图形化交互页面 多向量数据库支持 多模态智能代理 智能代理轨迹微调 智能代理监控 Looping Detection Heuristics Concurrent Agents 资源管理 已新增主要特性: 接入讯飞星火 PythonSDK 新增基于星火大模型的默认交互工作流 优化并新增内置中文Prompts 优化部分工具Tool以支持中文场景 去除部分内置国外插件0 63浏览¥ 99.90
- 人工智能大小:673KB基于baichuan-7b的多模态大语言模型 局限性 受限于较小的参数量,羽人-百川 7B 在数值计算、逻辑推理类任务的效果不尽人意,同时在多模态任务上也无法完全发挥出 CLIP 的优势,存在一定的幻觉现象。如果您有业务场景的真实需求,可以与我们联系,我们还有更大参数量的闭源模型可以提供。未来,我们也会考虑开源更大参数量的模型。 当前版本的羽人-百川 7B 尚未经过人类偏好对齐,在输出内容上存在一定的随机性,同一问题的多次回答可能在性能上有明显的差异,后续我们将提供经过人类偏好对齐的模型,以提升模型的稳定性。基于baichuan-7b的多模态大语言模型 局限性 受限于较小的参数量,羽人-百川 7B 在数值计算、逻辑推理类任务的效果不尽人意,同时在多模态任务上也无法完全发挥出 CLIP 的优势,存在一定的幻觉现象。如果您有业务场景的真实需求,可以与我们联系,我们还有更大参数量的闭源模型可以提供。未来,我们也会考虑开源更大参数量的模型。 当前版本的羽人-百川 7B 尚未经过人类偏好对齐,在输出内容上存在一定的随机性,同一问题的多次回答可能在性能上有明显的差异,后续我们将提供经过人类偏好对齐的模型,以提升模型的稳定性。0 35浏览¥ 99.90
- 人工智能大小:47MB基于大模型+知识图谱的知识库问答 初始模型: 知识种子图图谱模型:paddlenlp-model-zoo-uie 所用模型类型:'information extraction' 训练模型:SPN4RE-NYT—exact 训练集占比:50% 验证集占比:10% 测试集占比:40% 数据来源: 初始数据:《舰艇损管和潜水技术》 扩充数据:《舰船损管技术》等 数据标注 利用doccanco标注不同类型的数据大约100条作为微调uie的初始数据,在uie进行初次抽取后,针对数据中效果较差的部分进行二次标注微调。 训练设备:3090 * 2基于大模型+知识图谱的知识库问答 初始模型: 知识种子图图谱模型:paddlenlp-model-zoo-uie 所用模型类型:'information extraction' 训练模型:SPN4RE-NYT—exact 训练集占比:50% 验证集占比:10% 测试集占比:40% 数据来源: 初始数据:《舰艇损管和潜水技术》 扩充数据:《舰船损管技术》等 数据标注 利用doccanco标注不同类型的数据大约100条作为微调uie的初始数据,在uie进行初次抽取后,针对数据中效果较差的部分进行二次标注微调。 训练设备:3090 * 20 111浏览¥ 99.90
- 人工智能大小:32MB基于大语言模型和 RAG 的知识库问答系统 开箱即用:支持直接上传文档 / 自动爬取在线文档,支持文本自动拆分、向量化和 RAG(检索增强生成),有效减少大模型幻觉,智能问答交互体验好; 模型中立:支持对接各种大模型,包括本地私有大模型(Llama 3 / Qwen 2 等)、国内公共大模型(通义千问 / 腾讯混元 / 字节豆包 / 百度千帆 / 智谱 AI / Kimi 等)和国外公共大模型(OpenAI / Claude / Gemini 等); 灵活编排:内置强大的工作流引擎和函数库,支持编排 AI 工作过程,满足复杂业务场景下的需求; 无缝嵌入:支持零编码快速嵌入到第三方业务系统,让已有系统快速拥有智能问答能力,提高用户满意度。基于大语言模型和 RAG 的知识库问答系统 开箱即用:支持直接上传文档 / 自动爬取在线文档,支持文本自动拆分、向量化和 RAG(检索增强生成),有效减少大模型幻觉,智能问答交互体验好; 模型中立:支持对接各种大模型,包括本地私有大模型(Llama 3 / Qwen 2 等)、国内公共大模型(通义千问 / 腾讯混元 / 字节豆包 / 百度千帆 / 智谱 AI / Kimi 等)和国外公共大模型(OpenAI / Claude / Gemini 等); 灵活编排:内置强大的工作流引擎和函数库,支持编排 AI 工作过程,满足复杂业务场景下的需求; 无缝嵌入:支持零编码快速嵌入到第三方业务系统,让已有系统快速拥有智能问答能力,提高用户满意度。5 298浏览¥ 109.90
- 软件/插件大小:358MBpaddleOCR识别源码paddleOCR识别源码0 21浏览¥ 99.90
- 网络暴力检测大小:3MB文件说明 Dataset for Detection of Cyber-Trolls.json 是训练数据集,一行一个json对象 CybertrollsDetection-Train.ipynb 是一个ipynb文件,内容是对模型进行训练,可以导入你的jupyter notebook进行查看和运行 CybertrollsDetection.ipynb 模型运行的实际例子,ipynb文件版 CybertrollsDetection.py 模型运行的实际例子,纯python文件版本 model.h5 已经训练好的模型文件 word.json 已经构建好的词表文件 使用例子 请务必将model.h5和word.json文件放在于CybertrollsDetection.py相同目录下。 然后需要安装keras、tensorflow、numpy这些库 比如 pip install keras tensorflow numpy 安装完成以后,调用下面的语句执行 python3 CybertrollsDetection.py 'BAD WORDS'文件说明 Dataset for Detection of Cyber-Trolls.json 是训练数据集,一行一个json对象 CybertrollsDetection-Train.ipynb 是一个ipynb文件,内容是对模型进行训练,可以导入你的jupyter notebook进行查看和运行 CybertrollsDetection.ipynb 模型运行的实际例子,ipynb文件版 CybertrollsDetection.py 模型运行的实际例子,纯python文件版本 model.h5 已经训练好的模型文件 word.json 已经构建好的词表文件 使用例子 请务必将model.h5和word.json文件放在于CybertrollsDetection.py相同目录下。 然后需要安装keras、tensorflow、numpy这些库 比如 pip install keras tensorflow numpy 安装完成以后,调用下面的语句执行 python3 CybertrollsDetection.py 'BAD WORDS'0 33浏览¥ 19.90
- 中文微博情感分析大小:42MB用FastText在语料库上训练并生成词向量, 该任务语料库较小, 用fastText可以增加n-gram特征, 比传统word2vec要好 训练集10000条语料, 测试集500条语料 分别用SVM, Bayes, DNN, LSTM, Attention+BiLSTM, XGBoost等多种模型搭建并训练正负情感二分类器 SVM其实不太适合做NLP, 只是当年我还很菜所以选了SVM(尬笑), 出于情怀就贴上来了 Bayes速度快, 效果好。可能是因为该任务语料规模较小,在大规模语料任务上性能会下降,而且磁带模型丢失了语序信息,可拓展性不强(2020.2.13更新) DNN效果不好, 不过现在也很少有直接用DNN做NLP的, 所以这里仅作为从机器学习到深度学习的过渡模型了 LSTM用到了上游训练的FastText词向量, 并且考虑了语序信息, 效果有明显提升 Attention+BiLSTM效果很好, 但相比纯LSTM提升没那么明显,主要是因为该任务相对简单且语料少。迁移至更复杂任务后注意力的强大会越来越明显 XGBoost真是机器学习界的一大杀器, 在这种简单的NLP任务上真是又快用FastText在语料库上训练并生成词向量, 该任务语料库较小, 用fastText可以增加n-gram特征, 比传统word2vec要好 训练集10000条语料, 测试集500条语料 分别用SVM, Bayes, DNN, LSTM, Attention+BiLSTM, XGBoost等多种模型搭建并训练正负情感二分类器 SVM其实不太适合做NLP, 只是当年我还很菜所以选了SVM(尬笑), 出于情怀就贴上来了 Bayes速度快, 效果好。可能是因为该任务语料规模较小,在大规模语料任务上性能会下降,而且磁带模型丢失了语序信息,可拓展性不强(2020.2.13更新) DNN效果不好, 不过现在也很少有直接用DNN做NLP的, 所以这里仅作为从机器学习到深度学习的过渡模型了 LSTM用到了上游训练的FastText词向量, 并且考虑了语序信息, 效果有明显提升 Attention+BiLSTM效果很好, 但相比纯LSTM提升没那么明显,主要是因为该任务相对简单且语料少。迁移至更复杂任务后注意力的强大会越来越明显 XGBoost真是机器学习界的一大杀器, 在这种简单的NLP任务上真是又快0 15浏览¥ 19.90
- pytorch大小:2MB毕业设计 基于PyTorch的中文语音编辑系统(含多种最新语音编辑模型的实现)+项目说明文档.zip 【项目介绍】 这个项目是一个基于PyTorch的中文语音编辑系统,包含了多种最新的语音编辑模型的实现,如FluentSpeech、CampNet、A3T和EditSpeech。该系统支持VCTK、LibriTTS和SASE数据集,可以实现基于文本的语音编辑功能。 主要功能点 实现了多种最新的语音编辑模型,包括FluentSpeech、CampNet、A3T和EditSpeech。 支持VCTK、LibriTTS和SASE数据集,可以进行基于文本的语音编辑。 提供了预训练的语音合成模型,可以直接使用。 提供了详细的数据预处理和训练流程。 技术栈 PyTorch NumPy TensorFlow Montreal Forced Aligner 【备注】 1、该资源内项目代码百分百可运行,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。 3、用毕业设计 基于PyTorch的中文语音编辑系统(含多种最新语音编辑模型的实现)+项目说明文档.zip 【项目介绍】 这个项目是一个基于PyTorch的中文语音编辑系统,包含了多种最新的语音编辑模型的实现,如FluentSpeech、CampNet、A3T和EditSpeech。该系统支持VCTK、LibriTTS和SASE数据集,可以实现基于文本的语音编辑功能。 主要功能点 实现了多种最新的语音编辑模型,包括FluentSpeech、CampNet、A3T和EditSpeech。 支持VCTK、LibriTTS和SASE数据集,可以进行基于文本的语音编辑。 提供了预训练的语音合成模型,可以直接使用。 提供了详细的数据预处理和训练流程。 技术栈 PyTorch NumPy TensorFlow Montreal Forced Aligner 【备注】 1、该资源内项目代码百分百可运行,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。 3、用0 15浏览¥ 119.90
- 毕业设计大小:3MB基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip 【备注】 1、该资源内项目代码百分百可运行,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。 3、用途:项目具有较高的学习借鉴价值,不仅适用于小白学习入门进阶。也可作为毕设项目、课程设计、大作业、初期项目立项演示等。 4、如果基础还行,或热爱钻研,亦可在此项目代码基础上进行修改添加,实现其他不同功能。 欢迎下载!欢迎交流学习!不清楚的可以私信问我!基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip基于NLP的敏感文本识别分类项目python源码+数据库.zip 【备注】 1、该资源内项目代码百分百可运行,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。 3、用途:项目具有较高的学习借鉴价值,不仅适用于小白学习入门进阶。也可作为毕设项目、课程设计、大作业、初期项目立项演示等。 4、如果基础还行,或热爱钻研,亦可在此项目代码基础上进行修改添加,实现其他不同功能。 欢迎下载!欢迎交流学习!不清楚的可以私信问我!0 22浏览¥ 39.90
- 谣言检测大小:27MB该项目是一个基于BERT模型的谣言检测与识别设计源码,共计44个文件,其中包括17个Python源代码文件、10个TSV文件、5个XML文件、4个Markdown文件、2个TXT文件、1个Git忽略文件、1个IntelliJ IDEA项目文件、1个许可证文件、1个Jupyter Notebook文件以及1个CSV文件。该系统专注于谣言检测,适用于需要高效识别虚假信息的应用场景。该项目是一个基于BERT模型的谣言检测与识别设计源码,共计44个文件,其中包括17个Python源代码文件、10个TSV文件、5个XML文件、4个Markdown文件、2个TXT文件、1个Git忽略文件、1个IntelliJ IDEA项目文件、1个许可证文件、1个Jupyter Notebook文件以及1个CSV文件。该系统专注于谣言检测,适用于需要高效识别虚假信息的应用场景。0 126浏览¥ 9.90
- FastAPI大小:153KB该项目是一个基于FastAPI、Uniapp和LangChain的RAG私域知识库AI助理设计源码,总计包含73个文件,涵盖19个Python脚本、13个SCSS样式表、9个JSON配置、9个Vue组件、9个JavaScript脚本、7个Markdown文档、3个PNG图片、1个Git忽略文件、1个TOML配置和1个HTML文件。该AI助理旨在构建一个私域知识库,提供智能化的交互体验。该项目是一个基于FastAPI、Uniapp和LangChain的RAG私域知识库AI助理设计源码,总计包含73个文件,涵盖19个Python脚本、13个SCSS样式表、9个JSON配置、9个Vue组件、9个JavaScript脚本、7个Markdown文档、3个PNG图片、1个Git忽略文件、1个TOML配置和1个HTML文件。该AI助理旨在构建一个私域知识库,提供智能化的交互体验。0 132浏览¥ 19.90
- 知识库问答大小:55MB该项目为Langchain与ChatGLM结合的本地知识库问答系统Langchain-Chatchat(前称langchain-ChatGLM)的设计源码。该系统包含191个文件,涵盖89个Python脚本、39个pickle数据文件、14个Markdown文档、14个PNG图像文件、4个示例文件、4个JPEG图片文件、4个文本文件、3个YAML配置文件、2个CSV文件、2个JSONL数据文件,并涉及JavaScript、CSS和Shell脚本。Langchain-Chatchat旨在利用语言模型实现本地知识库的问答功能。该项目为Langchain与ChatGLM结合的本地知识库问答系统Langchain-Chatchat(前称langchain-ChatGLM)的设计源码。该系统包含191个文件,涵盖89个Python脚本、39个pickle数据文件、14个Markdown文档、14个PNG图像文件、4个示例文件、4个JPEG图片文件、4个文本文件、3个YAML配置文件、2个CSV文件、2个JSONL数据文件,并涉及JavaScript、CSS和Shell脚本。Langchain-Chatchat旨在利用语言模型实现本地知识库的问答功能。5 152浏览¥ 34.90
- 情感识别大小:48MB该项目是一款基于BERT-BiLSTM的中文情感识别设计源码,集成了88个文件,包括28个Python源代码文件、23个文本文件、20个Python编译文件、6个XML文件、4个Python对象文件、1个Git忽略文件、1个IntelliJ项目文件、1个测试文本文件、1个Markdown文件和1个JSON文件。项目采用BERT模型深度挖掘文本语义,结合BiLSTM网络捕捉时序信息,有效提升了中文情感识别的准确性。为优化训练效率,项目部署于GPU加速环境中。此外,项目还提供了可视化情感识别系统,欢迎广大开发者共同贡献代码、建议和数据,以期不断优化模型,推动中文情感识别技术的发展。该项目是一款基于BERT-BiLSTM的中文情感识别设计源码,集成了88个文件,包括28个Python源代码文件、23个文本文件、20个Python编译文件、6个XML文件、4个Python对象文件、1个Git忽略文件、1个IntelliJ项目文件、1个测试文本文件、1个Markdown文件和1个JSON文件。项目采用BERT模型深度挖掘文本语义,结合BiLSTM网络捕捉时序信息,有效提升了中文情感识别的准确性。为优化训练效率,项目部署于GPU加速环境中。此外,项目还提供了可视化情感识别系统,欢迎广大开发者共同贡献代码、建议和数据,以期不断优化模型,推动中文情感识别技术的发展。0 132浏览¥ 19.90
- 中文自然语言处理大小:486KB本项目为基于Python开发的HanLP中文自然语言处理源码,总文件量达198个,涵盖192个Python源文件、3个Markdown文档、1个YAML配置文件、1个Git忽略文件以及1个LICENSE文件。该源码集成了丰富的自然语言处理功能,包括中文分词、词性标注、命名实体识别、依存句法分析、语义依存分析、新词发现、关键词短语提取、自动摘要、文本分类聚类、拼音简繁转换等,广泛应用于各类中文文本处理任务。本项目为基于Python开发的HanLP中文自然语言处理源码,总文件量达198个,涵盖192个Python源文件、3个Markdown文档、1个YAML配置文件、1个Git忽略文件以及1个LICENSE文件。该源码集成了丰富的自然语言处理功能,包括中文分词、词性标注、命名实体识别、依存句法分析、语义依存分析、新词发现、关键词短语提取、自动摘要、文本分类聚类、拼音简繁转换等,广泛应用于各类中文文本处理任务。0 158浏览¥ 29.90
- Python大小:55MB该项目为基于Python实现的Transformer-XL模型在中文领域的应用设计源码,总计包含58个文件,其中包括22个JSON配置文件、14个Python源代码文件、6个文本文件、6个Shell脚本文件、2个Markdown文件、2个TSV表格文件、2个PNG图像文件、1个Git忽略文件、1个授权许可文件、1个字体文件。该项目为基于Python实现的Transformer-XL模型在中文领域的应用设计源码,总计包含58个文件,其中包括22个JSON配置文件、14个Python源代码文件、6个文本文件、6个Shell脚本文件、2个Markdown文件、2个TSV表格文件、2个PNG图像文件、1个Git忽略文件、1个授权许可文件、1个字体文件。0 190浏览¥ 19.90
- 聊天机器人大小:92MB该项目是一款基于向量匹配技术的情境式聊天机器人设计源码,涵盖104个文件,其中包含41个Python源文件、27个文本文件、15个JSON文件、6个Markdown文件、2个Git忽略文件、2个大文件、2个CSV文件、1个标签文件及其他类型文件。该系统支持Python和HTML语言,旨在实现智能的对话交互体验。该项目是一款基于向量匹配技术的情境式聊天机器人设计源码,涵盖104个文件,其中包含41个Python源文件、27个文本文件、15个JSON文件、6个Markdown文件、2个Git忽略文件、2个大文件、2个CSV文件、1个标签文件及其他类型文件。该系统支持Python和HTML语言,旨在实现智能的对话交互体验。0 130浏览¥ 29.90
- CUDA大小:1MB该项目为GPT-2模型在Cuda平台上的C语言实现,包含102个文件,其中Cuda头文件28个,Python脚本14个,C/C++源代码文件共30个,Shell脚本11个,Markdown文档6个,其他类型文件包括C头文件、YAML配置、Shell批处理文件、C/C++源代码和Git忽略规则。项目结构旨在提供高效的并行计算能力,以加速GPT-2模型的训练与推理过程。该项目为GPT-2模型在Cuda平台上的C语言实现,包含102个文件,其中Cuda头文件28个,Python脚本14个,C/C++源代码文件共30个,Shell脚本11个,Markdown文档6个,其他类型文件包括C头文件、YAML配置、Shell批处理文件、C/C++源代码和Git忽略规则。项目结构旨在提供高效的并行计算能力,以加速GPT-2模型的训练与推理过程。0 204浏览¥ 29.90
- 自然语言理解大小:7MB本项目提供基于家居领域数据的轻量级NLU(自然语言理解)与DM(对话管理)模型设计源码,共计133个文件,涵盖55个Jupyter Notebook脚本、27个Python源代码文件、13个YAML配置文件、9个JSON数据文件等。该模型旨在为家居领域提供高效的自然语言交互体验。本项目提供基于家居领域数据的轻量级NLU(自然语言理解)与DM(对话管理)模型设计源码,共计133个文件,涵盖55个Jupyter Notebook脚本、27个Python源代码文件、13个YAML配置文件、9个JSON数据文件等。该模型旨在为家居领域提供高效的自然语言交互体验。0 106浏览¥ 29.90
- PyTorch大小:2MB该项目为基于PyTorch的计算机视觉与自然语言处理项目设计源码,共包含57个文件,涵盖23个Python源代码文件、22个图片文件(JPG格式)、6个Python编译文件(pyc)、2个Python对象文件(pkl)、1个Markdown文档(md)、1个CSV数据文件、1个PNG图片文件、1个文本文件(txt)。该项目作为教学项目由老师布置,旨在帮助学生深入理解计算机视觉与自然语言处理领域的知识应用。该项目为基于PyTorch的计算机视觉与自然语言处理项目设计源码,共包含57个文件,涵盖23个Python源代码文件、22个图片文件(JPG格式)、6个Python编译文件(pyc)、2个Python对象文件(pkl)、1个Markdown文档(md)、1个CSV数据文件、1个PNG图片文件、1个文本文件(txt)。该项目作为教学项目由老师布置,旨在帮助学生深入理解计算机视觉与自然语言处理领域的知识应用。0 269浏览¥ 19.90
- 自然语言处理大小:42MB该项目是自然语言处理领域的深度学习实践笔记,利用Tensorflow和PyTorch框架,对Transformer、BERT、ALBERT等先进预训练模型进行源码解析和任务部署。包含110个Jupyter Notebook文件、54个Python源文件、53个图像文件以及其他多种格式文件,总计256个文件。内容涵盖了机器学习与深度学习的基本原理,并通过实例展示了如何使用预训练模型进行各种NLP任务,并指导读者进行模型部署实践。该项目是自然语言处理领域的深度学习实践笔记,利用Tensorflow和PyTorch框架,对Transformer、BERT、ALBERT等先进预训练模型进行源码解析和任务部署。包含110个Jupyter Notebook文件、54个Python源文件、53个图像文件以及其他多种格式文件,总计256个文件。内容涵盖了机器学习与深度学习的基本原理,并通过实例展示了如何使用预训练模型进行各种NLP任务,并指导读者进行模型部署实践。0 208浏览¥ 29.90
- Java大小:535KB该项目为基于Java和Python的NLP咨询平台知识库系统设计源码,总计包含90个文件,其中57个为Java源文件,15个为YAML配置文件,11个为XML文件,1个为Git忽略文件,以及包含LICENSE、SQL、属性文件、Python脚本和Markdown等辅助文件。该系统致力于自然语言处理领域的知识库构建,支持咨询与问答功能,适用于各类智能咨询平台。加入QQ群366526312,获取更多详情。该项目为基于Java和Python的NLP咨询平台知识库系统设计源码,总计包含90个文件,其中57个为Java源文件,15个为YAML配置文件,11个为XML文件,1个为Git忽略文件,以及包含LICENSE、SQL、属性文件、Python脚本和Markdown等辅助文件。该系统致力于自然语言处理领域的知识库构建,支持咨询与问答功能,适用于各类智能咨询平台。加入QQ群366526312,获取更多详情。0 176浏览¥ 19.90
- COVID-19大小:8MB本项目是一个集Python、HTML、JavaScript于一体的COVID-19 NLP可视化设计源码,包含58个文件,涵盖17个Python脚本、16个PNG图表、5个CSV数据文件、5个HTML页面、4个JavaScript脚本、2个Markdown文档、2个Jupyter Notebook、1个Git忽略规则文件、1个项目授权文件以及1个GIF动图。这套源码适合用于开发基于自然语言处理和可视化的COVID-19数据分析应用。本项目是一个集Python、HTML、JavaScript于一体的COVID-19 NLP可视化设计源码,包含58个文件,涵盖17个Python脚本、16个PNG图表、5个CSV数据文件、5个HTML页面、4个JavaScript脚本、2个Markdown文档、2个Jupyter Notebook、1个Git忽略规则文件、1个项目授权文件以及1个GIF动图。这套源码适合用于开发基于自然语言处理和可视化的COVID-19数据分析应用。0 160浏览¥ 19.90
- 天池比赛大小:2MB该项目是天池“公益AI之星”挑战赛中“新冠疫情相似句对判定大赛”的源码设计,采用Python为主要编程语言,辅以Shell进行部分脚本操作。项目包含28个文件,具体包括12个Python脚本文件、6个Git忽略文件、3个文本描述文件、3个CSV数据文件、2个Shell脚本文件、1个Markdown文档和1个Git仓库忽略文件。该项目旨在通过人工智能技术,对新冠疫情相关的文本进行相似度判定。该项目是天池“公益AI之星”挑战赛中“新冠疫情相似句对判定大赛”的源码设计,采用Python为主要编程语言,辅以Shell进行部分脚本操作。项目包含28个文件,具体包括12个Python脚本文件、6个Git忽略文件、3个文本描述文件、3个CSV数据文件、2个Shell脚本文件、1个Markdown文档和1个Git仓库忽略文件。该项目旨在通过人工智能技术,对新冠疫情相关的文本进行相似度判定。0 112浏览¥ 9.90
- 自然语言处理大小:72MB本项目为基于Python的Jiagu深度学习自然语言处理工具源码,包含41个文件,涵盖了23个Python源代码文件、8个模型文件、4个Markdown说明文件、2个文本文件、1个Python对象文件、1个字典文件、1个字典文件、1个许可证文件。工具功能丰富,支持知识图谱关系抽取、中文分词、词性标注、命名实体识别、情感分析、新词发现、关键词提取和文本摘要等自然语言处理任务。本项目为基于Python的Jiagu深度学习自然语言处理工具源码,包含41个文件,涵盖了23个Python源代码文件、8个模型文件、4个Markdown说明文件、2个文本文件、1个Python对象文件、1个字典文件、1个字典文件、1个许可证文件。工具功能丰富,支持知识图谱关系抽取、中文分词、词性标注、命名实体识别、情感分析、新词发现、关键词提取和文本摘要等自然语言处理任务。5 226浏览¥ 11.90
- 情感分析大小:52MB该项目是一款基于Python的情感分析商品评价用户画像个性化推荐系统设计源码,集成了307个文件,涵盖112个JavaScript文件、41个CSS样式文件、24个Python脚本文件、11个JPG图片文件、10个HTML页面文件等多种类型。系统能够从用户评价中提取情感信息并构建用户画像,提供精准的商品推荐服务,旨在提升用户购物体验和满意度,并通过实际场景验证系统的有效性和性能,为后续改进提供方向指导。该项目是一款基于Python的情感分析商品评价用户画像个性化推荐系统设计源码,集成了307个文件,涵盖112个JavaScript文件、41个CSS样式文件、24个Python脚本文件、11个JPG图片文件、10个HTML页面文件等多种类型。系统能够从用户评价中提取情感信息并构建用户画像,提供精准的商品推荐服务,旨在提升用户购物体验和满意度,并通过实际场景验证系统的有效性和性能,为后续改进提供方向指导。0 185浏览¥ 39.90
- Python大小:49MB该项目为Python编写的综合源码库,涵盖了机器学习(ML)、深度学习(DL)和自然语言处理(NLP)领域,包含1859个文件,包括553个PNG图片、412个GIF动画、307个JPG图片、284个Markdown文档以及134个Python源代码文件。此外,还涉及JavaScript、CSS、HTML和Shell脚本等语言,支持跨平台开发。该项目旨在为研究者和实践者提供一个全面的机器学习与深度学习解决方案,适用于各类自然语言处理应用开发。该项目为Python编写的综合源码库,涵盖了机器学习(ML)、深度学习(DL)和自然语言处理(NLP)领域,包含1859个文件,包括553个PNG图片、412个GIF动画、307个JPG图片、284个Markdown文档以及134个Python源代码文件。此外,还涉及JavaScript、CSS、HTML和Shell脚本等语言,支持跨平台开发。该项目旨在为研究者和实践者提供一个全面的机器学习与深度学习解决方案,适用于各类自然语言处理应用开发。0 275浏览¥ 49.90
- 自然语言处理大小:2MB本项目为基于Python和Java开发的HanLP自然语言处理源码集,总计包含570个文件,其中Python源文件408个,文档类文件139个,Java源文件6个。功能涵盖中文分词、词性标注、命名实体识别、依存句法分析、语义依存分析、新词发现、关键词短语提取、自动摘要、文本分类聚类、拼音简繁转换等自然语言处理关键技术,旨在提供全面的自然语言处理解决方案。本项目为基于Python和Java开发的HanLP自然语言处理源码集,总计包含570个文件,其中Python源文件408个,文档类文件139个,Java源文件6个。功能涵盖中文分词、词性标注、命名实体识别、依存句法分析、语义依存分析、新词发现、关键词短语提取、自动摘要、文本分类聚类、拼音简繁转换等自然语言处理关键技术,旨在提供全面的自然语言处理解决方案。0 193浏览¥ 49.90
- Python大小:15MB该项目是一款利用Python和NLP技术打造的Galgame文案攻略AI设计源码,集合了29个文件,涵盖13个Python脚本、4个XML配置文件、4个PNG资源文件、2个Git忽略规则文件以及其他多种类型文件。该系统旨在为Galgame提供百万级文案攻略,赋能游戏体验,适用于广大Galgame爱好者。该项目是一款利用Python和NLP技术打造的Galgame文案攻略AI设计源码,集合了29个文件,涵盖13个Python脚本、4个XML配置文件、4个PNG资源文件、2个Git忽略规则文件以及其他多种类型文件。该系统旨在为Galgame提供百万级文案攻略,赋能游戏体验,适用于广大Galgame爱好者。0 132浏览¥ 9.90
- Python大小:251KB该项目是一款基于Python语言和AIML技术的QQ聊天机器人设计源码,包含34个文件,涵盖18个Python源代码文件、5个AIML文件、4个XML配置文件、2个Markdown文件、1个GPL许可文件、1个文本文件、1个ini配置文件、1个jpg图像文件、1个cfg配置文件。该系统旨在提供智能对话功能,适用于需要实现自动客服或互动娱乐的场合。该项目是一款基于Python语言和AIML技术的QQ聊天机器人设计源码,包含34个文件,涵盖18个Python源代码文件、5个AIML文件、4个XML配置文件、2个Markdown文件、1个GPL许可文件、1个文本文件、1个ini配置文件、1个jpg图像文件、1个cfg配置文件。该系统旨在提供智能对话功能,适用于需要实现自动客服或互动娱乐的场合。0 205浏览¥ 9.90
- AI智能答题平台大小:2MB该项目是一款基于Spring Boot、Vue3、Redis、ChatGLM AI、RxJava和SSE技术的AI智能答题平台设计源码。它包含189个文件,涵盖99个Java源文件、26个Vue文件、19个TypeScript文件、8个FTL模板文件、6个XML配置文件、5个JSON文件、3个DS_Store、3个PNG图片、3个YML配置文件以及3个JavaScript文件。平台支持用户利用AI功能快速生成和发布多样化的答题应用,并提供检索、分享、在线答题服务。此外,平台内置高效评分算法,并可通过AI实现自动评分与总结。该项目是一款基于Spring Boot、Vue3、Redis、ChatGLM AI、RxJava和SSE技术的AI智能答题平台设计源码。它包含189个文件,涵盖99个Java源文件、26个Vue文件、19个TypeScript文件、8个FTL模板文件、6个XML配置文件、5个JSON文件、3个DS_Store、3个PNG图片、3个YML配置文件以及3个JavaScript文件。平台支持用户利用AI功能快速生成和发布多样化的答题应用,并提供检索、分享、在线答题服务。此外,平台内置高效评分算法,并可通过AI实现自动评分与总结。0 333浏览¥ 29.90
- 自然语言处理大小:8MB该项目为基于Jupyter Notebook的Python自然语言处理大模型设计源码,包含95个文件,涵盖34个IPython Notebook文件、21个Python源代码文件、7个XML文件、6个Excel文件、5个JSON文件、5个HTML文件、4个CSV文件、3个Git忽略文件、3个Idea项目文件以及2个DESKTOP-11RSE7K文件。项目聚焦于自然语言处理领域,特别适用于大规模模型设计,支持分类等任务。该项目为基于Jupyter Notebook的Python自然语言处理大模型设计源码,包含95个文件,涵盖34个IPython Notebook文件、21个Python源代码文件、7个XML文件、6个Excel文件、5个JSON文件、5个HTML文件、4个CSV文件、3个Git忽略文件、3个Idea项目文件以及2个DESKTOP-11RSE7K文件。项目聚焦于自然语言处理领域,特别适用于大规模模型设计,支持分类等任务。0 198浏览¥ 19.90
- Python大小:62MB本项目为基于Python、Vue和HTML开发的前后端分离架构问答机器人,源码包含60个文件,涵盖21个Python脚本、8个YAML配置文件、5个JSON数据文件、4个Git忽略规则文件、4个Markdown文档、3个文本文件以及其他类型的文件。系统采用NLP技术,基于Chatterbot框架构建,旨在实现智能问答功能。本项目为基于Python、Vue和HTML开发的前后端分离架构问答机器人,源码包含60个文件,涵盖21个Python脚本、8个YAML配置文件、5个JSON数据文件、4个Git忽略规则文件、4个Markdown文档、3个文本文件以及其他类型的文件。系统采用NLP技术,基于Chatterbot框架构建,旨在实现智能问答功能。0 166浏览¥ 19.90