- 软件/插件大小:267MBSegmentAnyBone 复现代码,包含2d、3d数据的推理和评估;SegmentAnyBone 复现代码,包含2d、3d数据的推理和评估;SegmentAnyBone 复现代码,包含2d、3d数据的推理和评估;SegmentAnyBone 复现代码,包含2d、3d数据的推理和评估;SegmentAnyBone 复现代码,包含2d、3d数据的推理和评估;SegmentAnyBone 复现代码,包含2d、3d数据的推理和评估;SegmentAnyBone 复现代码,包含2d、3d数据的推理和评估;SegmentAnyBone 复现代码,包含2d、3d数据的推理和评估;0 8浏览免费
- 范文/模板/素材大小:789MB利用机器学习算法,构建模型,识别动物利用机器学习算法,构建模型,识别动物0 3浏览会员免费
- opencv大小:533KB信用卡识别程序源码信用卡识别程序源码0 9浏览会员免费
- 软件/插件大小:684MBMedSAM 分割一切大模型,代码介绍或者项目介绍参考专栏: https://blog.csdn.net/qq_44886601/category_12683968.htmlMedSAM 分割一切大模型,代码介绍或者项目介绍参考专栏: https://blog.csdn.net/qq_44886601/category_12683968.html0 21浏览会员免费
- 编程语言大小:562MBVijeo Designer Basic软件功能详解,包含19节内部官方教学视频。从创建一个空项目开始,画面绘制,通讯配置,报警,配方、脚本、程序下载与上传。Vijeo Designer Basic软件功能详解,包含19节内部官方教学视频。从创建一个空项目开始,画面绘制,通讯配置,报警,配方、脚本、程序下载与上传。0 7浏览免费
- 自动化大小:2KB不用逐个问题输入到langchain_chatchat中进行知识检索结果测试; 可以将问题制作成txt文件,自动化输入到langchain_chatchat中,自动化检索,可以在控制台输出中查看结果,也可以将结果保存到json文件中随时进行查看。不用逐个问题输入到langchain_chatchat中进行知识检索结果测试; 可以将问题制作成txt文件,自动化输入到langchain_chatchat中,自动化检索,可以在控制台输出中查看结果,也可以将结果保存到json文件中随时进行查看。0 10浏览会员免费
- opencv大小:6MB基于opencv的车辆统计基于opencv的车辆统计0 14浏览会员免费
- 深度学习大小:214MB深度学习深度学习0 31浏览免费
- windows大小:1MBwin10/win11下使用, 包含pyopenjtalk-0.3.3-cp39-cp39-win_amd64.whl,pyopenjtalk-0.3.3-cp310-cp310-win_amd64.whl,pyopenjtalk-0.3.3-cp311-cp311-win_amd64.whl三个版本的whl文件,解决GPT_SoVITS中pip install安装pyopenjtalk失败。win10/win11下使用, 包含pyopenjtalk-0.3.3-cp39-cp39-win_amd64.whl,pyopenjtalk-0.3.3-cp310-cp310-win_amd64.whl,pyopenjtalk-0.3.3-cp311-cp311-win_amd64.whl三个版本的whl文件,解决GPT_SoVITS中pip install安装pyopenjtalk失败。0 69浏览会员免费
- 人工智能大小:1MB基于人工智能标记语言 (AIML)和开放域问答(WebQA)的深度智能对话模型 ### 步骤一:预处理 1. 限制字数 2. 过滤敏感词(恶心、政治、色情、违法......) ### 步骤二:知识库匹配(AIML) 1. 基本功能:打招呼、闲聊...... 2. 异常处理:问题太长、空白问题、找不到回复...... 3. 情绪回答:表情、夸奖、嘲笑...... 如果匹配不到回答,进行步骤三 ### 步骤三:互联网搜索(WebQA) 1. 新闻----新浪新闻 2. 文章----每日一文 3. 笑话----糗事百科 4. 时间----搜狗时间 5. 天气----搜狗天气 6. 空气----搜狗空气 7. 其他遍历百度搜索 > * 百度汉语 > * 百度翻译 > * 百度图谱 > * 百度汇率 > * 百度计算 > * 百度股票 > * 百度歌词 > * 百度最新 > * 百度百科 > * 百度知道 如果搜索不到回答,进行步骤四 ### 步骤四:神经网络 基于Seq2Seq模型的下一代对话引擎不仅仅是在现有的回答中训练最佳回答,而是能自我创造一个类似于人类的回答。 ###基于人工智能标记语言 (AIML)和开放域问答(WebQA)的深度智能对话模型 ### 步骤一:预处理 1. 限制字数 2. 过滤敏感词(恶心、政治、色情、违法......) ### 步骤二:知识库匹配(AIML) 1. 基本功能:打招呼、闲聊...... 2. 异常处理:问题太长、空白问题、找不到回复...... 3. 情绪回答:表情、夸奖、嘲笑...... 如果匹配不到回答,进行步骤三 ### 步骤三:互联网搜索(WebQA) 1. 新闻----新浪新闻 2. 文章----每日一文 3. 笑话----糗事百科 4. 时间----搜狗时间 5. 天气----搜狗天气 6. 空气----搜狗空气 7. 其他遍历百度搜索 > * 百度汉语 > * 百度翻译 > * 百度图谱 > * 百度汇率 > * 百度计算 > * 百度股票 > * 百度歌词 > * 百度最新 > * 百度百科 > * 百度知道 如果搜索不到回答,进行步骤四 ### 步骤四:神经网络 基于Seq2Seq模型的下一代对话引擎不仅仅是在现有的回答中训练最佳回答,而是能自我创造一个类似于人类的回答。 ###0 12浏览会员免费
- 软件/插件大小:14MB打印halcon标定板软件打印halcon标定板软件0 21浏览会员免费
- 7Z大小:334MB算法数学知识算法数学知识0 9浏览会员免费
- 7Z大小:334MB算法数学知识算法数学知识0 11浏览会员免费
- 支持向量机大小:2MBsvm QT_Test 本测试旨在重现一套比较简单且完备的量化框架,该框架基于现代投资组合理论,并应用主流的机器学习算法(SVM)进行分析。旨在初步形成一个量化投资的思路,辅助构建科学合理的投资策略。 预测流程 制备 SQL 查询 环回测试的初始资本(可选,默认值 = 1 M) 输入 库存池 基础股指数 环回测试间隔 预处理窗口(可选,默认值 = 365) 环回训练测试的窗口(可选,默认值 = 90) Loopack Portfolio 的 Windows(可选,默认值 = 年份) 更改投资组合的频率(可选,默认 =5) 主程序 $ python Init_StockALL_Sp.py $ python stock_index_pro.py $ python main_pro.py 输出 股票池和基础指数的每日交易数据 SVM 模型评估结果 环回测试期间的资本情况 上一个环回测试日的股票持有量 量化效果指标 退货和取款的可视化 依赖 测试使用的Python版本:3.6.8 测试使用的Anaconda版本:1.9.6 安装或升级Tusharesvm QT_Test 本测试旨在重现一套比较简单且完备的量化框架,该框架基于现代投资组合理论,并应用主流的机器学习算法(SVM)进行分析。旨在初步形成一个量化投资的思路,辅助构建科学合理的投资策略。 预测流程 制备 SQL 查询 环回测试的初始资本(可选,默认值 = 1 M) 输入 库存池 基础股指数 环回测试间隔 预处理窗口(可选,默认值 = 365) 环回训练测试的窗口(可选,默认值 = 90) Loopack Portfolio 的 Windows(可选,默认值 = 年份) 更改投资组合的频率(可选,默认 =5) 主程序 $ python Init_StockALL_Sp.py $ python stock_index_pro.py $ python main_pro.py 输出 股票池和基础指数的每日交易数据 SVM 模型评估结果 环回测试期间的资本情况 上一个环回测试日的股票持有量 量化效果指标 退货和取款的可视化 依赖 测试使用的Python版本:3.6.8 测试使用的Anaconda版本:1.9.6 安装或升级Tushare0 19浏览免费
- 机器学习大小:67KBsvm # coding=utf-8 from __future__ import print_function, absolute_import, unicode_literals from datetime import datetime import numpy as np from gm.api import * import sys try: from sklearn import svm except: print('请安装scikit-learn库和带mkl的numpy') sys.exit(-1) ''' 本策略选取了七个特征变量组成了滑动窗口长度为15天的训练集,随后训练了一个二分类(上涨/下跌)的支持向量机模型. 若没有仓位则在每个星期一的时候输入标的股票近15个交易日的特征变量进行预测,并在预测结果为上涨的时候购买标的. 若已经持有仓位则在盈利大于10%的时候止盈,在星期五损失大于2%的时候止损. 特征变量为:1.收盘价/均值2.现量/均量3.最高价/均价4.最低价/均价5.现量6.区间收益率7.区间标准差 训练数据为:SHSE.6000svm # coding=utf-8 from __future__ import print_function, absolute_import, unicode_literals from datetime import datetime import numpy as np from gm.api import * import sys try: from sklearn import svm except: print('请安装scikit-learn库和带mkl的numpy') sys.exit(-1) ''' 本策略选取了七个特征变量组成了滑动窗口长度为15天的训练集,随后训练了一个二分类(上涨/下跌)的支持向量机模型. 若没有仓位则在每个星期一的时候输入标的股票近15个交易日的特征变量进行预测,并在预测结果为上涨的时候购买标的. 若已经持有仓位则在盈利大于10%的时候止盈,在星期五损失大于2%的时候止损. 特征变量为:1.收盘价/均值2.现量/均量3.最高价/均价4.最低价/均价5.现量6.区间收益率7.区间标准差 训练数据为:SHSE.60000 42浏览免费
- 支持向量机大小:2MBsvm 一款基于SVM算法的分布式法律助手 项目简介 与 使用说明 体验网站(适配手机端): www.zhuchangwu.com 项目基于 Spring Cloud 、Vue 构建,平台针对需要维权的用户而设计,主要提供如下三个功能模块。 一、提供问答服务模块。 用户可以在本模块中描述一句简短的话,系统将为用户推送出与用户描述相似的问题及答案。 二、罪名推断模块。 用户可以输入一个场景,系统将给用户推送出此场景可能触发的罪名,量刑区间,以及可能触发的法律法规。 三、相似判决文书查询模块。 用户可以将自己的判决文书输入到系统中,系统将会为用户推送相似的判决文书。 如果您感觉还蛮有趣svm 一款基于SVM算法的分布式法律助手 项目简介 与 使用说明 体验网站(适配手机端): www.zhuchangwu.com 项目基于 Spring Cloud 、Vue 构建,平台针对需要维权的用户而设计,主要提供如下三个功能模块。 一、提供问答服务模块。 用户可以在本模块中描述一句简短的话,系统将为用户推送出与用户描述相似的问题及答案。 二、罪名推断模块。 用户可以输入一个场景,系统将给用户推送出此场景可能触发的罪名,量刑区间,以及可能触发的法律法规。 三、相似判决文书查询模块。 用户可以将自己的判决文书输入到系统中,系统将会为用户推送相似的判决文书。 如果您感觉还蛮有趣0 15浏览免费
- 支持向量机大小:15KBsvm 中文文本分类器 基于SVM中文文本分类 复旦大学中文语料库,使用15类 语料文件太大,可以在这里下载 http://www.nlpir.org/wordpress/ 训练时间太长,所以保存了一份模型(总共训练了3个模型,线性核的分类效果最好) 最后使用的接口还没做好,大致就是那个意思了,没时间改了 分两个部分,训练和测试的一步步运行:get_tokens --> to_bunch --> TFIDF_space --> SVM_Predict 也可以直接使用训练好的模型,直接运行 use.py,建文件夹F:/Chinese_text_classifier/article/,最后在article文件夹里放要分类的文章(.txt或者.dat之类的)svm 中文文本分类器 基于SVM中文文本分类 复旦大学中文语料库,使用15类 语料文件太大,可以在这里下载 http://www.nlpir.org/wordpress/ 训练时间太长,所以保存了一份模型(总共训练了3个模型,线性核的分类效果最好) 最后使用的接口还没做好,大致就是那个意思了,没时间改了 分两个部分,训练和测试的一步步运行:get_tokens --> to_bunch --> TFIDF_space --> SVM_Predict 也可以直接使用训练好的模型,直接运行 use.py,建文件夹F:/Chinese_text_classifier/article/,最后在article文件夹里放要分类的文章(.txt或者.dat之类的)0 39浏览免费
- android大小:11MBsvm Preganant监视器 说明 免责声明:本项目旨在学习Android开发的一点实践,不可使用于商业和个人其他意图。若使用不当,均由个人承担。 开源方式:License GPLv3 包含功能:一个为孕妇打造的APP,基于SVM、RandomForest等算法进行机器学习,目前可根据孕妇年龄身高、体重、空腹血糖OGTT值预测孕妇是否患糖尿病。 若使用中遇到遇到问题, please Issue 本地部署 Androdi Studio工程文件,打包下载后用Android Studio打开解压后的文件夹,等待AS加载升级套件完毕即可。 运行 可以在Android Studio内使用AVD模拟运行,或者通过USB Debug连接手机,选择对应设备运行svm Preganant监视器 说明 免责声明:本项目旨在学习Android开发的一点实践,不可使用于商业和个人其他意图。若使用不当,均由个人承担。 开源方式:License GPLv3 包含功能:一个为孕妇打造的APP,基于SVM、RandomForest等算法进行机器学习,目前可根据孕妇年龄身高、体重、空腹血糖OGTT值预测孕妇是否患糖尿病。 若使用中遇到遇到问题, please Issue 本地部署 Androdi Studio工程文件,打包下载后用Android Studio打开解压后的文件夹,等待AS加载升级套件完毕即可。 运行 可以在Android Studio内使用AVD模拟运行,或者通过USB Debug连接手机,选择对应设备运行0 15浏览免费
- 机器学习大小:2MBsvm 基于机器学习的遥感图像识别算法(kNN/SVM/CNN/LSTM) 随着遥感卫星成像技术的提升和机器学习的蓬勃发展,越来越多的研究人员利用机器学习的方法来进行遥感图像识别,取得了很好的效果。在本次作业中,我将利用四种机器学习算法在WHU-RS19数据集上进行遥感图像识别的尝试,这其中既包括传统的kNN和SVM,也包括近年来得到青睐的CNN和LSTM算法。本文的基本结构如下: 数据集 WHU-RS19的简单介绍 数据集的预处理与索引文档的生成 kNN公司 kNN的测试效果 分析参数k对kNN的测试效果的影响 支持向量机 SVM的测试效果 分析学习率和正则化参数对SVM的测试效果的影响 SVM权值矩阵的可视化 美国有线电视新闻网(CNN) CNN的测试效果 不同网络结构对CNN的测试结果的影响 LSTM公司 LSTM的测试效果 分析学习率和dropout值对LSTM的测试效果的影响 总结 数据集 WHU-RS19的简单介绍 本次遥感图像识别算法采用的数据集是武汉大学提供的WHU-RS19数据集,该数据集包含了机场,海滩,桥,商业区,沙漠,农田,足球场,森林,工业区,草地,山,公园svm 基于机器学习的遥感图像识别算法(kNN/SVM/CNN/LSTM) 随着遥感卫星成像技术的提升和机器学习的蓬勃发展,越来越多的研究人员利用机器学习的方法来进行遥感图像识别,取得了很好的效果。在本次作业中,我将利用四种机器学习算法在WHU-RS19数据集上进行遥感图像识别的尝试,这其中既包括传统的kNN和SVM,也包括近年来得到青睐的CNN和LSTM算法。本文的基本结构如下: 数据集 WHU-RS19的简单介绍 数据集的预处理与索引文档的生成 kNN公司 kNN的测试效果 分析参数k对kNN的测试效果的影响 支持向量机 SVM的测试效果 分析学习率和正则化参数对SVM的测试效果的影响 SVM权值矩阵的可视化 美国有线电视新闻网(CNN) CNN的测试效果 不同网络结构对CNN的测试结果的影响 LSTM公司 LSTM的测试效果 分析学习率和dropout值对LSTM的测试效果的影响 总结 数据集 WHU-RS19的简单介绍 本次遥感图像识别算法采用的数据集是武汉大学提供的WHU-RS19数据集,该数据集包含了机场,海滩,桥,商业区,沙漠,农田,足球场,森林,工业区,草地,山,公园0 58浏览免费
- 支持向量机大小:29MBsvm 基于SVM的机器学习分类是一种常见的方法,适用于许多分类问题。以下是一个简要介绍: 支持向量机(SVM): SVM是一种监督学习算法,用于分类和回归分析。 在分类任务中,SVM的目标是找到一个最优的超平面,将不同类别的数据分隔开来,并且使得两个类别之间的间隔最大化。 简单机器学习分类流程: 数据准备: 收集带有标签的训练数据集,包括输入特征和相应的类别标签。 对数据进行预处理和特征工程,以便于SVM进行处理。 训练阶段: 使用训练数据集训练一个SVM分类器。 SVM学习一个决策边界,以将不同类别的数据分隔开来。 测试阶段: 对新的未标记数据应用相同的预处理和特征提取步骤。 使用训练好的SVM分类器对新数据进行分类。 输出分类结果,即新数据所属的类别。 优点: SVM在处理高维数据和具有复杂结构的数据上表现良好。 SVM能够处理非线性分类问题,并且具有较强的泛化能力。 SVM的决策边界可以有效地将不同类别的数据分隔开来,因此在多类别分类任务中也表现良好。 注意事项: 数据质量和数量对于分类器的性能至关重要。 特征提取和预处理的选择可能会影响系统的性能。 在实践中,svm 基于SVM的机器学习分类是一种常见的方法,适用于许多分类问题。以下是一个简要介绍: 支持向量机(SVM): SVM是一种监督学习算法,用于分类和回归分析。 在分类任务中,SVM的目标是找到一个最优的超平面,将不同类别的数据分隔开来,并且使得两个类别之间的间隔最大化。 简单机器学习分类流程: 数据准备: 收集带有标签的训练数据集,包括输入特征和相应的类别标签。 对数据进行预处理和特征工程,以便于SVM进行处理。 训练阶段: 使用训练数据集训练一个SVM分类器。 SVM学习一个决策边界,以将不同类别的数据分隔开来。 测试阶段: 对新的未标记数据应用相同的预处理和特征提取步骤。 使用训练好的SVM分类器对新数据进行分类。 输出分类结果,即新数据所属的类别。 优点: SVM在处理高维数据和具有复杂结构的数据上表现良好。 SVM能够处理非线性分类问题,并且具有较强的泛化能力。 SVM的决策边界可以有效地将不同类别的数据分隔开来,因此在多类别分类任务中也表现良好。 注意事项: 数据质量和数量对于分类器的性能至关重要。 特征提取和预处理的选择可能会影响系统的性能。 在实践中,0 79浏览免费
- 支持向量机大小:15MBsvm 基于SVM的手写数字图像识别是一种常见的模式识别应用。以下是一个简要介绍: 支持向量机(SVM): SVM是一种监督学习算法,用于分类和回归分析。 在分类任务中,SVM的目标是找到一个最优的超平面,将不同类别的数据分隔开来,并且使得两个类别之间的间隔最大化。 手写数字图像识别流程: 数据准备: 收集手写数字图像数据集,包括一系列手写数字图像和相应的标签(即数字的真实值)。 将每个图像转换为数字特征向量,例如通过像素值或特征提取算法提取的特征。 训练阶段: 使用训练数据集训练一个SVM分类器。 SVM学习一个决策边界,以将不同数字类别的特征向量分隔开来。 测试阶段: 对待识别的手写数字图像提取特征向量。 使用训练好的SVM分类器,将待识别的特征向量分类到相应的数字类别。 输出分类结果,即识别出的手写数字。 优点: SVM在处理高维数据和具有复杂结构的数据上表现良好。 SVM能够处理非线性分类问题,并且具有较强的泛化能力。 SVM的决策边界可以有效地将不同类别的数据分隔开来,因此在多类别分类任务中也表现良好。 注意事项: 数据质量和数量对于手写数字图像识别的性能至关重要。svm 基于SVM的手写数字图像识别是一种常见的模式识别应用。以下是一个简要介绍: 支持向量机(SVM): SVM是一种监督学习算法,用于分类和回归分析。 在分类任务中,SVM的目标是找到一个最优的超平面,将不同类别的数据分隔开来,并且使得两个类别之间的间隔最大化。 手写数字图像识别流程: 数据准备: 收集手写数字图像数据集,包括一系列手写数字图像和相应的标签(即数字的真实值)。 将每个图像转换为数字特征向量,例如通过像素值或特征提取算法提取的特征。 训练阶段: 使用训练数据集训练一个SVM分类器。 SVM学习一个决策边界,以将不同数字类别的特征向量分隔开来。 测试阶段: 对待识别的手写数字图像提取特征向量。 使用训练好的SVM分类器,将待识别的特征向量分类到相应的数字类别。 输出分类结果,即识别出的手写数字。 优点: SVM在处理高维数据和具有复杂结构的数据上表现良好。 SVM能够处理非线性分类问题,并且具有较强的泛化能力。 SVM的决策边界可以有效地将不同类别的数据分隔开来,因此在多类别分类任务中也表现良好。 注意事项: 数据质量和数量对于手写数字图像识别的性能至关重要。0 63浏览免费
- 自然语言处理大小:6MBsvm 基于SVM的短文本分类研究 ###1、训练集来源 搜狗实验室提供的2006年新闻数据,根据TF-IDF值进行特征选取,10大类中每类选取200个特征词 ###2、模型准确度 5折法验证71.9%的准确率......求微博数据集! ###3、依赖包 使用@ansjsun 的ansj_seg进行NLP分词,同时需要他的nlp-lang-0.2.jar工具包 依赖Libsvm Java版 org.json工具包(已包含在工程中) ###4、注意事项 需修改testSVM中的各种文件路径,最主要的是cmdStr,改为自己的libsvm路径 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究基于SVM的短文本分类研究svm 基于SVM的短文本分类研究 ###1、训练集来源 搜狗实验室提供的2006年新闻数据,根据TF-IDF值进行特征选取,10大类中每类选取200个特征词 ###2、模型准确度 5折法验证71.9%的准确率......求微博数据集! ###3、依赖包 使用@ansjsun 的ansj_seg进行NLP分词,同时需要他的nlp-lang-0.2.jar工具包 依赖Libsvm Java版 org.json工具包(已包含在工程中) ###4、注意事项 需修改testSVM中的各种文件路径,最主要的是cmdStr,改为自己的libsvm路径 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究 基于SVM的短文本分类研究基于SVM的短文本分类研究0 29浏览免费
- 自然语言处理大小:26MBsvm 一步:加载数据、进行jieba分词、对数据进行随机切分,生成训练集和测试集(对应的代码部分为data_seal.py) pos = pd.read_table('E:/NLP/chinese-w2v-sentiment/data/pos.csv',header=None,index_col=None) neg = pd.read_table('E:/NLP/chinese-w2v-sentiment/data/neg.csv',header=None,index_col=None) 导入数据,然后利用jieba对数组进行分词,将分词结果与生成的相同维度的标签表数组进行合并,合并的方式有很多种:这里我用的是np.append(a,b,axis=0) 的方式。数据准备好了之后就是对数据进行切分,随机生成测试数据集和训练集,这里的比例test_size可以根据数据的实际大小进行设置,正常设置成0.2和0.3。 为了后面的运算方便,对切分的数据进行保存。分别为数据文件下的x_train_data、x_test_data、y_train_data、y_test_data。 第二步:svm 一步:加载数据、进行jieba分词、对数据进行随机切分,生成训练集和测试集(对应的代码部分为data_seal.py) pos = pd.read_table('E:/NLP/chinese-w2v-sentiment/data/pos.csv',header=None,index_col=None) neg = pd.read_table('E:/NLP/chinese-w2v-sentiment/data/neg.csv',header=None,index_col=None) 导入数据,然后利用jieba对数组进行分词,将分词结果与生成的相同维度的标签表数组进行合并,合并的方式有很多种:这里我用的是np.append(a,b,axis=0) 的方式。数据准备好了之后就是对数据进行切分,随机生成测试数据集和训练集,这里的比例test_size可以根据数据的实际大小进行设置,正常设置成0.2和0.3。 为了后面的运算方便,对切分的数据进行保存。分别为数据文件下的x_train_data、x_test_data、y_train_data、y_test_data。 第二步:0 29浏览免费
- opencv大小:149KBsvm 开始前的准备工作 开始前建立文件夹用于存储正负样本和HardExample,正样本图片直接复制INRIA中的正样本图片,负样本图片通过裁剪得到。 $ mkdir -p dataset/pos dataset/neg dataset/HardExample $ cp INRIAPerson/96X160H96/Train/pos/* dataset/pos/ 编译出可执行文件 $ cmake . $ make 也可以在命令行使用编译出可执行文件,例如g++ $ g++ -o CropImage crop_image.cpp $(pkg-config opencv --cflags --libs) $ g++ -o SvmTrainUseHog main.cpp $(pkg-config opencv --cflags --libs) $ g++ -o GetHardExample find_save_HardExample.cpp $(pkg-config opencv --cflags --libs)svm 开始前的准备工作 开始前建立文件夹用于存储正负样本和HardExample,正样本图片直接复制INRIA中的正样本图片,负样本图片通过裁剪得到。 $ mkdir -p dataset/pos dataset/neg dataset/HardExample $ cp INRIAPerson/96X160H96/Train/pos/* dataset/pos/ 编译出可执行文件 $ cmake . $ make 也可以在命令行使用编译出可执行文件,例如g++ $ g++ -o CropImage crop_image.cpp $(pkg-config opencv --cflags --libs) $ g++ -o SvmTrainUseHog main.cpp $(pkg-config opencv --cflags --libs) $ g++ -o GetHardExample find_save_HardExample.cpp $(pkg-config opencv --cflags --libs)0 16浏览免费
- 支持向量机大小:13MBsvm 基于PCA(主成分分析)和SVM(支持向量机)的人脸识别是一种常见的方法。这里是一个简要说明: PCA(主成分分析): PCA是一种降维技术,它通过线性变换将高维数据转换为低维数据,同时保留最大的数据方差。 在人脸识别中,PCA被用来提取人脸图像中的主要特征,从而减少数据的维度,并保留最重要的信息。 SVM(支持向量机): SVM是一种监督学习算法,用于分类和回归分析。 在人脸识别中,SVM被用来构建一个分类器,以将提取的人脸特征映射到相应的人脸身份标签。 基于PCA和SVM的人脸识别流程: 训练阶段: 收集训练数据集,包括多个人的人脸图像和相应的标签。 对每个人脸图像应用PCA,将其转换为低维特征向量。 使用这些特征向量训练一个SVM分类器,使其能够将人脸特征向量与相应的人脸标签关联起来。 测试阶段: 对待识别的人脸图像应用相同的PCA转换,将其转换为与训练数据相同的低维特征向量。 使用训练好的SVM分类器,将待识别的人脸特征向量与已知的人脸标签进行比较,从而确定其身份。 优点: PCA可以有效地降低数据的维度,减少计算复杂度,并提取最相关的特征。 SVM在处理svm 基于PCA(主成分分析)和SVM(支持向量机)的人脸识别是一种常见的方法。这里是一个简要说明: PCA(主成分分析): PCA是一种降维技术,它通过线性变换将高维数据转换为低维数据,同时保留最大的数据方差。 在人脸识别中,PCA被用来提取人脸图像中的主要特征,从而减少数据的维度,并保留最重要的信息。 SVM(支持向量机): SVM是一种监督学习算法,用于分类和回归分析。 在人脸识别中,SVM被用来构建一个分类器,以将提取的人脸特征映射到相应的人脸身份标签。 基于PCA和SVM的人脸识别流程: 训练阶段: 收集训练数据集,包括多个人的人脸图像和相应的标签。 对每个人脸图像应用PCA,将其转换为低维特征向量。 使用这些特征向量训练一个SVM分类器,使其能够将人脸特征向量与相应的人脸标签关联起来。 测试阶段: 对待识别的人脸图像应用相同的PCA转换,将其转换为与训练数据相同的低维特征向量。 使用训练好的SVM分类器,将待识别的人脸特征向量与已知的人脸标签进行比较,从而确定其身份。 优点: PCA可以有效地降低数据的维度,减少计算复杂度,并提取最相关的特征。 SVM在处理0 52浏览免费
- 支持向量机大小:4MBsvm 基于情感词典的情感极性分析 —— 基于情感辞典的情感分析 对应文件:classifier.py DictClassifier 使用1:analyse_sentence analyse_sentence(句子,runout_filepath=无,print_show=假) 对单个句子进行情感极性分析 sentence,待分析的句子 若runout_filepath指定,则将分析结果写入该文件; 若print_show为True,则在控制台输出分析结果。 运行实例: d = DictClassifier() a_sentence = "剁椒鸡蛋好咸,土豆丝很好吃" result = ds.analyse_sentence(a_sentence) print(result) 使用2:analysis_file analysis_file(filepath_in, filepath_out, 编码=“utf-8”, print_show=False, start=0, end=-1) filepath_in,待分析的句子文件 filepath_out,分析结果输出文件svm 基于情感词典的情感极性分析 —— 基于情感辞典的情感分析 对应文件:classifier.py DictClassifier 使用1:analyse_sentence analyse_sentence(句子,runout_filepath=无,print_show=假) 对单个句子进行情感极性分析 sentence,待分析的句子 若runout_filepath指定,则将分析结果写入该文件; 若print_show为True,则在控制台输出分析结果。 运行实例: d = DictClassifier() a_sentence = "剁椒鸡蛋好咸,土豆丝很好吃" result = ds.analyse_sentence(a_sentence) print(result) 使用2:analysis_file analysis_file(filepath_in, filepath_out, 编码=“utf-8”, print_show=False, start=0, end=-1) filepath_in,待分析的句子文件 filepath_out,分析结果输出文件0 23浏览免费
- 支持向量机大小:6MBsvm 一个基于SVM的验证码破解程序 ##起因 弄这个项目的原因,是目前还没有发现一个比较好用的验证码识别模块,目前的验证码识别主要是基于google的光学字符识别Tesseract-OCR如PyOCR,识别精度有限,对于一些复杂的验证码无法识别 ##目前主要工作 这个项目改造自 https://code.google.com/p/captchacker/,原项目已停止更新 ##接下来的工作 整理代码,使能够模块化,提供一个通用接口 使用Python替换的原来C++,重写验证码分割及字符居中模块,做跨平台处理 增加利用anti-captcha的人眼识别功能来提供训练数据 如果有其他疑问,请与我联系 tangxuguo#gmail.com,欢迎提交代码 ##环境搭建 运行环境(以下在ubuntu12.04 64位机器下测试) 安装libsvm sudo apt-get install python-libsvm 安装opencv sudo apt-get install libopencv-dev python-opencv 生成验证码pycaptchasvm 一个基于SVM的验证码破解程序 ##起因 弄这个项目的原因,是目前还没有发现一个比较好用的验证码识别模块,目前的验证码识别主要是基于google的光学字符识别Tesseract-OCR如PyOCR,识别精度有限,对于一些复杂的验证码无法识别 ##目前主要工作 这个项目改造自 https://code.google.com/p/captchacker/,原项目已停止更新 ##接下来的工作 整理代码,使能够模块化,提供一个通用接口 使用Python替换的原来C++,重写验证码分割及字符居中模块,做跨平台处理 增加利用anti-captcha的人眼识别功能来提供训练数据 如果有其他疑问,请与我联系 tangxuguo#gmail.com,欢迎提交代码 ##环境搭建 运行环境(以下在ubuntu12.04 64位机器下测试) 安装libsvm sudo apt-get install python-libsvm 安装opencv sudo apt-get install libopencv-dev python-opencv 生成验证码pycaptcha0 10浏览免费
- c++大小:2MBHALCON中VB,C++,C三种编程的范例HALCON中VB,C++,C三种编程的范例0 9浏览免费
- 范文/模板/素材大小:4KBHALCON函数 dev_close_window ( : : : ) 关闭活跃的图形窗口。 read_image ( : Image : FileName : ) ;加载图片 get_image_pointer1 ( Image : : : Pointer, Type, Width, Height ) ;获得图像的数据。如:类型(= ' 字节',' ' ',uint2 int2 等等) 和图像的尺寸( 的宽度和高度) dev_open_window( : :Row,Column,WidthHeight,Background :WindowHandle ) 打开一个图形的窗口。 dev_set_part ( : : Row1, Column1, Row2, Column2 : ) 修改图像显示的位置 dev_set_draw (’fill’) 填满选择的区域 dev_set_draw (’margin’) 显示的对象只有边缘线, dev_set_line_width (3) 线宽用Line Width 指定 threshold (HALCON函数 dev_close_window ( : : : ) 关闭活跃的图形窗口。 read_image ( : Image : FileName : ) ;加载图片 get_image_pointer1 ( Image : : : Pointer, Type, Width, Height ) ;获得图像的数据。如:类型(= ' 字节',' ' ',uint2 int2 等等) 和图像的尺寸( 的宽度和高度) dev_open_window( : :Row,Column,WidthHeight,Background :WindowHandle ) 打开一个图形的窗口。 dev_set_part ( : : Row1, Column1, Row2, Column2 : ) 修改图像显示的位置 dev_set_draw (’fill’) 填满选择的区域 dev_set_draw (’margin’) 显示的对象只有边缘线, dev_set_line_width (3) 线宽用Line Width 指定 threshold (0 12浏览会员免费
- 图像处理大小:6MB本文分为 [概述] [基本构造] [工作原理] [机器视觉系统的典型结构] [机器视觉的应用] 机器视觉在纺织工业上的应用案例 机器视觉在国内外的应用现状 国外机器视觉发展到今天,已经可以清清楚楚分为三个部分: 1,底层开发部分2,二次开发部分。 3,最终使用部分。于是在国外,从事这一行业的人现在也就可以简单而清楚地分成三种人: 1,底层开发的人(从事底层开发工作的人)。2,二次开发的人(从事二次开工作的人)。 3,使用及操作机器视觉系统的人(从事最终使用工作的人)。 机器视觉就是用机器代替人眼来做测量和判断。机器视觉系统是指通过机器视觉产品(即图像摄取装置,分 CMOS 和 CCD 两种)将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号:图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。本文分为 [概述] [基本构造] [工作原理] [机器视觉系统的典型结构] [机器视觉的应用] 机器视觉在纺织工业上的应用案例 机器视觉在国内外的应用现状 国外机器视觉发展到今天,已经可以清清楚楚分为三个部分: 1,底层开发部分2,二次开发部分。 3,最终使用部分。于是在国外,从事这一行业的人现在也就可以简单而清楚地分成三种人: 1,底层开发的人(从事底层开发工作的人)。2,二次开发的人(从事二次开工作的人)。 3,使用及操作机器视觉系统的人(从事最终使用工作的人)。 机器视觉就是用机器代替人眼来做测量和判断。机器视觉系统是指通过机器视觉产品(即图像摄取装置,分 CMOS 和 CCD 两种)将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号:图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。0 12浏览会员免费
- 范文/模板/素材大小:2MBHalcon边长测量方法及其数值的显示,根据图片大小,测量出管脚的实际宽度和距离。最终实现画出一矩形确定ROI,将管脚信息包含在内,根据灰度值检测到管脚的边缘。再由边缘的变换次序(从灰度值从大到小和小到大) ,得出边缘对,计算边缘对的距离和相对距离,得出管脚宽度和距离。Halcon边长测量方法及其数值的显示,根据图片大小,测量出管脚的实际宽度和距离。最终实现画出一矩形确定ROI,将管脚信息包含在内,根据灰度值检测到管脚的边缘。再由边缘的变换次序(从灰度值从大到小和小到大) ,得出边缘对,计算边缘对的距离和相对距离,得出管脚宽度和距离。0 21浏览会员免费
- chrome大小:7MBBegin here!Begin here!0 109浏览会员免费
- chrome大小:181MBBegin here!Begin here!0 5浏览会员免费
- 7Z大小:2MB拉普拉斯矩阵算法解释笔记拉普拉斯矩阵算法解释笔记0 22浏览会员免费
- PLC大小:54MB汽车厂西门子300PLC配双FANUC机器人弧焊工作站实例,零部件厂标准框架汽车厂西门子300PLC配双FANUC机器人弧焊工作站实例,零部件厂标准框架0 12浏览免费
- gru大小:9KB数据集下载(放在data目录下):https://download.csdn.net/download/qq_41605068/89010536 提取训练:extract.py 验证训练:pre-process.py 测试:demo.py数据集下载(放在data目录下):https://download.csdn.net/download/qq_41605068/89010536 提取训练:extract.py 验证训练:pre-process.py 测试:demo.py0 60浏览会员免费
- python大小:3MBPython MNIST 预测手写数字图片Python MNIST 预测手写数字图片0 33浏览会员免费
- python大小:16MBPython MNIST 训练手写数字图片Python MNIST 训练手写数字图片0 20浏览会员免费
- 图像处理大小:4MB小波特征分解+时频图可视化展示+时频图的自动化生成与保存。 小波分解是一种信号处理技术,用于将信号分解成不同频率的子信号。它是通过将信号与一组小波函数进行卷积运算来实现的。小波函数是一种具有局部化特性的函数,可以在时间和频率上进行局部分析。 小波分解的过程可以分为两个步骤:分解和重构。在分解步骤中,原始信号被分解成不同频率的子信号,每个子信号对应一个小波系数。这些子信号包含了原始信号在不同频率范围内的信息。在重构步骤中,通过将这些子信号与对应的小波函数进行线性组合,可以还原出原始信号。 小波分解具有多尺度分析的特点,可以同时提供时间和频率上的信息。它在信号处理、图像处理、数据压缩等领域有广泛的应用。例如,在图像压缩中,小波分解可以将图像分解成不同频率的子图像,从而实现对图像的有损或无损压缩。小波特征分解+时频图可视化展示+时频图的自动化生成与保存。 小波分解是一种信号处理技术,用于将信号分解成不同频率的子信号。它是通过将信号与一组小波函数进行卷积运算来实现的。小波函数是一种具有局部化特性的函数,可以在时间和频率上进行局部分析。 小波分解的过程可以分为两个步骤:分解和重构。在分解步骤中,原始信号被分解成不同频率的子信号,每个子信号对应一个小波系数。这些子信号包含了原始信号在不同频率范围内的信息。在重构步骤中,通过将这些子信号与对应的小波函数进行线性组合,可以还原出原始信号。 小波分解具有多尺度分析的特点,可以同时提供时间和频率上的信息。它在信号处理、图像处理、数据压缩等领域有广泛的应用。例如,在图像压缩中,小波分解可以将图像分解成不同频率的子图像,从而实现对图像的有损或无损压缩。0 34浏览免费
- 人工智能大小:293MB适用于参考、汇报、学习适用于参考、汇报、学习0 10浏览会员免费
- 毕业设计大小:4KB毕业设计&课题任务:Python开发AI贪吃蛇小游戏 本游戏使用Pygame模块开发,不需要玩家操纵贪吃蛇,贪吃蛇会自动吃掉屏幕上随机出现的食物,每吃一个食物贪吃蛇长度增加一节。 这段代码是一个基于Python和pygame库实现的贪吃蛇游戏的核心逻辑部分。游戏在一个25x25大小的网格上进行,其中每个格子都有一个对应的索引值,用于表示蛇的位置、食物位置以及地图上的可达性。 首先,定义了一些全局变量,如游戏区域尺寸(HEIGHT, WIDTH)、屏幕尺寸(SCREEN_X, SCREEN_Y)、场地大小(FIELD_SIZE)以及方向常量LEFT, RIGHT, UP, DOWN等。蛇和临时蛇的位置信息分别存储在一维数组snake和tmpsnake中,初始时蛇长度为1,位于(1,1)的位置。同时设置了食物food的初始位置,并且定义了FOOD、UNDEFINED和SNAKE三个特殊的数值,用来在二维矩阵board中区分食物、未探索区域及蛇体。 游戏中包含多个关键函数: is_cell_free(idx, psize, psnake):检查给定索引idx处的单元格是否为空,即不被蛇身毕业设计&课题任务:Python开发AI贪吃蛇小游戏 本游戏使用Pygame模块开发,不需要玩家操纵贪吃蛇,贪吃蛇会自动吃掉屏幕上随机出现的食物,每吃一个食物贪吃蛇长度增加一节。 这段代码是一个基于Python和pygame库实现的贪吃蛇游戏的核心逻辑部分。游戏在一个25x25大小的网格上进行,其中每个格子都有一个对应的索引值,用于表示蛇的位置、食物位置以及地图上的可达性。 首先,定义了一些全局变量,如游戏区域尺寸(HEIGHT, WIDTH)、屏幕尺寸(SCREEN_X, SCREEN_Y)、场地大小(FIELD_SIZE)以及方向常量LEFT, RIGHT, UP, DOWN等。蛇和临时蛇的位置信息分别存储在一维数组snake和tmpsnake中,初始时蛇长度为1,位于(1,1)的位置。同时设置了食物food的初始位置,并且定义了FOOD、UNDEFINED和SNAKE三个特殊的数值,用来在二维矩阵board中区分食物、未探索区域及蛇体。 游戏中包含多个关键函数: is_cell_free(idx, psize, psnake):检查给定索引idx处的单元格是否为空,即不被蛇身0 54浏览免费
- cmudict大小:731KBnltk_data 中的 cmudict 资源。nltk_data 中的 cmudict 资源。0 15浏览会员免费
- 机器学习大小:1MB两篇机器学习预测材料的论文翻译两篇机器学习预测材料的论文翻译0 13浏览会员免费
- 机器学习大小:12MBsklearn,全称scikit-learn,是Python中一个非常强大的机器学习库,它提供了简单高效的工具,用于数据挖掘和数据分析。sklearn库包含了大量的算法,如分类、回归、聚类、降维、模型选择等,并且这些算法都经过了良好的优化和封装,使得用户可以轻松地应用它们到实际问题中。 sklearn的文档非常完善,不仅提供了每个函数和类的详细解释,还给出了丰富的示例代码,帮助用户快速上手。更值得一提的是,sklearn的文档已经有了中文版本,这对于中文用户来说无疑是一个巨大的福音。通过中文文档,用户可以更加深入地理解每个函数和类的含义和用法,避免由于语言障碍导致的理解错误。 中文版的sklearn文档,从基础概念到高级应用,都进行了详细的阐述。无论是初学者还是有一定经验的机器学习工程师,都可以从中受益。对于初学者来说,中文文档可以帮助他们快速了解sklearn的基本框架和常用算法;对于有经验的工程师来说,中文文档则可以帮助他们更加深入地理解sklearn的高级特性和最佳实践。 此外,sklearn的社区也非常活跃,用户可以在社区中提问、分享经验、交流想法。这不仅可以解决用户在使sklearn,全称scikit-learn,是Python中一个非常强大的机器学习库,它提供了简单高效的工具,用于数据挖掘和数据分析。sklearn库包含了大量的算法,如分类、回归、聚类、降维、模型选择等,并且这些算法都经过了良好的优化和封装,使得用户可以轻松地应用它们到实际问题中。 sklearn的文档非常完善,不仅提供了每个函数和类的详细解释,还给出了丰富的示例代码,帮助用户快速上手。更值得一提的是,sklearn的文档已经有了中文版本,这对于中文用户来说无疑是一个巨大的福音。通过中文文档,用户可以更加深入地理解每个函数和类的含义和用法,避免由于语言障碍导致的理解错误。 中文版的sklearn文档,从基础概念到高级应用,都进行了详细的阐述。无论是初学者还是有一定经验的机器学习工程师,都可以从中受益。对于初学者来说,中文文档可以帮助他们快速了解sklearn的基本框架和常用算法;对于有经验的工程师来说,中文文档则可以帮助他们更加深入地理解sklearn的高级特性和最佳实践。 此外,sklearn的社区也非常活跃,用户可以在社区中提问、分享经验、交流想法。这不仅可以解决用户在使0 114浏览会员免费
- 数据集大小:39MB共包含6大类20个细粒度要素的情感倾向。共包含6大类20个细粒度要素的情感倾向。0 31浏览会员免费
- word2vec大小:933MB中文语料库训练数据集中文语料库训练数据集0 55浏览会员免费
- 人工智能大小:10MB学习人工智能-3条Python命令,从零开始搭建GPT。 如果你不是深度学习领域的专业人士,只是想感受一下它的魔力并初步尝试,那么最快速的入门方式就是在莎士比亚的作品上训练一个字符级别的GPT模型。学习人工智能-3条Python命令,从零开始搭建GPT。 如果你不是深度学习领域的专业人士,只是想感受一下它的魔力并初步尝试,那么最快速的入门方式就是在莎士比亚的作品上训练一个字符级别的GPT模型。0 41浏览会员免费
- matlab大小:2KB离散Hopfield神经网络的分类MATLAB代码离散Hopfield神经网络的分类MATLAB代码0 14浏览会员免费
- matlab大小:6KBSVM神经网络的数据分类预测MATLAB代码SVM神经网络的数据分类预测MATLAB代码0 15浏览会员免费
- matlab大小:4KBGRNN广义回归神经网络MATLAB代码GRNN广义回归神经网络MATLAB代码0 52浏览会员免费
- 神经网络大小:2KBrbf神经网络的回归MATLAB代码rbf神经网络的回归MATLAB代码0 15浏览会员免费
- 神经网络大小:366KBBP神经网络MATLAB代码完整示例BP神经网络MATLAB代码完整示例0 39浏览会员免费
- yolov大小:204MB基于Yolov5的车辆行人检测基于Yolov5的车辆行人检测0 74浏览会员免费
- 软件/插件大小:13MBDarkLabel2.4-视频标注-MOT标注工具-自动标注.7zDarkLabel2.4-视频标注-MOT标注工具-自动标注.7z0 77浏览会员免费
- gpt大小:134KB自己从头做一个最简单的GPT,minGPT by Andrej karpathy https://github.com/karpathy/minGPT自己从头做一个最简单的GPT,minGPT by Andrej karpathy https://github.com/karpathy/minGPT0 28浏览会员免费
- Halcon大小:4MBHalcon傅里叶快速变换+图像差分实现缺陷检测Halcon傅里叶快速变换+图像差分实现缺陷检测0 124浏览会员免费
- wikitext大小:3MB压缩包内包含wiki.test.tokens、wiki.train.tokens、wiki.valid.tokens压缩包内包含wiki.test.tokens、wiki.train.tokens、wiki.valid.tokens0 25浏览会员免费
- 7Z大小:452KBSTN32项目模板-正点原子风格STN32项目模板-正点原子风格0 43浏览免费
- 数据集大小:122MB有2724张足球图片分别有近距离和远距离足球比赛的照片,并有对应的标注xml和txt格式有2724张足球图片分别有近距离和远距离足球比赛的照片,并有对应的标注xml和txt格式0 67浏览会员免费
- 机器学习大小:40KB车辆循迹功能开发相关的车辆运动和摄像头模块的捆绑包:该资源包中共含有相关于调用摄像头的资源和类,已经导入控制小车相关的资源包和类,有了该资源包,结合相关的相机(Astra/Astra pro/Astra pro plus)等即可实现相关类似于循迹、人脸识别、机器学习等相关功能车辆循迹功能开发相关的车辆运动和摄像头模块的捆绑包:该资源包中共含有相关于调用摄像头的资源和类,已经导入控制小车相关的资源包和类,有了该资源包,结合相关的相机(Astra/Astra pro/Astra pro plus)等即可实现相关类似于循迹、人脸识别、机器学习等相关功能0 22浏览会员免费