- YOLOv5大小:756MB约4000张不带口罩的人脸图片+4000张带口罩的人脸图片,含标注文件,符合YOLOv5格式,可直接训练。约4000张不带口罩的人脸图片+4000张带口罩的人脸图片,含标注文件,符合YOLOv5格式,可直接训练。5 1w+浏览免费
- cudnn大小:260MBCould not load dynamic library 'cudnn64_7.dll'; dlerror: cudnn64_7.dll not found 本文件是cudnn-7.6.5的文件,可以用来解决一些tensorflow无法加载某些文件的问题Could not load dynamic library 'cudnn64_7.dll'; dlerror: cudnn64_7.dll not found 本文件是cudnn-7.6.5的文件,可以用来解决一些tensorflow无法加载某些文件的问题5 1w+浏览免费
- 目标检测大小:294MB本资源纯属免费,不收任何钱和任何积分,纯粹为爱发电,本资源已经为大家整合好了的,看我的博客部署好直接用:https://blog.csdn.net/Little_Carter/article/details/133610076?spm=1001.2014.3001.5501 资源原本项目源码地址:https://github.com/MuhammadMoinFaisal/YOLOv8-DeepSORT-Object-Tracking 本资源提供了基于YOLOv8-deepsort算法的智能车辆目标检测、车辆跟踪和车辆计数的实现方案。首先,利用YOLOv8算法对视频中的车辆目标进行检测,并对检测到的目标进行标记。然后,通过deepsort算法对标记的车辆目标进行跟踪,实现车辆目标的持续跟踪。最后,根据跟踪结果对车辆数量进行统计,实现车辆计数功能。本资源提供了完整的代码实现和详细的使用说明,帮助读者快速掌握基于YOLOv8-deepsort的智能车辆目标检测、车辆跟踪和车辆计数技术。本资源纯属免费,不收任何钱和任何积分,纯粹为爱发电,本资源已经为大家整合好了的,看我的博客部署好直接用:https://blog.csdn.net/Little_Carter/article/details/133610076?spm=1001.2014.3001.5501 资源原本项目源码地址:https://github.com/MuhammadMoinFaisal/YOLOv8-DeepSORT-Object-Tracking 本资源提供了基于YOLOv8-deepsort算法的智能车辆目标检测、车辆跟踪和车辆计数的实现方案。首先,利用YOLOv8算法对视频中的车辆目标进行检测,并对检测到的目标进行标记。然后,通过deepsort算法对标记的车辆目标进行跟踪,实现车辆目标的持续跟踪。最后,根据跟踪结果对车辆数量进行统计,实现车辆计数功能。本资源提供了完整的代码实现和详细的使用说明,帮助读者快速掌握基于YOLOv8-deepsort的智能车辆目标检测、车辆跟踪和车辆计数技术。4 6894浏览免费
- opencv大小:199MB使用LabVIEW调用opencv和深度学习模型的工具包(非NI Vision),可直接调用摄像头进行图像采集。简单易于上手。提供包括2d视觉、3d视觉在内的数十个范例,并附送ResNet、语义分割、yolov3/v4/v5、姿态识别等多种模型的源代码。可直接进行深度学习开发!使用LabVIEW调用opencv和深度学习模型的工具包(非NI Vision),可直接调用摄像头进行图像采集。简单易于上手。提供包括2d视觉、3d视觉在内的数十个范例,并附送ResNet、语义分割、yolov3/v4/v5、姿态识别等多种模型的源代码。可直接进行深度学习开发!5 1w+浏览免费
- 深度学习大小:62MB行人跌倒数据集(VOC格式)行人跌倒数据集(VOC格式)5 8734浏览免费
- 数据集大小:231MB手把手教物体检测用到的数据集手把手教物体检测用到的数据集5 6848浏览免费
- 数据集大小:837B数据集有三列:年、月和乘客。“passengers”列包含指定月份中旅行的乘客总数,可以看到数据集中有144行3列,这意味着数据集中包含了乘客12年的出行记录。这项任务是根据前132个月的数据,预测过去12个月出行的乘客数量。请记住,我们有144个月的记录,这意味着前132个月的数据将用于训练我们的LSTM模型,而模型性能将使用最后12个月的值进行评估。数据集有三列:年、月和乘客。“passengers”列包含指定月份中旅行的乘客总数,可以看到数据集中有144行3列,这意味着数据集中包含了乘客12年的出行记录。这项任务是根据前132个月的数据,预测过去12个月出行的乘客数量。请记住,我们有144个月的记录,这意味着前132个月的数据将用于训练我们的LSTM模型,而模型性能将使用最后12个月的值进行评估。3 7574浏览免费
- 深度学习大小:3MB由五名研究人员和工程师组成的团队发布了《Deep Learning Tuning Playbook》,来自他们自己训练神经网络的实验结果以及工程师的一些实践建议,目前在Github上已有1.5k星。此版本为中文翻译版,提供给大家免费下载,因为本人知识水平有限,翻译过程中可能有误,随时欢迎大家指出错误,我会随时更正。由五名研究人员和工程师组成的团队发布了《Deep Learning Tuning Playbook》,来自他们自己训练神经网络的实验结果以及工程师的一些实践建议,目前在Github上已有1.5k星。此版本为中文翻译版,提供给大家免费下载,因为本人知识水平有限,翻译过程中可能有误,随时欢迎大家指出错误,我会随时更正。5 2760浏览免费
- yolov8大小:367MByolov8(2023年8月版本),已经下好yolov8s.pt和yolov8n.pt,需要创建的文件夹都以创建,方便大家不用再去GitHub下载 可以搭配该博客:https://blog.csdn.net/weixin_43366149/article/details/132206526?spm=1001.2014.3001.5501yolov8(2023年8月版本),已经下好yolov8s.pt和yolov8n.pt,需要创建的文件夹都以创建,方便大家不用再去GitHub下载 可以搭配该博客:https://blog.csdn.net/weixin_43366149/article/details/132206526?spm=1001.2014.3001.55015 3853浏览免费
- pytorch大小:69KBUnet通常应用到单类别的语义分割,经过调整后该代码适合于多类别的语义分割。对应博客:https://blog.csdn.net/brf_UCAS/article/details/112383722Unet通常应用到单类别的语义分割,经过调整后该代码适合于多类别的语义分割。对应博客:https://blog.csdn.net/brf_UCAS/article/details/1123837221 1w+浏览免费
- 源码软件大小:26MBdownload-NEU-DETdownload-NEU-DET5 3427浏览免费
- pytorch大小:27MB这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。其灵活的模型结构允许调整以适应不同复杂度这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。定制化训练个人数据集进行训练利用python和pytorch实现这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。其灵活的模型结构允许调整以适应不同复杂度这篇文章给大家带来是Transformer在时间序列预测上的应用,这种模型最初是为了处理自然语言处理(NLP)任务而设计的,但由于其独特的架构和能力,它也被用于时间序列分析。Transformer应用于时间序列分析中的基本思想是:Transformer 在时间序列分析中的应用核心在于其自注意力机制,这使其能够有效捕捉时间序列数据中的长期依赖关系。通过并行处理能力和位置编码,Transformer 不仅提高了处理效率,而且确保了时间顺序的准确性。定制化训练个人数据集进行训练利用python和pytorch实现5 3478浏览免费
- paddlepaddle大小:483MBPaddlePaddle实现的DeepSpeech2模型,训练aishell数据集训练的模型,源码地址:https://github.com/yeyupiaoling/PaddlePaddle-DeepSpeechPaddlePaddle实现的DeepSpeech2模型,训练aishell数据集训练的模型,源码地址:https://github.com/yeyupiaoling/PaddlePaddle-DeepSpeech5 4153浏览免费
- matlab大小:281KB压缩包内有PID仿真实验报告和simulink仿真文件,相应的文章:https://blog.csdn.net/Fan_zhaoyang/article/details/119410248#comments_20936284压缩包内有PID仿真实验报告和simulink仿真文件,相应的文章:https://blog.csdn.net/Fan_zhaoyang/article/details/119410248#comments_209362845 2889浏览免费
- paddlepaddle大小:622MBPaddlePaddle实现的DeepSpeech2模型,训练thchs30数据集训练的模型,源码地址:https://github.com/yeyupiaoling/PaddlePaddle-DeepSpeechPaddlePaddle实现的DeepSpeech2模型,训练thchs30数据集训练的模型,源码地址:https://github.com/yeyupiaoling/PaddlePaddle-DeepSpeech3 3232浏览免费
- 目标检测大小:26MBFasterRcnn的代码复现FasterRcnn的代码复现4 2561浏览免费
- 数据集大小:21MB解压后有两个文件夹,一个train,一个test,两个文件夹都有十个子目录,分别是十类目标的SAR图像,图像为100*100的灰度图像解压后有两个文件夹,一个train,一个test,两个文件夹都有十个子目录,分别是十类目标的SAR图像,图像为100*100的灰度图像5 4303浏览免费
- 输电线路电力金具数据集大小:497MB输电线路电力金具数据集(2k多张图像,含标签)输电线路电力金具数据集(2k多张图像,含标签)0 2506浏览免费
- pytorch大小:391MB本项目采用YOLOv5实现垃圾分类目标检测。利用大量已标注目标检测数据集进行训练,对居民生活垃圾图片进行检测,找出图片中属于哪个类别的垃圾,并指示出在图片中的位置。 本工程YOLOv5使用PyTorch版的ultralytics/yolov5,在Windows系统上进行垃圾分类目标检测的项目演示。具体项目过程包括:数据集及格式转换、探索性数据分析(EDA)、安装软件环境、安装YOLOv5、修改YOLOv5代码(为支持中文标签)、训练集和测试集自动划分、修改配置文件、准备Weights&Biases训练可视化工具、训练网络模型、测试训练出的网络模型和性能统计。本项目采用YOLOv5实现垃圾分类目标检测。利用大量已标注目标检测数据集进行训练,对居民生活垃圾图片进行检测,找出图片中属于哪个类别的垃圾,并指示出在图片中的位置。 本工程YOLOv5使用PyTorch版的ultralytics/yolov5,在Windows系统上进行垃圾分类目标检测的项目演示。具体项目过程包括:数据集及格式转换、探索性数据分析(EDA)、安装软件环境、安装YOLOv5、修改YOLOv5代码(为支持中文标签)、训练集和测试集自动划分、修改配置文件、准备Weights&Biases训练可视化工具、训练网络模型、测试训练出的网络模型和性能统计。5 4694浏览免费
- 神经网络大小:3MB【神经网络与深度学习】CIFAR10数据集介绍,并使用卷积神经网络训练图像分类模型——**附完整代码**和**训练好的模型文件**——直接用。 具体介绍,看我的文章,链接:https://blog.csdn.net/weixin_45954454/article/details/114519299【神经网络与深度学习】CIFAR10数据集介绍,并使用卷积神经网络训练图像分类模型——**附完整代码**和**训练好的模型文件**——直接用。 具体介绍,看我的文章,链接:https://blog.csdn.net/weixin_45954454/article/details/1145192990 3061浏览免费
- YOLO大小:321MB英伟达针对arm架构jetson nano 的pytorch和对应的torchvision0.9.0英伟达针对arm架构jetson nano 的pytorch和对应的torchvision0.9.00 1539浏览免费
- 数据集大小:421KB资源内是YOLO数据集数据增强代码,含有图像旋转、剪裁、平移、加噪声、调节亮度、翻转、镜像、缩放等方法。另外附有xml到txt转换的代码,并可实现带标签扩增。 内含教程,非常简单易上手。资源内是YOLO数据集数据增强代码,含有图像旋转、剪裁、平移、加噪声、调节亮度、翻转、镜像、缩放等方法。另外附有xml到txt转换的代码,并可实现带标签扩增。 内含教程,非常简单易上手。0 3395浏览免费
- 人工智能大小:2MB使用卷积神经网络训练模型,具体介绍,参看我写的这篇文章:https://blog.csdn.net/weixin_45954454/article/details/114455209。使用卷积神经网络训练模型,具体介绍,参看我写的这篇文章:https://blog.csdn.net/weixin_45954454/article/details/114455209。5 3197浏览免费
- 神经网络大小:24MB包含GPU和CPU两个版本,无论使用何种框架训练的onnx模型,都可以无缝集成到LabVIEW中,并使用工具包提供的CUDA,TensorRT接口实现加速推理,安装步骤可查看:https://blog.csdn.net/virobotics/article/details/124998746包含GPU和CPU两个版本,无论使用何种框架训练的onnx模型,都可以无缝集成到LabVIEW中,并使用工具包提供的CUDA,TensorRT接口实现加速推理,安装步骤可查看:https://blog.csdn.net/virobotics/article/details/1249987460 2174浏览免费
- 人工智能大小:683KBYOLOv8 博文配套资源 2023年4月27日版本YOLOv8 博文配套资源 2023年4月27日版本5 1990浏览免费
- paddlepaddle大小:597MBPaddlePaddle实现的DeepSpeech2模型,训练free_st_chinese_mandarin_corpus数据集训练的模型,源码地址:https://github.com/yeyupiaoling/PaddlePaddle-DeepSpeechPaddlePaddle实现的DeepSpeech2模型,训练free_st_chinese_mandarin_corpus数据集训练的模型,源码地址:https://github.com/yeyupiaoling/PaddlePaddle-DeepSpeech0 1683浏览免费
- RTSP转RTMP大小:93MBWindow环境下 海康视频RTMP推流方法,使用到的工具。希望能够帮到大家。Window环境下 海康视频RTMP推流方法,使用到的工具。希望能够帮到大家。5 3832浏览免费
- gazebo大小:299MB来自http://data.nvision2.eecs.yorku.ca/3DGEMS/的gazebo仿真模型:拥有270+细节丰富的办公室环境三维仿真模型,主要面向版本为gazebo7,高版本可兼容来自http://data.nvision2.eecs.yorku.ca/3DGEMS/的gazebo仿真模型:拥有270+细节丰富的办公室环境三维仿真模型,主要面向版本为gazebo7,高版本可兼容1 2432浏览免费
- 深度学习大小:116MB本篇博客带大家看的是Informer模型进行时间序列预测的实战案例,它是在2019年被提出并在ICLR 2020上被评为Best Paper,可以说Informer模型在当今的时间序列预测方面还是十分可靠的,Informer模型的实质是注意力机制+Transformer模型,Informer模型的核心思想是将输入序列进行自注意力机制的处理,以捕捉序列中的长期依赖关系,并利用Transformer的编码器-解码器结构进行预测,通过阅读本文你可以学会利用个人数据集训练模型。Informer是一种用于长序列时间序列预测的Transformer模型,但是它与传统的Transformer模型又有些不同点,与传统的Transformer模型相比,Informer具有以下几个独特的特点: 1. ProbSparse自注意力机制:Informer引入了ProbSparse自注意力机制,该机制在时间复杂度和内存使用方面达到了O(Llog L)的水平,能够有效地捕捉序列之间的长期依赖关系。 2. 自注意力蒸馏:通过减少级联层的输入,自注意力蒸馏技术可以有效处理极长的输入序列,提高了模型处理长序列的能力本篇博客带大家看的是Informer模型进行时间序列预测的实战案例,它是在2019年被提出并在ICLR 2020上被评为Best Paper,可以说Informer模型在当今的时间序列预测方面还是十分可靠的,Informer模型的实质是注意力机制+Transformer模型,Informer模型的核心思想是将输入序列进行自注意力机制的处理,以捕捉序列中的长期依赖关系,并利用Transformer的编码器-解码器结构进行预测,通过阅读本文你可以学会利用个人数据集训练模型。Informer是一种用于长序列时间序列预测的Transformer模型,但是它与传统的Transformer模型又有些不同点,与传统的Transformer模型相比,Informer具有以下几个独特的特点: 1. ProbSparse自注意力机制:Informer引入了ProbSparse自注意力机制,该机制在时间复杂度和内存使用方面达到了O(Llog L)的水平,能够有效地捕捉序列之间的长期依赖关系。 2. 自注意力蒸馏:通过减少级联层的输入,自注意力蒸馏技术可以有效处理极长的输入序列,提高了模型处理长序列的能力5 2383浏览免费
- 数据集大小:31MB这个项目是一个基于YOLOv8-Pose的姿态识别系统,专门用于识别和分析人体姿态。项目采用了最新的YOLOv8-Pose算法,结合了COCO数据集的8种常见姿态,能够快速准确地识别人体的各种姿态。这个可以作为一个简单的项目案例,后续可以直接换成自己的数据去进行训练。 功能特点: 高效识别:使用了先进的YOLOv8-Pose算法,确保了识别的准确性和效率。 支持多种姿态:能够识别COCO数据集中定义的8种主要姿态。 实时处理能力:项目设计支持实时姿态识别,适用于视频监控、动态分析等场景。 使用方法: 环境要求:详细说明所需的操作系统、依赖库和运行环境。 安装步骤:提供项目安装和配置的具体指导。 运行指南:说明如何启动姿态识别任务,包括命令行参数等。这个项目是一个基于YOLOv8-Pose的姿态识别系统,专门用于识别和分析人体姿态。项目采用了最新的YOLOv8-Pose算法,结合了COCO数据集的8种常见姿态,能够快速准确地识别人体的各种姿态。这个可以作为一个简单的项目案例,后续可以直接换成自己的数据去进行训练。 功能特点: 高效识别:使用了先进的YOLOv8-Pose算法,确保了识别的准确性和效率。 支持多种姿态:能够识别COCO数据集中定义的8种主要姿态。 实时处理能力:项目设计支持实时姿态识别,适用于视频监控、动态分析等场景。 使用方法: 环境要求:详细说明所需的操作系统、依赖库和运行环境。 安装步骤:提供项目安装和配置的具体指导。 运行指南:说明如何启动姿态识别任务,包括命令行参数等。5 2645浏览免费
- 源码软件大小:470MBYOLOv5源码下载连接YOLOv5源码下载连接0 2352浏览免费
- pytorch大小:758MB1、项目要求: 基于 pytorch 搭建神经网络分类模型识别花的种类,输入一张花的照片,输出显示最有可能的前八种花的名称和该种花的照片。 2、分三大步骤操作: 数据集预处理操作: 读取数据集数据 构建神经网络的数据集 1)数据增强:torchvision中transforms模块自带功能,将数据集中照片进行旋转、翻折、放大…得到更多的数据 2)数据预处理:torchvision中transforms也帮我们实现好了,直接调用即可 3)处理好的数据集保存在DataLoader模块中,可直接读取batch数据 网络模型训练操作: 迁移pytorch官网中models提供的resnet模型,torchvision中有很多经典网络架构,调用起来十分方便,并且可以用人家训练好的权重参数来继续训练,也就是所谓的迁移学习 选择GPU计算、选择训练哪些层、优化器设置、损失函数设置… 训练全连接层...... 详细介绍见:https://blog.csdn.net/zhaohaobingniu/article/details/119922606?spm=1001.2014.3001.55011、项目要求: 基于 pytorch 搭建神经网络分类模型识别花的种类,输入一张花的照片,输出显示最有可能的前八种花的名称和该种花的照片。 2、分三大步骤操作: 数据集预处理操作: 读取数据集数据 构建神经网络的数据集 1)数据增强:torchvision中transforms模块自带功能,将数据集中照片进行旋转、翻折、放大…得到更多的数据 2)数据预处理:torchvision中transforms也帮我们实现好了,直接调用即可 3)处理好的数据集保存在DataLoader模块中,可直接读取batch数据 网络模型训练操作: 迁移pytorch官网中models提供的resnet模型,torchvision中有很多经典网络架构,调用起来十分方便,并且可以用人家训练好的权重参数来继续训练,也就是所谓的迁移学习 选择GPU计算、选择训练哪些层、优化器设置、损失函数设置… 训练全连接层...... 详细介绍见:https://blog.csdn.net/zhaohaobingniu/article/details/119922606?spm=1001.2014.3001.55010 5325浏览免费
- YOLOv5大小:295MBYOLOv5四个权重文件 yolov5s.pt yolov5m.pt yolov5l.pt yolov5x.ptYOLOv5四个权重文件 yolov5s.pt yolov5m.pt yolov5l.pt yolov5x.pt5 5485浏览免费
- GAN大小:274MB5W张96*96的日本动漫头像,用于GAN生成对抗模型的训练。 https://blog.csdn.net/bu_fo/article/details/1098000545W张96*96的日本动漫头像,用于GAN生成对抗模型的训练。 https://blog.csdn.net/bu_fo/article/details/1098000545 3572浏览免费
- matlab大小:363KB代码可以参考博文:https://blog.csdn.net/weixin_43687366/article/details/88139441#comments_13625330 手写数字识别 手写数字识别 手写数字识别代码可以参考博文:https://blog.csdn.net/weixin_43687366/article/details/88139441#comments_13625330 手写数字识别 手写数字识别 手写数字识别4 3308浏览免费
- 电子科技大学课程实验报告大小:625KB电子科技大学数据挖掘课程 第二次实验 关联规则挖掘 实验报告及代码实现 包括频繁项集获取过程 关联规则获取过程 自认为理解&写得还是很透彻的哈哈哈 没看懂可以来找我~电子科技大学数据挖掘课程 第二次实验 关联规则挖掘 实验报告及代码实现 包括频繁项集获取过程 关联规则获取过程 自认为理解&写得还是很透彻的哈哈哈 没看懂可以来找我~0 5352浏览免费
- 数据集大小:4MB图像可用于进行检测,分割,等桥梁病害,该数据共有一包,包含500张真实桥梁裂缝图像,可与其他数据配合使用,主要运用与神经网络的训练和测试环节。图像可用于进行检测,分割,等桥梁病害,该数据共有一包,包含500张真实桥梁裂缝图像,可与其他数据配合使用,主要运用与神经网络的训练和测试环节。3 1353浏览免费
- TensorRT大小:744MB本教程目的为让开发者了解深度学习中的完整流程,这包括:** 1.数据集导入及预处理流程 2.网络模型选择及参数设置流程 3.模型训练及导出流程 4.模型加载/优化并得出推断结果 本教程采用了以下主要的软硬件环境:** 1.NVIDIA Xavier NX 2.Jetpack 4.6 3.TensorRT 8.0.1 4.Pytorch 1.10.0 5.Python 3.6.9 6.Opencv 4.1.1本教程目的为让开发者了解深度学习中的完整流程,这包括:** 1.数据集导入及预处理流程 2.网络模型选择及参数设置流程 3.模型训练及导出流程 4.模型加载/优化并得出推断结果 本教程采用了以下主要的软硬件环境:** 1.NVIDIA Xavier NX 2.Jetpack 4.6 3.TensorRT 8.0.1 4.Pytorch 1.10.0 5.Python 3.6.9 6.Opencv 4.1.15 2031浏览免费
- 目标检测大小:10KByolov5小目标检测 不附带yolo代码 详细介绍参考博客https://blog.csdn.net/qq_43622870/article/details/124984295yolov5小目标检测 不附带yolo代码 详细介绍参考博客https://blog.csdn.net/qq_43622870/article/details/1249842950 2963浏览免费
- 数据集大小:22MB适用于Yolo训练和测试的coco数据集标签文件 train2017.txt和val2017.txt和train2017.zip和val2017.zip yolov7 yolov5 yolov8适用于Yolo训练和测试的coco数据集标签文件 train2017.txt和val2017.txt和train2017.zip和val2017.zip yolov7 yolov5 yolov80 1357浏览免费
- yolo大小:228MByolo4涉及的配置、模型、类别名称等文件yolo4涉及的配置、模型、类别名称等文件0 708浏览免费
- 软件/插件大小:208MB这一资源包含了完整的YOLOv8目标追踪项目的源码和相关数据集,旨在为学习和研究YOLOv8提供一个实际操作的案例。资源内的源码基于最新的YOLOv8模型,专注于实现高效准确的物体追踪功能,并且适用于各种现实场景。此外,还附带了用于训练和测试的数据集,这些数据集经过精心选择和预处理,以确保可以有效地用于模型的训练和验证。无论您是深度学习领域的初学者,还是希望在自己的项目中实现物体追踪功能的开发者,这个资源都将是一个简单的参考。通过下载和探索这个资源,您可以方便地理解YOLOv8的工作原理,并在实际项目中应用这一先进的目标追踪技术。 该源码是和《超详细概述YOLOV8实现目标追踪任务全解析》相对应的,大家下载这份源码后,有不明白的地方可以直接看这个博客进行进一步的理解。这一资源包含了完整的YOLOv8目标追踪项目的源码和相关数据集,旨在为学习和研究YOLOv8提供一个实际操作的案例。资源内的源码基于最新的YOLOv8模型,专注于实现高效准确的物体追踪功能,并且适用于各种现实场景。此外,还附带了用于训练和测试的数据集,这些数据集经过精心选择和预处理,以确保可以有效地用于模型的训练和验证。无论您是深度学习领域的初学者,还是希望在自己的项目中实现物体追踪功能的开发者,这个资源都将是一个简单的参考。通过下载和探索这个资源,您可以方便地理解YOLOv8的工作原理,并在实际项目中应用这一先进的目标追踪技术。 该源码是和《超详细概述YOLOV8实现目标追踪任务全解析》相对应的,大家下载这份源码后,有不明白的地方可以直接看这个博客进行进一步的理解。0 1163浏览免费
- yolov5大小:52MB基于DeepSORT算法和YOLOv5 7.0版本的目标跟踪实现。DeepSORT是一种强大的多目标跟踪算法,结合YOLOv5 7.0版本的目标检测能力,可以实现高效准确的实时目标跟踪。 基于 YOLOV5 和 DeepSort 的目标追踪算法是一种结合了目标检测和运动预测的方法,用于在视频中实现多目标跟踪。 YOLOV5 是一种目标检测算法,它能够从视频帧中检测出目标对象,并给出其位置信息。具体来说,YOLOV5 通过将视频分解成多幅图像并逐帧执行,能够识别出每帧中的目标对象,并为其分配标签。 DeepSort 是基于 SORT 的目标跟踪算法的改进版。它从 SORT 演变而来,使用卡尔曼滤波器预测所检测对象的运动轨迹,并使用匈牙利算法将它们与新的检测目标相匹配。DeepSort 还整合了外观信息,从而提高 SORT 的性能,这使得在遇到较长时间的遮挡时,也能够正常跟踪目标,并有效减少 ID 转换的发生次数。 在基于 YOLOV5 和 DeepSort 的目标追踪算法中,首先使用 YOLOV5 对视频帧进行目标检测,然后使用 DeepSort 对检测到的目标进行跟踪。具体步基于DeepSORT算法和YOLOv5 7.0版本的目标跟踪实现。DeepSORT是一种强大的多目标跟踪算法,结合YOLOv5 7.0版本的目标检测能力,可以实现高效准确的实时目标跟踪。 基于 YOLOV5 和 DeepSort 的目标追踪算法是一种结合了目标检测和运动预测的方法,用于在视频中实现多目标跟踪。 YOLOV5 是一种目标检测算法,它能够从视频帧中检测出目标对象,并给出其位置信息。具体来说,YOLOV5 通过将视频分解成多幅图像并逐帧执行,能够识别出每帧中的目标对象,并为其分配标签。 DeepSort 是基于 SORT 的目标跟踪算法的改进版。它从 SORT 演变而来,使用卡尔曼滤波器预测所检测对象的运动轨迹,并使用匈牙利算法将它们与新的检测目标相匹配。DeepSort 还整合了外观信息,从而提高 SORT 的性能,这使得在遇到较长时间的遮挡时,也能够正常跟踪目标,并有效减少 ID 转换的发生次数。 在基于 YOLOV5 和 DeepSort 的目标追踪算法中,首先使用 YOLOV5 对视频帧进行目标检测,然后使用 DeepSort 对检测到的目标进行跟踪。具体步4 2742浏览免费
- 数据集大小:338MB数据集我已经处理成YOLO格式,可以直接训练YOLO相关模型,无需划分数据集和转换,包含: 训练集2501 验证集2510 测试集4952数据集我已经处理成YOLO格式,可以直接训练YOLO相关模型,无需划分数据集和转换,包含: 训练集2501 验证集2510 测试集49525 1181浏览免费
- LSTM大小:2MB本文通过实战案例讲解TPA-LSTM实现多元时间序列预测,在本文中所提到的TPA和LSTM分别是注意力机制和深度学习模型,通过将其结合到一起实现时间序列的预测,本文利用有关油温的数据集来进行训练模型,同时将模型保存到本地,进行加载实现多步长预测,本文所利用的数据集也可以替换成你个人的数据集来进行预测(修改个人的数据集的地方本文也进行了标注),同时本文会对TPA和LSTM分别进行概念的讲解帮助大家理解其中的运行机制原理(包括个人总结已经论文内容)。TPA(Temporal Pattern Attention)注意力机制是一种用于处理时间序列数据的注意力机制。它的工作原理是在传统的注意力机制的基础上引入了时间模式的概念,以更好地捕捉时间序列中的重要模式和特征。LSTM(长短期记忆,Long Short-Term Memory)是一种用于处理序列数据的深度学习模型,属于循环神经网络(RNN)的一种变体,其使用一种类似于搭桥术结构的RNN单元。相对于普通的RNN,LSTM引入了门控机制,能够更有效地处理长期依赖和短期记忆问题,是RNN网络中最常使用的Cell之一。配合我的博客大家可以实现预测。本文通过实战案例讲解TPA-LSTM实现多元时间序列预测,在本文中所提到的TPA和LSTM分别是注意力机制和深度学习模型,通过将其结合到一起实现时间序列的预测,本文利用有关油温的数据集来进行训练模型,同时将模型保存到本地,进行加载实现多步长预测,本文所利用的数据集也可以替换成你个人的数据集来进行预测(修改个人的数据集的地方本文也进行了标注),同时本文会对TPA和LSTM分别进行概念的讲解帮助大家理解其中的运行机制原理(包括个人总结已经论文内容)。TPA(Temporal Pattern Attention)注意力机制是一种用于处理时间序列数据的注意力机制。它的工作原理是在传统的注意力机制的基础上引入了时间模式的概念,以更好地捕捉时间序列中的重要模式和特征。LSTM(长短期记忆,Long Short-Term Memory)是一种用于处理序列数据的深度学习模型,属于循环神经网络(RNN)的一种变体,其使用一种类似于搭桥术结构的RNN单元。相对于普通的RNN,LSTM引入了门控机制,能够更有效地处理长期依赖和短期记忆问题,是RNN网络中最常使用的Cell之一。配合我的博客大家可以实现预测。0 1528浏览免费
- 自然语言处理大小:128MBglove.6B.100d数据,词向量词嵌入文件,可以用于做NLP,用来做情感分析都可以啊,良心好资源glove.6B.100d数据,词向量词嵌入文件,可以用于做NLP,用来做情感分析都可以啊,良心好资源5 1307浏览免费
- transformer大小:53MB本文给大家带来是DLinear模型,DLinear是一种用于时间序列预测(TSF)的简单架构,DLinear的核心思想是将时间序列分解为趋势和剩余序列,并分别使用两个单层线性网络对这两个序列进行建模以进行预测(值得一提的是DLinear的出现是为了挑战Transformer在实现序列预测中有效性)。本文的讲解内容包括:模型原理、数据集介绍、参数讲解、模型训练和预测、结果可视化、训练个人数据集,讲解顺序如下->预测类型->这个模型我在写的过程中为了节省大家训练自己数据集,我基本上把大部分的参数都写好了。我看论文的内容大比分都是对比实验,因为DLinear的产生就是为了质疑Transformer所以他和各种Transformer的模型进行对比试验,因为本篇文章就是DLinear的实战案例,对比的部分我就不讲了,大家有兴趣可以看看论文内容在最上面我已经提供了链接。 到此本文已经全部讲解完成了,希望能够帮助到大家,在这里也给大家推荐一些我其它的博客的时间序列实战案例讲解,其中有数据分析的讲解就是我前面提到的如何设置参数的分析博客,最后希望大家订阅我的专栏,本专栏均分文章均分98,并且免费阅读。本文给大家带来是DLinear模型,DLinear是一种用于时间序列预测(TSF)的简单架构,DLinear的核心思想是将时间序列分解为趋势和剩余序列,并分别使用两个单层线性网络对这两个序列进行建模以进行预测(值得一提的是DLinear的出现是为了挑战Transformer在实现序列预测中有效性)。本文的讲解内容包括:模型原理、数据集介绍、参数讲解、模型训练和预测、结果可视化、训练个人数据集,讲解顺序如下->预测类型->这个模型我在写的过程中为了节省大家训练自己数据集,我基本上把大部分的参数都写好了。我看论文的内容大比分都是对比实验,因为DLinear的产生就是为了质疑Transformer所以他和各种Transformer的模型进行对比试验,因为本篇文章就是DLinear的实战案例,对比的部分我就不讲了,大家有兴趣可以看看论文内容在最上面我已经提供了链接。 到此本文已经全部讲解完成了,希望能够帮助到大家,在这里也给大家推荐一些我其它的博客的时间序列实战案例讲解,其中有数据分析的讲解就是我前面提到的如何设置参数的分析博客,最后希望大家订阅我的专栏,本专栏均分文章均分98,并且免费阅读。0 909浏览免费
- 毕业设计大小:1MB在之前的文章中我们已经讲过Informer模型了,但是呢官方的预测功能开发的很简陋只能设定固定长度去预测未来固定范围的值,当我们想要发表论文的时候往往这个预测功能是并不能满足的,所以我在官方代码的基础上增添了一个滚动长期预测的功能,这个功能就是指我们可以第一次预测未来24个时间段的值然后我们像模型中填补 24个值再次去预测未来24个时间段的值(填补功能我设置成自动的了无需大家手动填补),这个功能可以说是很实用的,这样我们可以准确的评估固定时间段的值,当我们实际使用时可以设置自动爬取数据从而产生实际效用。本文修改内容完全为本人个人开发,创作不易所以如果能够帮助到大家希望大家给我的文章点点赞,同时可以关注本专栏(免费阅读),本专栏持续复现各种的顶会内容,无论你想发顶会还是其它水平的论文都能够对你有所帮助。 时间序列预测在许多领域都是关键要素,在这些场景中,我们可以利用大量的时间序列历史数据来进行长期预测,即长序列时间序列预测(LSTF)。然而,现有方法大多设计用于短期问题,如预测48点或更少的数据。随着序列长度的增加,模型的预测能力受到挑战。例如,当预测长度超过48点时,LSTM网络的预测在之前的文章中我们已经讲过Informer模型了,但是呢官方的预测功能开发的很简陋只能设定固定长度去预测未来固定范围的值,当我们想要发表论文的时候往往这个预测功能是并不能满足的,所以我在官方代码的基础上增添了一个滚动长期预测的功能,这个功能就是指我们可以第一次预测未来24个时间段的值然后我们像模型中填补 24个值再次去预测未来24个时间段的值(填补功能我设置成自动的了无需大家手动填补),这个功能可以说是很实用的,这样我们可以准确的评估固定时间段的值,当我们实际使用时可以设置自动爬取数据从而产生实际效用。本文修改内容完全为本人个人开发,创作不易所以如果能够帮助到大家希望大家给我的文章点点赞,同时可以关注本专栏(免费阅读),本专栏持续复现各种的顶会内容,无论你想发顶会还是其它水平的论文都能够对你有所帮助。 时间序列预测在许多领域都是关键要素,在这些场景中,我们可以利用大量的时间序列历史数据来进行长期预测,即长序列时间序列预测(LSTF)。然而,现有方法大多设计用于短期问题,如预测48点或更少的数据。随着序列长度的增加,模型的预测能力受到挑战。例如,当预测长度超过48点时,LSTM网络的预测5 2860浏览免费
- 深度学习大小:728KB当今的深度学习方法专注于如何设计最合适的目标函数,以使模型的预测结果尽可能接近真实值。同时,还需要设计一个合适的架构,以便获取足够的信息进行预测。现有方法忽略了一个事实:当输入数据经过逐层的特征提取和空间变换时,会丢失大量信息。本文将深入探讨数据在深度网络中传输时数据丢失的重要问题,即信息瓶颈和可逆函数问题。我们提出了可编程梯度信息(PGI)的概念,以应对深度网络实现多个目标所需的各种变化。PGI能够为目标任务提供完整的输入信息,以计算目标函数,从而获得可靠的梯度信息以更新网络权重。此外,我们还设计了一种基于梯度路径规划的新型轻量级网络架构——广义高效层聚合网络(GELAN)。GELAN的架构证明了PGI在轻量级模型上获得了优越的结果。我们在基于MS COCO数据集的目标检测上验证了所提出的GELAN和PGI。结果显示,GELAN仅使用传统的卷积运算符就实现了比基于深度卷积的最新方法更好的参数利用率。PGI可用于从轻量级到大型的各种模型,它可以获取完整信息,使得从零开始训练的模型比使用大型数据集预训练的最新模型获得更好的结果,比较结果如图1所示。当今的深度学习方法专注于如何设计最合适的目标函数,以使模型的预测结果尽可能接近真实值。同时,还需要设计一个合适的架构,以便获取足够的信息进行预测。现有方法忽略了一个事实:当输入数据经过逐层的特征提取和空间变换时,会丢失大量信息。本文将深入探讨数据在深度网络中传输时数据丢失的重要问题,即信息瓶颈和可逆函数问题。我们提出了可编程梯度信息(PGI)的概念,以应对深度网络实现多个目标所需的各种变化。PGI能够为目标任务提供完整的输入信息,以计算目标函数,从而获得可靠的梯度信息以更新网络权重。此外,我们还设计了一种基于梯度路径规划的新型轻量级网络架构——广义高效层聚合网络(GELAN)。GELAN的架构证明了PGI在轻量级模型上获得了优越的结果。我们在基于MS COCO数据集的目标检测上验证了所提出的GELAN和PGI。结果显示,GELAN仅使用传统的卷积运算符就实现了比基于深度卷积的最新方法更好的参数利用率。PGI可用于从轻量级到大型的各种模型,它可以获取完整信息,使得从零开始训练的模型比使用大型数据集预训练的最新模型获得更好的结果,比较结果如图1所示。0 1414浏览免费
- 遗传算法大小:480KBhttps://blog.csdn.net/qq_43276566/article/details/129402447 基于遗传算法的CVRP建模求解-Python代码https://blog.csdn.net/qq_43276566/article/details/129402447 基于遗传算法的CVRP建模求解-Python代码0 747浏览免费
- 数据集大小:53MB完全免费 下载解压就用 可以打开完全免费 下载解压就用 可以打开5 855浏览免费
- 强化学习大小:17MB强化学习算法合集(DQN、DDPG、SAC、TD3、MADDPG、QMIX等等)内涵20+强化学习经典算法代码。对应使用教程什么的参考博客: 多智能体(前沿算法+原理) https://blog.csdn.net/sinat_39620217/article/details/115299073?spm=1001.2014.3001.5502 强化学习基础篇(单智能体算法) https://blog.csdn.net/sinat_39620217/category_10940146.html强化学习算法合集(DQN、DDPG、SAC、TD3、MADDPG、QMIX等等)内涵20+强化学习经典算法代码。对应使用教程什么的参考博客: 多智能体(前沿算法+原理) https://blog.csdn.net/sinat_39620217/article/details/115299073?spm=1001.2014.3001.5502 强化学习基础篇(单智能体算法) https://blog.csdn.net/sinat_39620217/category_10940146.html0 2093浏览免费
- 图像处理大小:67KB描述: MNIST160 手写数字图片数据集是一组精心挑选和优化的图像,专为最新的 YOLOv8 图像分类任务设计。此数据集包含了 160 张高质量的手写数字图像,这些图像代表了从 0 到 9 的数字,每个数字有 16 个不同的手写样式。每幅图像都经过仔细处理,以确保清晰度和一致性,使其成为理想的训练材料。 关键特点: 高分辨率图像:每张图像都具有高分辨率,保证了图像的清晰度,便于 YOLOv8 算法准确识别和分类。 多样化样式:160 张图像包含了多种手写风格,确保了数据集的多样性,帮助算法更好地理解和识别不同的手写数字。 优化标注:所有图像都配有精确的标注信息,包括数字的位置和类别,这对于 YOLOv8 算法的有效训练至关重要。 适用于多种用途:这个数据集不仅适用于基本的数字识别任务,还可以用于更复杂的图像处理和分类挑战,如风格识别、字迹分析等。描述: MNIST160 手写数字图片数据集是一组精心挑选和优化的图像,专为最新的 YOLOv8 图像分类任务设计。此数据集包含了 160 张高质量的手写数字图像,这些图像代表了从 0 到 9 的数字,每个数字有 16 个不同的手写样式。每幅图像都经过仔细处理,以确保清晰度和一致性,使其成为理想的训练材料。 关键特点: 高分辨率图像:每张图像都具有高分辨率,保证了图像的清晰度,便于 YOLOv8 算法准确识别和分类。 多样化样式:160 张图像包含了多种手写风格,确保了数据集的多样性,帮助算法更好地理解和识别不同的手写数字。 优化标注:所有图像都配有精确的标注信息,包括数字的位置和类别,这对于 YOLOv8 算法的有效训练至关重要。 适用于多种用途:这个数据集不仅适用于基本的数字识别任务,还可以用于更复杂的图像处理和分类挑战,如风格识别、字迹分析等。5 1157浏览免费
- python大小:30MBpython3.6安装包 因为在使用opencv中遇到一些API无法使用的问题,所以把原来的新版本卸载,重装了一个低版本。python3.6安装包 因为在使用opencv中遇到一些API无法使用的问题,所以把原来的新版本卸载,重装了一个低版本。0 1785浏览免费
- paddlepaddle大小:746MBPaddlePaddle-DeepSpeech中文语音识别模型(AISHELL数据集训练的) 项目地址:https://github.com/yeyupiaoling/PaddlePaddle-DeepSpeech/tree/release/1.0PaddlePaddle-DeepSpeech中文语音识别模型(AISHELL数据集训练的) 项目地址:https://github.com/yeyupiaoling/PaddlePaddle-DeepSpeech/tree/release/1.03 3842浏览免费
- kaggle大小:358MBFile descriptions • /stage1_train/* - training set images (images and annotated masks) • /stage1_test/* - stage 1 test set images (images only, you are predicting the masks) • /stage2_test/* (released later) - stage 2 test set images (images only, you are predicting the masks) • stage1_sample_submission.csv - a submission file containing the ImageIds for which you must predict during stage 1 • stage2_sample_submission.csv (released later) - a submission file containing the ImageIds for which you must predict during stage 2 • stage1_train_labels.csv - a file showing the run-length encoded representation of the training images. This is provided as a convenience and is redundant with the mask image files.File descriptions • /stage1_train/* - training set images (images and annotated masks) • /stage1_test/* - stage 1 test set images (images only, you are predicting the masks) • /stage2_test/* (released later) - stage 2 test set images (images only, you are predicting the masks) • stage1_sample_submission.csv - a submission file containing the ImageIds for which you must predict during stage 1 • stage2_sample_submission.csv (released later) - a submission file containing the ImageIds for which you must predict during stage 2 • stage1_train_labels.csv - a file showing the run-length encoded representation of the training images. This is provided as a convenience and is redundant with the mask image files.0 1526浏览免费
- 模型量化推理大小:104MBncnn量化int所需的校准图像ncnn量化int所需的校准图像5 1002浏览免费
- 数据集大小:140MBCIFAR-100 图片格式数据集,按 100 分类文件夹储存 https://github.com/cyizhuo/CIFAR-100-datasetCIFAR-100 图片格式数据集,按 100 分类文件夹储存 https://github.com/cyizhuo/CIFAR-100-dataset5 3365浏览免费
- paddlepaddle大小:621MBPPASR流式与非流式语音识别的deepspeech2模型(AIShell数据集),源码地址:https://github.com/yeyupiaoling/PPASR/tree/release/2.4.xPPASR流式与非流式语音识别的deepspeech2模型(AIShell数据集),源码地址:https://github.com/yeyupiaoling/PPASR/tree/release/2.4.x0 1277浏览免费
- nlp大小:3KB哈工大停用词表hit_stopwords哈工大停用词表hit_stopwords5 1772浏览免费