- python大小:49BCNN算法分类 1、 特征提取流程: 详细见代码cnews_loader.py。 其中定义了以下函数,即为其整体流程。主要目的就是把文本转为词向量,建立id对应,因为只有数字才能计算。CNN算法分类 1、 特征提取流程: 详细见代码cnews_loader.py。 其中定义了以下函数,即为其整体流程。主要目的就是把文本转为词向量,建立id对应,因为只有数字才能计算。1 5845浏览免费
- 鉴于CUDA下载速度慢且可能存在网络问题,故提供百度盘帮助下载(含cuda toolkit和对应的cudnn)。5 2979浏览免费
- 软件/插件大小:75BDragGAN 离线版什么环境都不用配置,解压直接用的dragGAN工具,内置17个模型,小白也能轻松上手,而且支持Windows和Mac,感兴趣的同学可以下载体验。DragGAN 离线版什么环境都不用配置,解压直接用的dragGAN工具,内置17个模型,小白也能轻松上手,而且支持Windows和Mac,感兴趣的同学可以下载体验。5 2539浏览免费
- 数据集大小:300B广大粉丝要求,今特上传无人机检测领域内的小目标数据集。数据集中包含相关的图像和每张图片所对应的标注好的真实标签。特点:1、图片的原始像素高。2、待检测目标的像素基本在20x20-40x40。全部整理到网盘,可自行下载即可 格式:trainset (1.44 GB) valset (0.07 GB) testset-dev (0.28 GB) testset-challenge (0.28 GB)广大粉丝要求,今特上传无人机检测领域内的小目标数据集。数据集中包含相关的图像和每张图片所对应的标注好的真实标签。特点:1、图片的原始像素高。2、待检测目标的像素基本在20x20-40x40。全部整理到网盘,可自行下载即可 格式:trainset (1.44 GB) valset (0.07 GB) testset-dev (0.28 GB) testset-challenge (0.28 GB)5 1372浏览免费
- 停用词大小:26KB该资源是本人博客《文本聚类(一)—— LDA 主题模型》中所使用的停用词表,是在百度停用词表的基础上加入了一些分词后产生的单个字以及数字信息等内容,不建议作为通用性质的停用词表使用该资源是本人博客《文本聚类(一)—— LDA 主题模型》中所使用的停用词表,是在百度停用词表的基础上加入了一些分词后产生的单个字以及数字信息等内容,不建议作为通用性质的停用词表使用0 968浏览免费
- 数据集大小:307B1.采用长边表示法 2.包含切割后的原始数据集和标签 gap=200 subsize=1024 3.包含yolo格式标签对应的可视化示例 4.自动删除了没有目标的图像1.采用长边表示法 2.包含切割后的原始数据集和标签 gap=200 subsize=1024 3.包含yolo格式标签对应的可视化示例 4.自动删除了没有目标的图像5 2738浏览免费
- 目标检测大小:83B其中吸烟监测、口罩率监测、火灾监测都由目标检测算法YOLO算法训练所得,项目中也提供了训练代码。行为安全监测由OpenPose算法提取人体姿态再进行分类识别;人群密度监测由MSCNN算法进行估计;行为轨迹跟踪由目标检测+Deepsort跟踪轨迹绘制而成。其中吸烟监测、口罩率监测、火灾监测都由目标检测算法YOLO算法训练所得,项目中也提供了训练代码。行为安全监测由OpenPose算法提取人体姿态再进行分类识别;人群密度监测由MSCNN算法进行估计;行为轨迹跟踪由目标检测+Deepsort跟踪轨迹绘制而成。1 949浏览免费
- 数据集大小:75B官网的下载链接国内直连连不上 所以翻出去下载下来传到百度网盘免费分享一下 下载于2021/6/8,对应的应该是Aug 24, 2020更新的版本 包括80G的KITTI Odometry Benchmark Velodyne point clouds,1M的KITTI Odometry Benchmark calibration data和179M的SemanticKITTI label dat,均已经解压放到一起 官网:http://www.semantic-kitti.org/dataset.html#download官网的下载链接国内直连连不上 所以翻出去下载下来传到百度网盘免费分享一下 下载于2021/6/8,对应的应该是Aug 24, 2020更新的版本 包括80G的KITTI Odometry Benchmark Velodyne point clouds,1M的KITTI Odometry Benchmark calibration data和179M的SemanticKITTI label dat,均已经解压放到一起 官网:http://www.semantic-kitti.org/dataset.html#download0 1229浏览免费
- 在线翻译大小:16KB本术语库格式仅供百度翻译API使用,可将百度API添加到知云文献翻译中,然后翻译时可使用自定义的术语库进行翻译本术语库格式仅供百度翻译API使用,可将百度API添加到知云文献翻译中,然后翻译时可使用自定义的术语库进行翻译5 1460浏览免费
- TXT大小:84B用于EEG脑电波情绪识别数据集 来自上海交通大学 The SJTU Emotion EEG Dataset (SEED), is a collection of EEG datasets provided by the BCMI laboratory, which is led by Prof. Bao-Liang Lu. The name is inherited from the first version of the dataset, but now we provide not only emotion but also a vigilance dataset. As of October 2021, the cumulative number of applications and research institutions using SEED have reached more than 2600 and 770, respectively.用于EEG脑电波情绪识别数据集 来自上海交通大学 The SJTU Emotion EEG Dataset (SEED), is a collection of EEG datasets provided by the BCMI laboratory, which is led by Prof. Bao-Liang Lu. The name is inherited from the first version of the dataset, but now we provide not only emotion but also a vigilance dataset. As of October 2021, the cumulative number of applications and research institutions using SEED have reached more than 2600 and 770, respectively.0 1123浏览免费
- 数据集大小:765B1. 内容概要: 数据集下载:https://x-x.fun/e/GI392fbf621YI 本人毕设所使用数据集,共12554张行车记录仪实拍图像,均选自滴滴D2-City大规模数据集内的56个视频片段,由视频间隔抽帧组成。 标注文件全部由本人手动标注。共标注实例83546个,其中交通灯13826个,斑马线10706个,行人59014个。(标了半个月,每天标注12h,眼睛都不是自己的了orz) 利用YoLoV5的m6权重以imgsz640训练300轮,mAP0.5有0.956,mAP0.5~0.95有0.7299 2. 适用人群:寻找斑马线、行人、交通灯数据集进行机器学习(目标检测)的同学 3. 其他说明: 标注文件为yolo格式的txt文本,若需转xml可见http://dd.ma/ErD5i5bQ。1. 内容概要: 数据集下载:https://x-x.fun/e/GI392fbf621YI 本人毕设所使用数据集,共12554张行车记录仪实拍图像,均选自滴滴D2-City大规模数据集内的56个视频片段,由视频间隔抽帧组成。 标注文件全部由本人手动标注。共标注实例83546个,其中交通灯13826个,斑马线10706个,行人59014个。(标了半个月,每天标注12h,眼睛都不是自己的了orz) 利用YoLoV5的m6权重以imgsz640训练300轮,mAP0.5有0.956,mAP0.5~0.95有0.7299 2. 适用人群:寻找斑马线、行人、交通灯数据集进行机器学习(目标检测)的同学 3. 其他说明: 标注文件为yolo格式的txt文本,若需转xml可见http://dd.ma/ErD5i5bQ。1 1133浏览免费
- pytorch大小:78B百度网盘资源百度网盘资源0 480浏览免费
- GCN大小:49BGCN图卷积实现人体行为识别-摔倒行为识别【源码分享】 本项目通过GCN图卷积算法实现对人体摔倒行为识别,由python 3.6.5+Pytorch训练所得。GCN图卷积实现人体行为识别-摔倒行为识别【源码分享】 本项目通过GCN图卷积算法实现对人体摔倒行为识别,由python 3.6.5+Pytorch训练所得。0 448浏览免费
- TXT大小:85B西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 |西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 | 永久有效 西安交通大学轴承数据集网盘链接 |0 593浏览免费
- TXT大小:123BAI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果 AI绘画 Stable Diffusion真人模仿仿真3D效果0 1632浏览免费
- cudnn-11.1-windows-x64-v8.0.4.30.zip 链接:https://pan.baidu.com/s/1tgksqmTBOVkO0g82DlTMpA 提取码:atod cuda_11.1.0_456.43_win10.exe 链接:https://pan.baidu.com/s/1sfaAmWQhkvVjBRrryHLnUA 提取码:38vy cuda_12.0.0_527.41_windows.exe 链接: https://pan.baidu.com/s/120R2MUzM_3WMRHS6_M6M6A?pwd=rj5m 提取码: rj5m 官网下载太慢,没有办法,分享一下!大家不要用积分! 详细版本信息和下载见官网:https://developer.nvidia.com/cuda-toolkit-archive 和https://developer.nvidia.com/rdp/cudnn-download5 3446浏览免费
- 数据集大小:130BCOCO 2017 完整数据集百度网盘链接,国内下载会更快,可用于2D 目标检测训练和验证。COCO 2017 完整数据集百度网盘链接,国内下载会更快,可用于2D 目标检测训练和验证。1 1021浏览免费
- TWSVM数据,结合文章中代码使用0 544浏览免费
- TXT大小:259B秋叶大神:SD-Web ui一键本地部署ai绘画 前段时间在研究Stable Diffusion本地化部署,但是对于新手小白来说算是比较难得,不过没关系,我在B站发现了秋叶大神的Stable Diffusion整合包,我在用很方便,必须分享出来。 Stable Diffusion整合包下载地址链接: https://pan.baidu.com/s/1mkXqfyB90tO9a3PNxRFsyA?pwd=egpg 提取码: egpg 下载成功后先点击启动器运行依赖,然后解压sd-webui-aki-v4文件 秋叶大神的Stable Diffusion整合包,必须分享起来插图 打开sd-webui-aki-v4文件夹,双击打开A启动器.exe 秋叶大神的Stable Diffusion整合包,必须分享起来插图1 点击右下角的一键启动 秋叶大神的Stable Diffusion整合包,必须分享起来插图2 自动进行部署,显示地址说明部署完成 秋叶大神的Stable Diffusion整合包,必须分享起来插图3 部署成功会自动打开地址,就可以绘画了哦 秋叶大神的Stab秋叶大神:SD-Web ui一键本地部署ai绘画 前段时间在研究Stable Diffusion本地化部署,但是对于新手小白来说算是比较难得,不过没关系,我在B站发现了秋叶大神的Stable Diffusion整合包,我在用很方便,必须分享出来。 Stable Diffusion整合包下载地址链接: https://pan.baidu.com/s/1mkXqfyB90tO9a3PNxRFsyA?pwd=egpg 提取码: egpg 下载成功后先点击启动器运行依赖,然后解压sd-webui-aki-v4文件 秋叶大神的Stable Diffusion整合包,必须分享起来插图 打开sd-webui-aki-v4文件夹,双击打开A启动器.exe 秋叶大神的Stable Diffusion整合包,必须分享起来插图1 点击右下角的一键启动 秋叶大神的Stable Diffusion整合包,必须分享起来插图2 自动进行部署,显示地址说明部署完成 秋叶大神的Stable Diffusion整合包,必须分享起来插图3 部署成功会自动打开地址,就可以绘画了哦 秋叶大神的Stab0 2532浏览免费
- Python大小:49BUnet图像分割实战代码-以植物病虫害分割为例训练测试【源码分享】。 见博客https://blog.csdn.net/qq_42279468/article/details/129093132Unet图像分割实战代码-以植物病虫害分割为例训练测试【源码分享】。 见博客https://blog.csdn.net/qq_42279468/article/details/1290931321 767浏览免费
- 数据集大小:48KBDeep Learning to predict the house-prices given a few attributes about the house. Would be using Keras and scikit-learn!。 数据集共14列,前13列是输入,第十四列是输出即需要预测的值Deep Learning to predict the house-prices given a few attributes about the house. Would be using Keras and scikit-learn!。 数据集共14列,前13列是输入,第十四列是输出即需要预测的值0 495浏览免费
- python大小:66B环境概述:系统所使用的环境是python3.6.5,opencv3.14.8版本,windows10系统。编程工具使用的是pycharm专业版。所用到的python其他库有os,在这里用来寻找本地图片文件等操作;numpy库用来当对读取到的图片矩阵进行运算处理;pyqt5库用来创建GUI窗口程序等。 功能模块划分:按照第二章所描述的,所划分的模块总的可以分为图像处理模式识别模块和GUI窗口程序两个部分。其中每个部分又可以分为好几个部分,具体已经在第二章有所阐述。 实现原理:利用图像处理技术,分割出道路图像,然后对分割出的道路图像再次边缘检测,找出车道,然后透视变换和滑动窗口拟合成曲线,然后处理显示在原场景下。环境概述:系统所使用的环境是python3.6.5,opencv3.14.8版本,windows10系统。编程工具使用的是pycharm专业版。所用到的python其他库有os,在这里用来寻找本地图片文件等操作;numpy库用来当对读取到的图片矩阵进行运算处理;pyqt5库用来创建GUI窗口程序等。 功能模块划分:按照第二章所描述的,所划分的模块总的可以分为图像处理模式识别模块和GUI窗口程序两个部分。其中每个部分又可以分为好几个部分,具体已经在第二章有所阐述。 实现原理:利用图像处理技术,分割出道路图像,然后对分割出的道路图像再次边缘检测,找出车道,然后透视变换和滑动窗口拟合成曲线,然后处理显示在原场景下。1 655浏览免费
- 软件/插件大小:80BFANUC机器人仿真软件robogiodeV9.4+补丁,亲测可用FANUC机器人仿真软件robogiodeV9.4+补丁,亲测可用0 402浏览免费
- 机器学习大小:194Bhttps://blog.csdn.net/freezing_00/article/details/124088650#comments_21088107,此博客中的测试集https://blog.csdn.net/freezing_00/article/details/124088650#comments_21088107,此博客中的测试集0 782浏览免费
- 深度学习大小:76B这篇文章主要是介绍了使用pytorch框架构建生成对抗网络GAN来生成虚假图像的原理与简单实例代码。数据集使用的是开源人脸图像数据集img_align_celeba,共1.34G。生成器与判别器模型均采用简单的卷积结构,代码参考了pytorch官网。 代码说明: https://blog.csdn.net/Lizhi_Tech/article/details/128673716 代码地址: https://github.com/lizhiTech/pytorch_GAN_simple_example这篇文章主要是介绍了使用pytorch框架构建生成对抗网络GAN来生成虚假图像的原理与简单实例代码。数据集使用的是开源人脸图像数据集img_align_celeba,共1.34G。生成器与判别器模型均采用简单的卷积结构,代码参考了pytorch官网。 代码说明: https://blog.csdn.net/Lizhi_Tech/article/details/128673716 代码地址: https://github.com/lizhiTech/pytorch_GAN_simple_example0 525浏览免费
- 深度学习大小:11KB使用Resnet等基于ImageNet数据集训练的预训练模型预测时,可以根据预测结果索引对应查出类别名称,进而判断预测的正确性。使用Resnet等基于ImageNet数据集训练的预训练模型预测时,可以根据预测结果索引对应查出类别名称,进而判断预测的正确性。0 545浏览免费
- chatgpt大小:329Bchatgpt免费使用chatgpt免费使用0 1996浏览免费
- NPL大小:6KB自然语言处理、影评数据分析等自然语言处理、影评数据分析等0 434浏览免费
- 深度学习大小:19KB而且只选取了其5/25章来训练,模型可谓相当小,但是麻雀虽小五脏俱全。而且只选取了其5/25章来训练,模型可谓相当小,但是麻雀虽小五脏俱全。0 174浏览免费
- 2014大小:178MB人民日报语料文件2014,语料通过中文词性进行了标注,词之间用空格进行了分开,可用于NLP自然语言处理及其他深度学习的各类模型进行模型训练。整个文件177MB,总行数达到44万多行。人民日报语料文件2014,语料通过中文词性进行了标注,词之间用空格进行了分开,可用于NLP自然语言处理及其他深度学习的各类模型进行模型训练。整个文件177MB,总行数达到44万多行。0 298浏览免费
- 2020全套AI教程。1. 内容齐全(视频+课件+代码),某站视频不全,少了好几个学习阶段,且没有课件。2. 经过压缩包和加密,链接基本不会失效。3. 网上找不到,即使找到了也是经过加密的,无法播放,必须买特殊软件才能看。4、免费提供0 313浏览免费
- pytorch大小:78B百度网盘资源免费分享百度网盘资源免费分享0 377浏览免费
- NLP大小:2KB一、Pytorch BiLSTM_CRF 医疗命名实体识别项目 二、Pytorch LSTM_GCN_IE 图卷积_火车票识别项目 三、Pytorch Bert_TextCNN 新闻文本分类项目 四、Pytorch Bert_LCF_ATEPC_ABSA 属性级情感分析项目 五、Pytorch Bert_CasRel_RE 实体关系抽取项目一、Pytorch BiLSTM_CRF 医疗命名实体识别项目 二、Pytorch LSTM_GCN_IE 图卷积_火车票识别项目 三、Pytorch Bert_TextCNN 新闻文本分类项目 四、Pytorch Bert_LCF_ATEPC_ABSA 属性级情感分析项目 五、Pytorch Bert_CasRel_RE 实体关系抽取项目0 226浏览免费
- TIAV18大小:245BTIA Portal V18TIA Portal V180 546浏览免费
- 范文/模板/素材大小:145BMagicAnimate一键整合包, 一张图片就能随心所欲的去跳舞了, 字节跳动出品的图片会跳舞开源整合包 包含模型提取, 图片会跳舞两个软件。MagicAnimate一键整合包, 一张图片就能随心所欲的去跳舞了, 字节跳动出品的图片会跳舞开源整合包 包含模型提取, 图片会跳舞两个软件。0 263浏览免费
- yolov7大小:453Byolov7--WongKinYiu测试模型所需要的环境内容,下载之后最好使用conda创建一个虚拟环境,然后再运行:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt,这里使用清华镜像源,运行后即可实现环境的安装!yolov7--WongKinYiu测试模型所需要的环境内容,下载之后最好使用conda创建一个虚拟环境,然后再运行:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt,这里使用清华镜像源,运行后即可实现环境的安装!0 735浏览免费
- 人工智能大小:82BAI Agent智能应用从0到1定制开发 关键特点: 自动化:AI Agent可以自动执行重复性任务,提高效率并减少人力成本。 智能决策:基于复杂的算法,AI Agent能够进行决策支持,分析数据并提供洞察。 自然语言处理:许多AI Agent具备理解和生成自然语言的能力,使其能够与人类用户进行交流。 机器学习:AI Agent可以利用机器学习技术从经验中学习,不断优化其性能。 个性化:AI Agent能够根据用户的行为和偏好提供个性化的体验。 可扩展性:AI Agent可以设计成模块化,方便扩展新功能或适应不同规模的需求。 实时响应:AI Agent能够提供快速的实时响应,满足紧急任务的需求。AI Agent智能应用从0到1定制开发 关键特点: 自动化:AI Agent可以自动执行重复性任务,提高效率并减少人力成本。 智能决策:基于复杂的算法,AI Agent能够进行决策支持,分析数据并提供洞察。 自然语言处理:许多AI Agent具备理解和生成自然语言的能力,使其能够与人类用户进行交流。 机器学习:AI Agent可以利用机器学习技术从经验中学习,不断优化其性能。 个性化:AI Agent能够根据用户的行为和偏好提供个性化的体验。 可扩展性:AI Agent可以设计成模块化,方便扩展新功能或适应不同规模的需求。 实时响应:AI Agent能够提供快速的实时响应,满足紧急任务的需求。1 231浏览免费
- 计算机视觉大小:150BFLIR_ADAS_v2 数据集下载链接,内容为txt文件,打开后会显示百度网盘下载链接FLIR_ADAS_v2 数据集下载链接,内容为txt文件,打开后会显示百度网盘下载链接0 131浏览免费
- 软件/插件大小:32B覆盖文生图、低代码、文生文、图像、数据分析等各类的工具 https://mbd.pub/o/bread/ZJyTmphq覆盖文生图、低代码、文生文、图像、数据分析等各类的工具 https://mbd.pub/o/bread/ZJyTmphq0 184浏览免费
- python大小:49B本项目通过python实现验证码识别,包括数据集制作,模型训练,测试等。 pip install -i https://pypi.doubanio.com/simple/ --trusted-host pypi.doubanio.com opencv-python==3.4.3.18 1、是cut.py切割成单个字符【已完成可跳过】 2、label.py将字符图片标上标签,其实就是手动标注的,也可以自己手动标注【已完成可跳过】 3、train.py用来训练模型,查看准确度 4、test.py用来查看效果,测试 自制数据集过程: 1、切割成单个字符,需要将cut.py和train文件夹放到同一个目录下,视频中在edu-cut文件夹里实验,运行cut.py自动分割。因为目录里的train文件夹是分割好的,分割好的放到char文件夹里,继续第二步。 2、当有了train和char文件夹后,开始标注图片。将label.py和train和char文件夹放在edu-label目录下,运行label.py,看弹出图片是什么就输入什么,一个个标注好即可本项目通过python实现验证码识别,包括数据集制作,模型训练,测试等。 pip install -i https://pypi.doubanio.com/simple/ --trusted-host pypi.doubanio.com opencv-python==3.4.3.18 1、是cut.py切割成单个字符【已完成可跳过】 2、label.py将字符图片标上标签,其实就是手动标注的,也可以自己手动标注【已完成可跳过】 3、train.py用来训练模型,查看准确度 4、test.py用来查看效果,测试 自制数据集过程: 1、切割成单个字符,需要将cut.py和train文件夹放到同一个目录下,视频中在edu-cut文件夹里实验,运行cut.py自动分割。因为目录里的train文件夹是分割好的,分割好的放到char文件夹里,继续第二步。 2、当有了train和char文件夹后,开始标注图片。将label.py和train和char文件夹放在edu-label目录下,运行label.py,看弹出图片是什么就输入什么,一个个标注好即可0 286浏览免费
- 数据集大小:413B1. 数据集出处:https://blog.csdn.net/na_a_na_a_an/article/details/132472844 2. 数据集说明: > 本数据集是上方链接所述数据集的子数据集,从中抽取出行人的标注数据而得; > 本数据集含原数据集所有存在斑马线的图片,共 10483 张,标注实例 59014 个; > 下载、使用等更多详情见上方链接。1. 数据集出处:https://blog.csdn.net/na_a_na_a_an/article/details/132472844 2. 数据集说明: > 本数据集是上方链接所述数据集的子数据集,从中抽取出行人的标注数据而得; > 本数据集含原数据集所有存在斑马线的图片,共 10483 张,标注实例 59014 个; > 下载、使用等更多详情见上方链接。0 119浏览免费
- nerf合成数据集大小:1KB自用-nerf合成数据集的制作流程自用-nerf合成数据集的制作流程0 301浏览免费
- 数据集大小:635B达摩院模型开源平台modelscope convnext生活垃圾分类模型: https://modelscope.cn/models/damo/cv_convnext-base_image-classification_garbage/summary, 并提供垃圾分类数据集免费下载: 147674张带中文标签的生活垃圾图像集,包含可回收垃圾、厨余垃圾、有害垃圾、其他垃圾4个标准垃圾大类,覆盖常见的食品,厨房用品,家具,家电等265个垃圾小类。其中训练集133038张图像,验证集14642张图像,均从海量中文互联网社区语料进行提取,整理出频率较高的常见生活垃圾名称,数据大小为13GB。达摩院模型开源平台modelscope convnext生活垃圾分类模型: https://modelscope.cn/models/damo/cv_convnext-base_image-classification_garbage/summary, 并提供垃圾分类数据集免费下载: 147674张带中文标签的生活垃圾图像集,包含可回收垃圾、厨余垃圾、有害垃圾、其他垃圾4个标准垃圾大类,覆盖常见的食品,厨房用品,家具,家电等265个垃圾小类。其中训练集133038张图像,验证集14642张图像,均从海量中文互联网社区语料进行提取,整理出频率较高的常见生活垃圾名称,数据大小为13GB。0 285浏览免费
- 范文/模板/素材大小:84B2022年中科院期刊分区表共设置了包括自然科学和社会科学在内的18个大类。陈福佑介绍,中国科学院文献情报中心率先提出“分区”概念,形成了具有中国自主知识产权的“期刊评价方案”——中科院期刊分区表,首次对国内外学术期刊在学科细分领域层面进行评价和影响力比较,对目前主流的1万多本SCI(Science Citation Index Expanded,即《科学引文索引》扩展版或网络版)、SSCI(Social Sciences Citation Index,《社会科学引文索引》)和中国Emerging Sources Citation Index(新兴资源引文索引)期刊进行评价和分区,且目前采用“期刊超越指数”,取代期刊影响因子(Impact factor,缩写IF),目前累计有500家机构订阅用户,包括国内高校、科研机构和国际出版商。2022年中科院期刊分区表共设置了包括自然科学和社会科学在内的18个大类。陈福佑介绍,中国科学院文献情报中心率先提出“分区”概念,形成了具有中国自主知识产权的“期刊评价方案”——中科院期刊分区表,首次对国内外学术期刊在学科细分领域层面进行评价和影响力比较,对目前主流的1万多本SCI(Science Citation Index Expanded,即《科学引文索引》扩展版或网络版)、SSCI(Social Sciences Citation Index,《社会科学引文索引》)和中国Emerging Sources Citation Index(新兴资源引文索引)期刊进行评价和分区,且目前采用“期刊超越指数”,取代期刊影响因子(Impact factor,缩写IF),目前累计有500家机构订阅用户,包括国内高校、科研机构和国际出版商。1 171浏览免费
- 语言模型大小:76B这是一个基于GLM2-6B-32k模型的语言模型,具有32K个参数。GLM2-6B-32k是一种用于自然语言处理任务的预训练语言模型,其中GLM表示General Language Modeling,2表示该模型的层数,6B表示该模型中BERT模型的层数,32K表示该模型的参数总数。该模型可以用于自然语言处理任务,如文本分类、命名实体识别、情感分析等。这是一个基于GLM2-6B-32k模型的语言模型,具有32K个参数。GLM2-6B-32k是一种用于自然语言处理任务的预训练语言模型,其中GLM表示General Language Modeling,2表示该模型的层数,6B表示该模型中BERT模型的层数,32K表示该模型的参数总数。该模型可以用于自然语言处理任务,如文本分类、命名实体识别、情感分析等。0 626浏览免费
- 数据集大小:190BCCTSDB数据集---完整版 yolov5直接使用 文件过大,提供网盘链接下载。 train:16247张 val :3572 张 test :1429 张CCTSDB数据集---完整版 yolov5直接使用 文件过大,提供网盘链接下载。 train:16247张 val :3572 张 test :1429 张0 242浏览免费
- 数据集大小:339B`Objects365`是旷视和北京智源人工智能研究院联合推出了目标检测任务的新基准。它的所有图像数据都是在自然场景设计和收集的。该`Objects365`目标检测数据集主要用于解决具有365个对象类别的大规模检测,并为目标检测研究提供多样化、实用性的基准。`Objects365`是旷视和北京智源人工智能研究院联合推出了目标检测任务的新基准。它的所有图像数据都是在自然场景设计和收集的。该`Objects365`目标检测数据集主要用于解决具有365个对象类别的大规模检测,并为目标检测研究提供多样化、实用性的基准。0 241浏览免费
- 毕业设计大小:84B[0] SCI套餐 [1] SCI修改助手 [2] SCI投稿 [3] SCI写作 [4] 研究生必读 [5] SCI 写作套路化模板: 1000高大上句型汇总 [6] SCI写作模板 [7] SCI插图规范 [8] 写论文必备书籍 [9]科技论文写作 [10] 药理学思维导图 13.19G,干货满满,全套教程助力你的学术之路,481文件夹,包括论文自动润色修改、前辈投稿经验、作图教学视频和配套软件、以及AI论文写作模板,对于SCI你只需要这一个资料。[0] SCI套餐 [1] SCI修改助手 [2] SCI投稿 [3] SCI写作 [4] 研究生必读 [5] SCI 写作套路化模板: 1000高大上句型汇总 [6] SCI写作模板 [7] SCI插图规范 [8] 写论文必备书籍 [9]科技论文写作 [10] 药理学思维导图 13.19G,干货满满,全套教程助力你的学术之路,481文件夹,包括论文自动润色修改、前辈投稿经验、作图教学视频和配套软件、以及AI论文写作模板,对于SCI你只需要这一个资料。0 211浏览免费
- 人工智能大小:101Bimagenet数据集百度网盘分享 imagenet数据集: https://pan.baidu.com/s/1EoGIKtae_u6_S8Y3jmuycA 提取码: 61j6 永久有效imagenet数据集百度网盘分享 imagenet数据集: https://pan.baidu.com/s/1EoGIKtae_u6_S8Y3jmuycA 提取码: 61j6 永久有效0 310浏览免费
- 人工智能大小:2KB在深度学习领域,Transformer模型以其独特的机制和优越的性能在自然语言处理(NLP)任务中占据了主导地位。这里我们提供了一个简化版的Transformer模型的实现,让你在一分钟内快速理解并上手Transformer的基本原理和代码实现。在深度学习领域,Transformer模型以其独特的机制和优越的性能在自然语言处理(NLP)任务中占据了主导地位。这里我们提供了一个简化版的Transformer模型的实现,让你在一分钟内快速理解并上手Transformer的基本原理和代码实现。0 79浏览免费
- 课程资源大小:218BChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程 吴恩达的openAI提示开发系列课程不错,很简短,大概2小时就能看完,大家有兴趣可以看看ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程ChatGPT教程 吴恩达的openAI提示开发系列课程不错,很简短,大概2小时就能看完,大家有兴趣可以看看0 285浏览免费
- 人工智能大小:61KB近日,智源社区联合了将近百位清华、北大、微软等机构的研究学者,推出了大模型技术实践路线图《A Roadmap for Big Model》,从大模型基础资源、大模型构建、大模型关键技术与大模型应用探索4个层面出发,对15个具体领域的16个相关主题进行全面介绍和探讨。作为一枚NLP爱好者,看到这个消息的时候,忍不住好奇心一探究竟。近日,智源社区联合了将近百位清华、北大、微软等机构的研究学者,推出了大模型技术实践路线图《A Roadmap for Big Model》,从大模型基础资源、大模型构建、大模型关键技术与大模型应用探索4个层面出发,对15个具体领域的16个相关主题进行全面介绍和探讨。作为一枚NLP爱好者,看到这个消息的时候,忍不住好奇心一探究竟。2 200浏览免费
- 张良nlp知识图谱教程 不可多得的好东西 学nlp必备 python开发0 118浏览免费
- python大小:26KB配套博客资料配套博客资料0 206浏览免费
- ChatGPT大小:3KBChatGPT 技巧 Chatgpt chatgpt openai.com 话术ChatGPT 技巧 Chatgpt chatgpt openai.com 话术0 165浏览免费
- 数据集大小:75B筛选了coco2017中的单目标数据,包括yolo格式的标签筛选了coco2017中的单目标数据,包括yolo格式的标签0 127浏览免费
- 自然语言处理大小:94BChatGPT是一种自然语言处理技术,它是由OpenAI开发的一种基于深度学习的神经网络,旨在生成自然语言对话。GPT是“生成式预训练转换”(Generative Pre-trained Transformer)的缩写,它可以通过预先训练来提高自然语言生成的效率和准确性。ChatGPT是GPT的一个变体,专注于生成对话。ChatGPT的工作原理是使用大量的数据集对其进行训练,然后使用生成式技术来生成自然语言文本。它使用了自注意力机制,可以从输入文本中学习并识别关键字和上下文,并根据此生成新的文本。因为它是一种基于神经网络的技术,所以它可以从大量数据中学习并自我完善。 ChatGPT已经成为一种非常流行的自然语言处理技术,因为它可以用于许多不同的应用程序。例如,它可以用于生成对话,如聊天机器人和客户服务代表。它也可以用于生成自然语言文本,例如文章和新闻报道,甚至可以用于自动生成代码和数据分析。ChatGPT是一种自然语言处理技术,它是由OpenAI开发的一种基于深度学习的神经网络,旨在生成自然语言对话。GPT是“生成式预训练转换”(Generative Pre-trained Transformer)的缩写,它可以通过预先训练来提高自然语言生成的效率和准确性。ChatGPT是GPT的一个变体,专注于生成对话。ChatGPT的工作原理是使用大量的数据集对其进行训练,然后使用生成式技术来生成自然语言文本。它使用了自注意力机制,可以从输入文本中学习并识别关键字和上下文,并根据此生成新的文本。因为它是一种基于神经网络的技术,所以它可以从大量数据中学习并自我完善。 ChatGPT已经成为一种非常流行的自然语言处理技术,因为它可以用于许多不同的应用程序。例如,它可以用于生成对话,如聊天机器人和客户服务代表。它也可以用于生成自然语言文本,例如文章和新闻报道,甚至可以用于自动生成代码和数据分析。0 675浏览免费
- 数据集大小:3MB用于训练情感二分类的RNN模型用于训练情感二分类的RNN模型0 157浏览免费
- 数据集大小:75BCCFBDCI2020通用音频分类数据集 包括训练集和测试集,文件夹名称是标签CCFBDCI2020通用音频分类数据集 包括训练集和测试集,文件夹名称是标签0 115浏览免费
- 目标检测大小:75B共8178张 训练集:测试集 为9:1 即 7275:903 主要为中小目标、密集目标,可作为小目标车辆训练检测 由于上传文件大小限制原因,内含网盘链接与提取码,请自行下载共8178张 训练集:测试集 为9:1 即 7275:903 主要为中小目标、密集目标,可作为小目标车辆训练检测 由于上传文件大小限制原因,内含网盘链接与提取码,请自行下载0 120浏览免费