• AI古诗生成器,唐诗,五言绝句自动生成(包含预训练模型,数据集,全套代码)

    这是一个基于Keras的AI作诗程序,它利用LSTM和RNN算法来学习和预测古诗、唐诗、五言绝句等诗歌形式。该程序不仅提供了多种生成方式,包括藏头诗、随机写诗和给定第一句诗或字进行作诗等,还可以自由控制生成的诗歌形式和长度,让用户可以根据自己的喜好和需求进行创作。 在使用该程序时,用户可以自由调控生成诗歌的概率,从而产生更具有多样性的故事,迸发出更多的创意和灵感。除了用于生成诗歌,该程序还可以用于创作灵感的启发、诗歌风格的探索等,具有多种实用价值和趣味性。 此外,该程序还支持数据集的替换,用户可以根据自己的需要选择不同的数据集,从而让程序学习到更多的古诗,得到更好的结果。这使得该程序能够不断地迭代和优化,不断提升其生成诗歌的质量和多样性。

    5
    671
    110.97MB
    2023-05-30
    37.9
  • 基于CIFAR10 MAE的实现(含模型权重,TensorBoard可视化等)

    由于可用资源有限,我们仅在 cifar10 上测试模型。 我们主要想重现这样的结果: 使用 MAE 预训练 ViT 可以比直接使用标签进行监督学习训练获得更好的结果。这应该是自我监督学习比监督学习更有效的数据的证据。 主要遵循论文中的实现细节

    5
    741
    228.74MB
    2022-10-12
    34.9
  • 口罩目标检测数据集(已标注好,VOC格式)

    使用yolo进行口罩检测 里面包含口罩目标检测数据集(已标注好,VOC格式) xml文件和jpg文件都放在文件夹中,可以根据自己格式进行运行

    5
    939
    754.66MB
    2022-05-22
    20.9
  • CRNN完整源码实现--用PyTorch攻陷文字识别

    CRNN-Pytorch 记录CRNN的学习 CRNN是2015年提出的一种,端对端的,场景文字识别方法,它采用CNN与RNN的结合来进行学习。它相对于其他算法主要有以下两个特点: 端对端训练,直接输入图片给出结果,而不是把多个训练好的模型进行组合来识别 不需要对图片中的文字进行分割就可以进行识别,可以适应任意长度的序列 里面包括所有的代码,可以进行训练,本代码是训练了IIIIT-5k的数据集,得到了模型在文件夹内,可以进行训练和预测 除此之外,ipynb文件中,利用pytorch搭建CRNN,对验证码进行识别,准确率都是很不错的,达到很不错的结果,可以自定图片和网络结构

    5
    2077
    107.78MB
    2022-05-18
    20.9
  • Keras对CIFAR10的图像分类全套代码(包含多个模型)

    利用tensorflow的后端Keras实现我们的CIFAR10的图像分类 keras简单易懂,代码量和工程都不大,可以自动利用GPU进行训练,调节显存的大小 模型有LeNet,AlexNet,VGG,GoogLeNet,ResNet,DenseNet等等 也可以通过进行可视化输出结果,也含有数据增强等方法提高准确率 在资源中有全部代码的学习资料,并且包括所有的权重,代码所有都可运行,可执行,可复现代码的结果 可以利用所有的模型权重进行迁移学习,利用自己的数据集进行运行得到结果都是可以的

    5
    413
    557.36MB
    2022-05-17
    20.9
  • 大数据驱动的深度模型在图像分类中的应用(VGG16+VGG19图像分类,源码结果都可运行)

    简述VGG模型,说明其中的结构(描述模型的结构,哪一层是卷积、那一层是池化、那一层是全连接?),并使用VGG模型完成下面图像分类的实验(建议使用Python语言,Pytorch 框架)。图像分类数据集:CIFAR-10,由10个类的60000个32x32彩色图像组成,每个类有6000个图像;有50000个训练样本(训练集)和10000个测试样本(测试集) 分别使用数据集中训练集的1%、10%、50%、80%样本进行训练模型,使用测试样本进行测试,简述步骤并对比使用不同比例的训练样本对于训练结果的影响(即模型训练完成后,使用测试样本输入模型得到的准确率)。随着数据量的增大,观察每一次模型迭代(模型每完成一次迭代,即所有训练样本输入到模型中进行训练更新)所需的计算时间、内存消耗变化,并做比较。分析试验结果,回答下面问题: A. 说明你实验的硬件环境 B. 说明自己程序中使用的是哪种梯度下降算法(随机、批量、全部)? C. 训练过程中你调整了哪些参数,谈谈你的调参过程和调参技巧 D. 当数据量逐渐变大时,你的训练测试过程有没遇到实质性困难?

    5
    652
    80.85MB
    2022-05-17
    49.9
  • GAN探索之数字样本生成(Pytorch实现LeNet网络进行对抗比较)

    数字对抗样本生成 LeNet是一个小型的神经网络结构,仅包含两层卷积层、两个池化层以及三层全连接。该轻量级网络能快速、占内存小、高精确度的解决复杂度比较低的问题,如手写数字识别。本实验要求: (步骤1)用LeNet网络完成手写数字识别任务。 (步骤2)利用对抗样本工具包生成针对该网络的对抗样本。 首先简要介绍了GAN的原理,通俗易懂 我简要实现了这一部分,并且包括每一部分的数字可视化功能,包括LeNet模型的构建,以及对于LeNet的超参数的调节和一些方法,最后也把模型权重保存下来,不用训练也可以直接用。 在步骤二中,生成针对该网络的对抗样本。做了威胁模型,快速梯度符号攻击,定义扰动上限 epsilons,被攻击的模型,FGSM 攻击方式,测试函数的操作 最后启动攻击,得到对抗结果,最后比较准确性 vs Epsilon,就得到最后的实验结果。 所有的介绍和方法和代码都是可以直接运行的

    0
    175
    1.78MB
    2022-05-17
    29.9
  • Implements of MATAB神经网络30个案例分析

    Implements of MATAB神经网络30个案例分析 《MATAB神经网络30个案例分析》中各个章节的代码实现 里面包含着各个经典的模型,里面含有对应的代码可以进行学习和复现结果

    0
    73
    8.59MB
    2022-05-15
    9.9
  • 中文情感分析 Python

    中文情感分析的实质是文本分类问题,本项目分别采用CNN和BI-LSTM两种模型解决文本分类任务,并用于情感分析,达到不错的效果。 两种模型在小数据集上训练,在验证集的准确率、号回率及F1因子均接近90% 项目设计的目标可以接受不同语料的多种分类任务,只要语料按照特定格式准备好,就可以开始调参训练、导出、serving。

    5
    1120
    73.22MB
    2022-05-15
    20.9
  • 机器学习、NLP面试中常考到的知识点和代码实现

    此项目是机器学习、NLP面试中常考到的知识点和代码实现,也是作为一个算法工程师必会的理论基础知识。 既然是以面试为主要目的,亦不可以篇概全,请谅解,有问题可提出。 此项目以各个模块为切入点,让大家有一个清晰的知识体系。 此项目亦可拿来常读、常记以及面试时复习之用。 每一章里的问题都是面试时有可能问到的知识点,结尾处都有算法的实战代码案例。

    5
    201
    11.51MB
    2022-05-15
    20.9
  • 勤写标兵

    授予累计4周发布3篇原创IT博文的用户
  • 持之以恒

    授予累计1月发布8篇原创IT博文的用户
  • 笔耕不辍

    累计3年每年原创文章数量>=20篇
  • 全国科技日勋章

    参加5月30日科技者工日纪念活动投稿即可获得
  • 知无不言

    回答1个问题,每日最多计数5次
  • 求知

    发布1个问题
  • 受益良多

    发布1个问题且都已采纳了他人的回答
  • 持续创作

    授予每个自然月内发布4篇或4篇以上原创或翻译IT博文的用户。不积跬步无以至千里,不积小流无以成江海,程序人生的精彩需要坚持不懈地积累!
  • 五一创作勋章

    第一年参加五一创作活动,在五一放假期间创作博文即可获得
  • 分享宗师

    成功上传21个资源即可获取
  • GitHub

    绑定GitHub第三方账户获取
  • 签到新秀

    累计签到获取,不积跬步,无以至千里,继续坚持!
  • 创作能手

    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户
  • 分享精英

    成功上传11个资源即可获取
  • 分享达人

    成功上传6个资源即可获取
  • 分享小兵

    成功上传3个资源即可获取
  • 分享学徒

    成功上传1个资源即可获取
  • 阅读者勋章

    授予在CSDN APP累计阅读博文达到7天的你,是你的坚持与努力,使你超越了昨天的自己。
关注 私信
上传资源赚积分or赚钱