• 开题报告springboot019高校心理教育辅导设计与实现开题报告

    开题报告springboot019高校心理教育辅导设计与实现开题报告 开题报告填写要求 1.开题报告(含“文献综述”)作为毕业论文(设计)答辩委员会对学生答辩资格审查的依据材料之一。此报告应在指导教师指导下,由学生在毕业论文(设计)工作前期完成,经指导教师签署意见及所在专业审查后生效。 2.开题报告内容必须按教务处统一设计的电子文档标准格式(可从教务处网页上下载)双面打印,完成后交给指导教师签署意见。 3.参考文献应不少于15篇。 4.有关年月日等日期的填写,应当按照国标GB/T 7408—94《数据元和交换格式、信息交换、日期和时间表示法》规定的要求,一律用阿拉伯数字书写。如“2017年1月1日”或“2017-01-01”。

    0
    7
    94KB
    2024-04-20
    0
  • MySQL卸载教程,可完全卸载数据库无残留

    资源内是卸载文档,下载可以查看详细卸载教程

    0
    26
    410KB
    2024-04-18
    0
  • MySQL安装详解,可下载文档查看

    资源内含有详细的MySQL安装教程

    0
    11
    2.57MB
    2024-04-18
    0
  • MapReduce详解包括配置文件

    MapReduce是Hadoop提供的一套用于进行分布式计算的模型,本身是Doug Cutting根据Google的<MapReduce: Simplified Data Processing on Large Clusters>仿照实现的。 MapReduce由两个阶段组成:Map(映射)阶段和Reduce(规约)阶段,用户只需要实现map以及reduce两个函数,即可实现分布式计算,这样做的目的是简化分布式程序的开发和调试周期。 在MapReduce刚开始的时候,会先对文件进行切片(Split)处理。需要注意的是,切片本身是一种逻辑切分而不是物理切分,本质上就是在划分任务量,之后每一个切片会交给一个单独的MapTask来进行处理。默认情况下,Split和Block的大小是一致的。 切片之后,每一个切片(Split)会分配给一个单独的MapTask来处理。而MapTask确定好要处理的切片之后,默认情况下会对切片进行按行处理。需要注意,不同的MapTask之间只是处理的数据不同,但是处理的逻辑是相同的。 MapTask处理完数据之后,会将数据交给ReduceTask进行汇总。Red

    0
    31
    185KB
    2024-04-18
    1
  • Hadoop简介以及配置文件

    Hadoop本身是由Yahoo!公司开发的后来贡献给了Apache的一套开源的、可靠的分布式架构 Hadoop提供了简单的编程模型能够对大量的数据进行分布式处理(The Apache Hadoop software library is a framework that allows for the distributed processing of large data sets across clusters of computers using simple programming models.) Hadoop能够轻松的从一台服务器扩展到上千台服务器,并且每一台服务器都能够进行本地计算和存储(It is designed to scale up from single servers to thousands of machines, each offering local computation and storage.) Hadoop本身提供了用于处理和探测异常的机制(Rather than rely on hardware to deliver high-availabi

    0
    14
    527KB
    2024-04-18
    1
  • HDFS详解和配置文件

    HDFS(Hadoop Distributed File System,Hadoop分布式文件系统)是Hadoop中提供的一套用于进行分布式存储的文件系统。 HDFS本身是Doug Cutting根据Google的论文<The Google File System>(简称为GFS)来实现的,因此早期的HDFS和GFS除了实现语言不同以外,其他的操作和原理基本上一致。 HDFS本身是一个典型的主从结构,主要进程:NameNode(主进程),DataNode(从进程)。其中NameNode作为主进程,负责管理DataNode以及存储元数据(metadata),DataNode则主要负责存储数据。 在HDFS中,数据存储的基本单位是Block,即文件上传到HDFS上之后,都会被切分为Block形式来进行存储,Block最终会落地到DataNode的磁盘上。

    5
    43
    553KB
    2024-04-18
    0
  • 勤写标兵

    授予累计5周发布3篇原创IT博文的用户
  • 习惯养成

    连续回答技能树练习题 1 天,每天答对至少 1 题
  • 持之以恒

    授予累计2个月发布8篇原创IT博文的用户
  • 笔耕不辍

    累计1年每年原创文章数量>=20篇
  • 创作能手

    授予每个自然周发布9篇以上(包括9篇)原创IT博文的用户
  • 新秀勋章

    用户首次发布原创文章,审核通过后即可获得
  • 阅读者勋章

    授予在CSDN APP累计阅读博文达到7天的你,是你的坚持与努力,使你超越了昨天的自己。
关注 私信
上传资源赚积分or赚钱