- Hadoop编译大小:207MB编译Hadoop需要的包相对比较杂和多,现在一次打包共享给大家。编译Hadoop需要的包相对比较杂和多,现在一次打包共享给大家。0 87浏览会员免费
- 单词统计大小:17KBHadoop初学MapReduce最经典的范例Hadoop初学MapReduce最经典的范例0 661浏览会员免费
- 大数据大小:36MBzakaban安装包zakaban安装包0 57浏览免费
- hadoop大小:508MB配套本专栏(https://blog.csdn.net/yellow_python/category_10582173.html)的大数据入门安装包配套本专栏(https://blog.csdn.net/yellow_python/category_10582173.html)的大数据入门安装包0 132浏览免费
- 大数据大小:2MB豆瓣电影数据集:id,名字,投票人数,类型,产地,上映时间,时长,年代,评分,首映地点等字段名豆瓣电影数据集:id,名字,投票人数,类型,产地,上映时间,时长,年代,评分,首映地点等字段名0 938浏览会员免费
- hdfs大小:47KB1、随机生成大文本文件(以行方式存储),文件存储在HDFS中,并将文件信息写入HBase中。 2、选择AES加密算法对生成的文件进行加密操作,秘钥长度为128位,加密后的文件存储HDFS中,秘钥写入HBase 3、从HBase中读取相应的文件名和秘钥,对文件进行解密操作,解密后的文件存储在HDFS中。 4、比较初始文件与解密后的文件内容一致性 5、统计操作总时长及各操作步的总时长1、随机生成大文本文件(以行方式存储),文件存储在HDFS中,并将文件信息写入HBase中。 2、选择AES加密算法对生成的文件进行加密操作,秘钥长度为128位,加密后的文件存储HDFS中,秘钥写入HBase 3、从HBase中读取相应的文件名和秘钥,对文件进行解密操作,解密后的文件存储在HDFS中。 4、比较初始文件与解密后的文件内容一致性 5、统计操作总时长及各操作步的总时长0 541浏览会员免费
- hadoop大小:71MB在Hadoop大数据平台的基础上构建了一个基于MapReduce框架并行化的C4.5决策树算法,并采用此算法设计了一套银行贷款的风险预测系统。算法结合MapReduce框架、HDFS 文件存储系统,使用Java语言编写,根据贷款人的各个特征属性信息增益率来选择决策点。其中包含对连续值属性、离散值属性的处理,采用后剪枝悲观剪枝的方法对决策树进行剪枝,以避免决策树出现过拟合的特征。系统包含数据导入、数据分析、结果展示等模块,操作简单、快捷,能准确预测贷款人的信誉情况,平均准确率达到65%~80%,而且与传统的决策树模型相比在性能方面有更好的提升。在Hadoop大数据平台的基础上构建了一个基于MapReduce框架并行化的C4.5决策树算法,并采用此算法设计了一套银行贷款的风险预测系统。算法结合MapReduce框架、HDFS 文件存储系统,使用Java语言编写,根据贷款人的各个特征属性信息增益率来选择决策点。其中包含对连续值属性、离散值属性的处理,采用后剪枝悲观剪枝的方法对决策树进行剪枝,以避免决策树出现过拟合的特征。系统包含数据导入、数据分析、结果展示等模块,操作简单、快捷,能准确预测贷款人的信誉情况,平均准确率达到65%~80%,而且与传统的决策树模型相比在性能方面有更好的提升。0 345浏览会员免费
- hadoop大小:241KB报错无配置hadoop.home.dir,没有winutils.exe的处理;解压hadoop-common-2.2.0.rar放入D盘,添加配置文件HADOOP_HOME=D:\hadoop-common-2.2.0 重新启动开发工具,使新增配置生效报错无配置hadoop.home.dir,没有winutils.exe的处理;解压hadoop-common-2.2.0.rar放入D盘,添加配置文件HADOOP_HOME=D:\hadoop-common-2.2.0 重新启动开发工具,使新增配置生效0 194浏览会员免费
- 大数据大小:50MB可以连接多种数据库,比如常见的Mysql、Oracle等常见的,玩大数据一体化解决可以连接多种数据库,比如常见的Mysql、Oracle等常见的,玩大数据一体化解决0 397浏览会员免费
- python大小:1KB使用python写微博关注者之间,相似度最高的十个用户的mapreduce,代码有点粗糙,主要是给大家提供思路的,不同的问题是需要修改的。使用python写微博关注者之间,相似度最高的十个用户的mapreduce,代码有点粗糙,主要是给大家提供思路的,不同的问题是需要修改的。0 173浏览会员免费
- hadoop大小:748KBhadoop-2.6.3里的bin文件夹,内含hadoop.dll和winutils.exe两个文件,供大家下载hadoop-2.6.3里的bin文件夹,内含hadoop.dll和winutils.exe两个文件,供大家下载0 182浏览会员免费
- hadoop大小:501KBhadoop-2.6.0里面的bin文件夹,内涵hadoop.dll和winutils.exe文件,供大家下载hadoop-2.6.0里面的bin文件夹,内涵hadoop.dll和winutils.exe文件,供大家下载0 171浏览会员免费
- mapreduce大小:7KB已知有若干个文件(多个),文件中包含若干个正整数,每行一个,示例如下: 45 3 78 456 70 1 999 。。。 编写MR程序分别求解所有文件中最大的三个值(TOP 3)已知有若干个文件(多个),文件中包含若干个正整数,每行一个,示例如下: 45 3 78 456 70 1 999 。。。 编写MR程序分别求解所有文件中最大的三个值(TOP 3)0 1464浏览会员免费
- hadoop大小:827KBhadoop3.1.0 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。hadoop3.1.0 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。0 433浏览会员免费
- hadoop大小:768KBhadoop3.0.0 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。hadoop3.0.0 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。0 302浏览会员免费
- hadoop大小:417KBhadoop2.8.3 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。hadoop2.8.3 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。0 201浏览会员免费
- hadoop大小:400KBhadoop2.8.1 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。hadoop2.8.1 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。0 76浏览会员免费
- hadoop大小:766KBhadoop-2.8.0-RC3 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。hadoop-2.8.0-RC3 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。0 98浏览会员免费
- winUtils.exe大小:993KBhadoop2.7.1 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。hadoop2.7.1 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。0 184浏览会员免费
- winUtils.exe大小:746KBhadoop2.6.4 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。hadoop2.6.4 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。0 164浏览会员免费
- hadoop大小:748KBhadoop2.6.3 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。hadoop2.6.3 winUtils 。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。0 67浏览会员免费
- winutils大小:502KB如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。如果本机操作系统是 Windows,在程序中使用了 Hadoop 相关的东西,比如写入文件到HDFS,则会遇到如下异常:could not locate executable null\bin\winutils.exe ,使用这个包,设置一个 HADOOP_HOME 环境变量,即可解决。0 180浏览会员免费
- ETL设计大小:3MBETL设计与开发实践ETL设计与开发实践0 244浏览会员免费
- hive大小:12KBJAVA连接hive/hbase/sparksql/hdfs,kerbers认证失败 报no supported default etypes for default_tkt_enctypes ,需要更新jdk8的安全jar包,用来处理keytab文件,可以在oracle官网下,但是要注册账号,也可以下我的。JAVA连接hive/hbase/sparksql/hdfs,kerbers认证失败 报no supported default etypes for default_tkt_enctypes ,需要更新jdk8的安全jar包,用来处理keytab文件,可以在oracle官网下,但是要注册账号,也可以下我的。0 592浏览会员免费
- apache大小:5MBwinutils各版本-留着自用1.rarwinutils各版本-留着自用1.rar0 173浏览会员免费
- hadoop大小:202MBhadoop原始安装包,hadoop-2.7.5.tar.gz 觉得官网实在眼花头疼可从这里下载。 可用,便捷hadoop原始安装包,hadoop-2.7.5.tar.gz 觉得官网实在眼花头疼可从这里下载。 可用,便捷0 521浏览会员免费
- hadoop大小:326MB我的Java安装在D:\Java,hadoop安装在D:\env\hadoop-2.7.2,材料中的hadoop-2.7.2-win10是配置前的版本,材料中的hadoopbin是工具类,需要替换原文档中的D:\env\hadoop-2.7.2\bin,材料中的hadoop-2.7.2配置完成后是配置后的版本,完成后可以查看到hadoop version 。我的Java安装在D:\Java,hadoop安装在D:\env\hadoop-2.7.2,材料中的hadoop-2.7.2-win10是配置前的版本,材料中的hadoopbin是工具类,需要替换原文档中的D:\env\hadoop-2.7.2\bin,材料中的hadoop-2.7.2配置完成后是配置后的版本,完成后可以查看到hadoop version 。0 161浏览会员免费
- hive大小:6MB使用dbeaver或者其他数据库管理工具连接hive时使用到的驱动使用dbeaver或者其他数据库管理工具连接hive时使用到的驱动0 1810浏览免费
- 大数据大小:25MBazkaban-executor-server-2.5.0.tar.gz azkaban-sql-script-2.5.0.tar.gz azkaban-web-server-2.5.0.tar.gz azkaban-3.9.0.tar.gz 亲测可用azkaban-executor-server-2.5.0.tar.gz azkaban-sql-script-2.5.0.tar.gz azkaban-web-server-2.5.0.tar.gz azkaban-3.9.0.tar.gz 亲测可用0 146浏览会员免费
- eclipse大小:33MB此包基于jdk1.8.181+windows10+ant_1.10.9+eclipse_kepler版本编译而成,自己使用了很久,非常好用!此包基于jdk1.8.181+windows10+ant_1.10.9+eclipse_kepler版本编译而成,自己使用了很久,非常好用!0 663浏览会员免费
- hadoop大小:695MB用于大数据集群搭建所需的所有安装包资源提供,包括jdk、zookeeper、Hadoop、hbase、hive、mysql、kylin,本部分为hive+MySQL+kylin用于大数据集群搭建所需的所有安装包资源提供,包括jdk、zookeeper、Hadoop、hbase、hive、mysql、kylin,本部分为hive+MySQL+kylin0 126浏览会员免费
- hadoop大小:520MB用于大数据集群搭建所需的所有安装包资源提供,包括jdk、zookeeper、Hadoop、hbase、hive、mysql、kylin,本部分为jdk+zookeeper+Hadoop+hbase用于大数据集群搭建所需的所有安装包资源提供,包括jdk、zookeeper、Hadoop、hbase、hive、mysql、kylin,本部分为jdk+zookeeper+Hadoop+hbase0 295浏览会员免费
- hadoop大小:666MBhadoop-3.2.0 eclipse内含hadoop-eclipse-plugin 插件 本地测试所需必要的hadoop-3.2.0对应的binhadoop-3.2.0 eclipse内含hadoop-eclipse-plugin 插件 本地测试所需必要的hadoop-3.2.0对应的bin0 187浏览会员免费
- hadoop大小:3MB公共资源 2003年Google在SOSP会议上发表了大数据历史上第一篇公认的革命性论文——《 GFS: The Google File System 》;2004年,Google又发表了另一篇非常重要的论文——《 MapReduce: Simplefied Data Processing on Large Clusters 》;2006年,Google发布了第三篇重要论文——《 BigTable: A Distributed StorageSystem for Structured Data 》公共资源 2003年Google在SOSP会议上发表了大数据历史上第一篇公认的革命性论文——《 GFS: The Google File System 》;2004年,Google又发表了另一篇非常重要的论文——《 MapReduce: Simplefied Data Processing on Large Clusters 》;2006年,Google发布了第三篇重要论文——《 BigTable: A Distributed StorageSystem for Structured Data 》0 184浏览免费
- hadoop大小:448B基于Greenplum Hadoop分布式平台的大数据解决方案及商业应用案例剖析,完整版96节,提供有课件,价值1800的课程,现在分享给大家基于Greenplum Hadoop分布式平台的大数据解决方案及商业应用案例剖析,完整版96节,提供有课件,价值1800的课程,现在分享给大家0 273浏览会员免费
- hadoop大小:33MB内含hadoop-eclipse-plugin.jar(支持eclipse 202006),hadoop.dll和winutils.exe(支持hadoop v3.2.1)内含hadoop-eclipse-plugin.jar(支持eclipse 202006),hadoop.dll和winutils.exe(支持hadoop v3.2.1)0 54浏览会员免费
- hadoop.dll大小:5MB可解压至win上,hadoop.dll的各个版本,spark本地跑时可以用这个hadoop,hadoop版本不一致容易报错可解压至win上,hadoop.dll的各个版本,spark本地跑时可以用这个hadoop,hadoop版本不一致容易报错0 212浏览会员免费
- hadoop大小:900MB包括hadoop,hive,hbase,jdk,mysql,flume,sqoop.xshell等常用组件,组件全部兼容包括hadoop,hive,hbase,jdk,mysql,flume,sqoop.xshell等常用组件,组件全部兼容0 166浏览会员免费
- sqoop大小:1MBSqoop从MySQL导数据到HDFS上,如果报错空指针异常,需要的jar包。正常情况只要安装java-json.jar就可以。如果不行就都安装上。如果你用的是阿里云的EMR,安装完之后还报错的话,需求确认你的jar包中是否含有hive开头的两个jar包,他们有冲突。删掉就能成功。Sqoop从MySQL导数据到HDFS上,如果报错空指针异常,需要的jar包。正常情况只要安装java-json.jar就可以。如果不行就都安装上。如果你用的是阿里云的EMR,安装完之后还报错的话,需求确认你的jar包中是否含有hive开头的两个jar包,他们有冲突。删掉就能成功。0 258浏览会员免费
- hadoop大小:355MBwindows配置hadoop环境变量需要的包。。 解决Unable to find native drivers in HADOOP_HOME的问题。 详细步骤请看博客https://blog.csdn.net/u010051036/article/details/108074296windows配置hadoop环境变量需要的包。。 解决Unable to find native drivers in HADOOP_HOME的问题。 详细步骤请看博客https://blog.csdn.net/u010051036/article/details/1080742960 1030浏览会员免费
- 大数据大小:563KB1.覆盖HADOOP_HOME\bin目录 2.再次将hadoop.dll复制到C:\Windows\System32即可 3.如果还不行重启ECLIPSE 在系统环境变量中配置HADOOP_HOME目录 在ECLIPSE的RUN里配置HADOOP_HOME RUN AS->RUN CONFIGURATIONS->ENVIRONMENT->ADD 主要就是前两步,其它情况暂时没遇到,亲测跑通1.覆盖HADOOP_HOME\bin目录 2.再次将hadoop.dll复制到C:\Windows\System32即可 3.如果还不行重启ECLIPSE 在系统环境变量中配置HADOOP_HOME目录 在ECLIPSE的RUN里配置HADOOP_HOME RUN AS->RUN CONFIGURATIONS->ENVIRONMENT->ADD 主要就是前两步,其它情况暂时没遇到,亲测跑通0 448浏览会员免费
- hdfs大小:316MBHadoop3.1.X的windows环境搭建依赖的文件,里边包含了windows环境所依赖的所有文件Hadoop3.1.X的windows环境搭建依赖的文件,里边包含了windows环境所依赖的所有文件0 1821浏览会员免费
- hadoop大小:123MBhadoop-eclipse-plugin 的2.5.2、2.6.0、2.7.3、2.7.4版本集合hadoop-eclipse-plugin 的2.5.2、2.6.0、2.7.3、2.7.4版本集合0 97浏览会员免费
- 大数据可视化大小:337KB【知识准备】 探索性数据分析的基本原理和方法;Python语言及相关包的运用;Pandas;Numpy;Matplotlib;Seaborn;Scikit-Leart。 【实训要求】 1、观察样本数据的结构和数据特征; 2、读取样本数据,观察样本数据结构和头尾各10行数据; 3、对样本数据进行分析,找出业务数据中的分布规律; 4、用可视化方法对分析结果进行展示。 5、观察并找出每个特征的样本数据的缺失值和异常值等并提出解决办法; 6、对样本数据进行预处理; 7、采集样本数据存入HBase数据库(选)。 【实训内容】 任务2-1 1、数据源:“sodadata”文件夹下“联通数据_Sample”。 2、项目数据集: 表一结果_Sample_1000条.csv 表二结果_Sample_1000条.csv 3、针对表一样本数据: (1)分析并展示不同时间段采样的基站服务区内移动用户的活跃度分布; (2)分析并展示服务区内移动用户工作时间和休息时间的活跃度分布,筛选出当地居民和外来移动用户; (3)分析用户活动规律,根据其通信特点进行分类。(选做) 4、针对表二样本数据: (1)分析并展示样本数据中年龄、性别、终端品牌等各类数据的分布规律; (2)分析缺失和异常数据,提出处理预处理方案; (3)筛选高价值重点用户(提示:从业务量或消费等方面思考); (4)如果表一和表二从相同的服务区采集,请思考并提出你的进一步分析方案和商业营销方案。(选做) 5、用Jupyter Notebook根据实训要求编写程序和文档,最终结果打印输出为PDF文档;【知识准备】 探索性数据分析的基本原理和方法;Python语言及相关包的运用;Pandas;Numpy;Matplotlib;Seaborn;Scikit-Leart。 【实训要求】 1、观察样本数据的结构和数据特征; 2、读取样本数据,观察样本数据结构和头尾各10行数据; 3、对样本数据进行分析,找出业务数据中的分布规律; 4、用可视化方法对分析结果进行展示。 5、观察并找出每个特征的样本数据的缺失值和异常值等并提出解决办法; 6、对样本数据进行预处理; 7、采集样本数据存入HBase数据库(选)。 【实训内容】 任务2-1 1、数据源:“sodadata”文件夹下“联通数据_Sample”。 2、项目数据集: 表一结果_Sample_1000条.csv 表二结果_Sample_1000条.csv 3、针对表一样本数据: (1)分析并展示不同时间段采样的基站服务区内移动用户的活跃度分布; (2)分析并展示服务区内移动用户工作时间和休息时间的活跃度分布,筛选出当地居民和外来移动用户; (3)分析用户活动规律,根据其通信特点进行分类。(选做) 4、针对表二样本数据: (1)分析并展示样本数据中年龄、性别、终端品牌等各类数据的分布规律; (2)分析缺失和异常数据,提出处理预处理方案; (3)筛选高价值重点用户(提示:从业务量或消费等方面思考); (4)如果表一和表二从相同的服务区采集,请思考并提出你的进一步分析方案和商业营销方案。(选做) 5、用Jupyter Notebook根据实训要求编写程序和文档,最终结果打印输出为PDF文档;0 859浏览会员免费
- 各大洲大小:2MB世界各大洲的矢量文件,shape格式的文件,一个图层数据很全,包括南极洲,欢迎下载使用世界各大洲的矢量文件,shape格式的文件,一个图层数据很全,包括南极洲,欢迎下载使用0 258浏览会员免费
- 基于MapReduce的成绩分析大小:12KB功能需求: 1.计算每门课程的平均成绩; 2.计算每门课程学生的平均成绩,并将平均成绩从高到低输出; 3.求课程的最高成绩; 4.求课程的最低成绩; 5.统计课程成绩的分布情况,如:某门课程多少人参加考试,各个分数段的人数等 6.查找。输入一个学生的姓名,输出该生姓名以及其参加考试的课程和成绩; 7.求该成绩表每门课程当中出现了相同分数的分数,出现的次数,以及该相同分数的人数。 里面额外有一个主界面,便于调用其他各个功能。 下载后参考我的博客理解更有效:https://blog.csdn.net/qq_44830040/article/details/106457278功能需求: 1.计算每门课程的平均成绩; 2.计算每门课程学生的平均成绩,并将平均成绩从高到低输出; 3.求课程的最高成绩; 4.求课程的最低成绩; 5.统计课程成绩的分布情况,如:某门课程多少人参加考试,各个分数段的人数等 6.查找。输入一个学生的姓名,输出该生姓名以及其参加考试的课程和成绩; 7.求该成绩表每门课程当中出现了相同分数的分数,出现的次数,以及该相同分数的人数。 里面额外有一个主界面,便于调用其他各个功能。 下载后参考我的博客理解更有效:https://blog.csdn.net/qq_44830040/article/details/1064572780 3796浏览会员免费
- 扒站器(仿站小工具大小:805KB扒站器(仿站小工具 V8.2).rar扒站器(仿站小工具 V8.2).rar0 199浏览会员免费
- 大数据大小:171MB大数据数单词数据集,包含大中小的数据集,对应本号之前上传的mapreduce wordcount代码大数据数单词数据集,包含大中小的数据集,对应本号之前上传的mapreduce wordcount代码0 39浏览会员免费
- 大数据大小:782BCommunity Detection inOnline Social Networks大数据大中小数据集所对应的mapreduce代码Community Detection inOnline Social Networks大数据大中小数据集所对应的mapreduce代码0 112浏览会员免费
- RAR大小:541KB各种格式的文件,可进行项目开发的学习,仅供学习使用,严禁商用!!!数据包括json、txt、csv等等。学习scala,sparkstreaming等时。各种格式的文件,可进行项目开发的学习,仅供学习使用,严禁商用!!!数据包括json、txt、csv等等。学习scala,sparkstreaming等时。0 60浏览会员免费
- HDFS大小:9KB博客《你想了解的分布式文件系统HDFS,看这一篇就够了》案例代码,对Java技术感兴趣的朋友可以关注一下我,我在csdn为您准备了很多Java干货。博客《你想了解的分布式文件系统HDFS,看这一篇就够了》案例代码,对Java技术感兴趣的朋友可以关注一下我,我在csdn为您准备了很多Java干货。0 162浏览会员免费
- Hadoop大小:9MBHadoop是存储海量数据和分析海量数据的工具。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。Hadoop是存储海量数据和分析海量数据的工具。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。0 50浏览会员免费
- hadoop大小:769KBhadoop开发.rarhadoop开发.rar0 58浏览会员免费
- flume大小:2MBflume1.7的taildir支持windows,flume1.7的taildir支持windowsflume1.7的taildir支持windows,flume1.7的taildir支持windows0 98浏览会员免费
- HDFS源码编译大小:225MB用于编译Hadoop源码的相关软件合集,用于Linux系统环境下的编译,包括2.7.3的源码,maven3.6.3,jdk等等。用于编译Hadoop源码的相关软件合集,用于Linux系统环境下的编译,包括2.7.3的源码,maven3.6.3,jdk等等。0 161浏览会员免费
- java大小:67MBJava是一门编程语言,是用来编写软件的。QQ、迅雷、淘宝、京东等等这些常用软件都可以用Java来编写。ava的开发环境需要安装,包括JDK(Java Development Kit)和JRE(Java Runtime Envionment)Java是一门编程语言,是用来编写软件的。QQ、迅雷、淘宝、京东等等这些常用软件都可以用Java来编写。ava的开发环境需要安装,包括JDK(Java Development Kit)和JRE(Java Runtime Envionment)0 61浏览会员免费
- hadoop大小:894KBhadoop2.6插件,windows 下eclipse连接hadoop环境使用 (Hadoop2.6 plug-in, windows under the Hadoop environment used under eclipse)hadoop2.6插件,windows 下eclipse连接hadoop环境使用 (Hadoop2.6 plug-in, windows under the Hadoop environment used under eclipse)0 427浏览会员免费
- hadoop大小:101KB博客图片资源博客图片资源0 62浏览会员免费
- hadoop大小:256MBhadoop-2.8.5.rarhadoop-2.8.5.rar0 99浏览会员免费
- hadoop大小:562KB按照https://blog.csdn.net/LiuQQu/article/details/83825304编译得到 制作较繁琐按照https://blog.csdn.net/LiuQQu/article/details/83825304编译得到 制作较繁琐0 64浏览会员免费