- hadoop.tar大小:203MBhadoop-2.7.3.tar.gz 下载 目前相对比较稳定的版本 hadoop tar 包下载hadoop-2.7.3.tar.gz 下载 hadoop tar 包下载hadoop-2.7.3.tar.gz 下载 目前相对比较稳定的版本 hadoop tar 包下载hadoop-2.7.3.tar.gz 下载 hadoop tar 包下载5 6034浏览会员免费
- hadoop.dll大小:829KBhadoop在windows上运行需要winutils支持和hadoop.dll等文件。直接解压后把文件丢到D:\hadoop-2.7.5\bin目录中去,将其中的hadoop.dll在c:/windows/System32下也丢一份hadoop在windows上运行需要winutils支持和hadoop.dll等文件。直接解压后把文件丢到D:\hadoop-2.7.5\bin目录中去,将其中的hadoop.dll在c:/windows/System32下也丢一份5 693浏览会员免费
- linux大小:199KBtelnet安装包的全部组件: telnet-0.17-47.el6.x86_64 telnet-server-0.17-47.el6.x86_64 xinetd-2.3.14-39.el6_4.x86_64telnet安装包的全部组件: telnet-0.17-47.el6.x86_64 telnet-server-0.17-47.el6.x86_64 xinetd-2.3.14-39.el6_4.x86_645 5652浏览会员免费
- hadoop大小:724KB基于2x最新版本hadoop2.7.7版本编译。解决createFileWithMode0(Ljava/lang/String;JJJI)Ljava/io/FileDescriptor以及hadoop.dll,winutils等报错!用法:直接将文件解压到hadoop2.7.7的bin目录或者解压后合并bin目录!注:不是替换bin目录! 2020-03-03新增2.7.7,hadoop2.7最后一个版本测试,win10X64。 2.7.7以及以下版本均可使用!基于2x最新版本hadoop2.7.7版本编译。解决createFileWithMode0(Ljava/lang/String;JJJI)Ljava/io/FileDescriptor以及hadoop.dll,winutils等报错!用法:直接将文件解压到hadoop2.7.7的bin目录或者解压后合并bin目录!注:不是替换bin目录! 2020-03-03新增2.7.7,hadoop2.7最后一个版本测试,win10X64。 2.7.7以及以下版本均可使用!5 850浏览会员免费
- csv大小:533KB在处理大数据需求时,一个文档比较大,超过100万行,自己找的用到的工具,共享给大家。在处理大数据需求时,一个文档比较大,超过100万行,自己找的用到的工具,共享给大家。0 4561浏览会员免费
- 推荐系统大小:25MB我的目的是有个网上商城,里面有很多商品,某个用户在浏览一些商品后系统根据用户的浏览记录再结合其它广大用户的偏好记录,应用基于物品的协同过滤算法,为这个用户推荐合乎情理的其它商品,目的在于加深对算法的理解及更直观的展示算法的成果我的目的是有个网上商城,里面有很多商品,某个用户在浏览一些商品后系统根据用户的浏览记录再结合其它广大用户的偏好记录,应用基于物品的协同过滤算法,为这个用户推荐合乎情理的其它商品,目的在于加深对算法的理解及更直观的展示算法的成果5 1508浏览会员免费
- winutils.exe大小:876KBhadoop2.7.x 都可以使用,在windows环境下运行hadoop、hbase、spark需要winutils.exe,否则会报错Could not locate executable null\bin\winutils.exe in the Hadoop binaries。hadoop2.7.x 都可以使用,在windows环境下运行hadoop、hbase、spark需要winutils.exe,否则会报错Could not locate executable null\bin\winutils.exe in the Hadoop binaries。4 867浏览会员免费
- hadoop大小:15MB在windows上运行Hadoop相关程序时报错问题解决(比如Spark) 如果需要积分或者校验码,可以去百度网盘中下载,地址如下: 链接:https://pan.baidu.com/s/1RVpmbtjuQL3lbAEYfjr2EA 提取码:1234在windows上运行Hadoop相关程序时报错问题解决(比如Spark) 如果需要积分或者校验码,可以去百度网盘中下载,地址如下: 链接:https://pan.baidu.com/s/1RVpmbtjuQL3lbAEYfjr2EA 提取码:12340 3174浏览免费
- mqtt-client大小:15MBmqtt调用 demo代码,项目有基本的api使用,欢迎大家交流mqtt调用 demo代码,项目有基本的api使用,欢迎大家交流4 945浏览会员免费
- 日志分析大小:2MB基于Hbase的网站日志分析系统(附带web展示页面) 基于Hbase的网站日志分析系统(附带web展示页面)基于Hbase的网站日志分析系统(附带web展示页面)基于Hbase的网站日志分析系统(附带web展示页面) 基于Hbase的网站日志分析系统(附带web展示页面)基于Hbase的网站日志分析系统(附带web展示页面)5 4153浏览会员免费
- html大小:11KB在安装cdh6.3.2时提示找不到allkeys.asc的问题解决办法,解压出来的文件放到/var/www/html/cm6下,此目录名cm6称根据你实际配置修改即可。此文件适合cdh6所有版本。提供免费下载,欢迎下载! 把解压出来的文件allkeys.asc放到你自己目录即可在安装cdh6.3.2时提示找不到allkeys.asc的问题解决办法,解压出来的文件放到/var/www/html/cm6下,此目录名cm6称根据你实际配置修改即可。此文件适合cdh6所有版本。提供免费下载,欢迎下载! 把解压出来的文件allkeys.asc放到你自己目录即可5 1609浏览免费
- hadoop大小:191MB项目源码:基于Hadoop+Spark招聘推荐可视化系统 大数据项目 计算机毕业设计 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。项目源码:基于Hadoop+Spark招聘推荐可视化系统 大数据项目 计算机毕业设计 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。1 1465浏览免费
- hadoop,大小:96MBhadoop-eclipse-plugin-2.7.4.jar和hadoop-eclipse-plugin-2.7.3.jar还有hadoop-eclipse-plugin-2.6.0.jar的插件都在这打包了,都可以用。hadoop-eclipse-plugin-2.7.4.jar和hadoop-eclipse-plugin-2.7.3.jar还有hadoop-eclipse-plugin-2.6.0.jar的插件都在这打包了,都可以用。5 3459浏览会员免费
- jdk1.8大小:155MBjdk1.8.0_201.rarjdk1.8.0_201.rar0 1146浏览免费
- flume大小:71MB其中上篇介绍了HDFS以及流式数据/日志的问题,同时还谈到了Flume是如何解决这些问题的。本书展示了Flume的架构,包括将数据移动到数据库中以及从数据库中获取数据、NoSQL数据存储和性能调优。对于各个架构组件(源、通道、接收器、通道处理器、接收器组等),都提供了详尽的各种实现以及配置选项,你可以借此根据自己的需要来定制Flume。其中上篇介绍了HDFS以及流式数据/日志的问题,同时还谈到了Flume是如何解决这些问题的。本书展示了Flume的架构,包括将数据移动到数据库中以及从数据库中获取数据、NoSQL数据存储和性能调优。对于各个架构组件(源、通道、接收器、通道处理器、接收器组等),都提供了详尽的各种实现以及配置选项,你可以借此根据自己的需要来定制Flume。5 252浏览会员免费
- Hadoop大小:2MB本书能满足读者全面学习最新的Hadoop技术及其相关技术(Hive、HBase等)的需求,是一本系统且极具实践指导意义的Hadoop工具书和参考书。第1版上市后广受好评,被誉为学习Hadoop技术的经典著作之一。与第1版相比,第2版技术更新颖,所有技术都针对最新版进行了更新;内容更全面,几乎每一个章节都增加了新内容,而且增加了新的章节;实战性更强,案例更丰富;细节更完美,对第1版中存在的缺陷和不足进行了修正。 本书内容全面,对Hadoop整个技术体系进行了全面的讲解,不仅包括HDFS、MapReduce、YARN等核心内容,而且还包括Hive、HBase、Mahout、Pig、ZooKeeper、Avro、Chukwa等与Hadoop技术相关的重要内容。实战性强,不仅为各个知识点精心设计了大量经典的小案例,而且还包括Yahoo!等多个大公司的企业级案例,可操作系极强。本书能满足读者全面学习最新的Hadoop技术及其相关技术(Hive、HBase等)的需求,是一本系统且极具实践指导意义的Hadoop工具书和参考书。第1版上市后广受好评,被誉为学习Hadoop技术的经典著作之一。与第1版相比,第2版技术更新颖,所有技术都针对最新版进行了更新;内容更全面,几乎每一个章节都增加了新内容,而且增加了新的章节;实战性更强,案例更丰富;细节更完美,对第1版中存在的缺陷和不足进行了修正。 本书内容全面,对Hadoop整个技术体系进行了全面的讲解,不仅包括HDFS、MapReduce、YARN等核心内容,而且还包括Hive、HBase、Mahout、Pig、ZooKeeper、Avro、Chukwa等与Hadoop技术相关的重要内容。实战性强,不仅为各个知识点精心设计了大量经典的小案例,而且还包括Yahoo!等多个大公司的企业级案例,可操作系极强。2 0浏览会员免费
- hadoop大小:75KBhadoop2.7在windows下安装的配置文件 winutils.exe+hadoop.dllhadoop2.7在windows下安装的配置文件 winutils.exe+hadoop.dll4 782浏览会员免费
- Kylin大小:66MB网上收集的一些Apache Kylin技术文档,包括Apache Kylin权威指南网上收集的一些Apache Kylin技术文档,包括Apache Kylin权威指南5 194浏览会员免费
- window大小:840KB解决在Windows环境下运行hadoop、spark程序时Failed to locate the winutils binary in the hadoop binary path问题。 1.解压、2.配置环境变量(压缩包中包含配置文档)解决在Windows环境下运行hadoop、spark程序时Failed to locate the winutils binary in the hadoop binary path问题。 1.解压、2.配置环境变量(压缩包中包含配置文档)3 1436浏览会员免费
- 大数据大小:74MB深入理解大数据 大数据处理与编程实践 完整版 带目录深入理解大数据 大数据处理与编程实践 完整版 带目录4 208浏览会员免费
- Hadoop大小:22MBHadoop权威指南中文版(完全版)Hadoop权威指南中文版(完全版)Hadoop权威指南中文版(完全版)Hadoop权威指南中文版(完全版)Hadoop权威指南中文版(完全版)Hadoop权威指南中文版(完全版)Hadoop权威指南中文版(完全版)Hadoop权威指南中文版(完全版)2 2233浏览会员免费
- Hadoop大小:29MB涵盖所有Hadoop所需要的jar包,希望对大家有帮助!涵盖所有Hadoop所需要的jar包,希望对大家有帮助!3 945浏览会员免费
- linux大小:135MBjdk-7u67-linux-x64.tar包现在 linux jdk下载jdk-7u67-linux-x64.tar包现在 linux jdk下载3 1026浏览会员免费
- 大数据大小:18MB大数据平台整体方案建议书,目录详细,结构清晰,由数据分析综合服务平台,业务需求分析, 总体设计, 到系统总体逻辑结构,运维监控,作业调度管理等,描述全面。大数据平台整体方案建议书,目录详细,结构清晰,由数据分析综合服务平台,业务需求分析, 总体设计, 到系统总体逻辑结构,运维监控,作业调度管理等,描述全面。2 385浏览会员免费
- hadoop大小:208MBhadoop-eclipse插件各版本合集,包括有:2.2.0, 2.4.1, 2.6.0, 2.7.1, 2.7.2, 2.7.3, 2.7.6等。hadoop-eclipse插件各版本合集,包括有:2.2.0, 2.4.1, 2.6.0, 2.7.1, 2.7.2, 2.7.3, 2.7.6等。2 2598浏览会员免费
- winutils大小:186KBhadoop2.6.5对应hadoop.dll、winutils.exe(包含32与64位完整版)hadoop2.6.5对应hadoop.dll、winutils.exe(包含32与64位完整版)3 430浏览会员免费
- Splunk大小:24MBSplunk 7.2.3 版本操作: 1,从官网下载到对应版本进行安装,Windows/Linux都可以。 2,安装完成后,进行文件替换。 【1】如果是Windows版本,使用需要替换下载包中的splunkd.exe文件 【2】如果是Windows版本,使用需要替换下载包中的splunkd.文件。 3,启动splunk ,从界面上导入下载包中的证书文件。 4,破解内容从其它源收集,如果侵权,请删除。Splunk 7.2.3 版本操作: 1,从官网下载到对应版本进行安装,Windows/Linux都可以。 2,安装完成后,进行文件替换。 【1】如果是Windows版本,使用需要替换下载包中的splunkd.exe文件 【2】如果是Windows版本,使用需要替换下载包中的splunkd.文件。 3,启动splunk ,从界面上导入下载包中的证书文件。 4,破解内容从其它源收集,如果侵权,请删除。5 686浏览会员免费
- linux大小:7MB实验一: 熟悉常用的Linux操作和Hadoop操作 实验二: 熟悉常用的HDFS操作 实验三: 熟悉常用的HBase操作 实验四: 熟悉常用的mongoDB数据库操作 实验五: MapReduce初级编程实践 实验六: 熟悉Hive的基本操作 实验七: Spark初级编程实践 实验八: Flink初级编程实践实验一: 熟悉常用的Linux操作和Hadoop操作 实验二: 熟悉常用的HDFS操作 实验三: 熟悉常用的HBase操作 实验四: 熟悉常用的mongoDB数据库操作 实验五: MapReduce初级编程实践 实验六: 熟悉Hive的基本操作 实验七: Spark初级编程实践 实验八: Flink初级编程实践5 4191浏览¥ 11.90
- hadoop大小:191MB基于Hadoop+Spark招聘推荐可视化系统 大数据项目 毕业设计(源码下载) 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。例如,基于Hadoop+Spark招聘推荐可视化系统 大数据项目 毕业设计(源码下载) 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。例如,0 1145浏览免费
- hadoop大小:204MB本实验所用的Hadoop版本是hadoop-2.7.7.tar.gz,下载后,解压按照文章步骤安装即可本实验所用的Hadoop版本是hadoop-2.7.7.tar.gz,下载后,解压按照文章步骤安装即可5 1336浏览会员免费
- 2017大小:20MB文件列表: EB级别体量之下的高效数据赋能 阿里巴巴大数据智能技术 阿里巴巴人工智能驱动大数据 阿里巴巴数据资产管理 挑战双11实时数据洪峰的流计算实践 数据驱动智能助力企业成长 阿里巴巴全域数据建设文件列表: EB级别体量之下的高效数据赋能 阿里巴巴大数据智能技术 阿里巴巴人工智能驱动大数据 阿里巴巴数据资产管理 挑战双11实时数据洪峰的流计算实践 数据驱动智能助力企业成长 阿里巴巴全域数据建设5 229浏览会员免费
- protoc-2.5.0大小:3MBprotoc-2.5.0完整版,包括protobuf-2.5.0.tar.gz与protoc-2.5.0-win32.zip。不像某的人上传不完整版本,这么不厚道。protoc-2.5.0完整版,包括protobuf-2.5.0.tar.gz与protoc-2.5.0-win32.zip。不像某的人上传不完整版本,这么不厚道。5 591浏览会员免费
- Hadoop大小:52MB新版已上市!全面深度解读Hadoop的指南,驰骋于云计算和大数据领域的通俗读本新版已上市!全面深度解读Hadoop的指南,驰骋于云计算和大数据领域的通俗读本5 210浏览会员免费
- Hadoop大小:49MB扫描完整版 Hadoop技术详解.Hadoop Operation Hadoop技术详解.Hadoop Operation扫描完整版 Hadoop技术详解.Hadoop Operation Hadoop技术详解.Hadoop Operation5 226浏览会员免费
- 论文前40大小:54MB读完这100篇论文 就能成大数据高手(论文汇总前40篇)读完这100篇论文 就能成大数据高手(论文汇总前40篇)0 462浏览会员免费
- 数据仓库大小:90MB数据仓库工具箱 维度建模权威指南 第3版 数据仓库工具箱 维度建模权威指南 第3版数据仓库工具箱 维度建模权威指南 第3版 数据仓库工具箱 维度建模权威指南 第3版4 496浏览会员免费
- hadoop大小:562KBhadoop2.7.3 在windows下需要的hadoop.dll winutils.exe等文件 拷贝到bin目录下覆盖。hadoop2.7.3 在windows下需要的hadoop.dll winutils.exe等文件 拷贝到bin目录下覆盖。4 804浏览会员免费
- 大数据大小:51MBFusionInsight是华为企业级大数据存储、查询、分析的统一平台,能够帮助企业快速构建海量数据信息处理系统,通过对海量信息数据实时与非实时的分析挖掘,发现全新价值点和企业商机。FusionInsight是华为企业级大数据存储、查询、分析的统一平台,能够帮助企业快速构建海量数据信息处理系统,通过对海量信息数据实时与非实时的分析挖掘,发现全新价值点和企业商机。4 233浏览会员免费
- hadoop.dll大小:664KB在windows环境下开发hadoop时,需要配置HADOOP_HOME环境变量,变量值D:\hadoop-common-2.7.3-bin-master,并在Path追加%HADOOP_HOME%\bin,有可能出现如下错误: org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0(Ljava/lang/String;I)V 解决方案:下载本资源解压将hadoop.dll和winutils.exe文件复制到hadoop2.7.3的bin目录下即可解决。在windows环境下开发hadoop时,需要配置HADOOP_HOME环境变量,变量值D:\hadoop-common-2.7.3-bin-master,并在Path追加%HADOOP_HOME%\bin,有可能出现如下错误: org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0(Ljava/lang/String;I)V 解决方案:下载本资源解压将hadoop.dll和winutils.exe文件复制到hadoop2.7.3的bin目录下即可解决。1 706浏览会员免费
- winutils.exe大小:936KBhadoop-common-2.6.0-bin-master,win10下hadoop主目录包含hadoop.dll和winutils.exe等hadoop-common-2.6.0-bin-master,win10下hadoop主目录包含hadoop.dll和winutils.exe等5 607浏览会员免费
- 大数据大小:26KB企业大数据中台、数据仓库、大数据平台建设的经验总结,包含数据治理平台、从0到1建设数据仓库、数据中台建设经验总结、数据湖等全套大数据领域的经验总结。企业大数据中台、数据仓库、大数据平台建设的经验总结,包含数据治理平台、从0到1建设数据仓库、数据中台建设经验总结、数据湖等全套大数据领域的经验总结。1 1167浏览会员免费
- 虚拟机大小:5MB虚拟机和主机数据传输工具 SSH是一个用来替代TELNET、FTP以及R命令的工具包,主要是想解决口令在网上明文传输的问题。为了系统安全和用户自身的权益,推广SSH是必要的。 开发商:SSH Communications Security Corp虚拟机和主机数据传输工具 SSH是一个用来替代TELNET、FTP以及R命令的工具包,主要是想解决口令在网上明文传输的问题。为了系统安全和用户自身的权益,推广SSH是必要的。 开发商:SSH Communications Security Corp4 297浏览会员免费
- hive大小:4MB尚硅谷大数据项目之电商数仓(2用户行为数据仓库),你值得拥有,欢迎一起学习和交流!!!尚硅谷大数据项目之电商数仓(2用户行为数据仓库),你值得拥有,欢迎一起学习和交流!!!1 1222浏览会员免费
- hadoop大小:5MBHadoop源代码分析(完整版) Hadoop源代码分析(完整版) Hadoop源代码分析(完整版) Hadoop源代码分析(完整版)Hadoop源代码分析(完整版) Hadoop源代码分析(完整版) Hadoop源代码分析(完整版) Hadoop源代码分析(完整版)0 0浏览会员免费
- hadoop3.1.0大小:1MBhadoop3.1.0在win10系统使用vs2017编译的本地库,包括hadoop.dll,hdfs.dll,winutils.exe及其.lib文件hadoop3.1.0在win10系统使用vs2017编译的本地库,包括hadoop.dll,hdfs.dll,winutils.exe及其.lib文件3 922浏览会员免费
- 大数据大小:28MB包含:《宜信-实时敏捷大数据在宜信的实践》、《杭州恩牛网络-大数据产品进阶之道》、《新浪微博-实时流计算平台及应用模式》、《PingCAP-A TiDB Story》、《知乎-知乎容器平台演进及与大数据融合实践》、《Tron-隐私与系统架构》、《京东-商品数据的大规模数据计算和底层架构搭建》、《京东-京东弹性数据库中间件JED》、《日志易-数据驱动的智能运维平台》、《京东-京东JDOS平台与敏捷数据中心探索历程》、《矩阵元区块链-安全多方计算产品》、《快狗打车-帖子中心无限容量数据库架构设计》、《快狗打车-数据库架构典型设计方案》、《快狗打车-好友中心&订单中心 无限容量数据库架构设计》包含:《宜信-实时敏捷大数据在宜信的实践》、《杭州恩牛网络-大数据产品进阶之道》、《新浪微博-实时流计算平台及应用模式》、《PingCAP-A TiDB Story》、《知乎-知乎容器平台演进及与大数据融合实践》、《Tron-隐私与系统架构》、《京东-商品数据的大规模数据计算和底层架构搭建》、《京东-京东弹性数据库中间件JED》、《日志易-数据驱动的智能运维平台》、《京东-京东JDOS平台与敏捷数据中心探索历程》、《矩阵元区块链-安全多方计算产品》、《快狗打车-帖子中心无限容量数据库架构设计》、《快狗打车-数据库架构典型设计方案》、《快狗打车-好友中心&订单中心 无限容量数据库架构设计》2 558浏览会员免费
- hadoop大小:203MBHadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据0 1137浏览会员免费
- hadoop大小:794KB替换win的hadoop\bin,将hadoop.dll复制一份到c盘windows\system32替换win的hadoop\bin,将hadoop.dll复制一份到c盘windows\system324 377浏览会员免费
- 大数据大小:1MBwin10-hadoop2.6.4编译文件bin,用的是vs2015编译的。可以直接删除已有的bin文件夹,把此bin文件夹代替。抱歉,资源分不能为0分,win10-hadoop2.6.4编译文件bin,用的是vs2015编译的。可以直接删除已有的bin文件夹,把此bin文件夹代替。抱歉,资源分不能为0分,5 126浏览会员免费
- kaggle大小:32KB数据分析kaggle大赛泰坦尼克号生还概率数据数据分析kaggle大赛泰坦尼克号生还概率数据1 839浏览会员免费
- hadoop大小:119MB压缩包包含以下三本书籍: 《Hadoop技术内幕 深入解析common和HDFS》、 《Hadoop技术内幕 深入解析MapReduce》、 《Hadoop技术内幕 深入解析YARN》压缩包包含以下三本书籍: 《Hadoop技术内幕 深入解析common和HDFS》、 《Hadoop技术内幕 深入解析MapReduce》、 《Hadoop技术内幕 深入解析YARN》0 206浏览会员免费
- Kettle大小:93MBkettle学习非常权威的指南文档,适合kettle的深入学习使用kettle学习非常权威的指南文档,适合kettle的深入学习使用4 308浏览会员免费
- hadoop-3.0.0大小:768KBhadoop3.0.0 windows平台需要的文件 .hadoop3.0.0 windows平台需要的文件 .0 743浏览会员免费
- winutils大小:1MB自己编译的,亲测在windows 10 64位系统下,Hadoop 2.7.6可用,自己编译的,亲测在windows 10 64位系统下,Hadoop 2.7.6可用,0 524浏览会员免费
- winutils大小:819KBwindows平台下开发时所需的执行文件. 基于hadoop2.8.4版源码,日期20180605,编译的是win平台,Release,x64. 压缩包里有详细编译日志.windows平台下开发时所需的执行文件. 基于hadoop2.8.4版源码,日期20180605,编译的是win平台,Release,x64. 压缩包里有详细编译日志.2 159浏览免费
- Hadoop3.1.1大小:14MBwin10 Hadoop3.1.1运行时缺少hadoop.dll winutils.exe,运行winutils.ext提示vcruntime140.dll 等。win10 Hadoop3.1.1运行时缺少hadoop.dll winutils.exe,运行winutils.ext提示vcruntime140.dll 等。5 590浏览会员免费
- hadoop大小:208MB该压缩包是在官方包的基础上进行修改的,将Windows运行hadoop所需配置文件和部分插件已经导入,电脑只需安装64位java环境,修改hadoop-env.cmd配置即可使用该压缩包是在官方包的基础上进行修改的,将Windows运行hadoop所需配置文件和部分插件已经导入,电脑只需安装64位java环境,修改hadoop-env.cmd配置即可使用4 977浏览会员免费
- hadoop大小:205MB此文件为hadoop-2.7.7.tar.gz,可在linux下直接进行安装,如在windows上安装,则需要hadooponwindows-master.zip,用windows-master里的文件替换解压好后hadoop的bin和etc即可。此文件为hadoop-2.7.7.tar.gz,可在linux下直接进行安装,如在windows上安装,则需要hadooponwindows-master.zip,用windows-master里的文件替换解压好后hadoop的bin和etc即可。0 3558浏览会员免费
- Hadoop豆瓣电影分析大小:14KB针对本次实验,我们需要用到Hadoop集群作为模拟大数据的分析软件,集群环境必须要包括,hdfs,hbase,hive,flume,sqoop等插件,最后结合分析出来的数据进行可视化展示,需要用到Python(爬取数据集,可视化展示)或者echarts等可视化工具。 豆瓣用户每天都在对“看过”的电影进行“很差”到“力荐”的评价,豆瓣根据每部影片看过的人数以及该影片所得的评价等综合数据,通过算法分析产生豆瓣电影 Top 250。 为了分析电影产业的发展趋势,本次实验需要对这些信息做统计分析。 注意:豆瓣网站的数据形式为文本文件(必须将导入到hive中做处理)。也可以为CSV文件,例如下图:针对本次实验,我们需要用到Hadoop集群作为模拟大数据的分析软件,集群环境必须要包括,hdfs,hbase,hive,flume,sqoop等插件,最后结合分析出来的数据进行可视化展示,需要用到Python(爬取数据集,可视化展示)或者echarts等可视化工具。 豆瓣用户每天都在对“看过”的电影进行“很差”到“力荐”的评价,豆瓣根据每部影片看过的人数以及该影片所得的评价等综合数据,通过算法分析产生豆瓣电影 Top 250。 为了分析电影产业的发展趋势,本次实验需要对这些信息做统计分析。 注意:豆瓣网站的数据形式为文本文件(必须将导入到hive中做处理)。也可以为CSV文件,例如下图:5 4107浏览¥ 11.90
- hadoop大小:789KB包含了在windows下连接linux hadoop需要的文件winutils和hadoop.dll 支持hadoop 2.6.* 和2.7.* 的hadoop版本包含了在windows下连接linux hadoop需要的文件winutils和hadoop.dll 支持hadoop 2.6.* 和2.7.* 的hadoop版本5 494浏览会员免费