- big大小:152MB小小终端=超级计算机 更加智能的服务 如影随行的私人数据中心 服务器永远不会塞车 90% Off 的价格 信息随手可得小小终端=超级计算机 更加智能的服务 如影随行的私人数据中心 服务器永远不会塞车 90% Off 的价格 信息随手可得0 4浏览会员免费
- spark大小:776KB【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现 【高分毕设源码】基于Hadoop、Spark的大数据金融信贷风险控系统设计和实现0 14浏览¥ 49.90
- hadoop大小:254MB下载好之后,请先解压,然后再把hadoop-2.7.4.tar.gz拿出来哦。下载好之后,请先解压,然后再把hadoop-2.7.4.tar.gz拿出来哦。0 13浏览免费
- hadoop大小:1MB基于Hadoop的豆瓣电影影评数据分析(word文档)基于Hadoop的豆瓣电影影评数据分析(word文档)0 46浏览免费
- hadoop大小:1MB基于Hadoop的豆瓣电影影评数据分析《word文档》基于Hadoop的豆瓣电影影评数据分析《word文档》0 30浏览免费
- linux大小:588KBIT大厂名企 Linux云计算面试题,稀有资源且用且珍惜。IT大厂名企 Linux云计算面试题,稀有资源且用且珍惜。0 26浏览会员免费
- hadoop大小:90KB包含了Hadoop编程项目的源码,包含多个项目包含了Hadoop编程项目的源码,包含多个项目0 17浏览会员免费
- 大数据大小:9MBHIVE中文乱码解决,第10组_黑马畅聊需求分析文档,第10组_黑马畅聊主题建模设计文档,哈度破黑马畅聊数据分析表 ,pptHIVE中文乱码解决,第10组_黑马畅聊需求分析文档,第10组_黑马畅聊主题建模设计文档,哈度破黑马畅聊数据分析表 ,ppt0 28浏览会员免费
- 大数据大小:1MBHIVE中文乱码解决,第10组_黑马畅聊需求分析文档,第10组_黑马畅聊主题建模设计文档,哈度破黑马畅聊数据分析表 最终,HIVE中文乱码解决,第10组_黑马畅聊需求分析文档,第10组_黑马畅聊主题建模设计文档,哈度破黑马畅聊数据分析表 最终,0 38浏览会员免费
- hadoop大小:17MBHadoop大数据开发基础-PPT课件(共6章)Hadoop大数据开发基础-PPT课件(共6章)0 38浏览免费
- hadoop大小:17MBHadoop大数据开发基础-PPT课件Hadoop大数据开发基础-PPT课件0 16浏览免费
- 毕业设计大小:1MB基于Hadoop/Spark奥运会奖牌变化大数据分析实现 开发技术:Hadoop + Spark + Hive + Sqoop + Flask + Mysql + Echart 针对采集到的奥运会大数据,本文选取了最新的云计算技术,基于Hadoop对奥运会奖牌数进行分析,在技术上的选取是非常有意义的,因为Hadoop的开发效率比较高,而且具有可靠性,结合了Spark框架和Hive工具进行分析,利用echarts图表进行数据的可视化展示。综上,本文的实现在技术上是支持的。本系统需要完成的数据可视化功能有: (1)对历届奥运会总奖牌数的变化情况进行可视化; (2)对历届奥运会奖牌数前十的国家及其奖牌数量和比例进行可视化; (3)对中国历届奥运会获得的奖牌数及其变化趋势进行可视化; (4)对我国奥运会奖牌数主要分布及趋势变化进行可视化。基于Hadoop/Spark奥运会奖牌变化大数据分析实现 开发技术:Hadoop + Spark + Hive + Sqoop + Flask + Mysql + Echart 针对采集到的奥运会大数据,本文选取了最新的云计算技术,基于Hadoop对奥运会奖牌数进行分析,在技术上的选取是非常有意义的,因为Hadoop的开发效率比较高,而且具有可靠性,结合了Spark框架和Hive工具进行分析,利用echarts图表进行数据的可视化展示。综上,本文的实现在技术上是支持的。本系统需要完成的数据可视化功能有: (1)对历届奥运会总奖牌数的变化情况进行可视化; (2)对历届奥运会奖牌数前十的国家及其奖牌数量和比例进行可视化; (3)对中国历届奥运会获得的奖牌数及其变化趋势进行可视化; (4)对我国奥运会奖牌数主要分布及趋势变化进行可视化。0 47浏览¥ 9.90
- hadoop大小:17MBHadoop大数据开发基础PPT课件Hadoop大数据开发基础PPT课件0 9浏览免费
- hadoop大小:15MBtixike_test_datatixike_test_data0 9浏览免费
- 大数据大小:441KB这份市场调研资料为我们提供了深入而全面的市场洞察,涵盖了多个关键领域和行业趋势。资料中详细分析了目标市场的规模、增长潜力以及竞争格局,为我们制定市场战略提供了有力的数据支持。 首先,资料对目标市场的规模进行了精确的估算。通过收集和分析大量的数据,我们了解到该市场的总体规模以及各个细分市场的占比。这为我们在市场中定位自己的产品和服务提供了重要的参考。 其次,资料深入剖析了市场的增长潜力。通过对比历史数据和未来预测,我们发现该市场呈现出稳步增长的态势,未来几年内仍有较大的发展空间。这为我们制定市场拓展计划和投资策略提供了有力的依据。 此外,资料还对市场竞争格局进行了全面的梳理。我们了解到市场中主要竞争者的市场份额、产品特点以及营销策略等信息。这有助于我们分析竞争对手的优势和劣势,从而制定更具针对性的竞争策略。 最后,资料还对市场的发展趋势进行了预测。通过分析行业政策、技术进步以及消费者需求等因素,我们预测未来市场将朝着更加多元化、个性化的方向发展。这为我们调整产品结构和优化市场布局提供了有益的启示。 总的来说,这份市场调研资料为我们提供了宝贵的信息和洞见,有助于我们更好地了解市场这份市场调研资料为我们提供了深入而全面的市场洞察,涵盖了多个关键领域和行业趋势。资料中详细分析了目标市场的规模、增长潜力以及竞争格局,为我们制定市场战略提供了有力的数据支持。 首先,资料对目标市场的规模进行了精确的估算。通过收集和分析大量的数据,我们了解到该市场的总体规模以及各个细分市场的占比。这为我们在市场中定位自己的产品和服务提供了重要的参考。 其次,资料深入剖析了市场的增长潜力。通过对比历史数据和未来预测,我们发现该市场呈现出稳步增长的态势,未来几年内仍有较大的发展空间。这为我们制定市场拓展计划和投资策略提供了有力的依据。 此外,资料还对市场竞争格局进行了全面的梳理。我们了解到市场中主要竞争者的市场份额、产品特点以及营销策略等信息。这有助于我们分析竞争对手的优势和劣势,从而制定更具针对性的竞争策略。 最后,资料还对市场的发展趋势进行了预测。通过分析行业政策、技术进步以及消费者需求等因素,我们预测未来市场将朝着更加多元化、个性化的方向发展。这为我们调整产品结构和优化市场布局提供了有益的启示。 总的来说,这份市场调研资料为我们提供了宝贵的信息和洞见,有助于我们更好地了解市场0 19浏览免费
- 范文/模板/素材大小:4MB包含数据调研、数据标准、数据接入、数据治理四个大项,设计数据治理全流程工作的标准模板和流程定义包含数据调研、数据标准、数据接入、数据治理四个大项,设计数据治理全流程工作的标准模板和流程定义0 44浏览会员免费
- 大数据大小:3MB这是一个完整的项目的部分内容请先按照相关教程自主搭建相关的平台并完成软件的下载、安装和配置这是一个完整的项目的部分内容请先按照相关教程自主搭建相关的平台并完成软件的下载、安装和配置0 20浏览会员免费
- 大数据大小:5MB大数据工程师方向面试题库,包括Flink,Hadoop,Hbase,Hive,Kafka,Liunx,Spark,Sqoop,Zookeeper,综合面试题等题库大数据工程师方向面试题库,包括Flink,Hadoop,Hbase,Hive,Kafka,Liunx,Spark,Sqoop,Zookeeper,综合面试题等题库0 10浏览会员免费
- hadoop大小:229KB基于Hadoop MapReduce的招聘信息数据分析项目代码+数据集.rar基于Hadoop MapReduce的招聘信息数据分析项目代码+数据集.rar0 97浏览¥ 19.90
- hadoop大小:708KB基于Hadoop MapReduce的高校考研分数线统计分析项目代码+数据集.rar基于Hadoop MapReduce的高校考研分数线统计分析项目代码+数据集.rar5 80浏览¥ 22.90
- hadoop大小:597KB基于Hadoop MapReduce的短视频主播数据分析项目代码+数据集.rar基于Hadoop MapReduce的短视频主播数据分析项目代码+数据集.rar5 86浏览¥ 22.90
- hadoop大小:127KB基于Hadoop MapReduce的电商网站商品数据分析.rar基于Hadoop MapReduce的电商网站商品数据分析.rar0 98浏览¥ 19.90
- hadoop大小:288KB基于Hadoop MapReduce的电影点评网站数据分析项目代码+数据集.rar基于Hadoop MapReduce的电影点评网站数据分析项目代码+数据集.rar0 82浏览¥ 22.90
- hadoop大小:41MB【课程大纲】 第01课-Mahout数据挖掘工具(1) 共9页 第02课-Mahout数据挖掘工具(2) 共9页 第03课-Mahout数据挖掘工具(3) 共12页 第04课-Mahout数据挖掘工具(4) 共9页 第05课-Mahout数据挖掘工具(5) 共11页 第06课-Mahout数据挖掘工具(6) 共9页 第07课-Mahout数据挖掘工具(7) 共11页 第08课-Mahout数据挖掘工具(8) 共14页 第09课-Mahout数据挖掘工具(9) 共12页 第10课-Mahout数据挖掘工具(10) 共14页 第11课-Hadoop综合实战-文本挖掘项目(1) 共11页 第12课-Hadoop综合实战-文本挖掘项目(2) 共12页 第13课-Hadoop综合实战-文本挖掘项目(3) 共11页 第14课-Hadoop综合实战-文本挖掘项目(4) 共20页 第15课-Hadoop综合实战-文本挖掘项目(5) 共10页 第16课-Hadoop综合实战-文本挖掘项目(6) 共12页 第17课-Hadoop综合实战-文本挖掘项目(7) 共11页【课程大纲】 第01课-Mahout数据挖掘工具(1) 共9页 第02课-Mahout数据挖掘工具(2) 共9页 第03课-Mahout数据挖掘工具(3) 共12页 第04课-Mahout数据挖掘工具(4) 共9页 第05课-Mahout数据挖掘工具(5) 共11页 第06课-Mahout数据挖掘工具(6) 共9页 第07课-Mahout数据挖掘工具(7) 共11页 第08课-Mahout数据挖掘工具(8) 共14页 第09课-Mahout数据挖掘工具(9) 共12页 第10课-Mahout数据挖掘工具(10) 共14页 第11课-Hadoop综合实战-文本挖掘项目(1) 共11页 第12课-Hadoop综合实战-文本挖掘项目(2) 共12页 第13课-Hadoop综合实战-文本挖掘项目(3) 共11页 第14课-Hadoop综合实战-文本挖掘项目(4) 共20页 第15课-Hadoop综合实战-文本挖掘项目(5) 共10页 第16课-Hadoop综合实战-文本挖掘项目(6) 共12页 第17课-Hadoop综合实战-文本挖掘项目(7) 共11页0 16浏览¥ 99.90
- hadoop大小:35MBazkaban-db-3.84.4.tar.gz azkaban-exec-server-3.84.4.tar.gz azkaban-web-server-3.84.4.tar.gz Azkaban是一个简单的批处理调度器,用于构建和运行Hadoop作业或其他脱机过程。webserver、dbserver、executorserver。 内容概要: Azkaban安装包包括以下内容: 1. Azkaban的Java源代码和构建文件。 2. 数据库的SQL脚本,用于创建和初始化Azkaban所需的数据库表。 3. 配置文件,用于配置Azkaban的各种参数和属性。 4. 启动脚本,用于启动和停止Azkaban服务。 适用人群: Azkaban适用于以下人群: 1. 需要运行Hadoop作业的开发人员和数据分析师。 2. 需要调度和执行批量处理任务的开发人员和系统管理员。 3. 需要实现可扩展、可靠和高效的任务调度和执行的管理员和开发人员。azkaban-db-3.84.4.tar.gz azkaban-exec-server-3.84.4.tar.gz azkaban-web-server-3.84.4.tar.gz Azkaban是一个简单的批处理调度器,用于构建和运行Hadoop作业或其他脱机过程。webserver、dbserver、executorserver。 内容概要: Azkaban安装包包括以下内容: 1. Azkaban的Java源代码和构建文件。 2. 数据库的SQL脚本,用于创建和初始化Azkaban所需的数据库表。 3. 配置文件,用于配置Azkaban的各种参数和属性。 4. 启动脚本,用于启动和停止Azkaban服务。 适用人群: Azkaban适用于以下人群: 1. 需要运行Hadoop作业的开发人员和数据分析师。 2. 需要调度和执行批量处理任务的开发人员和系统管理员。 3. 需要实现可扩展、可靠和高效的任务调度和执行的管理员和开发人员。0 147浏览免费
- hadoop大小:191MB项目源码:基于Hadoop+Spark招聘推荐可视化系统 大数据项目 计算机毕业设计 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。项目源码:基于Hadoop+Spark招聘推荐可视化系统 大数据项目 计算机毕业设计 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。1 1895浏览免费
- hadoop大小:191MB基于Hadoop+Spark招聘推荐可视化系统 大数据项目 毕业设计(源码下载) 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。例如,基于Hadoop+Spark招聘推荐可视化系统 大数据项目 毕业设计(源码下载) 基于Hadoop+Spark的招聘推荐可视化系统是一种利用Hadoop和Spark等大数据处理技术,实现招聘推荐和可视化展示的应用系统。以下是该系统的主要介绍: 数据采集:系统通过各种渠道(如招聘网站、社交媒体等)获取大量的招聘相关数据,包括职位信息、公司信息、求职者信息等。这些数据以结构化或半结构化形式存在。 数据存储与处理:系统利用Hadoop分布式文件系统(HDFS)存储采集到的招聘数据,并使用Hadoop生态圈中的工具(如Hive、HBase等)进行数据处理和管理。Spark作为数据处理引擎,提供高性能的批处理和实时计算能力,对招聘数据进行清洗、转换和特征提取等操作。 招聘推荐:系统利用Spark的机器学习库(如MLlib)构建候选模型,通过对求职者的个人资料、工作经历、技能等特征进行分析,匹配合适的职位和公司。系统可以根据用户的偏好和需求,向其推荐最相关的招聘信息。 可视化展示:系统利用可视化工具(如matplotlib、Plotly等)将招聘数据以各种图表、图形等形式可视化展示。例如,0 1427浏览免费
- hdfs大小:5KBhdfs-java-apihdfs-java-api0 36浏览免费
- hadoop大小:48KB1. input : 读取文本文件; 2. splitting : 将文件按照行进行拆分,此时得到的 `K1` 行数,`V1` 表示对应行的文本内容; 3. mapping : 并行将每一行按照空格进行拆分,拆分得到的 `List(K2,V2)`,其中 `K2` 代表每一个单词,由于是做词频统计,所以 `V2` 的值为 1,代表出现 1 次; 4. shuffling:由于 `Mapping` 操作可能是在不同的机器上并行处理的,所以需要通过 `shuffling` 将相同 `key` 值的数据分发到同一个节点上去合并,这样才能统计出最终的结果,此时得到 `K2` 为每一个单词,`List(V2)` 为可迭代集合,`V2` 就是 Mapping 中的 V2; 5. Reducing : 这里的案例是统计单词出现的总次数,所以 `Reducing` 对 `List(V2)` 进行归约求和操作,最终输出。1. input : 读取文本文件; 2. splitting : 将文件按照行进行拆分,此时得到的 `K1` 行数,`V1` 表示对应行的文本内容; 3. mapping : 并行将每一行按照空格进行拆分,拆分得到的 `List(K2,V2)`,其中 `K2` 代表每一个单词,由于是做词频统计,所以 `V2` 的值为 1,代表出现 1 次; 4. shuffling:由于 `Mapping` 操作可能是在不同的机器上并行处理的,所以需要通过 `shuffling` 将相同 `key` 值的数据分发到同一个节点上去合并,这样才能统计出最终的结果,此时得到 `K2` 为每一个单词,`List(V2)` 为可迭代集合,`V2` 就是 Mapping 中的 V2; 5. Reducing : 这里的案例是统计单词出现的总次数,所以 `Reducing` 对 `List(V2)` 进行归约求和操作,最终输出。0 88浏览免费
- 大数据大小:147MBImpala是Cloudera公司主导开发的新型查询系统,它提供SQL语义,能查询存储在Hadoop的HDFS和HBase中的PB级大数据。已有的Hive系统虽然也提供了SQL语义,但由于Hive底层执行使用的是MapReduce引擎,仍然是一个批处理过程,难以满足查询的交互性。相比之下,Impala的最大特点也是最大卖点就是它的快速。Impala是Cloudera公司主导开发的新型查询系统,它提供SQL语义,能查询存储在Hadoop的HDFS和HBase中的PB级大数据。已有的Hive系统虽然也提供了SQL语义,但由于Hive底层执行使用的是MapReduce引擎,仍然是一个批处理过程,难以满足查询的交互性。相比之下,Impala的最大特点也是最大卖点就是它的快速。0 36浏览免费
- 大数据大小:101MBClickHouse 是俄罗斯的 Yandex 于 2016 年开源的用于在线分析处理查询(OLAP :Online Analytical Processing)MPP架构的列式存储数据库(DBMS:Database Management System),能够使用 SQL 查询实时生成分析数据报告。ClickHouse的全称是Click Stream,Data WareHouse。ClickHouse 是俄罗斯的 Yandex 于 2016 年开源的用于在线分析处理查询(OLAP :Online Analytical Processing)MPP架构的列式存储数据库(DBMS:Database Management System),能够使用 SQL 查询实时生成分析数据报告。ClickHouse的全称是Click Stream,Data WareHouse。0 147浏览免费
- hadoop大小:9MB技术路线: 1、数据爬取:基于python爬取贝壳网站的租房信息,并进行数据清洗 2、数据分析:基于MapReduce计算框架进行数据分析,分析维度包括:租房类型分析、各小区租房数量分析、各小区租房均价、租房价格范围分析、居室类型分析等 3、数据可视化:Python+Flask+echarts+MySQL可视化技术路线: 1、数据爬取:基于python爬取贝壳网站的租房信息,并进行数据清洗 2、数据分析:基于MapReduce计算框架进行数据分析,分析维度包括:租房类型分析、各小区租房数量分析、各小区租房均价、租房价格范围分析、居室类型分析等 3、数据可视化:Python+Flask+echarts+MySQL可视化0 386浏览会员免费
- java大小:518KBclickhouse-jdbc.rarclickhouse-jdbc.rar0 17浏览免费
- hadoop大小:559KBhadoop-3.3.2 版本编译的 winutils.exe 与 hadoop.dllhadoop-3.3.2 版本编译的 winutils.exe 与 hadoop.dll0 38浏览免费
- java大小:51MB大数据测试资料大礼包,整理收集了关于大数据测试需要学习掌握的几块知识, 1、java 开发能力 2、数据库基础知识、mysql的学习、MySQL面试题(含答案)_ 3、大数据测试方法与工具梳理 4、大数据测试分享 5、大数据测试文档 6、接口自动化流程及设计详解 7、一种基于大数据的自动化测试方法及系统 8、一套大数据相关知识集:关于hadoop、hbase、hlive、spark、Splunk、大数据测试实践等文档大数据测试资料大礼包,整理收集了关于大数据测试需要学习掌握的几块知识, 1、java 开发能力 2、数据库基础知识、mysql的学习、MySQL面试题(含答案)_ 3、大数据测试方法与工具梳理 4、大数据测试分享 5、大数据测试文档 6、接口自动化流程及设计详解 7、一种基于大数据的自动化测试方法及系统 8、一套大数据相关知识集:关于hadoop、hbase、hlive、spark、Splunk、大数据测试实践等文档0 64浏览会员免费
- java大小:51MB大数据测试资料大礼包,整理收集了关于大数据测试需要学习掌握的几块知识, 1、java 开发能力 2、数据库基础知识、mysql的学习、MySQL面试题(含答案)_ 3、大数据测试方法与工具梳理 4、大数据测试分享 5、大数据测试文档 6、接口自动化流程及设计详解 7、一种基于大数据的自动化测试方法及系统 8、一套大数据相关知识集:关于hadoop、hbase、hlive、spark、Splunk、大数据测试实践等文档大数据测试资料大礼包,整理收集了关于大数据测试需要学习掌握的几块知识, 1、java 开发能力 2、数据库基础知识、mysql的学习、MySQL面试题(含答案)_ 3、大数据测试方法与工具梳理 4、大数据测试分享 5、大数据测试文档 6、接口自动化流程及设计详解 7、一种基于大数据的自动化测试方法及系统 8、一套大数据相关知识集:关于hadoop、hbase、hlive、spark、Splunk、大数据测试实践等文档0 22浏览会员免费
- hadoop大小:205MBhadoop-2.7.1,是很经典的版本,很多单位都在用,很多教程也用这个版本。 但是官网和镜像站都已经不再提供下载。 我也是招了很久,终于找到了,自己跟着教程过了一遍。 在这里分享出来,让大家不用费尽心思再去下载那些捆绑了很多流氓软件,或者干脆就是流氓软件的、假的软件包。hadoop-2.7.1,是很经典的版本,很多单位都在用,很多教程也用这个版本。 但是官网和镜像站都已经不再提供下载。 我也是招了很久,终于找到了,自己跟着教程过了一遍。 在这里分享出来,让大家不用费尽心思再去下载那些捆绑了很多流氓软件,或者干脆就是流氓软件的、假的软件包。0 43浏览会员免费
- 云计算大小:144MB湖工大-云计算与大数据处理 往年试卷与课件ppt湖工大-云计算与大数据处理 往年试卷与课件ppt5 36浏览免费
- hadoop大小:5MB1.# 基于docker技术搭建Hadoop与MapReduce分布式环境 2.# 基于hadoop与MapReduce的分布式编程 3.# HDFS基本操作实验 4.# 使用docker构建spark运行环境 5.# 使用mllib完成mnist手写识别任务1.# 基于docker技术搭建Hadoop与MapReduce分布式环境 2.# 基于hadoop与MapReduce的分布式编程 3.# HDFS基本操作实验 4.# 使用docker构建spark运行环境 5.# 使用mllib完成mnist手写识别任务0 158浏览会员免费
- hadoop大小:17MB内容概要:让初学者能高效、快捷掌握Hadoop必备知识,大大缩短Hadoop离线阶段学习时间。 适合人群:具备一定编程基础人员 能学到什么: HDFS+MapReduce+Hive 基于数据仓库实现离线数据分析的可视化报表开发。 Hadoop生态综合案例 ——陌陌聊天数据分析内容概要:让初学者能高效、快捷掌握Hadoop必备知识,大大缩短Hadoop离线阶段学习时间。 适合人群:具备一定编程基础人员 能学到什么: HDFS+MapReduce+Hive 基于数据仓库实现离线数据分析的可视化报表开发。 Hadoop生态综合案例 ——陌陌聊天数据分析0 349浏览免费
- hadoop大小:12KB压缩文件中包含了Hadoop生态系统、体系架构及特点,三大基本组件HDFS,MapReduce,YARN的学习笔记,文件为Markdown格式,进行了详细功能介绍说明,可以帮助大家学习hadoop的三大组件或者作为一份详细资料备份,帮助回忆相关知识!压缩文件中包含了Hadoop生态系统、体系架构及特点,三大基本组件HDFS,MapReduce,YARN的学习笔记,文件为Markdown格式,进行了详细功能介绍说明,可以帮助大家学习hadoop的三大组件或者作为一份详细资料备份,帮助回忆相关知识!0 236浏览免费
- hadoop大小:2KBhadoop-xml配置hadoop-xml配置0 29浏览免费
- 大数据大小:63KBhadoop,zookeeper,hbase,hive,spark,kafka,flink,clickhouse,数据仓库,等等hadoop,zookeeper,hbase,hive,spark,kafka,flink,clickhouse,数据仓库,等等0 464浏览免费
- Hadoop集群大小:347B1.集群配置,包含三个结点,主节点控制所有的子节点 2.集群已经搭建好了,解压之后直接可以使用Finalshell和VMware连接 3.包含全套组件:hdfs,hbase,hive,sqoop,mysql,pig,spark等大数据组件 4.如果不知道如何使用,或者需要做Hadoop项目可以私信博主1.集群配置,包含三个结点,主节点控制所有的子节点 2.集群已经搭建好了,解压之后直接可以使用Finalshell和VMware连接 3.包含全套组件:hdfs,hbase,hive,sqoop,mysql,pig,spark等大数据组件 4.如果不知道如何使用,或者需要做Hadoop项目可以私信博主5 664浏览¥ 54.90
- 大数据大小:685MB本资源是相关大数据组件的辅助工具。1. 有利于大数据组件搭建、操作、管理等 2.有关大数据组件安装包 3. 适合初学大数据而相关资源包获取不方便的同学。本资源是相关大数据组件的辅助工具。1. 有利于大数据组件搭建、操作、管理等 2.有关大数据组件安装包 3. 适合初学大数据而相关资源包获取不方便的同学。0 53浏览免费
- WSN大小:3KB算术优化算法(AOA) 优化无线传感器网络覆盖(WSN) + matlab编程算术优化算法(AOA) 优化无线传感器网络覆盖(WSN) + matlab编程0 75浏览免费
- hadoop-3.1.3.tar大小:322MBhadoop-3.1.3.tar.gz.gzhadoop-3.1.3.tar.gz.gz0 402浏览会员免费
- 大数据大小:626KB在Windows环境下开发spark程序,不可避免使用到部分Hadoop功能。为了避免在Windows上报错,给windows打补丁。在Windows环境下开发spark程序,不可避免使用到部分Hadoop功能。为了避免在Windows上报错,给windows打补丁。0 48浏览会员免费
- hadoop大小:33MBZookeeper的压缩包,需先进行解压,解压后文件夹内压缩包即为用到的压缩包,全称为zookeeper-3.4.10.tar.gzZookeeper的压缩包,需先进行解压,解压后文件夹内压缩包即为用到的压缩包,全称为zookeeper-3.4.10.tar.gz0 78浏览会员免费
- hadoop大小:827KB在windows下对hadoop进行Java API操作的配置文件在windows下对hadoop进行Java API操作的配置文件0 236浏览会员免费
- Hadoop大小:951KBhadoop-2.7.1.rarhadoop-2.7.1.rar0 37浏览免费
- jdk11大小:51MB已有文档word版 截止221103已有文档word版 截止2211030 18浏览会员免费
- hadoop大小:13KB集群常用脚本及相关组件配置集群常用脚本及相关组件配置文件文件集群常用脚本及相关组件配置集群常用脚本及相关组件配置文件文件0 29浏览会员免费
- Spark大小:200BSpark+ClickHouse实战企业级数据仓库视频教程19章全,附源码+软件下载Spark+ClickHouse实战企业级数据仓库视频教程19章全,附源码+软件下载0 117浏览会员免费
- hadoop大小:120KBhadoop集群一键部署脚本hadoop集群一键部署脚本0 141浏览会员免费
- 大数据大小:420MBApache Ranger官方不提供编译好的安装包供用户部署,部署自行编译。 编译过程坑非常多。 楼主经过千辛万苦终于编译成功了。 版本是2.2.0,适合Hadoop 3.x。上传给大家使用。 因为CSDN单次只能传小于1G的文件,所以分了两个包Apache Ranger官方不提供编译好的安装包供用户部署,部署自行编译。 编译过程坑非常多。 楼主经过千辛万苦终于编译成功了。 版本是2.2.0,适合Hadoop 3.x。上传给大家使用。 因为CSDN单次只能传小于1G的文件,所以分了两个包0 83浏览会员免费
- 大数据大小:600MBApache Ranger官方不提供编译好的安装包供用户部署,部署自行编译。 编译过程坑非常多。 楼主经过千辛万苦终于编译成功了。 版本是2.2.0,适合Hadoop 3.x。上传给大家使用。 因为CSDN单次只能传小于1G的文件,所以分了两个包。Apache Ranger官方不提供编译好的安装包供用户部署,部署自行编译。 编译过程坑非常多。 楼主经过千辛万苦终于编译成功了。 版本是2.2.0,适合Hadoop 3.x。上传给大家使用。 因为CSDN单次只能传小于1G的文件,所以分了两个包。0 130浏览会员免费
- ycsb大小:34MBycsb-hbase14-binding-0.17.0ycsb-hbase14-binding-0.17.00 104浏览会员免费
- hive大小:140MBapache-hive-2.1.1-binapache-hive-2.1.1-bin0 53浏览会员免费
- hadoop大小:379MBhadoop环境搭建资源 hadoop环境搭建资源 hadoop环境搭建资源 hadoop环境搭建资源hadoop环境搭建资源 hadoop环境搭建资源 hadoop环境搭建资源 hadoop环境搭建资源0 218浏览会员免费