- hadoop大小:685MB【开发环境】安装 Hadoop 运行环境 ( 下载 Hadoop | 解压 Hadoop | 设置 Hadoop 环境变量 | 配置 Hadoop 环境脚本 | 安装 winutils ) https://hanshuliang.blog.csdn.net/article/details/132045605 一、下载 Hadoop 二、解压 Hadoop 三、设置 Hadoop 环境变量 四、配置 Hadoop 环境脚本 五、安装 winutils 六、重启电脑 七、验证 Hadoop 安装效果【开发环境】安装 Hadoop 运行环境 ( 下载 Hadoop | 解压 Hadoop | 设置 Hadoop 环境变量 | 配置 Hadoop 环境脚本 | 安装 winutils ) https://hanshuliang.blog.csdn.net/article/details/132045605 一、下载 Hadoop 二、解压 Hadoop 三、设置 Hadoop 环境变量 四、配置 Hadoop 环境脚本 五、安装 winutils 六、重启电脑 七、验证 Hadoop 安装效果0 1950浏览免费
- 大数据大小:2MB主要是用于大家对于大数据的基本处理,适合大学生本科毕设的参考。主要是用于大家对于大数据的基本处理,适合大学生本科毕设的参考。0 4577浏览免费
- hadoop大小:22MBhadoop各版本hadoop.dll和winutilshadoop各版本hadoop.dll和winutils5 5697浏览免费
- hadoop大小:21MBwinutils文件合集,Hadoop3.3.5以及3.3.6可用 winutils.exe是在windows系统上安装hadoop时所需要的winutils文件,内附多个版本,支持 hadoop-3.3.5 hadoop-3.3.6winutils文件合集,Hadoop3.3.5以及3.3.6可用 winutils.exe是在windows系统上安装hadoop时所需要的winutils文件,内附多个版本,支持 hadoop-3.3.5 hadoop-3.3.65 877浏览免费
- hadoop大小:42MBHadoop Eclipse是Hadoop开发环境的插件,用户在创建Hadoop程序时,Eclipse插件会自动导入Hadoop编程接口的jar文件,这样用户就可以在Eclipse插件的图形界面中进行编码、调试和运行Hadop程序,也能通过Eclipse插件查看程序的实时状态、错误信息以及运行结果。除此之外,用户还可以通过Eclipse插件对HDFS进行管理和查看。这个版本是本人使用的,本资源免费下载,如果出现收费的情况可以私聊我。Hadoop Eclipse是Hadoop开发环境的插件,用户在创建Hadoop程序时,Eclipse插件会自动导入Hadoop编程接口的jar文件,这样用户就可以在Eclipse插件的图形界面中进行编码、调试和运行Hadop程序,也能通过Eclipse插件查看程序的实时状态、错误信息以及运行结果。除此之外,用户还可以通过Eclipse插件对HDFS进行管理和查看。这个版本是本人使用的,本资源免费下载,如果出现收费的情况可以私聊我。0 1211浏览免费
- hive大小:119MB包含video user数据包含video user数据0 1578浏览免费
- 大数据大小:15MB大数据hadoop期末答辩的代码,答辩题目是基于贝叶斯的情感分析,压缩包中包括十个文件,分别是hadoop的配置文档、总结文档、源代码、答辩ppt、运行结果等等,这是可以直接下载的,具体的大家可以直接下载查看,谢谢。题目是这样的,编写Java程序,使其能够实现基于上传至hdfs的“学号_上传文件.txt”数据集训练情感分类器的目的。在训练的过程中,应过滤包含非中文字符或全部由非中文字符构成的词语。保存模型文件至“学号_模型.txt”文件中。基于训练得到的模型参数(即Nc和Ncw,其中,c表示情感标签类别,c∈{好评,差评},w∈V,V是“学号_上传文件.data”数据集包含的中文词典集合),对“test.txt”数据集中的各条记录进行“情感标签”判别。判别结果输出至“学号_预测结果.txt”文件中。“学号_预测结果.txt”文件中的每行是行号及“test.txt”中预测的“情感标签”大数据hadoop期末答辩的代码,答辩题目是基于贝叶斯的情感分析,压缩包中包括十个文件,分别是hadoop的配置文档、总结文档、源代码、答辩ppt、运行结果等等,这是可以直接下载的,具体的大家可以直接下载查看,谢谢。题目是这样的,编写Java程序,使其能够实现基于上传至hdfs的“学号_上传文件.txt”数据集训练情感分类器的目的。在训练的过程中,应过滤包含非中文字符或全部由非中文字符构成的词语。保存模型文件至“学号_模型.txt”文件中。基于训练得到的模型参数(即Nc和Ncw,其中,c表示情感标签类别,c∈{好评,差评},w∈V,V是“学号_上传文件.data”数据集包含的中文词典集合),对“test.txt”数据集中的各条记录进行“情感标签”判别。判别结果输出至“学号_预测结果.txt”文件中。“学号_预测结果.txt”文件中的每行是行号及“test.txt”中预测的“情感标签”1 320浏览免费
- hadoop实验+作业大小:7MBhadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业hadoop实验+作业1 1380浏览免费
- hadoop大小:85MBIntelliJ IDEA作为开发工具,采用Maven进行服务端的依赖管理,通过爬虫技术在豆瓣网爬取图书数据,完成对相关图书信息的采集与处理,也可以由系统管理员手动添加图书。再根据用户对图书的浏览、借阅、评论以及评分等历史行为,通过Hadoop集群计算出适合推荐给当前用户的其他图书。采用MySQL数据库实现了对采集数据的存储与检索。IntelliJ IDEA作为开发工具,采用Maven进行服务端的依赖管理,通过爬虫技术在豆瓣网爬取图书数据,完成对相关图书信息的采集与处理,也可以由系统管理员手动添加图书。再根据用户对图书的浏览、借阅、评论以及评分等历史行为,通过Hadoop集群计算出适合推荐给当前用户的其他图书。采用MySQL数据库实现了对采集数据的存储与检索。5 238浏览免费
- hadoop大小:27MB用途:Hadoop生态,本地代码测试运行依赖,代码调试必备 版本选择:就近匹配,不一定向下兼容,git不好下载,这里传一份方便下载用途:Hadoop生态,本地代码测试运行依赖,代码调试必备 版本选择:就近匹配,不一定向下兼容,git不好下载,这里传一份方便下载0 124浏览免费
- linux大小:2MB在centos7中进行编译产生的适用于X64的hadoo2.9.0,在其他机器上替换掉native文件即可在centos7中进行编译产生的适用于X64的hadoo2.9.0,在其他机器上替换掉native文件即可2 133浏览免费
- hadoop大小:132MBhadoop技术内幕!版高清pdf,适合编程语言入门提升实战,欢迎下载hadoop技术内幕!版高清pdf,适合编程语言入门提升实战,欢迎下载0 106浏览免费
- 课程资源大小:996MB安装配置clickhouse链接:https://blog.csdn.net/m0_69097184/article/details/133135632 clickhouse-client-21.9.4.35.tgz clickhouse-common-static-21.9.4.35.tgz clickhouse-common-static-dbg-21.9.4.35.tgz clickhouse-server-21.9.4.35.tgz ClickHouse是一款高性能的列式数据库管理系统(DBMS),用于在线分析处理(OLAP)和实时分析处理(RTAP)等场景。ClickHouse支持SQL查询,并且可以与许多其他工具集成,如Apache Spark、Elasticsearch等。 内容概要: ClickHouse 21.9.4.35 安装包包括以下内容: ClickHouse 服务器:包含 ClickHouse 数据库的核心组件和服务。 ClickHouse 客户端:用于连接和与 ClickHouse 服务器交互的工具,包括命令行界面和安装配置clickhouse链接:https://blog.csdn.net/m0_69097184/article/details/133135632 clickhouse-client-21.9.4.35.tgz clickhouse-common-static-21.9.4.35.tgz clickhouse-common-static-dbg-21.9.4.35.tgz clickhouse-server-21.9.4.35.tgz ClickHouse是一款高性能的列式数据库管理系统(DBMS),用于在线分析处理(OLAP)和实时分析处理(RTAP)等场景。ClickHouse支持SQL查询,并且可以与许多其他工具集成,如Apache Spark、Elasticsearch等。 内容概要: ClickHouse 21.9.4.35 安装包包括以下内容: ClickHouse 服务器:包含 ClickHouse 数据库的核心组件和服务。 ClickHouse 客户端:用于连接和与 ClickHouse 服务器交互的工具,包括命令行界面和0 141浏览免费
- hadoop大小:19MB包含2.6.5-3.2.1的winutil.exe文件包含2.6.5-3.2.1的winutil.exe文件0 213浏览免费
- 机器学习大小:23KB机器学习与数据分析及金砖大数据比赛机器学习与数据分析及金砖大数据比赛0 119浏览免费
- html大小:21KB大数据安全期末考试复习题 + 答案 + 我制作的一个html网页(点击题目就会出现答案,再次点击,答案消失)方便大家复习 1、信息安全的基本属性包括____________、______________、______________。 答案: 保密性 完整性 可用性 2、数据的6个生命周期为数据采集阶段、__________、数据存储阶段、数据处理阶段、__________、数据销毁阶段。 A、 数据传输阶段 B、 数据清洗阶段 C、 数据交换阶段 D、 数据分析阶段 答案: AC 3、数据传输过程中面临的3大问题包括数据生命周期安全问题,基础设施安全问题,以及( ) A、 数据加密问题 B、 个人隐私安全问题 C、 信息通道问题 D、 传输协议问题 答案: B 4、大数据具有的4V特点是大量、高速、多样、价值。 答案: 正确 5、《信息安全技术 数据安全能力成熟度模型(GB/T 37988—2019)》属于我国建立的数据安全标准体系。 答案: 正确大数据安全期末考试复习题 + 答案 + 我制作的一个html网页(点击题目就会出现答案,再次点击,答案消失)方便大家复习 1、信息安全的基本属性包括____________、______________、______________。 答案: 保密性 完整性 可用性 2、数据的6个生命周期为数据采集阶段、__________、数据存储阶段、数据处理阶段、__________、数据销毁阶段。 A、 数据传输阶段 B、 数据清洗阶段 C、 数据交换阶段 D、 数据分析阶段 答案: AC 3、数据传输过程中面临的3大问题包括数据生命周期安全问题,基础设施安全问题,以及( ) A、 数据加密问题 B、 个人隐私安全问题 C、 信息通道问题 D、 传输协议问题 答案: B 4、大数据具有的4V特点是大量、高速、多样、价值。 答案: 正确 5、《信息安全技术 数据安全能力成熟度模型(GB/T 37988—2019)》属于我国建立的数据安全标准体系。 答案: 正确0 454浏览免费
- hadoop大小:27KB《搭建 Hadoop 生态集群大数据监控告警平台》文章:https://blog.csdn.net/weixin_46560589/article/details/133811785 所需的 prometheus 告警规则文件和 grafana 仪表盘文件《搭建 Hadoop 生态集群大数据监控告警平台》文章:https://blog.csdn.net/weixin_46560589/article/details/133811785 所需的 prometheus 告警规则文件和 grafana 仪表盘文件0 200浏览免费
- 脚本语言大小:491MB里面包含hadoop快速集成kerberos认证相关脚本与安装包。可以通过脚本直接修改hadoop,zookeeper,hbase关于集成kerberos相关配置,一键修改,一键启动,方便快捷!!!里面包含hadoop快速集成kerberos认证相关脚本与安装包。可以通过脚本直接修改hadoop,zookeeper,hbase关于集成kerberos相关配置,一键修改,一键启动,方便快捷!!!0 285浏览免费
- 大数据大小:377MBhadoop环境搭建,linux下,直接拖入X-shell即可hadoop环境搭建,linux下,直接拖入X-shell即可0 292浏览免费
- hadoop大小:662MB大数据安全-kerberos技术-hadoop安装包,hadoop版本:hadoop-3.3.4.tar.gz大数据安全-kerberos技术-hadoop安装包,hadoop版本:hadoop-3.3.4.tar.gz0 140浏览免费
- hadoop大小:296KBHIVE建表; Mysql同步HIVE; HIVE同步Mysql; HIVE运算;HIVE建表; Mysql同步HIVE; HIVE同步Mysql; HIVE运算;0 355浏览免费
- ZIP大小:29MBtpch工具,进行tpc-h的测试工具tpch工具,进行tpc-h的测试工具0 166浏览免费
- hadoop大小:11MB基于2022年的温度,空气质量,降水量,湿度进行的可视化分析,使用技术使用idea中的maven配置Tomcat进行数据库的连接到前端用echarts可视化的javaweb项目基于2022年的温度,空气质量,降水量,湿度进行的可视化分析,使用技术使用idea中的maven配置Tomcat进行数据库的连接到前端用echarts可视化的javaweb项目0 157浏览免费
- hadoop2.6大小:77KB里面集成了hadoop2.6在windwos环境下相关的环境文件,如hadoop.dll和winutils等里面集成了hadoop2.6在windwos环境下相关的环境文件,如hadoop.dll和winutils等0 95浏览免费
- hadoop大小:297MB免费下载,注意cdh版本,仅供学习使用免费下载,注意cdh版本,仅供学习使用0 63浏览免费
- 大数据大小:40MB大数据实验报告,包含相关的资源,是个很不错的资源的,希望是对你有帮助,但是不希望你有害处,不要用来直接交作业,不要用来直接交作业,不要用来直接交作业大数据实验报告,包含相关的资源,是个很不错的资源的,希望是对你有帮助,但是不希望你有害处,不要用来直接交作业,不要用来直接交作业,不要用来直接交作业0 134浏览免费
- 大数据大小:1MB关注博主即可下载!!!!!!关注博主即可下载!!!!!!0 322浏览免费
- hadoop大小:1MBhadoop-3.1.0.ziphadoop-3.1.0.zip0 187浏览免费
- 大数据技术与应用大小:7MB1.大数据技术与应用入门培训教程大纲 1.1.大数据定义与解决方案 1.2.大数据行业应用 1.3.大数据技术学习前景 1.4.大数据从业岗位要求 1.5.大数据常用概念 1.6.大数据架构与生态圈1.大数据技术与应用入门培训教程大纲 1.1.大数据定义与解决方案 1.2.大数据行业应用 1.3.大数据技术学习前景 1.4.大数据从业岗位要求 1.5.大数据常用概念 1.6.大数据架构与生态圈0 211浏览免费
- hadoop大小:66MB这个是hadoop1.1.2的资源文件,亲测使用没有任何的问题,需要eclipse插件的可以在我的其他资源中寻找这个是hadoop1.1.2的资源文件,亲测使用没有任何的问题,需要eclipse插件的可以在我的其他资源中寻找5 115浏览免费
- hadoop大小:701MBhadoop&&hive成套配置资源hadoop&&hive成套配置资源0 109浏览免费
- 大数据大小:15MB大数据集群搭建,内含hadoop hive sqoop HBASE Phoenix spark kafka flume zookeeper flink 安装大数据集群搭建,内含hadoop hive sqoop HBASE Phoenix spark kafka flume zookeeper flink 安装0 183浏览免费
- hadoop2.6dll大小:362KB如果想用windows的eclipse远程连hadoop2.6(其他机器上的),需要在本地的hadoop的bin文件夹中放入hadoop.dll等文件。本文件夹里包含所有文件,亲测可用。如果想用windows的eclipse远程连hadoop2.6(其他机器上的),需要在本地的hadoop的bin文件夹中放入hadoop.dll等文件。本文件夹里包含所有文件,亲测可用。0 80浏览免费
- hadoop大小:502MBhadoop集群搭建hadoop集群搭建0 221浏览免费
- ZIP大小:18MB美团数据平台及数仓建设实践,整理美团相关产线数据平台和数仓建设美团数据平台及数仓建设实践,整理美团相关产线数据平台和数仓建设0 21浏览免费
- 大数据大小:19MB解锁九大行业领军企业在云上大数据及AI的实践,深度剖析大数据在直播、多媒体、新零售、物联网、金融科技、家居服务、互联网、泛娱乐这9个行业的实践场景,以TOP企业案例真实讲解方式,助你速懂企业大数据实践,非常不错,快来下载吧。解锁九大行业领军企业在云上大数据及AI的实践,深度剖析大数据在直播、多媒体、新零售、物联网、金融科技、家居服务、互联网、泛娱乐这9个行业的实践场景,以TOP企业案例真实讲解方式,助你速懂企业大数据实践,非常不错,快来下载吧。5 670浏览免费
- DolphinScheduler大小:5KBdolphinscheduler使用hive,hadoop,spark,datax,python,scala修改添加的配置dolphinscheduler使用hive,hadoop,spark,datax,python,scala修改添加的配置0 891浏览免费
- 大数据大小:200KB设计基于 Flume+Kafka 作为大数据采集模块,搭建 Hadoop+Spark 大数据平台。首先基于flink对数据进行预处理,利用hbase对数据进行去重,然后基于hive构建数据仓库,使用hdfs实现数据存储,基于sparkml的随机森林算法推测出模型数据,将模型数据与预测数据整合实现数据预测,预测结果使用mysql进行存储,FineBI作为可视化模块。开发涵盖了用户数据采集、计算、存储、分析与可视化的一个面向用户兴趣取向的数据处理平台。设计基于 Flume+Kafka 作为大数据采集模块,搭建 Hadoop+Spark 大数据平台。首先基于flink对数据进行预处理,利用hbase对数据进行去重,然后基于hive构建数据仓库,使用hdfs实现数据存储,基于sparkml的随机森林算法推测出模型数据,将模型数据与预测数据整合实现数据预测,预测结果使用mysql进行存储,FineBI作为可视化模块。开发涵盖了用户数据采集、计算、存储、分析与可视化的一个面向用户兴趣取向的数据处理平台。0 129浏览免费
- hadoop大小:1MBWindows依赖:hadoop-3.1.0,使用HDFS java api时需要配置的hadopp依赖,在windows环境中可以运行hadoop java api代码进行测试。Windows依赖:hadoop-3.1.0,使用HDFS java api时需要配置的hadopp依赖,在windows环境中可以运行hadoop java api代码进行测试。0 123浏览免费
- jar包大小:38MBJAVA-HDFS整合指南 内含代码 文档 jar包 以及详尽到每一步的文档JAVA-HDFS整合指南 内含代码 文档 jar包 以及详尽到每一步的文档0 75浏览免费
- Hadoop大小:2MB牛客网招聘网站数据集爬取,用于大数据基础课程设计项目的统计分析。主要是利用招聘数据在Hadoop生态中进行导入、导出、统计分析、数据可视化。牛客网招聘网站数据集爬取,用于大数据基础课程设计项目的统计分析。主要是利用招聘数据在Hadoop生态中进行导入、导出、统计分析、数据可视化。0 259浏览免费
- Azkaban3.91大小:117MBazkaban3.91编译后压缩包.tar.zipazkaban3.91编译后压缩包.tar.zip0 111浏览免费
- hadoop2.7大小:824KB在widows开发hadoop程序时报相关 nativeComputeChunkedSumsByteArray(II[BI[BIILjava/lang/String;JZ)V 的错误 下载好把相关文件覆盖到hadoop目录下的bin中在widows开发hadoop程序时报相关 nativeComputeChunkedSumsByteArray(II[BI[BIILjava/lang/String;JZ)V 的错误 下载好把相关文件覆盖到hadoop目录下的bin中0 136浏览免费
- 大数据大小:401KB大数据应用开发赛项是一项以应用大数据技术和方法为核心的竞赛项目。该赛项旨在通过实践和创新,培养参赛选手在大数据领域的技术能力和解决问题的能力。 这个赛项特别注重师生之间的合作,鼓励学生与导师组成团队参赛。学生和导师可以共同讨论并设计一个具有挑战性的大数据应用项目,并进行实施和开发。在比赛过程中,学生可以借助导师的经验和指导,不断完善自己的技术能力和项目方案。 参赛选手需要根据赛题要求,使用大数据处理、分析和可视化工具,如Hadoop、Spark、Python等,对给定的数据集进行深入分析和挖掘,提取有价值的信息,并针对特定的问题提供解决方案。比赛评分将考量项目的创新性、数据处理能力、算法设计、技术实现和结果展示等方面。 通过参与大数据应用开发赛项,学生可以拓宽视野,了解大数据行业的前沿技术和发展趋势。同时,他们还可以锻炼团队合作和创新思维,在实践中提升解决实际问题的能力。 总之,大数据应用开发赛项是一项鼓励师生合作、培养大数据技术和创新能力的竞赛项目,旨在培养有实践经验的专业人才,推动大数据技术在各个领域的应用和发展。大数据应用开发赛项是一项以应用大数据技术和方法为核心的竞赛项目。该赛项旨在通过实践和创新,培养参赛选手在大数据领域的技术能力和解决问题的能力。 这个赛项特别注重师生之间的合作,鼓励学生与导师组成团队参赛。学生和导师可以共同讨论并设计一个具有挑战性的大数据应用项目,并进行实施和开发。在比赛过程中,学生可以借助导师的经验和指导,不断完善自己的技术能力和项目方案。 参赛选手需要根据赛题要求,使用大数据处理、分析和可视化工具,如Hadoop、Spark、Python等,对给定的数据集进行深入分析和挖掘,提取有价值的信息,并针对特定的问题提供解决方案。比赛评分将考量项目的创新性、数据处理能力、算法设计、技术实现和结果展示等方面。 通过参与大数据应用开发赛项,学生可以拓宽视野,了解大数据行业的前沿技术和发展趋势。同时,他们还可以锻炼团队合作和创新思维,在实践中提升解决实际问题的能力。 总之,大数据应用开发赛项是一项鼓励师生合作、培养大数据技术和创新能力的竞赛项目,旨在培养有实践经验的专业人才,推动大数据技术在各个领域的应用和发展。0 144浏览免费
- Hadoop大小:94MB内含交通数据和日志数据内含交通数据和日志数据0 85浏览免费
- hadoop大小:187MB里面为gz文件里面为gz文件0 118浏览免费
- hadoop大小:192MBhadoop权威指南中的第四版是非常新,非常全的一个版本hadoop权威指南中的第四版是非常新,非常全的一个版本0 62浏览免费
- hadoop大小:56MBHadoop技术内幕 深入解析HADOOP COMMON和HDFS架构设计与实现原理 高清 完整书签Hadoop技术内幕 深入解析HADOOP COMMON和HDFS架构设计与实现原理 高清 完整书签0 52浏览免费
- hadoop大小:189MB支持snappy压缩的hadoop压缩包,直接下载到本地,解压后就可以使用啦支持snappy压缩的hadoop压缩包,直接下载到本地,解压后就可以使用啦0 52浏览免费
- hadoop大小:319MBHadoop 3.1.3是一个大数据生态集群安装包,它是一个高度可扩展的分布式计算系统,能够处理大规模的数据集。它适合于需要处理大量数据的应用场景,如大数据分析、数据挖掘、数据存储等。 Hadoop 3.1.3的特点包括高可靠性、高扩展性、高容错性等。它可以在低成本硬件上构建集群,并且可以处理各种数据格式和数据源。此外,Hadoop 3.1.3还提供了许多工具和库,帮助开发人员更轻松地编写分布式应用程序。 总之,Hadoop 3.1.3是一个功能强大、灵活的大数据生态集群安装包,适用于各种需要处理大规模数据的应用场景。Hadoop 3.1.3是一个大数据生态集群安装包,它是一个高度可扩展的分布式计算系统,能够处理大规模的数据集。它适合于需要处理大量数据的应用场景,如大数据分析、数据挖掘、数据存储等。 Hadoop 3.1.3的特点包括高可靠性、高扩展性、高容错性等。它可以在低成本硬件上构建集群,并且可以处理各种数据格式和数据源。此外,Hadoop 3.1.3还提供了许多工具和库,帮助开发人员更轻松地编写分布式应用程序。 总之,Hadoop 3.1.3是一个功能强大、灵活的大数据生态集群安装包,适用于各种需要处理大规模数据的应用场景。0 31浏览免费
- hadoop大小:40MB寻找资料容易,只上传自己用过的,有用的资料。寻找资料容易,只上传自己用过的,有用的资料。0 0浏览免费
- cloud9大小:2MBcloud9-1.4.4.jarcloud9-1.4.4.jar0 102浏览免费
- Hadoop大小:6MBHadoop开发者入门专刊.zipHadoop开发者入门专刊.zip0 78浏览免费
- ssh大小:82MB远程连接虚拟机工具有很多种,比如Xshell、MobaXterm、SecureCRT等。这些工具都可以实现远程登录虚拟机,进行操作和文件传输。文件传输工具也有很多,比如Xshell、SCP、SFTP等。这些工具都可以实现文件的上传和下载。这里面我放入了Xshell和Xftp,是7版本的,随时可下载。远程连接虚拟机工具有很多种,比如Xshell、MobaXterm、SecureCRT等。这些工具都可以实现远程登录虚拟机,进行操作和文件传输。文件传输工具也有很多,比如Xshell、SCP、SFTP等。这些工具都可以实现文件的上传和下载。这里面我放入了Xshell和Xftp,是7版本的,随时可下载。0 186浏览免费
- hadoop大小:12KBHadoop分布式(高可用)部署配置文件Hadoop分布式(高可用)部署配置文件0 34浏览免费
- hadoop大小:3MBHadoop: The Definitive Guide helps you harness the power of your data. Ideal for processing large datasets, the Apache Hadoop framework is an open source implementation of the MapReduce algorithm on which Google built its empire. This comprehensive resource demonstrates how to use Hadoop to build reliable, scalable, distributed systems: programmers will find details for analyzing large datasets, and administrators will learn how to set up and run Hadoop clusters.Hadoop: The Definitive Guide helps you harness the power of your data. Ideal for processing large datasets, the Apache Hadoop framework is an open source implementation of the MapReduce algorithm on which Google built its empire. This comprehensive resource demonstrates how to use Hadoop to build reliable, scalable, distributed systems: programmers will find details for analyzing large datasets, and administrators will learn how to set up and run Hadoop clusters.0 77浏览免费
- hbase大小:297MBzookeeper和hbase相关安装包及安装手册,适合Hadoop初学者下载使用zookeeper和hbase相关安装包及安装手册,适合Hadoop初学者下载使用0 95浏览免费
- java大小:108KB适合oozie编译,资源包中包含doxia-module-twiki-1.0-alpha-9.2y.jar和doxia-core-1.0-alpha-9.2y.jar,避免编译报错适合oozie编译,资源包中包含doxia-module-twiki-1.0-alpha-9.2y.jar和doxia-core-1.0-alpha-9.2y.jar,避免编译报错0 29浏览免费
- spark大小:706MBword文档在压缩文件里,另有java+hadoop+scala+spark资料。(word文档内容比较粗糙,但能看懂)word文档在压缩文件里,另有java+hadoop+scala+spark资料。(word文档内容比较粗糙,但能看懂)0 61浏览免费
- zookeeper大小:63MBwindows系统上关于zookeeper集群的可视化工具,就像本地文件系统一样访问zookeeper集群上的各个节点,大大的提高了工作效率windows系统上关于zookeeper集群的可视化工具,就像本地文件系统一样访问zookeeper集群上的各个节点,大大的提高了工作效率0 149浏览免费