- 引导性提问需要教师根据教材内容和学生实际水平,提出问题,启发引导学生去解决问 题,提问,从而达到理解、掌握知识,发展各种能力和提高思想觉悟的目的。 (1)你听到过“大数据”这个概念吗? (2) 你听到过“Hadoop”这个软件吗? (3) 你知道Hadoop最主要的用处吗? (4) 你觉得Hadoop更常用于哪方面?0 5浏览会员免费
- hadoop大小:358MB基于国产鲲鹏ARM64服务器 + openeuler 20.03 sp4环境,编译hadoop2.10.2源码得到的hadoop arm安装包 Hadoop是一个开源的分布式存储及计算框架,被广泛用于海量数据的存储及处理,可以用可靠、高效、可伸缩的方式进行数据处理。基于国产鲲鹏ARM64服务器 + openeuler 20.03 sp4环境,编译hadoop2.10.2源码得到的hadoop arm安装包 Hadoop是一个开源的分布式存储及计算框架,被广泛用于海量数据的存储及处理,可以用可靠、高效、可伸缩的方式进行数据处理。0 7浏览会员免费
- 大数据大小:166KB赛项以大数据技术与应用为核心内容和工作基础,重点考查参赛选手基于Spark、Flink平台环境下,充分利用Spark Core、Spark SQL、Flume、Kafka、Flink等技术的特点,综合软件开发相关技术,解决实际问题的能力,具体包括: 掌握基于Spark的离线分析平台、基于Flink的实时分析平台,按照项目需求安装相关技术组件并按照需求进行合理配置; 掌握基于Spark的离线数据抽取相关技术,完成指定数据的抽取并写入Hive分区表中; 综合利用Spark Core、Spark SQL等技术,使用Scala开发语言,完成某电商系统数据的离线统计服务,包括销量前5商品统计、某月的总销售额统计、每个月的销售额统计、每个用户在线总时长统计,并将统计结果存入MySQL数据库中; 综合利用Flume、Flink相关技术,使用Scala开发语言,完成将某电商系统的用户操作日志抽取到Kafka中,消费Kafka中的数据并计算商城在线人数,并统计该电商系统的UV与PV;赛项以大数据技术与应用为核心内容和工作基础,重点考查参赛选手基于Spark、Flink平台环境下,充分利用Spark Core、Spark SQL、Flume、Kafka、Flink等技术的特点,综合软件开发相关技术,解决实际问题的能力,具体包括: 掌握基于Spark的离线分析平台、基于Flink的实时分析平台,按照项目需求安装相关技术组件并按照需求进行合理配置; 掌握基于Spark的离线数据抽取相关技术,完成指定数据的抽取并写入Hive分区表中; 综合利用Spark Core、Spark SQL等技术,使用Scala开发语言,完成某电商系统数据的离线统计服务,包括销量前5商品统计、某月的总销售额统计、每个月的销售额统计、每个用户在线总时长统计,并将统计结果存入MySQL数据库中; 综合利用Flume、Flink相关技术,使用Scala开发语言,完成将某电商系统的用户操作日志抽取到Kafka中,消费Kafka中的数据并计算商城在线人数,并统计该电商系统的UV与PV;0 8浏览会员免费
- hadoop大小:2KB附件是Linux 系统下 Hadoop 安装配置教程.md,文件绿色安全,请大家放心下载,仅供交流学习使用,无任何商业目的!附件是Linux 系统下 Hadoop 安装配置教程.md,文件绿色安全,请大家放心下载,仅供交流学习使用,无任何商业目的!0 18浏览会员免费
- hadoop大小:998BHadoop大数据技术-pig操作Hadoop大数据技术-pig操作0 7浏览会员免费
- 软件/插件大小:861MBkettle下载-一款免费开源ETL工具kettle下载-一款免费开源ETL工具0 7浏览会员免费
- 大数据开发教学手册,包含Hadoop、Zookeeper、HBASE、Hive、Kafka等主流大数据技术的实操讲解0 8浏览免费
- 大数据大小:30MB基于Spark二手房分析系统基于Spark二手房分析系统0 13浏览会员免费
- scala大小:634MBHadoop-2.7.0,scala,nodejs , spark-2.4.4-bin-Hadoop2.7 ,apache-tomcat-9.0.73 , apache-maven-3.9.1Hadoop-2.7.0,scala,nodejs , spark-2.4.4-bin-Hadoop2.7 ,apache-tomcat-9.0.73 , apache-maven-3.9.10 8浏览会员免费
- hadoop大小:710KBmapreduce基础实战mapreduce基础实战0 12浏览会员免费
- big大小:152MB小小终端=超级计算机 更加智能的服务 如影随行的私人数据中心 服务器永远不会塞车 90% Off 的价格 信息随手可得小小终端=超级计算机 更加智能的服务 如影随行的私人数据中心 服务器永远不会塞车 90% Off 的价格 信息随手可得0 4浏览会员免费
- Ambari搭建HadoopAmbari搭建Hadoop_0 6浏览会员免费
- nosql大小:22MBnosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料nosql精通教学PPT资源包 Mongodb资料 Redis资料 HBase资料0 13浏览会员免费
- 软件/插件大小:2MBETL工具-Nifi MS SQL订单Header&Detail数据同步/迁移解决方案,主从表同步ETL工具-Nifi MS SQL订单Header&Detail数据同步/迁移解决方案,主从表同步0 12浏览会员免费
- 《大数据降本提效实战手册》0 8浏览会员免费
- hadoop大小:233BHadoop集群完整搭建,直接跳过部署Hadoop集群Hadoop集群完整搭建,直接跳过部署Hadoop集群0 13浏览会员免费
- scala大小:139BScala是一门多范式的编程语言,一种类似Java的编程语言,设计初衷是实现可伸缩的语言、并集成面向对象编程和函数式编程的各种特性。 Scala编程语言抓住了很多开发者的眼球。如果你粗略浏览Scala的网站,你会觉得Scala是一种纯粹的面向对象编程语言,而又无缝地结合了命令式编程和函数式编程风格。Christopher Diggins认为:不太久之前编程语言还可以毫无疑意地归类成“命令式”或者“函数式”或者“面向对象”。Scala代表了一个新的语言品种,它抹平了这些人为划分的界限。根据David Rupp在博客中的说法,Scala可能是下一代Java。这么高的评价让人不禁想看看它到底是什么东西。 Scala有几项关键特性表明了它的面向对象的本质。例如,Scala中的每个值都是一个对象,包括基本数据类型(即布尔值、数字等)在内,连函数也是对象。另外,类可以被子类化,而且Scala还提供了基于mixin的组合(mixin-based composition)。Scala是一门多范式的编程语言,一种类似Java的编程语言,设计初衷是实现可伸缩的语言、并集成面向对象编程和函数式编程的各种特性。 Scala编程语言抓住了很多开发者的眼球。如果你粗略浏览Scala的网站,你会觉得Scala是一种纯粹的面向对象编程语言,而又无缝地结合了命令式编程和函数式编程风格。Christopher Diggins认为:不太久之前编程语言还可以毫无疑意地归类成“命令式”或者“函数式”或者“面向对象”。Scala代表了一个新的语言品种,它抹平了这些人为划分的界限。根据David Rupp在博客中的说法,Scala可能是下一代Java。这么高的评价让人不禁想看看它到底是什么东西。 Scala有几项关键特性表明了它的面向对象的本质。例如,Scala中的每个值都是一个对象,包括基本数据类型(即布尔值、数字等)在内,连函数也是对象。另外,类可以被子类化,而且Scala还提供了基于mixin的组合(mixin-based composition)。0 17浏览会员免费
- 大数据大小:2MB【大数据】MapReduce实现IP定位源码+数据【大数据】MapReduce实现IP定位源码+数据0 11浏览会员免费
- 大数据大小:470KB【大数据】MapReduce文件分发源码+数据【大数据】MapReduce文件分发源码+数据0 13浏览会员免费
- 大数据大小:235KB【大数据】MapReduce实现基于白名单的Word Count源码+数据【大数据】MapReduce实现基于白名单的Word Count源码+数据0 10浏览会员免费
- hadoop大小:4MBHadoop是一个由Apache基金会所开发的分布式系统基础架构,它允许用户在不了解分布式底层细节的情况下,开发分布式程序。Hadoop充分利用集群的威力进行高速运算和存储,其核心设计包括HDFS(Hadoop Distributed File System)和MapReduce HDFS是一个高度容错性的分布式文件系统,可以被部署在低廉的硬件上。它提供高吞吐量来访问应用程序的数据,并适合处理超大数据集的应用程序。HDFS放宽了POSIX的要求,可以以流的形式访问文件系统中的数据 Hadoop的应用场景非常广泛,包括但不限于数据存储和处理、日志分析、搜索引擎等。Hadoop可以处理PB级别甚至更大规模的数据集,适用于各种类型的数据分析任务。例如,在大型互联网公司中,每天都会产生海量的日志数据,包括用户访问记录、系统运行日志等。Hadoop可以被用来对这些日志数据进行实时分析、监控和报告生成,帮助企业做出合理的决策。 总之,Hadoop是一个强大而灵活的分布式系统基础架构,它可以帮助用户轻松地处理和分析大规模数据集。随着大数据时代的到来,Hadoop已经成为许多企业和组织不可或缺的技术Hadoop是一个由Apache基金会所开发的分布式系统基础架构,它允许用户在不了解分布式底层细节的情况下,开发分布式程序。Hadoop充分利用集群的威力进行高速运算和存储,其核心设计包括HDFS(Hadoop Distributed File System)和MapReduce HDFS是一个高度容错性的分布式文件系统,可以被部署在低廉的硬件上。它提供高吞吐量来访问应用程序的数据,并适合处理超大数据集的应用程序。HDFS放宽了POSIX的要求,可以以流的形式访问文件系统中的数据 Hadoop的应用场景非常广泛,包括但不限于数据存储和处理、日志分析、搜索引擎等。Hadoop可以处理PB级别甚至更大规模的数据集,适用于各种类型的数据分析任务。例如,在大型互联网公司中,每天都会产生海量的日志数据,包括用户访问记录、系统运行日志等。Hadoop可以被用来对这些日志数据进行实时分析、监控和报告生成,帮助企业做出合理的决策。 总之,Hadoop是一个强大而灵活的分布式系统基础架构,它可以帮助用户轻松地处理和分析大规模数据集。随着大数据时代的到来,Hadoop已经成为许多企业和组织不可或缺的技术0 9浏览免费
- 大数据大小:368MB数据交换,抽取-转换-加载,能实现同构表、异构表之间的数据抽取、转换、加载功能数据交换,抽取-转换-加载,能实现同构表、异构表之间的数据抽取、转换、加载功能0 52浏览会员免费
- 私有云迁移到公有云的大数据迁移方案0 8浏览会员免费
- hadoop大小:1MB基于Hadoop的豆瓣电影影评数据分析(word文档)基于Hadoop的豆瓣电影影评数据分析(word文档)0 42浏览免费
- hadoop大小:1MB基于Hadoop的豆瓣电影影评数据分析《word文档》基于Hadoop的豆瓣电影影评数据分析《word文档》0 28浏览免费
- linux大小:588KBIT大厂名企 Linux云计算面试题,稀有资源且用且珍惜。IT大厂名企 Linux云计算面试题,稀有资源且用且珍惜。0 25浏览会员免费
- java大小:752KB在编译parquet-tool时,需要brotli-codec-0.1.1.jar 依赖,已经编译好,可以尝试下载在编译parquet-tool时,需要brotli-codec-0.1.1.jar 依赖,已经编译好,可以尝试下载0 9浏览会员免费
- hadoop大小:2KB自己最开始原始文档自己最开始原始文档0 13浏览会员免费
- 目录 目录 2 实验1 Hadoop环境准备及本地模式 1 1 实验目的 1 2.实验设备 1 3.实验内容 1 4.实验原理 1 6.实验操作步骤 2 7.练习题 7 实验2 Hadoop伪分布式集群模式 8 1 实验目的 8 2.实验设备 8 3.实验内容 8 4.实验原理 8 6. 实验操作步骤 9 7.练习题 16 实验3 Hadoop完全分布式集群模式 16 1 实验目的 17 2.实验设备 17 3.实验内容 17 4.实验原理 17 5.实验参考脚本 18 6. 实验操作步骤 18 7.练习题 23 实验4 HDFS Shell命令 24 1 实验目的 24 2.实验设备 24 3.实验内容 24 4.实验原理 24 5. 实验操作步骤 25 6.练习题 28 1 实验目的 29 2.实验设备 29 3.实验内容 29 4.实验原理 29 5.实验参考配置文件 30 6. 实验操作步骤 31 7.练习题 31 实验6 MapReduce入门案例wordcount 32 1 实验目的 32 2.实验设备 32 3.实验内容 32 4.实验原理 32 5.实验参考配置文0 12浏览会员免费
- hadoop大小:921MBHadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统( Distributed File System),其中一个组件是HDFS(Hadoop Distributed File System)。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 。Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统( Distributed File System),其中一个组件是HDFS(Hadoop Distributed File System)。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 。0 25浏览免费
- hadoop大小:921MBHadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统( Distributed File System),其中一个组件是HDFS(Hadoop Distributed File System)。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 。Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统( Distributed File System),其中一个组件是HDFS(Hadoop Distributed File System)。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 。0 43浏览免费
- hadoop大小:90KB包含了Hadoop编程项目的源码,包含多个项目包含了Hadoop编程项目的源码,包含多个项目0 17浏览会员免费
- 主要介绍了Hadoop在windows上伪分布式的安装过程、在Linux单节点伪分布式的安装过程、Eclipse开发环境介绍0 30浏览会员免费
- 介绍了Hadoop bin下所有脚本以及Hadoop Shell使用介绍0 21浏览会员免费
- 主要介绍了Hadoop的MapReduce的Java编程接口,包括Mapper API和Reducer API,Job的运行模式、工作流0 24浏览会员免费
- 主要介绍了HDFS、HDFS架构设计、HDFS概念、命令行接口等信息0 15浏览会员免费
- 大数据大小:94MB简单易用 可视化配置流水线 监控流水线 查看流水线日志 检查点功能 流水线调度 扩展性强: 支持自定义开发数据处理组件 性能优越: 基于分布式计算引擎Spark开发 功能强大: 提供100+的数据处理组件 包括Hadoop 、Spark、MLlib、Hive、Solr、Redis、MemCache、ElasticSearch、JDBC、MongoDB、HTTP、FTP、XML、CSV、JSON等 集成了微生物领域的相关算法简单易用 可视化配置流水线 监控流水线 查看流水线日志 检查点功能 流水线调度 扩展性强: 支持自定义开发数据处理组件 性能优越: 基于分布式计算引擎Spark开发 功能强大: 提供100+的数据处理组件 包括Hadoop 、Spark、MLlib、Hive、Solr、Redis、MemCache、ElasticSearch、JDBC、MongoDB、HTTP、FTP、XML、CSV、JSON等 集成了微生物领域的相关算法0 13浏览会员免费
- hadoop大小:51KB组建hadoop集群的dockerfile文件和相关文档组建hadoop集群的dockerfile文件和相关文档0 8浏览免费
- 大数据大小:194KB大数据开发是一个涉及多个领域和技术的复杂过程,但通过系统性的学习和实践,你可以逐步掌握相关的技能和知识。以下是一个大数据开发的入门学习教程,帮助你了解大数据开发的基本概念、技术和工具。 一、了解大数据基础 定义与特点:首先,了解大数据的定义和特点,包括数据量大、类型多样、处理速度快等。 核心价值:理解大数据在业务决策、市场趋势预测、个性化推荐等方面的应用价值。 二、掌握大数据技术栈 数据存储与管理:学习分布式文件系统(如HDFS)和数据库技术(如HBase、Cassandra等),了解它们在大数据存储和管理方面的优势。 数据处理与分析:熟悉批处理框架(如Apache Spark)和流处理框架(如Apache Flink),了解它们在不同场景下的应用。 数据挖掘与机器学习:学习数据挖掘算法和机器学习技术,如分类、聚类、回归分析等,以发现数据中的模式和价值。大数据开发是一个涉及多个领域和技术的复杂过程,但通过系统性的学习和实践,你可以逐步掌握相关的技能和知识。以下是一个大数据开发的入门学习教程,帮助你了解大数据开发的基本概念、技术和工具。 一、了解大数据基础 定义与特点:首先,了解大数据的定义和特点,包括数据量大、类型多样、处理速度快等。 核心价值:理解大数据在业务决策、市场趋势预测、个性化推荐等方面的应用价值。 二、掌握大数据技术栈 数据存储与管理:学习分布式文件系统(如HDFS)和数据库技术(如HBase、Cassandra等),了解它们在大数据存储和管理方面的优势。 数据处理与分析:熟悉批处理框架(如Apache Spark)和流处理框架(如Apache Flink),了解它们在不同场景下的应用。 数据挖掘与机器学习:学习数据挖掘算法和机器学习技术,如分类、聚类、回归分析等,以发现数据中的模式和价值。0 17浏览会员免费
- mapreduce大小:147KB基于MapReduce实现物品协同过滤算法(ItemCF)基于MapReduce实现物品协同过滤算法(ItemCF)0 19浏览会员免费
- 大数据大小:351KB大数据开发是指利用一系列技术和工具对大规模数据集进行收集、存储、处理、分析和可视化,以提取有价值的信息,支持业务决策、产品优化、市场洞察、风险评估等应用场景。以下是大数据开发的关键组成部分和相关流程: ### **大数据开发工作内容与职责** 1. **数据采集与存储**: - 设计并实施数据采集策略,从各种源头(如传感器、日志文件、API、社交媒体、数据库等)获取数据。 - 选择和配置合适的数据存储系统,如关系型数据库、NoSQL数据库、数据湖(如Hadoop HDFS)、云存储服务等,以高效、安全地存储海量数据。 2. **数据清洗与预处理**: - 对采集到的数据进行质量检查,识别并处理缺失值、异常值、重复数据等质量问题。 - 进行数据转换,如标准化、归一化、编码等,以适应后续分析和建模的需求。 - 使用ETL(Extract, Transform, Load)工具或编写脚本进行数据清洗和整合,准备可供分析的数据集。 3. **数据建模与分析**: - 根据业务需求,选择合适的统计分析、数据挖掘或机器学习算法对数据进行深度分析。大数据开发是指利用一系列技术和工具对大规模数据集进行收集、存储、处理、分析和可视化,以提取有价值的信息,支持业务决策、产品优化、市场洞察、风险评估等应用场景。以下是大数据开发的关键组成部分和相关流程: ### **大数据开发工作内容与职责** 1. **数据采集与存储**: - 设计并实施数据采集策略,从各种源头(如传感器、日志文件、API、社交媒体、数据库等)获取数据。 - 选择和配置合适的数据存储系统,如关系型数据库、NoSQL数据库、数据湖(如Hadoop HDFS)、云存储服务等,以高效、安全地存储海量数据。 2. **数据清洗与预处理**: - 对采集到的数据进行质量检查,识别并处理缺失值、异常值、重复数据等质量问题。 - 进行数据转换,如标准化、归一化、编码等,以适应后续分析和建模的需求。 - 使用ETL(Extract, Transform, Load)工具或编写脚本进行数据清洗和整合,准备可供分析的数据集。 3. **数据建模与分析**: - 根据业务需求,选择合适的统计分析、数据挖掘或机器学习算法对数据进行深度分析。0 22浏览会员免费
- MapReduce是Hadoop提供的一套用于进行分布式计算的模型,本身是Doug Cutting根据Google的<MapReduce: Simplified Data Processing on Large Clusters>仿照实现的。 MapReduce由两个阶段组成:Map(映射)阶段和Reduce(规约)阶段,用户只需要实现map以及reduce两个函数,即可实现分布式计算,这样做的目的是简化分布式程序的开发和调试周期。 在MapReduce刚开始的时候,会先对文件进行切片(Split)处理。需要注意的是,切片本身是一种逻辑切分而不是物理切分,本质上就是在划分任务量,之后每一个切片会交给一个单独的MapTask来进行处理。默认情况下,Split和Block的大小是一致的。 切片之后,每一个切片(Split)会分配给一个单独的MapTask来处理。而MapTask确定好要处理的切片之后,默认情况下会对切片进行按行处理。需要注意,不同的MapTask之间只是处理的数据不同,但是处理的逻辑是相同的。 MapTask处理完数据之后,会将数据交给ReduceTask进行汇总。Red0 42浏览会员免费
- Hadoop本身是由Yahoo!公司开发的后来贡献给了Apache的一套开源的、可靠的分布式架构 Hadoop提供了简单的编程模型能够对大量的数据进行分布式处理(The Apache Hadoop software library is a framework that allows for the distributed processing of large data sets across clusters of computers using simple programming models.) Hadoop能够轻松的从一台服务器扩展到上千台服务器,并且每一台服务器都能够进行本地计算和存储(It is designed to scale up from single servers to thousands of machines, each offering local computation and storage.) Hadoop本身提供了用于处理和探测异常的机制(Rather than rely on hardware to deliver high-availabi0 19浏览会员免费
- 大数据大小:16MB爬虫获取全国空气质量报告.csv, 有程序爬虫获取全国空气质量报告.csv, 有程序0 17浏览会员免费
- hive大小:284KBHive进阶Day05Hive进阶Day050 15浏览会员免费
- 大数据分析0 185浏览会员免费
- 大数据大小:9MBHIVE中文乱码解决,第10组_黑马畅聊需求分析文档,第10组_黑马畅聊主题建模设计文档,哈度破黑马畅聊数据分析表 ,pptHIVE中文乱码解决,第10组_黑马畅聊需求分析文档,第10组_黑马畅聊主题建模设计文档,哈度破黑马畅聊数据分析表 ,ppt0 28浏览会员免费
- 大数据大小:1MBHIVE中文乱码解决,第10组_黑马畅聊需求分析文档,第10组_黑马畅聊主题建模设计文档,哈度破黑马畅聊数据分析表 最终,HIVE中文乱码解决,第10组_黑马畅聊需求分析文档,第10组_黑马畅聊主题建模设计文档,哈度破黑马畅聊数据分析表 最终,0 38浏览会员免费
- hadoop大小:93KB报错:java.lang.Exception: java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z 所需文件报错:java.lang.Exception: java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z 所需文件0 28浏览免费
- 大数据架构:大数据技术架构的思想和原理是什么 大数据技术其实是分布式技术在数据处理领域的创新性应用,本质和我们此前讲到的分布式技术思路一脉相承:用更多的计算机组成一个集群,提供更多的计算资源,从而满足更大的计算压力要求。 分布式文件存储 HDFS 架构 大数据计算 MapReduce 架构 大数据仓库 Hive 架构 快速大数据计算 Spark 架构 大数据流计算架构0 24浏览会员免费
- hudi大小:3MBhudi-0.12.1.src.tgzhudi-0.12.1.src.tgz0 5浏览免费
- Hadoop是什么?怎么部署.pdf0 16浏览会员免费
- hadoop YARN应用开发与核心源码剖析0 7浏览免费
- hadoop YARN监控管理与资源管理0 12浏览免费
- YARN框架概述与集群部署.pdf0 12浏览免费
- 实训项目0 12浏览会员免费
- 当应聘者面试大数据开发岗位时,以下是一些常见的面试题: - 1. 请解释一下什么是大数据(Big Data),并列举大数据的特征和应用场景。 - 2. 你熟悉的大数据技术栈有哪些?请简要介绍每种技术的作用和特点。 - 3. 什么是Hadoop?请解释一下Hadoop的架构和组件,以及它在大数据处理中的作用。 - 4. 请说明一下什么是MapReduce,以及它在Hadoop中的角色和工作流程。 - 5. 什么是Spark?与Hadoop相比,Spark有哪些优点和特点? - 6. 请介绍一下你对Hive的理解,以及在大数据处理中如何使用Hive进行数据查询和分析。 - 7. 什么是HDFS?它的特点是什么?请说明HDFS的数据一致性和容错机制。 - 8. 请解释一下什么是数据仓库(Data Warehouse),以及数据仓库在大数据处理中的重要性。 - 9. 你在大数据开发中常用的编程语言是什么?请说明你的选择理由。 - 10. 请简要介绍一下你在以往项目中的大数据处理经验,包括数据采集、存储、处理和分析等方面。 - 11. 什么是数据分区(Data Partitioning)?在大0 155浏览会员免费
- 大数据分析0 53浏览会员免费
- 大数据分析0 117浏览会员免费
- 大数据分析0 70浏览会员免费