大数据与Hadoop 作者:朱立 来源:《中国科技纵横》2016年第02期 【摘 要】大数据技术正在向各行各业渗透。Hadoop作为数据分布式处理系统的典型代表,已 经成为该领域事实的标准。但Hadoop并不等于大数据,它只是一个成功的处理离线数据 的分布式系统,大数据领域还存在众多其他类型的处理系统。所以,Hadoop代替不了大 数据的全部,但Hadoop是大数据时代的优秀代表。 【关键词】大数据 Hadoop 分布式处理系统 随着信息化技术的日渐普及、宽带网络的快速兴起,以及云计算、移动互联和 物联网等新一代信息技术的广泛应用,全球数据的增长速度进一步加快。与此同时,一 批数据收集、存储、处理技术和应用快速发展并逐渐汇聚。软件运用的技术越来越尖端 ,结合不断提高的计算能力,从数据中提取有价值信息的能力显著提高。大体量的数据 不再是无序而又没有价值的,大数据诞生了。 1认识大数据 所谓大数据,就是从各种类型的数据中,快速获得有价值信息的能力。大数据 是需要新处理模式才能具有更强的决策力、洞察力和流程优化能力的海量、高增长率和 多样化的信息资产。它是对那些超出正常处理范围和大小、迫使用户采用非传统处理方 法的数据集所下的定义。 区别于过去的海量数据,大数据的特点可以概况为4个V:Volume、Variety、V alue和Velocity,即大量、多样、价值密度低、快速。 第一,数据体量大。大数据一般指在10TB(1TB=1024GB)规模以上的数据量, 目前正在跃升到PB(1PB=1024TB)级别。不仅存储量大,计算量也大。 第二,数据类型多。除了数值数据,还有文字、声音、视频等,包括网络日志 、视频、图片、地理位置信息等多种类型的格式。由于数据来自多种数据源,数据种类 和格式日渐丰富,已冲破了以前所限定的结构化数据范畴,囊括了半结构化和非结构化 数据。 第三,价值密度低。以视频为例,不间断监控视频中,有价值的数据可能仅有 一两秒。找到有价值的信息有如沙里淘金,其价值却又弥足珍贵。 第四,处理速度快。在数据量非常庞大的情况下,也能做到数据的实时处理。 这一点和传统的数据挖掘技术有着本质的不同。 大数据技术是指从各种类型的大体量数据中快速获得有价值信息的技术。这是 大数据的核心问题。目前所说的大数据不仅指数据本身的规模,也包括采集数据的工具 、平台和数据分析系统。大数据研发的目的是发展大数据技术并将其应用到相关领域, 通过解决大体量数据处理问题促进其突破性发展。因此,大数据时代带来的挑战不仅体 现在如何处理大体量数据并从中获取有价值的信息,也体现在如何加强大数据技术研发 。大数据所涉及的关键技术大致包括6个方面:数据采集与数据管理、分布式存储和并行 计算、大数据应用开发、数据分析与挖掘、大数据前端应用、数据服务和展现。 2大数据与Hadoop 伴随大数据技术的普及,Hadoop因其开源的特点和卓越的性能成为一时的新宠 ,甚至有人认为大数据就是Hadoop,其实这是一个误区。Hadoop只是处理离线数据的分 布式存储和处理系统。除了Hadoop,还有用于处理流数据的Storm、处理关系型数据的O racle、处理实时机器数据的Splunk……目前主流的大数据系统很多,Hadoop只是其中的代 表。 2.1 Hadoop的核心模块 Hadoop Common:Hadoop的公用应用模块,是整个Hadoop项目的核心,为Hadoop各子项目提供各 种工具,如配置文件和日志操作等,其他Hadoop子项目都是在此基础上发展起来的。 Hadoop Distributed File System(HDFS):Hadoop分布式文件系统,提供高吞吐量应用程序数据访问,并具有高 容错性。对外部客户机而言,HDFS就像一个传统的分级文件系统,可以进行增删改查或 重命名等常规文件操作。但实际上HDFS中的文件被分成块,然后复制到多个计算机中, 这与传统的RAID架构大不相同。HDFS特别适合需要一次写入、多次读取的超大规模数据 集的应用程序。 Hadoop YARN:一个作业调度和群集资源管理框架。 Hadoop MapReduce:基于YARN的大型数据分布式并行编程模式和程序执行框架,是Google的Map Reduce的开源实现。它帮助用户编写处理大型数据集的并行运行程序。MapReduce隐藏了 分布式并行编程的底层细节,开发人员只需编写业务逻辑代码,而无需考虑程序并行执 行的细节,从而大大提高了开发效率。 Apache的其他与Hadoop相关的项目还有很多。 2.2 Hadoop的特点 作为分布式计算领域的典型代表,Hadoop比其他分布式框架有更多的优点。 可扩展性:Hadoop可以在不停止集群服务的情况下,在可用的计算机集簇间分 配 大数据是信息化技术发展的产物,它将海量、多样化、低价值密度和快速处理的数据转化为具有决策力、洞察力和流程优化能力的信息资产。大数据的核心特点可以用4V来概括:Volume(大量)、Variety(多样)、Value(价值密度低)、Velocity(快速)。数据的体积巨大,从TB级别跃升至PB级别;数据类型丰富,包括结构化、半结构化和非结构化数据;价值密度相对较低,需要深度分析才能提炼有价值信息;处理速度快,支持实时分析。 Hadoop作为大数据处理的代表性技术,由Hadoop Common、HDFS(Hadoop Distributed File System)和MapReduce等核心模块组成。Hadoop Common提供了基础工具和功能,如配置管理和日志操作。HDFS是一种分布式文件系统,能高效处理大规模数据,适合一次性写入、多次读取的应用场景。Hadoop YARN是作业调度和资源管理平台,而MapReduce则是一个用于并行处理大规模数据的编程模型,简化了分布式编程,使得开发者可以专注于业务逻辑,而无需关注底层细节。 虽然Hadoop在大数据领域取得了显著成就,但它并不等同于大数据的全部。例如,处理流数据的Storm、关系型数据的Oracle、实时机器数据的Splunk等,都是大数据处理的不同方式。大数据技术涵盖了从数据采集、存储、管理、分析到应用展示的全过程,涉及多种关键技术,如分布式存储、并行计算、数据挖掘和前端应用等。 大数据技术的普及推动了Hadoop的广泛应用,但同时也带来了挑战,如如何处理大数据的复杂性和多样性,以及如何持续研发创新技术以应对大数据带来的问题。Hadoop的可扩展性、容错性和成本效益使其在大数据处理领域占据重要地位,但随着技术的不断发展,更多的大数据解决方案正在涌现,以满足不同场景和需求。因此,理解大数据的全貌,不仅仅是了解Hadoop,而是要掌握整个大数据生态系统,包括NoSQL数据库、流处理系统、机器学习算法和可视化工具等,以实现全面的数据驱动决策和智能化运营。
- 粉丝: 195
- 资源: 3万+
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助