VIP会员
作者:CSDN
出版社:CSDN《程序员》
ISBN:1111111111117
VIP会员免费
(仅需0.8元/天)
¥ 40000.0
温馨提示: 价值40000元的1000本电子书,VIP会员随意看哦!
电子书推荐
-
Spark大数据处理:技术、应用与性能优化(全).pdf 评分:
################################################## Spark大数据处理:技术、应用与性能优化(全).pdf #################################################
上传时间:2017-09 大小:7.1MB
- 37.57MB
Spark大数据处理技术.pdf
2018-04-11Spark大数据处理技术电子书Spark大数据处理技术电子书
- 46.9MB
Spark大数据处理技术、应用与性能优化高清完整版PDF
2017-12-22Spark大数据处理:技术、应用与性能优化高清完整版PDF
- 5.84MB
Spark大数据处理 技术 应用与性能优化 完整版 pdf
2019-01-14Spark大数据处理 技术、应用与性能优化,书是转换来的pdf 格式稍显凌乱
- 38.93MB
Spark大数据处理技术PDF 高清带目录完整版 夏俊鸾黄洁程浩等
2017-11-19Spark大数据处理技术PDF 高清带目录完整版 夏俊鸾黄洁程浩等人著作 学习大数据值得拥有
- 3.87MB
Spark大数据处理 技术、应用与性能优化_PDF电子书下载 带书签目录 高清完整版 simple.pdf
2018-02-14Spark大数据处理 技术、应用与性能优化_PDF电子书下载 带书签目录 高清完整版 simple.pdf
- 45.41MB
Spark大数据处理技术 应用与性能优化 高清带目录 .pdf
2017-12-24Spark大数据处理 技术 应用与性能优化 .pdf 高清带目录
- 3.86MB
《Spark大数据处理 技术、应用与性能优化》PDF
2018-09-01《Spark大数据处理 技术、应用与性能优化》
- 76.45MB
Spark相关电子书二
2015-11-301、Spark大数据处理:技术、应用与性能优化(全).pdf 2、Spark高级数据分析.pdf 3、spark官方文档中文版.pdf 4、Spark架构原作者讲解(中文).pdf 5、Spark快速数据处理(前三章).pdf 6、Spark快速数据处理.pdf 7、...
- 2.56MB
最优化 Spark 应用的性能:使用低成本的层次化方案加速大数据处理(55页).pdf
2022-03-03最优化 Spark 应用的性能:使用低成本的层次化方案加速大数据处理(55页).pdf
- 1.20MB
大数据技术实践——Spark词频统计
2021-08-23本次作业要完成在Hadoop平台搭建完成的基础上,利用Spark组件完成文本词频统计的任务,目标是学习Scala语言,理解Spark编程思想,基于Spark 思想,使用IDEA编写SparkWordCount程序,并能够在spark-shell中执行代码和分析执行过程。
- 2.4MB
Scala-升级版.docx
2021-10-14Scala快速入门(适合为学Spark学习Scala的同学)Word文档
- 2.90MB
基于spark的图书推荐系统
2023-06-15推荐系统是一种信息过滤系统,能够自动预测用户对特定产品或服务的偏好,并向其提供个性化的推荐。它通常基于用户的历史行为、个人喜好、兴趣和偏好等,通过数据挖掘和机器学习算法,在大数据的支持下生成个性化的推荐内容,从而提高用户购买率和满意度。推荐系统广泛应用于电子商务、社交媒体、新闻资讯、音乐、电影等领域。推荐系统的作用是根据用户的历史行为和偏好,为用户推荐个性化的内容,以满足用户的需求和兴趣。 在推荐系统架构中,离线计算部分主要使用 Hadoop、Spark、Hive 等大数据处理技术,将海量历史数据进行离线处理,构建出推荐模型。在线计算部分则使用 Flask、Django 或 Tornado 等 Web 应用框架,将推荐模型部署到 Web 服务器上,实现实时推荐服务。
- 743KB
大数据期末课设~基于spark的气象数据处理与分析
2022-12-14大数据期末课设~基于spark的气象数据处理与分析 完整版Word 可以拿来直接交作业
- 550KB
全国职业技能大赛大数据赛项十套赛题(shtd)
2023-01-16使用Scala编写spark工程代码,将MySQL的shtd_store库中表user_info、sku_info、base_province、base_region、order_info、order_detail的数据增量抽取到Hive的ods库中对应表user_info、sku_info、base_province、base_region、order_info、order_detail中。 1、 抽取shtd_store库中user_info的增量数据进入Hive的ods库中表user_info。根据ods.user_info表中operate_time或create_time作为增量字段(即MySQL中每条数据取这两个时间中较大的那个时间作为增量字段去和ods里的这两个字段中较大的时间进行比较),只将新增的数据抽入,字段名称、类型不变,同时添加静态分区,分区字段类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.user_info命令,将结果截图粘贴至对应报告中;
- 69B
大数据全套教程完整版
2019-01-09大数据基础到精通完整版, 涵盖技术点:python 基础 java基础,mysql,oracle,ssm框架,linux,hadoop,hbase,zookeeper,flume,scala,spark。资源宝贵,速度下载
- 26.74MB
全国2014-2018年空气质量csv数据集文件数据
2019-06-23全国2014-2018年空气质量csv数据集文件数据,包含字段time(时间),city(城市),AQI,PM2.5,PM10,SO2,NO2,CO,O3,primary_pollutant(主要污染物),共计55万条数据。
- 0B
spark-3.3.1-bin-3.0.0-cdh6.3.2.tgz
2022-11-23spark 3.3.1 使用 cdh 6.3.2 的hadoop版本。可以直接兼容并配合文档进行cdh spark-sql的使用。 具体查看https://editor.csdn.net/md/?articleId=127997188
- 1.1MB
Spark气象监测数据分析:代码整合,包括预处理,分析,数据可视化
2023-09-17【内容概要】 通过完整的气象监测数据处理与分析项目,了解Spark大数据分析的整体流程。代码涵盖数据工程、统计分析、机器学习预测建模等内容。可以学习如何使用Spark PySpark API处理大规模数据。 【适合人群】 具备一定Python编程基础,需要处理分析大规模数据的研发人员。 【能学到什么】 1. Spark数据处理:缺失值处理、降噪、特征工程等数据预处理技术 2. 统计分析:分组聚合、相关性分析、异常检测等统计方法 3. 机器学习:时间序列预测模型设计、集成学习提升效果 4. 微服务:模型API和Docker部署,提供后端服务 【学习建议】 项目代码完整覆盖了大数据分析全流程。在学习过程中,需要结合代码注释和文档,了解设计思路和背后的原理。同时调试并运行示例代码,加深理解。欢迎提出改进意见。
- 9.26MB
基于hadoop和echarts的教育大数据可视化系统
2023-05-04在线教育平台现在是教育体系的重要组成部分,在当前大数据时代的背景下,促进教育机构建立统一平台、统一资源管理的数字化教学系统。如何评估系统平台的健康程度、学生的学习体验和在线课程的质量对于课程的教师和学校的管理人员都是非常重要的,这是进行数据分析的主要目的。可视化是一个重要的途径,它能够帮助大数据获得完整的数据图表并挖掘数据的价值,大数据分析离不开可视化这一工具的推动。 基于hadoop和echarts的教育大数据可视化系统,以B/S模式开发。通过Hadoop中Sqoop进行数据导入转换。以MapReduce构建数据分析,数据分析维度包括每日登录人数分析、平均学习时长分析、学习行为次数分析、每日活跃情况分析和分时段学习人数分析。最终使用ECharts可视化工具来对在线教育平台在学习过程中产生的数据进行可视化大屏展现,让更多人感受到可视化大数据的魅力。
- 9.96MB
大数据面试大总结300页.zip
2021-07-18大数据面试大总结300页.zip
- 1.71MB
python爬虫爬取股票评论,调用百度AI进行语义分析, matlab数据处理,股票涨跌和评论的关系
2019-03-22python爬虫爬取股票评论, 调用百度AI进行语义分析, matlab数据处理, excel作图 股票涨跌和评论的关系
- 221.10MB
spark-3.1.3-bin-hadoop3.2.tgz
2022-05-19Apache Spark版本3.1.3。Linux安装包。spark-3.1.3-bin-hadoop3.2.tgz
- 3.43MB
基于Spark的电影数据集分析
2022-06-24该项目是大三下学期的课程设计,使用的数据集来自知名数据网站 Kaggle 的 tmdb-movie-metadata 电影数据集,以Python为编程语言,使用大数据框架Spark对数据进行了预处理,然后分别从多个方面对数据进行了分类和分析,并对分析结果进行可视化。里面包含我的课程设计报告和完整的代码。希望对你们有帮助。
- 1.89MB
实验七:Spark初级编程实践
2022-07-151、实验环境: 设备名称 LAPTOP-9KJS8HO6 处理器 Intel(R) Core(TM) i5-10300H CPU @ 2.50GHz 2.50 GHz 机带 RAM 16.0 GB (15.8 GB 可用) 主机操作系统 Windows 10 家庭中文版 虚拟机操作系统 ubuntukylin-16.04 Hadoop 版本 3.1.3 JDK 版本 1.8 Java IDE:Eclipse 系统类型 64 位操作系统, 基于 x64 的处理器 笔和触控 没有可用于此显示器的笔或触控输入 2、实验内容与完成情况: 1. 安装hadoop和spark。 将下载好的安装包解压至固定路径并安装 使用命令./bin/spark-shell启动spark 图2启动spark 2. Spark读取文件系统的数据 (1) 在spark-shell中读取Linux系统本地文件“/home/hadoop/test.txt”,然后统计出文件的行数; 图3 spark统计行数 (2) 在spark-shell中读取HDFS系统文件“/user/hadoop/test.txt”(
- 565KB
Link Prediction相似性计算方法示例.rar
2020-02-15根据吕琳媛、周涛《链路预测》中的相似性指标计算示例,参考附录提供的代码分别用python和matlab实现CN、Jaccard、RA指标的计算。并用书中提供了简单的五点的无权无向网络进行测试,结果与作者的计算吻合。 内含文件如下: (1)书中相似性指标计算示例原文 (2)网络的邻接表.txt文件 (3)matlab代码 (4)python代码 (5)python生成的网络图
- 9.2MB
基于Spark的零售交易数据分析
2022-06-24该项目是大三下学期的课程设计,选取了共541909条数据,以Python为编程语言,使用大数据框架Spark对数据进行了预处理,然后分别从多个方面对数据进行了分类和分析,并对分析结果进行可视化。里面包含我的课程设计报告和完整的代码。希望对你们有帮助。
- 36.99MB
sbt-1.9.0.tgz
2023-08-07sbt-1.9.0.tgz
- 3KB
实战Flink+Doris实时数仓教程
2024-03-04一、什么是实时数仓 实时数据仓库(Real-time Data Warehouse)是指能够实时地处理和分析数据,使得数据仓库中的数据是最新的、最准确的,并且可以实时响应用户的查询和分析需求的一种数据仓库系统。 与传统的数据仓库相比,实时数据仓库更加注重数据的实时性和对业务的实时响应能力。传统数据仓库通常是每日、每周或每月定期进行数据的抽取、转换和加载(ETL),更新的速度较慢,一般不支持实时查询和分析。而实时数据仓库则更加注重数据的实时性和对业务的实时响应能力,能够在数据发生变化时及时响应用户的查询和分析需求。 二、安装Flink 步骤 1:下载 # 为了运行Flink,只需提前安装好 Java 11。你可以通过以下命令来检查 Java 是否已经安装正确。 java -version 下载 release 1.20-SNAPSHOT 并解压。 $ tar -xzf flink-1.20-SNAPSHOT-bin-scala_2.12.tgz $ cd flink-1.20-SNAPSHOT-bin-scala_2.12 步骤 2:启动集群 # Flink 附带了一个 bash