- 大数据大小:52MB大数据领域必读!此文件为第二分卷。大数据领域必读!此文件为第二分卷。5 244浏览会员免费
- 大数据大小:52MB大数据领域的必读书!此文件为第一分卷。大数据领域的必读书!此文件为第一分卷。4 163浏览会员免费
- spark大小:23MB里面包含很多spark源码(包括etl,kafka,hbase整合等)里面包含很多spark源码(包括etl,kafka,hbase整合等)5 1027浏览会员免费
- 股票评论大小:2MBpython爬虫爬取股票评论, 调用百度AI进行语义分析, matlab数据处理, excel作图 股票涨跌和评论的关系python爬虫爬取股票评论, 调用百度AI进行语义分析, matlab数据处理, excel作图 股票涨跌和评论的关系5 5240浏览会员免费
- Spark大小:32MBSpark入门完整版 PDF版,从生态圈 部署安装 编程模型 运行框架 stream sql mllib graphx tachyon安装部署介绍Spark入门完整版 PDF版,从生态圈 部署安装 编程模型 运行框架 stream sql mllib graphx tachyon安装部署介绍3 681浏览会员免费
- Spark大小:32MBSpark 入门实战系列,适合初学者,文档包括十部分内容,质量很好,为了感谢文档作者,也为了帮助更多的人入门,传播作者的心血,特此友情转贴: 1.Spark及其生态圈简介.pdf 2.Spark编译与部署(上)--基础环境搭建.pdf 2.Spark编译与部署(下)--Spark编译安装.pdf 2.Spark编译与部署(中)--Hadoop编译安装.pdf 3.Spark编程模型(上)--概念及SparkShell实战.pdf 3.Spark编程模型(下)--IDEA搭建及实战.pdf 4.Spark运行架构.pdf 5.Hive(上)--Hive介绍及部署.pdf 5.Hive(下)--Hive实战.pdf 6.SparkSQL(上)--SparkSQL简介.pdf 6.SparkSQL(下)--Spark实战应用.pdf 6.SparkSQL(中)--深入了解运行计划及调优.pdf 7.SparkStreaming(上)--SparkStreaming原理介绍.pdf 7.SparkStreaming(下)--SparkStreaming实战.pdf 8.SparkMLlib(上)--机器学习及SparkMLlib简介.pdf 8.SparkMLlib(下)--SparkMLlib实战.pdf 9.SparkGraphX介绍及实例.pdf 10.分布式内存文件系统Tachyon介绍及安装部署.pdfSpark 入门实战系列,适合初学者,文档包括十部分内容,质量很好,为了感谢文档作者,也为了帮助更多的人入门,传播作者的心血,特此友情转贴: 1.Spark及其生态圈简介.pdf 2.Spark编译与部署(上)--基础环境搭建.pdf 2.Spark编译与部署(下)--Spark编译安装.pdf 2.Spark编译与部署(中)--Hadoop编译安装.pdf 3.Spark编程模型(上)--概念及SparkShell实战.pdf 3.Spark编程模型(下)--IDEA搭建及实战.pdf 4.Spark运行架构.pdf 5.Hive(上)--Hive介绍及部署.pdf 5.Hive(下)--Hive实战.pdf 6.SparkSQL(上)--SparkSQL简介.pdf 6.SparkSQL(下)--Spark实战应用.pdf 6.SparkSQL(中)--深入了解运行计划及调优.pdf 7.SparkStreaming(上)--SparkStreaming原理介绍.pdf 7.SparkStreaming(下)--SparkStreaming实战.pdf 8.SparkMLlib(上)--机器学习及SparkMLlib简介.pdf 8.SparkMLlib(下)--SparkMLlib实战.pdf 9.SparkGraphX介绍及实例.pdf 10.分布式内存文件系统Tachyon介绍及安装部署.pdf4 912浏览会员免费
- spark大小:19MB该scala项目时自己整理的,对初学者很有帮助,里面包含了scala各种技术该scala项目时自己整理的,对初学者很有帮助,里面包含了scala各种技术4 910浏览会员免费
- netcat大小:390KBnetcat被誉为网络安全界的‘瑞士军刀',相信没有什么人不认识它吧...... 一个简单而有用的工具,透过使用TCP或UDP协议的网络连接去读写数据。它被设计成一个稳定的后门工具, 能够直接由其它程序和脚本轻松驱动。netcat被誉为网络安全界的‘瑞士军刀',相信没有什么人不认识它吧...... 一个简单而有用的工具,透过使用TCP或UDP协议的网络连接去读写数据。它被设计成一个稳定的后门工具, 能够直接由其它程序和脚本轻松驱动。5 2394浏览会员免费
- Link大小:566KB根据吕琳媛、周涛《链路预测》中的相似性指标计算示例,参考附录提供的代码分别用python和matlab实现CN、Jaccard、RA指标的计算。并用书中提供了简单的五点的无权无向网络进行测试,结果与作者的计算吻合。 内含文件如下: (1)书中相似性指标计算示例原文 (2)网络的邻接表.txt文件 (3)matlab代码 (4)python代码 (5)python生成的网络图根据吕琳媛、周涛《链路预测》中的相似性指标计算示例,参考附录提供的代码分别用python和matlab实现CN、Jaccard、RA指标的计算。并用书中提供了简单的五点的无权无向网络进行测试,结果与作者的计算吻合。 内含文件如下: (1)书中相似性指标计算示例原文 (2)网络的邻接表.txt文件 (3)matlab代码 (4)python代码 (5)python生成的网络图5 1597浏览会员免费
- scala2.10.6大小:58MBscala2.10.6,官网下载贼慢 scala2.10.6,官网下载贼慢 scala2.10.6,官网下载贼慢 scala2.10.6,官网下载贼慢 scala2.10.6,官网下载贼慢scala2.10.6,官网下载贼慢 scala2.10.6,官网下载贼慢 scala2.10.6,官网下载贼慢 scala2.10.6,官网下载贼慢 scala2.10.6,官网下载贼慢0 241浏览会员免费
- Apache大小:6MBFrank Kane's Taming Big Data with Apache Spark and Python English | 2017 | ISBN-10: 1787287947 | 296 pages | AZW3/PDF/EPUB (conv) | 6.12 Mb Key Features Understand how Spark can be distributed across computing clusters Develop and run Spark jobs efficiently using Python A hands-on tutorial by Frank Kane with over 15 real-world examples teaching you Big Data processing with Spark Book Description Frank Kane's Taming Big Data with Apache Spark and Python is your companion to learning Apache Spark in a hands-on manner. Frank will start you off by teaching you how to set up Spark on a single system or on a cluster, and you'll soon move on to analyzing large data sets using Spark RDD, and developing and running effective Spark jobs quickly using Python. Apache Spark has emerged as the next big thing in the Big Data domain – quickly rising from an ascending technology to an established superstar in just a matter of years. Spark allows you to quickly extract actionable insights from large amounts of data, on a real-time basis, making it an essential tool in many modern businesses. Frank has packed this book with over 15 interactive, fun-filled examples relevant to the real world, and he will empower you to understand the Spark ecosystem and implement production-grade real-time Spark projects with ease. What you will learn Find out how you can identify Big Data problems as Spark problems Install and run Apache Spark on your computer or on a cluster Analyze large data sets across many CPUs using Spark's Resilient Distributed Datasets Implement machine learning on Spark using the MLlib library Process continuous streams of data in real time using the Spark streaming module Perform complex network analysis using Spark's GraphX library Use Amazon's Elastic MapReduce service to run your Spark jobs on a cluster About the Author My name is Frank Kane. I spent nine years at Amazon and IMDb, wrangling millions of customer ratings and customer transactions to produce things such as personalized recommendations for movies and products and "people who bought this also bought." I tell you, I wish we had Apache Spark back then, when I spent years trying to solve these problems there. I hold 17 issued patents in the fields of distributed computing, data mining, and machine learning. In 2012, I left to start my own successful company, Sundog Software, which focuses on virtual reality environment technology, and teaching others about big data analysis. Table of Contents Getting Started with Spark Spark Basics and Simple Examples Advanced Examples of Spark Programs Running Spark on a Cluster SparkSQL, Dataframes and Datasets Other Spark Technologies and Libraries Where to Go From Here? - Learning More About Spark and Data ScienceFrank Kane's Taming Big Data with Apache Spark and Python English | 2017 | ISBN-10: 1787287947 | 296 pages | AZW3/PDF/EPUB (conv) | 6.12 Mb Key Features Understand how Spark can be distributed across computing clusters Develop and run Spark jobs efficiently using Python A hands-on tutorial by Frank Kane with over 15 real-world examples teaching you Big Data processing with Spark Book Description Frank Kane's Taming Big Data with Apache Spark and Python is your companion to learning Apache Spark in a hands-on manner. Frank will start you off by teaching you how to set up Spark on a single system or on a cluster, and you'll soon move on to analyzing large data sets using Spark RDD, and developing and running effective Spark jobs quickly using Python. Apache Spark has emerged as the next big thing in the Big Data domain – quickly rising from an ascending technology to an established superstar in just a matter of years. Spark allows you to quickly extract actionable insights from large amounts of data, on a real-time basis, making it an essential tool in many modern businesses. Frank has packed this book with over 15 interactive, fun-filled examples relevant to the real world, and he will empower you to understand the Spark ecosystem and implement production-grade real-time Spark projects with ease. What you will learn Find out how you can identify Big Data problems as Spark problems Install and run Apache Spark on your computer or on a cluster Analyze large data sets across many CPUs using Spark's Resilient Distributed Datasets Implement machine learning on Spark using the MLlib library Process continuous streams of data in real time using the Spark streaming module Perform complex network analysis using Spark's GraphX library Use Amazon's Elastic MapReduce service to run your Spark jobs on a cluster About the Author My name is Frank Kane. I spent nine years at Amazon and IMDb, wrangling millions of customer ratings and customer transactions to produce things such as personalized recommendations for movies and products and "people who bought this also bought." I tell you, I wish we had Apache Spark back then, when I spent years trying to solve these problems there. I hold 17 issued patents in the fields of distributed computing, data mining, and machine learning. In 2012, I left to start my own successful company, Sundog Software, which focuses on virtual reality environment technology, and teaching others about big data analysis. Table of Contents Getting Started with Spark Spark Basics and Simple Examples Advanced Examples of Spark Programs Running Spark on a Cluster SparkSQL, Dataframes and Datasets Other Spark Technologies and Libraries Where to Go From Here? - Learning More About Spark and Data Science1 229浏览会员免费
- SPARK大小:91KB基于SPARK的大数据实战(在线电影推荐),使用最主流的大数据技术,实现电影的推荐,包含代码。基于SPARK的大数据实战(在线电影推荐),使用最主流的大数据技术,实现电影的推荐,包含代码。0 3596浏览会员免费
- 大数据大小:6MB大数据领域必读!此文件为第三分卷大数据领域必读!此文件为第三分卷0 77浏览会员免费
- Spark大小:39MB深入理解Spark:核心思想及源码分析.pdf 深入理解Spark:核心思想及源码分析.pdf深入理解Spark:核心思想及源码分析.pdf 深入理解Spark:核心思想及源码分析.pdf3 427浏览会员免费
- Pix4Dmapper大小:26MBPix4Dmapper中文破解版,非常使用,欢迎下载,多多益善,希望能够帮到需要的你Pix4Dmapper中文破解版,非常使用,欢迎下载,多多益善,希望能够帮到需要的你4 1826浏览会员免费
- spark大小:153MB《Spark SQL入门与实践指南》、Hadoop权威指南(中文第3版)、Hadoop源代码分析(完整版)、Spark快速大数据分析《Spark SQL入门与实践指南》、Hadoop权威指南(中文第3版)、Hadoop源代码分析(完整版)、Spark快速大数据分析5 0浏览会员免费
- spark大小:246Bspark全面讲解的代码,从其中去掉解压密码,大家欢迎下载spark全面讲解的代码,从其中去掉解压密码,大家欢迎下载0 6084浏览会员免费
- CVX大小:6MBCVX工具箱,使用matlab进行凸优化处理的工具箱,适用于稀疏表示、压缩感知等迭代优化CVX工具箱,使用matlab进行凸优化处理的工具箱,适用于稀疏表示、压缩感知等迭代优化5 1587浏览会员免费
- spark大小:79MB本资料是集合20篇知网被引最高的基于spark的大数据论文,包括大数据Spark技术研究_刘峰波、大数据下基于Spark的电商实时推荐系统的设计与实现_岑凯伦、基于Spark的Apriori算法的改进_牛海玲、基于Spark的大数据混合计算模型_胡俊、基于Spark的大数据挖掘技术的研究与实现_李文栋、基于Spark的机器学习平台设计与实现_唐振坤、基于Spark的机器学习应用框架研究与实现_孙科、基于Spark的若干数据挖掘技术研究_宁永恒、基于Spark平台推荐系统研究_杨志伟等高质量的论文。本资料是集合20篇知网被引最高的基于spark的大数据论文,包括大数据Spark技术研究_刘峰波、大数据下基于Spark的电商实时推荐系统的设计与实现_岑凯伦、基于Spark的Apriori算法的改进_牛海玲、基于Spark的大数据混合计算模型_胡俊、基于Spark的大数据挖掘技术的研究与实现_李文栋、基于Spark的机器学习平台设计与实现_唐振坤、基于Spark的机器学习应用框架研究与实现_孙科、基于Spark的若干数据挖掘技术研究_宁永恒、基于Spark平台推荐系统研究_杨志伟等高质量的论文。4 4104浏览会员免费
- 大数据大小:147KB别处找到的大数据简历资源,一共有7分简历信息,大数据简历共享7份,一起进步,一起学习,感谢别处找到的大数据简历资源,一共有7分简历信息,大数据简历共享7份,一起进步,一起学习,感谢3 506浏览会员免费
- spark大小:56MBLearning.Spark.pdf(英文版)+图解Spark核心技术与案例实战.pdfLearning.Spark.pdf(英文版)+图解Spark核心技术与案例实战.pdf5 233浏览会员免费
- 大数据大小:1MB项目以宜信贷风控系统实时数据采集系统为背景,主要描述了技术架构、核心技术难点及代码实现全过程,涉及技术包括但不限于:Kafka\zookeeper,Spark,SparkStreaming,HBase,实时访问技术,爬虫技术等项目以宜信贷风控系统实时数据采集系统为背景,主要描述了技术架构、核心技术难点及代码实现全过程,涉及技术包括但不限于:Kafka\zookeeper,Spark,SparkStreaming,HBase,实时访问技术,爬虫技术等2 1692浏览会员免费
- SparkSQL大小:1MB开发大数据时,从DataFrame中查询数据时用到的指南:SparkSQL编程指南中文版开发大数据时,从DataFrame中查询数据时用到的指南:SparkSQL编程指南中文版0 858浏览会员免费
- 大数据大小:31MB663756 大数据基础编程、实验和案例教程 厦门大学 大数据基础编程、实验和案例教程663756 大数据基础编程、实验和案例教程 厦门大学 大数据基础编程、实验和案例教程0 628浏览会员免费
- python大小:17MB零起点Python大数据与量化交易高清pdf,带书签完整版,高质量。 《零起点Python大数据与量化交易》是国内较早关于Python大数据与量化交易的原创图书,配合zwPython开发平台和zwQuant开源量化软件学习,是一套完整的大数据分析、量化交易的学习教材,可直接用于实盘交易。《零起点Python大数据与量化交易》有三大特色:第一,以实盘个案分析为主,全程配有Python代码;第二,包含大量的图文案例和Python源码,无须专业编程基础,懂Excel即可开始学习;第三,配有专业的zwPython集成开发平台、zwQuant量化软件和zwDat数据包。, 《零起点Python大数据与量化交易》内容源自笔者的原版教学课件,虽然限于篇幅和载体,省略了视频和部分环节,但核心内容都有保留,配套的近百套Python教学程序没有进行任何删减。考虑到广大入门读者的需求,笔者在各个核心函数环节增添了函数流程图。零起点Python大数据与量化交易高清pdf,带书签完整版,高质量。 《零起点Python大数据与量化交易》是国内较早关于Python大数据与量化交易的原创图书,配合zwPython开发平台和zwQuant开源量化软件学习,是一套完整的大数据分析、量化交易的学习教材,可直接用于实盘交易。《零起点Python大数据与量化交易》有三大特色:第一,以实盘个案分析为主,全程配有Python代码;第二,包含大量的图文案例和Python源码,无须专业编程基础,懂Excel即可开始学习;第三,配有专业的zwPython集成开发平台、zwQuant量化软件和zwDat数据包。, 《零起点Python大数据与量化交易》内容源自笔者的原版教学课件,虽然限于篇幅和载体,省略了视频和部分环节,但核心内容都有保留,配套的近百套Python教学程序没有进行任何删减。考虑到广大入门读者的需求,笔者在各个核心函数环节增添了函数流程图。0 0浏览会员免费
- scala-2.11.8大小:108MBscala-2.11.8(windows)msi文件安装。scala-2.11.8(windows)msi文件安装。5 373浏览会员免费
- php安装包大小:31MBNginx+MySQL+PHP 环境配置 PHP 部分 Nginx+MySQL+PHP 环境配置 PHP 部分Nginx+MySQL+PHP 环境配置 PHP 部分 Nginx+MySQL+PHP 环境配置 PHP 部分4 247浏览会员免费
- spark大小:153MB大数据Spark企业级实战版,本书介绍了一种新的编程语言---Scala,它把面向对象和函数式编程有机的结合为整体,从而形成一种统一,语义丰富新思维体系。大数据Spark企业级实战版,本书介绍了一种新的编程语言---Scala,它把面向对象和函数式编程有机的结合为整体,从而形成一种统一,语义丰富新思维体系。5 436浏览会员免费
- Spark大小:880KB基于Spark-Graphx的大规模用户图计算和应用 完整高清 基于Spark-Graphx的大规模用户图计算和应用 完整高清基于Spark-Graphx的大规模用户图计算和应用 完整高清 基于Spark-Graphx的大规模用户图计算和应用 完整高清0 948浏览会员免费
- POI爬取插件大小:1KBPOI爬取插件POI爬取插件POI爬取插件POI爬取插件POI爬取插件POI爬取插件POI爬取插件POI爬取插件POI爬取插件POI爬取插件3 1068浏览会员免费
- Big大小:91MB用户画像案例分析,详细讲解各行业应用技巧,包括《大数据用户画像的方法及营销实践》、《电商平台下用户画像的设计与分析》等文章用户画像案例分析,详细讲解各行业应用技巧,包括《大数据用户画像的方法及营销实践》、《电商平台下用户画像的设计与分析》等文章0 783浏览会员免费
- 大数据大小:22MBSpark是不断壮大的大数据分析解决方案家族中备受关注的新增成员。它不仅为分布式数据集的处理提供一个有效框架,而且以高效的方式处理分布式数据集。它支持实时处理、流处理和批处理,提供了AllinOne的统一解决方案,使得Spark极具竞争力。《Spark技术内幕:深入解析Spark内核架构设计与实现原理》以源码为基础,深入分析Spark内核的设计理念和架构实现,系统讲解各个核心模块的实现,为性能调优、二次开发和系统运维提供理论支持;本文最后以项目实战的方式,系统讲解生产环境下Spark应用的开发、部署和性能调优。Spark是不断壮大的大数据分析解决方案家族中备受关注的新增成员。它不仅为分布式数据集的处理提供一个有效框架,而且以高效的方式处理分布式数据集。它支持实时处理、流处理和批处理,提供了AllinOne的统一解决方案,使得Spark极具竞争力。《Spark技术内幕:深入解析Spark内核架构设计与实现原理》以源码为基础,深入分析Spark内核的设计理念和架构实现,系统讲解各个核心模块的实现,为性能调优、二次开发和系统运维提供理论支持;本文最后以项目实战的方式,系统讲解生产环境下Spark应用的开发、部署和性能调优。0 417浏览会员免费
- 电子书大小:33MB深入学习大数据的必备书籍,学好scala对掌握大数据有很大的帮助!!!深入学习大数据的必备书籍,学好scala对掌握大数据有很大的帮助!!!0 419浏览会员免费
- SPARK大小:5MBspark 通过java操作的API详细说明,chm格式,可搜索自己想要的API,内部有详细的用法说明spark 通过java操作的API详细说明,chm格式,可搜索自己想要的API,内部有详细的用法说明3 163浏览会员免费
- Spark大小:81MBspark graphX实战 中英文两版 spark graphX实战 中英文两版spark graphX实战 中英文两版 spark graphX实战 中英文两版0 0浏览会员免费
- spark大小:36MBspark的底层源码,版本2.1.1,可以解压后直接使用idea打开,特别注意:里面包含大量的maven依赖,初始加载时,时间较长。spark的底层源码,版本2.1.1,可以解压后直接使用idea打开,特别注意:里面包含大量的maven依赖,初始加载时,时间较长。5 326浏览会员免费
- Apache大小:2MB关于学习 Spark 的部分,英文好点的话,跟着 Spark 官方文档的英文版走就行了。 如果英语不是很好,可以阅读下由 ApacheCN 组织翻译的 Spark 2.2.0 官方文档中文版。 从概述开始,然后编程指南的快速入门,Spark 编程指南,Spark streaming 一步一步往下走。 文档中附带了一些基础的案例,也附带了相应的代码,可用于基础性学习,一开始不要急着写代码,先看文档,一些基本的概念懂了之后,再开始试着慢慢的写代码,即可入门 。。。 当然,学习 Spark 时最好还是有一些前置技能比较好,比如使用过 Storm 之类的,就更容易上手了。 欢迎提出任何建议,更欢迎加入我们一起来学习,go far,go together.关于学习 Spark 的部分,英文好点的话,跟着 Spark 官方文档的英文版走就行了。 如果英语不是很好,可以阅读下由 ApacheCN 组织翻译的 Spark 2.2.0 官方文档中文版。 从概述开始,然后编程指南的快速入门,Spark 编程指南,Spark streaming 一步一步往下走。 文档中附带了一些基础的案例,也附带了相应的代码,可用于基础性学习,一开始不要急着写代码,先看文档,一些基本的概念懂了之后,再开始试着慢慢的写代码,即可入门 。。。 当然,学习 Spark 时最好还是有一些前置技能比较好,比如使用过 Storm 之类的,就更容易上手了。 欢迎提出任何建议,更欢迎加入我们一起来学习,go far,go together.4 181浏览会员免费
- 推荐系统大小:6MB关于推荐系统的资料,有实时推荐系统的介绍,还有一些论文(基于Storm的分布式在线推荐系统.pdf 基于混合算法的推荐系统的研究与实现.pdf 实时推荐系统.pdf)关于推荐系统的资料,有实时推荐系统的介绍,还有一些论文(基于Storm的分布式在线推荐系统.pdf 基于混合算法的推荐系统的研究与实现.pdf 实时推荐系统.pdf)5 139浏览会员免费
- hadoop大小:9MB在线教育平台现在是教育体系的重要组成部分,在当前大数据时代的背景下,促进教育机构建立统一平台、统一资源管理的数字化教学系统。如何评估系统平台的健康程度、学生的学习体验和在线课程的质量对于课程的教师和学校的管理人员都是非常重要的,这是进行数据分析的主要目的。可视化是一个重要的途径,它能够帮助大数据获得完整的数据图表并挖掘数据的价值,大数据分析离不开可视化这一工具的推动。 基于hadoop和echarts的教育大数据可视化系统,以B/S模式开发。通过Hadoop中Sqoop进行数据导入转换。以MapReduce构建数据分析,数据分析维度包括每日登录人数分析、平均学习时长分析、学习行为次数分析、每日活跃情况分析和分时段学习人数分析。最终使用ECharts可视化工具来对在线教育平台在学习过程中产生的数据进行可视化大屏展现,让更多人感受到可视化大数据的魅力。在线教育平台现在是教育体系的重要组成部分,在当前大数据时代的背景下,促进教育机构建立统一平台、统一资源管理的数字化教学系统。如何评估系统平台的健康程度、学生的学习体验和在线课程的质量对于课程的教师和学校的管理人员都是非常重要的,这是进行数据分析的主要目的。可视化是一个重要的途径,它能够帮助大数据获得完整的数据图表并挖掘数据的价值,大数据分析离不开可视化这一工具的推动。 基于hadoop和echarts的教育大数据可视化系统,以B/S模式开发。通过Hadoop中Sqoop进行数据导入转换。以MapReduce构建数据分析,数据分析维度包括每日登录人数分析、平均学习时长分析、学习行为次数分析、每日活跃情况分析和分时段学习人数分析。最终使用ECharts可视化工具来对在线教育平台在学习过程中产生的数据进行可视化大屏展现,让更多人感受到可视化大数据的魅力。3 634浏览免费
- GDP大小:2KB中国31个省级行政区域GDP数据地图热点图(暂时不包括港澳台).rar中国31个省级行政区域GDP数据地图热点图(暂时不包括港澳台).rar0 1731浏览会员免费
- 经纬度查询大小:964KB经纬度批量查询工具经纬度批量查询工具经纬度批量查询工具经纬度批量查询工具经纬度批量查询工具经纬度批量查询工具经纬度批量查询工具经纬度批量查询工具1 2195浏览会员免费
- 大数据大小:2MBspark2.0官方文档。欢迎下载学习spark2.0官方文档。欢迎下载学习0 210浏览会员免费
- scala大小:33MB快学Scala pdf(含目录) scala 快速入门书箱 scala经典图书 Core Java作者最新力作 中文版 快学Scala Scala for the Impatient 中文版 [美]C S 霍斯曼 2012 电子工业出版社 非常感谢原制作者快学Scala pdf(含目录) scala 快速入门书箱 scala经典图书 Core Java作者最新力作 中文版 快学Scala Scala for the Impatient 中文版 [美]C S 霍斯曼 2012 电子工业出版社 非常感谢原制作者0 116浏览会员免费
- 统计分析软件大小:26MB绝对有用,可支持各类数据的统计分析,亲测,绝对可行!!!!!!!!!绝对有用,可支持各类数据的统计分析,亲测,绝对可行!!!!!!!!!1 506浏览会员免费
- Spark大小:33MB从sarifi离线保存打包而来,是2017年12月版本,应该很接近最后的发布版本了从sarifi离线保存打包而来,是2017年12月版本,应该很接近最后的发布版本了4 94浏览会员免费
- learning大小:7MBSpark,是一种通用的大数据计算框架,正如传统大数据技术Hadoop的MapReduce、Hive引擎,以及Storm流式实时计算引擎等。 Spark包含了大数据领域常见的各种计算框架:比如Spark Core用于离线计算,Spark SQL用于交互式查询,Spark Streaming用于实时流式计算,Spark MLlib用于机器学习,Spark GraphX用于图计算。 Spark主要用于大数据的计算,而Hadoop以后主要用于大数据的存储(比如HDFS、Hive、HBase等),以及资源调度(Yarn)。 Spark+Hadoop的组合,是未来大数据领域最热门的组合,也是最有前景的组合 --------------------- 作者:大数据精英 来源:CSDN 原文:https://blog.csdn.net/qq_42107047/article/details/80239094 版权声明:本文为博主原创文章,转载请附上博文链接!Spark,是一种通用的大数据计算框架,正如传统大数据技术Hadoop的MapReduce、Hive引擎,以及Storm流式实时计算引擎等。 Spark包含了大数据领域常见的各种计算框架:比如Spark Core用于离线计算,Spark SQL用于交互式查询,Spark Streaming用于实时流式计算,Spark MLlib用于机器学习,Spark GraphX用于图计算。 Spark主要用于大数据的计算,而Hadoop以后主要用于大数据的存储(比如HDFS、Hive、HBase等),以及资源调度(Yarn)。 Spark+Hadoop的组合,是未来大数据领域最热门的组合,也是最有前景的组合 --------------------- 作者:大数据精英 来源:CSDN 原文:https://blog.csdn.net/qq_42107047/article/details/80239094 版权声明:本文为博主原创文章,转载请附上博文链接!4 0浏览会员免费
- 大数据大小:196MBspark、storm、hadoop、java、hbase等大数据简历等相关资料spark、storm、hadoop、java、hbase等大数据简历等相关资料4 163浏览会员免费
- spark大小:38MBSpark大数据处理技术 这本书讲解的很全面, 很适合学习,但大部分网上下载的都是零碎不完整的,这本是经过优化整理,压缩后的完整的版本。Spark大数据处理技术 这本书讲解的很全面, 很适合学习,但大部分网上下载的都是零碎不完整的,这本是经过优化整理,压缩后的完整的版本。3 305浏览会员免费
- pyspark大小:298B给大家分享一套视频教程,名字叫:基于Python Spark的大数据分析课程,很棒的一套pyspark课程,讲师技术水平一流,课程通俗易懂,附源码和课堂笔记给大家分享一套视频教程,名字叫:基于Python Spark的大数据分析课程,很棒的一套pyspark课程,讲师技术水平一流,课程通俗易懂,附源码和课堂笔记0 932浏览会员免费
- mysql相关包大小:35MBzabbix安装-mysql安装部分安装包 zabbix安装-mysql安装部分安装包 zabbix安装-mysql安装部分安装包zabbix安装-mysql安装部分安装包 zabbix安装-mysql安装部分安装包 zabbix安装-mysql安装部分安装包0 579浏览会员免费
- arcgis大小:19MB大数据分析在高分辨率卫星影像智能信息提取和分析中的应用,空间大数据的价值、生态与科学,空间分析领域中大数据架构的探索大数据分析在高分辨率卫星影像智能信息提取和分析中的应用,空间大数据的价值、生态与科学,空间分析领域中大数据架构的探索0 925浏览会员免费
- 大数据大小:467MB大数据相关大数据相关0 348浏览会员免费
- 大数据大小:328BSpark大数据分析技术,是一本为Spark初学者准备的书,没有过多深入实现细节,而更多关注上层用户的具体用法。尝试把spark应用到实践中,去探寻数据海洋里的无尽瑰宝。主要内容如下: 1)Spark数据分析导论 2)Spark下载与入门 3)RDD编程 4)键值对操作 5)数据读取与保存 6)Spark编程进阶 7)在集群上运行的Spark 8)Spark调优与调试 9)SparkSQL 10)Spark Streaming 11)基于MLlib的机器学习Spark大数据分析技术,是一本为Spark初学者准备的书,没有过多深入实现细节,而更多关注上层用户的具体用法。尝试把spark应用到实践中,去探寻数据海洋里的无尽瑰宝。主要内容如下: 1)Spark数据分析导论 2)Spark下载与入门 3)RDD编程 4)键值对操作 5)数据读取与保存 6)Spark编程进阶 7)在集群上运行的Spark 8)Spark调优与调试 9)SparkSQL 10)Spark Streaming 11)基于MLlib的机器学习0 798浏览会员免费
- Spark源码大小:18MBSpark2.20源码,包含mlib 及ml 用于机器学习。Spark2.20源码,包含mlib 及ml 用于机器学习。Spark2.20源码,包含mlib 及ml 用于机器学习。Spark2.20源码,包含mlib 及ml 用于机器学习。Spark2.20源码,包含mlib 及ml 用于机器学习。Spark2.20源码,包含mlib 及ml 用于机器学习。0 104浏览会员免费
- Scala编程大小:44MB内含Scala编程PDF版书籍 可详细学习Scala编程 内含Scala编程PDF版书籍 可详细学习Scala编程内含Scala编程PDF版书籍 可详细学习Scala编程 内含Scala编程PDF版书籍 可详细学习Scala编程4 201浏览会员免费
- spark大小:2MB最好的scala 学习课件,最好的scala 学习课件,学习spark必备最好的scala 学习课件,最好的scala 学习课件,学习spark必备0 228浏览会员免费
- 生成词云图像大小:1MB毕业设计数据分析必用。已经调试完毕,下载即运行,从目标数据集.csv文件到固定字段提取,生成词频图和词频列表。可以任意选取词云背景轮廓图。如果好用,还请给个好评!有问题留言即可毕业设计数据分析必用。已经调试完毕,下载即运行,从目标数据集.csv文件到固定字段提取,生成词频图和词频列表。可以任意选取词云背景轮廓图。如果好用,还请给个好评!有问题留言即可3 2377浏览会员免费
- HadoopSpark大小:197MBHadoopSparkExampler,Hadoop+Spark大数据巨量分析演示代码HadoopSparkExampler,Hadoop+Spark大数据巨量分析演示代码2 0浏览会员免费
- flink大小:788B本课程基于真实热门的互联网电商业务场景为案例讲解,具体分析指标包含:AB版本分析,下砖分析,营销分析,订单分析,终端分析等,能承载海量数据的实时分析,数据分析涵盖全端(PC、移动、小程序)应用。本课程基于真实热门的互联网电商业务场景为案例讲解,具体分析指标包含:AB版本分析,下砖分析,营销分析,订单分析,终端分析等,能承载海量数据的实时分析,数据分析涵盖全端(PC、移动、小程序)应用。0 1915浏览会员免费
- hadoop大小:427B基于大数据技术之电视收视率企业项目实战(hadoop+Spark)视频教程分享,本课程将通过一个电视收视率项目实战驱动讲解,项目案例是国内的一家广电企业作为非洲国家的一个运营商,以用户收视行为数据作为基础数据,通过对频道和节目的分析,采用多维度统计分析的方法挖掘用户的收视行为特征。 通过此案例可以学习大数据整体开发流程,课程是围绕一个大数据整理流程而做的教学课程,让大家明白大数据不同技术的相互协调,从收集数据,过滤数据,数据分析,数据展示,调度的使用而开发的课程,并且怎么从hadoop,hive应用快速的过度到spark上面而做的整套流程。学完此课程可以企业流程做一个整体的认识。基于大数据技术之电视收视率企业项目实战(hadoop+Spark)视频教程分享,本课程将通过一个电视收视率项目实战驱动讲解,项目案例是国内的一家广电企业作为非洲国家的一个运营商,以用户收视行为数据作为基础数据,通过对频道和节目的分析,采用多维度统计分析的方法挖掘用户的收视行为特征。 通过此案例可以学习大数据整体开发流程,课程是围绕一个大数据整理流程而做的教学课程,让大家明白大数据不同技术的相互协调,从收集数据,过滤数据,数据分析,数据展示,调度的使用而开发的课程,并且怎么从hadoop,hive应用快速的过度到spark上面而做的整套流程。学完此课程可以企业流程做一个整体的认识。0 1376浏览会员免费