- hive大小:342MBhive同步工具需要的jar.rarhive同步工具需要的jar.rar0 8浏览会员免费
- zeppelin集成大小:1MB虚拟机zeppelin安装虚拟机zeppelin安装0 67浏览会员免费
- hive大小:7MBHive数据仓库之boss直聘平台薪资数据分析Hive数据仓库之boss直聘平台薪资数据分析0 326浏览会员免费
- mysql大小:750MBapache-hive-2.3.7-bin.tar.gz mysql-5.7.38-1.el7.x86_64.rpm-bundle.tar mysql-connector-java-5.1.42.jarapache-hive-2.3.7-bin.tar.gz mysql-5.7.38-1.el7.x86_64.rpm-bundle.tar mysql-connector-java-5.1.42.jar0 35浏览会员免费
- 大数据大小:21MB基于大数据技术的用户日志数据分析及可视化平台搭建项目代码及数据集基于大数据技术的用户日志数据分析及可视化平台搭建项目代码及数据集5 745浏览会员免费
- apache大小:686MB已经编译好了的apache-ranger-2.2.0版本的plugins插件已经编译好了的apache-ranger-2.2.0版本的plugins插件0 40浏览会员免费
- 程序设计大小:854KBHive 是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。 Hive 定义了简单的类 SQL 查询语言,称为 QL,它允许熟悉 SQL 的用户查询数据。同时, 这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作。 Hive概念及常用操作文件包含Hive的基本概念与架构,以及在平常的工作中常用的一些操作,包括HQL的开发运行,以及优化。Hive 是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。 Hive 定义了简单的类 SQL 查询语言,称为 QL,它允许熟悉 SQL 的用户查询数据。同时, 这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作。 Hive概念及常用操作文件包含Hive的基本概念与架构,以及在平常的工作中常用的一些操作,包括HQL的开发运行,以及优化。0 145浏览会员免费
- 大数据大小:971KB大数据相关面试题,涵盖多个大数据组件内容,建议反复观看,提高面试通过率。大数据相关面试题,涵盖多个大数据组件内容,建议反复观看,提高面试通过率。0 73浏览会员免费
- 数据治理大小:206MB数据治理是组织中涉及数据使用的一整套管理行为。由企业数据治理部门发起并推行,关于如何制定和实施针对整个企业内部数据的商业应用和技术管理的一系列政策和流程。 现收集中国数据治理方法以及众多数据治理案例,以帮助我们学习。主要数据治理案例如下: 1、元数据管理(中国电信) 2、中信银行ODS方案、中信银行数据质量元数据管理平台用户操作手册 3、中国银行核心系统总体介绍 4、银行核心业务系统介绍 5、银行ODS整体架构及实施案例-mdc数据仓库技术架构及方案 6、大数据治理(高清PDF) 7、保险核心系统解决方案交流 8、数据治理平台系统介绍 9、 数据质量管理规范 以上为主要文件,包中包含23个文件,可供参考学习。数据治理是组织中涉及数据使用的一整套管理行为。由企业数据治理部门发起并推行,关于如何制定和实施针对整个企业内部数据的商业应用和技术管理的一系列政策和流程。 现收集中国数据治理方法以及众多数据治理案例,以帮助我们学习。主要数据治理案例如下: 1、元数据管理(中国电信) 2、中信银行ODS方案、中信银行数据质量元数据管理平台用户操作手册 3、中国银行核心系统总体介绍 4、银行核心业务系统介绍 5、银行ODS整体架构及实施案例-mdc数据仓库技术架构及方案 6、大数据治理(高清PDF) 7、保险核心系统解决方案交流 8、数据治理平台系统介绍 9、 数据质量管理规范 以上为主要文件,包中包含23个文件,可供参考学习。0 149浏览会员免费
- hive大小:896KB远程模式部署Hive时,mysql连接驱动jar包,需先进行解压,解压后文件夹内压缩包即为用到的压缩包,全称为mysql-connector-java-5.1.32.jar远程模式部署Hive时,mysql连接驱动jar包,需先进行解压,解压后文件夹内压缩包即为用到的压缩包,全称为mysql-connector-java-5.1.32.jar0 201浏览会员免费
- hadoop大小:89MBHadoop上安装Hive的压缩包,需先进行解压,解压后文件夹内压缩包即为用到的压缩包,全称为apache-hive-1.2.1-bin.tar.gzHadoop上安装Hive的压缩包,需先进行解压,解压后文件夹内压缩包即为用到的压缩包,全称为apache-hive-1.2.1-bin.tar.gz0 181浏览会员免费
- 推荐系统大小:292B推荐系统视频教程下载2022,视频+源码的学习形式,有想学习推荐系统的,这套应该是不错的选择推荐系统视频教程下载2022,视频+源码的学习形式,有想学习推荐系统的,这套应该是不错的选择0 73浏览会员免费
- hive大小:110MBHive以及安装文档等Hive以及安装文档等0 88浏览会员免费
- 大数据大小:266MBhive 构建在基于静态批处理的Hadoop 之上,Hadoop 通常都有较高的延迟并且在作业提交和调度的时候需要大量的开销。因此,hive 并不能够在大规模数据集上实现低延迟快速的查询,例如,hive 在几百MB 的数据集上执行查询一般有分钟级的时间延迟 hive 底层封装了Hadoop ,使用类SQL 的hiveSQL 语言实现数据查询,所有hive 的数据都存储在Hadoop 兼容的文件系统(例如,Amazon S3、HDFS)中。hive 在加载数据过程中不会对数据进行任何的修改,只是将数据移动到HDFS 中hive 设定的目录下,因此,hive 不支持对数据的改写和添加,所有的数据都是在加载的时候确定的。hive 的设计特点如下hive 构建在基于静态批处理的Hadoop 之上,Hadoop 通常都有较高的延迟并且在作业提交和调度的时候需要大量的开销。因此,hive 并不能够在大规模数据集上实现低延迟快速的查询,例如,hive 在几百MB 的数据集上执行查询一般有分钟级的时间延迟 hive 底层封装了Hadoop ,使用类SQL 的hiveSQL 语言实现数据查询,所有hive 的数据都存储在Hadoop 兼容的文件系统(例如,Amazon S3、HDFS)中。hive 在加载数据过程中不会对数据进行任何的修改,只是将数据移动到HDFS 中hive 设定的目录下,因此,hive 不支持对数据的改写和添加,所有的数据都是在加载的时候确定的。hive 的设计特点如下0 101浏览会员免费
- hive大小:27MBhive2.1.1 show create table 表名,hive中文乱码,替换hive-exec-2.1.1.jarhive2.1.1 show create table 表名,hive中文乱码,替换hive-exec-2.1.1.jar0 478浏览会员免费
- hive大小:45KBapache-hive-2.1.1-bin.tar.gz下的bin文件夹,包含hive.cmdapache-hive-2.1.1-bin.tar.gz下的bin文件夹,包含hive.cmd0 168浏览会员免费
- hive大小:283MB版本2.1.0 apache-atlas-2.1.0-server.tar.gz和apache-atlas-2.1.0-hive-hook.tar.gz版本2.1.0 apache-atlas-2.1.0-server.tar.gz和apache-atlas-2.1.0-hive-hook.tar.gz5 201浏览会员免费
- hive大小:820KBhive的中英文两个版本的函数大全详细介绍hive的中英文两个版本的函数大全详细介绍0 63浏览会员免费
- hive大小:219B课程目录: 第1章:Hive基本架构及环境部署 1.MapReduce分析与SQL分析对比 2.Hive的介绍及其发展 3.Hive的安装部署及启动 4.Hive的基本架构讲解 5.安装MySQL作为元数据库存储 6.配置Hive使用MySQL作为元数据库存储 7.Hive中基本命令的使用 8.Hive中常用的属性配置 9.Hive中常用的交互式命令 10Hive中数据库的管理与使用 11.Hive中表的管理与使用 12.Hive中外部表的使用 第2章:Hive 常用DML、UDF及连接方式 13.Hive中分区表的介绍 14.Hive中分区表的创建及使用 15.Hive中数据导入的6种方式及其应用场景 16.Hive中数据导出的4种方式及表的导入导出 17.Hive中HQL的基本语法(一) 18.Hive中HQL的基本语法(二) 19.Hive中order by、sort by、distribute by与cluster by的使用 20.Hive中分析函数与窗口函数 21.Hive中UDF的介绍 22.Hive中使用自定义UDF实现日期格式转换 23. HiveServer2的介绍及三种连接方式 24.Hive元数据、fetch task和严格模式的介绍 第3章:Sqoop Sqoop及用户行为分析案例 25.CDH版本框架的介绍 26. CDH版本框架的环境部署 27.Sqoop的介绍及其实现原理 28.Sqoop的安装部署及连接测试 29.Sqoop将MySQL数据导入到HDFS(一) 30.Sqoop将MySQL数据导入到HDFS(二) 31.Sqoop中的增量导入与Sqoop job 32.Sqoop将MySQL数据导入Hive表中 33.Sqoop的导出及脚本中使用的方式 34.案例分析-动态分区的实现 35.案例分析-源表的分区加载创建 36.案例分析-指标分析使用Sqoop导出 第4章:Hive复杂用户行为案例分析及优化 37.自动批量加载数据到hive 38.Hive表批量加载数据的脚本实现(一) 39.Hive表批量加载数据的脚本实现(二) 40.HIve中的case when、cast及unix_timestamp的使用 41.复杂日志分析-需求分析 42.复杂日志分析-需求字段讲解及过滤 43.复杂日志分析-字段提取及临时表的创建 44.复杂日志分析-指标结果的分析实现 45.Hive中数据文件的存储格式介绍及对比 46.常见的压缩格式及MapReduce的压缩介绍 47.Hadoop中编译配置Snappy压缩 48.Hadoop及Hive配置支持snappy压缩 49.Hive中的常见调优 50.Hive中的数据倾斜及解决方案-三种join方式 51.Hive中的数据倾斜及解决方案-group by 52.Hive中使用正则加载数据 53. Hive中使用Python脚本进行预处理 第5章:Zeus任务资源调度工具 54.资源任务调度框架介绍 55.企业中常见的任务调度框架 56.Zeus的介绍及基本实现原理 57.Zeus安装部署-基本环境配置 58.Zeus安装部署-配置文件的修改 59.Zeus安装部署-编译打包 60.Zeus平台的调度使用 61.Zeus平台实现任务调度应用(一) 62.Zeus平台实现任务调度应用(二) 63.Zeus平台实现任务调度应用(三)课程目录: 第1章:Hive基本架构及环境部署 1.MapReduce分析与SQL分析对比 2.Hive的介绍及其发展 3.Hive的安装部署及启动 4.Hive的基本架构讲解 5.安装MySQL作为元数据库存储 6.配置Hive使用MySQL作为元数据库存储 7.Hive中基本命令的使用 8.Hive中常用的属性配置 9.Hive中常用的交互式命令 10Hive中数据库的管理与使用 11.Hive中表的管理与使用 12.Hive中外部表的使用 第2章:Hive 常用DML、UDF及连接方式 13.Hive中分区表的介绍 14.Hive中分区表的创建及使用 15.Hive中数据导入的6种方式及其应用场景 16.Hive中数据导出的4种方式及表的导入导出 17.Hive中HQL的基本语法(一) 18.Hive中HQL的基本语法(二) 19.Hive中order by、sort by、distribute by与cluster by的使用 20.Hive中分析函数与窗口函数 21.Hive中UDF的介绍 22.Hive中使用自定义UDF实现日期格式转换 23. HiveServer2的介绍及三种连接方式 24.Hive元数据、fetch task和严格模式的介绍 第3章:Sqoop Sqoop及用户行为分析案例 25.CDH版本框架的介绍 26. CDH版本框架的环境部署 27.Sqoop的介绍及其实现原理 28.Sqoop的安装部署及连接测试 29.Sqoop将MySQL数据导入到HDFS(一) 30.Sqoop将MySQL数据导入到HDFS(二) 31.Sqoop中的增量导入与Sqoop job 32.Sqoop将MySQL数据导入Hive表中 33.Sqoop的导出及脚本中使用的方式 34.案例分析-动态分区的实现 35.案例分析-源表的分区加载创建 36.案例分析-指标分析使用Sqoop导出 第4章:Hive复杂用户行为案例分析及优化 37.自动批量加载数据到hive 38.Hive表批量加载数据的脚本实现(一) 39.Hive表批量加载数据的脚本实现(二) 40.HIve中的case when、cast及unix_timestamp的使用 41.复杂日志分析-需求分析 42.复杂日志分析-需求字段讲解及过滤 43.复杂日志分析-字段提取及临时表的创建 44.复杂日志分析-指标结果的分析实现 45.Hive中数据文件的存储格式介绍及对比 46.常见的压缩格式及MapReduce的压缩介绍 47.Hadoop中编译配置Snappy压缩 48.Hadoop及Hive配置支持snappy压缩 49.Hive中的常见调优 50.Hive中的数据倾斜及解决方案-三种join方式 51.Hive中的数据倾斜及解决方案-group by 52.Hive中使用正则加载数据 53. Hive中使用Python脚本进行预处理 第5章:Zeus任务资源调度工具 54.资源任务调度框架介绍 55.企业中常见的任务调度框架 56.Zeus的介绍及基本实现原理 57.Zeus安装部署-基本环境配置 58.Zeus安装部署-配置文件的修改 59.Zeus安装部署-编译打包 60.Zeus平台的调度使用 61.Zeus平台实现任务调度应用(一) 62.Zeus平台实现任务调度应用(二) 63.Zeus平台实现任务调度应用(三)5 895浏览会员免费
- 大数据大小:89MB大数据资料,自己整理的资料.rar大数据资料,自己整理的资料.rar0 72浏览会员免费
- 大数据大小:2MBtomcat8+memcached session专用jar包tomcat8+memcached session专用jar包0 108浏览会员免费
- hive大小:20MBhive连接驱动hive连接驱动0 157浏览会员免费
- 大数据大小:422KB新建文件夹.rar12345新建文件夹.rar123450 1055浏览会员免费
- hive大小:880MBhive-3.1.2&mysql-5.7.2安装包.rarhive-3.1.2&mysql-5.7.2安装包.rar0 272浏览会员免费
- 大数据大小:108MBhive测试数据hive测试数据0 136浏览会员免费
- 数据采集大小:42MB这个软件是通过scrapy爬虫框架结合代理IP池再加上request模拟请求技术以及验证码识别技术,可以做到日更新采集全国新工商信息。采集的数据自动存储在mysql数据库表里,可下载全量1.8亿多企业工商基本信息和36维度的详细信息.支持sql和excel导出数据包格式。这个软件是通过scrapy爬虫框架结合代理IP池再加上request模拟请求技术以及验证码识别技术,可以做到日更新采集全国新工商信息。采集的数据自动存储在mysql数据库表里,可下载全量1.8亿多企业工商基本信息和36维度的详细信息.支持sql和excel导出数据包格式。0 3289浏览会员免费
- 测试方法大小:1MB基于hive的数据仓库测试如何开展?基于hive的数据仓库测试如何开展?5 2705浏览会员免费
- 大数据大小:102KBhive教程资料.rarhive教程资料.rar0 117浏览会员免费
- Hive练习数据大小:114MB包含两部分数据,一部分是视频的访问记录,一部分是用户的数据信息。包含两部分数据,一部分是视频的访问记录,一部分是用户的数据信息。0 106浏览会员免费
- 大数据大小:516MBLinux下的MySQL和Hive安装包,详细配置请看本人博客安装说明https://blog.csdn.net/qq_38705144/article/details/111731445Linux下的MySQL和Hive安装包,详细配置请看本人博客安装说明https://blog.csdn.net/qq_38705144/article/details/1117314450 122浏览会员免费
- hive大小:273BHive视频教程详解及实战视频教程,课程由浅入深,介绍了Hive基本架构及环境部署,带领大家认识数据仓库Hive的优势及Hive具体使用。并通过企业实际需求分析,讲解HiveQL中的DDL和DML的使用,以及常见的性能优化方案。Hive视频教程详解及实战视频教程,课程由浅入深,介绍了Hive基本架构及环境部署,带领大家认识数据仓库Hive的优势及Hive具体使用。并通过企业实际需求分析,讲解HiveQL中的DDL和DML的使用,以及常见的性能优化方案。1 248浏览会员免费
- pyhive大小:7MB离线环境下pyhive的安装依赖。 python版本:3.8 操作系统:linux 包含:对应版本信息的所有依赖项及一个readme说明文件。离线环境下pyhive的安装依赖。 python版本:3.8 操作系统:linux 包含:对应版本信息的所有依赖项及一个readme说明文件。0 551浏览会员免费
- python大小:8MB项目包含python爬虫,Matplotlib、Echarts数据可视化、Mapreduce、hive数据统计、情感分析、词图云、电影票房与评分预测。项目包含python爬虫,Matplotlib、Echarts数据可视化、Mapreduce、hive数据统计、情感分析、词图云、电影票房与评分预测。0 2080浏览会员免费
- hive大小:110MBhive-1.1.0-cdh5.7.0.tar.gz。下载前请注意,你的Hadoop版本号,要和这个版本号对上,才能用。hive-1.1.0-cdh5.7.0.tar.gz。下载前请注意,你的Hadoop版本号,要和这个版本号对上,才能用。0 493浏览会员免费
- hive大小:784MB官网上的大数据全家桶下载比较慢,这里下载好了供大家使用。包括hive,hadoop,jdk,mysql等安装包官网上的大数据全家桶下载比较慢,这里下载好了供大家使用。包括hive,hadoop,jdk,mysql等安装包0 123浏览会员免费
- RAR大小:140MB可用于检测行人的街头视频.rar可用于检测行人的街头视频.rar0 88浏览会员免费
- Azkaban大小:21MB此Azkaban是在官网上下载后经过编译的,Azkaban安装包版本为3.56.0,包含了依赖包。只需解压即可使用。此Azkaban是在官网上下载后经过编译的,Azkaban安装包版本为3.56.0,包含了依赖包。只需解压即可使用。0 659浏览会员免费
- 大数据大小:72MB电商基本业务数据源:用户基本信息、商品分类信息、商品信息、店铺信息、订单数据、订单支付信息、活动信息、物流信息等电商基本业务数据源:用户基本信息、商品分类信息、商品信息、店铺信息、订单数据、订单支付信息、活动信息、物流信息等0 613浏览会员免费
- Hive大小:35KB该资源比较适合学习Sql语句的人员,该资源比较详细,笔记做的比较好,适合大部分人使用,便于掌握学习,是个很好的学习资源,得到了很多人的认可该资源比较适合学习Sql语句的人员,该资源比较详细,笔记做的比较好,适合大部分人使用,便于掌握学习,是个很好的学习资源,得到了很多人的认可0 95浏览会员免费
- kettle大小:2KBkettle故障中断后采用循环方式重试kettle故障中断后采用循环方式重试0 1399浏览会员免费
- hive大小:126MBSQuirreL连接hive2.1所需的全部jar驱动,给大家分享一下,里面各种jar,满足连接hive条件,需要的老铁可以下载SQuirreL连接hive2.1所需的全部jar驱动,给大家分享一下,里面各种jar,满足连接hive条件,需要的老铁可以下载0 264浏览会员免费
- hive数据大小:98MBguiliVideo.rar谷粒影音项目视频表、用户表。 包含谷粒影音项目的User表74702条用户信息数据和5张video表,每张表都有几百条数据,解压后数据大小总共有238兆,非常适合学习hive和训练大数据项目的人使用guiliVideo.rar谷粒影音项目视频表、用户表。 包含谷粒影音项目的User表74702条用户信息数据和5张video表,每张表都有几百条数据,解压后数据大小总共有238兆,非常适合学习hive和训练大数据项目的人使用0 129浏览会员免费
- azkaban大小:57MBazkaban 编译后tar包。已生产环境使用。 azkaban-db-0.1.0-SNAPSHOT.tar.gz azkaban-exec-server-0.1.0-SNAPSHOT.tar.gz azkaban-hadoop-security-plugin-0.1.0-SNAPSHOT.tar.gz azkaban-solo-server-0.1.0-SNAPSHOT.tar.gz azkaban-web-server-0.1.0-SNAPSHOT.tar.gzazkaban 编译后tar包。已生产环境使用。 azkaban-db-0.1.0-SNAPSHOT.tar.gz azkaban-exec-server-0.1.0-SNAPSHOT.tar.gz azkaban-hadoop-security-plugin-0.1.0-SNAPSHOT.tar.gz azkaban-solo-server-0.1.0-SNAPSHOT.tar.gz azkaban-web-server-0.1.0-SNAPSHOT.tar.gz0 133浏览会员免费
- sqljdbc4-4.jar大小:533KB使用sqoop导入导出hive、sqlserver数据,将此包放到sqoop的lib下即可使用sqoop导入导出hive、sqlserver数据,将此包放到sqoop的lib下即可0 115浏览会员免费
- data大小:32MB针对全国城市五级联动数据进行数据精确到居委会 采集数据格式包括txt csv xlsx三种文本格式 原数据来源于国家统计局 http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2019/index.html hive入库方式 hdfs dfs -put 文件名 hdfs文件路径针对全国城市五级联动数据进行数据精确到居委会 采集数据格式包括txt csv xlsx三种文本格式 原数据来源于国家统计局 http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2019/index.html hive入库方式 hdfs dfs -put 文件名 hdfs文件路径0 294浏览会员免费
- 大数据大小:4MB大数据学习必然不可少的内容,Hive结构及原理和操作使用,希望给需要的同学有些帮助大数据学习必然不可少的内容,Hive结构及原理和操作使用,希望给需要的同学有些帮助0 64浏览会员免费
- IDEA集成Hive需要的包大小:29MBintellij idea集成apache Hive 用到的jar包intellij idea集成apache Hive 用到的jar包0 1182浏览会员免费
- 大数据大小:16MB资源中包含了Sqoop1.4.6安装包,安装配置说明可参考我的博客,如果安装过程中遇到问题可与我联系解决。资源中包含了Sqoop1.4.6安装包,安装配置说明可参考我的博客,如果安装过程中遇到问题可与我联系解决。0 220浏览会员免费
- 大数据大小:145MB资源中包含了Hive1.2.1和Tez0.9.1安装包,安装配置说明可参考我的博客,如果安装过程中遇到问题可与我联系解决。资源中包含了Hive1.2.1和Tez0.9.1安装包,安装配置说明可参考我的博客,如果安装过程中遇到问题可与我联系解决。0 502浏览会员免费
- hive大小:110MBJDBC连接hive所需要的所有jar包,hive版本1.2 很全,共计133个jar包 hadoop-common-2.7.3.jar可以用,hadoop-common-2.6版本不能用JDBC连接hive所需要的所有jar包,hive版本1.2 很全,共计133个jar包 hadoop-common-2.7.3.jar可以用,hadoop-common-2.6版本不能用0 122浏览会员免费
- bpm看板3大小:258KB/user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current//user/root/.Trash/Current/0 68浏览会员免费
- 看板2大小:193KBods_wf_processcategoryods_wf_processcategoryodsods_wf_processcategoryods_wf_processcategoryods0 63浏览会员免费
- 看板1大小:38KBF:\项目归档F:\项目归档0 42浏览会员免费
- hive大小:71MBpart1分卷,需要part2一起解压,得到jar包 part1分卷,需要part2一起解压,得到jar包 part1分卷,需要part2一起解压,得到jar包part1分卷,需要part2一起解压,得到jar包 part1分卷,需要part2一起解压,得到jar包 part1分卷,需要part2一起解压,得到jar包0 66浏览会员免费
- hive大小:150MBpart1分卷,需要part2一起解压,得到jar包 part1分卷,需要part2一起解压,得到jar包 part1分卷,需要part2一起解压,得到jar包part1分卷,需要part2一起解压,得到jar包 part1分卷,需要part2一起解压,得到jar包 part1分卷,需要part2一起解压,得到jar包0 63浏览会员免费
- Hive大小:54KBhivexmlserde-1.0.5.3.jar与配套数据ebay.xml。Hive XML SerDe是一个基于Hive SerDe(序列化/反序列化)框架的XML处理库。它依赖于Apache Mahout项目中的XmlInputFormat,根据特定的开始和结束标记将输入文件分解成XML片段。 XML SerDe的本质其实是使用XPath处理器查询XML片段来填充Hive表。hivexmlserde-1.0.5.3.jar与配套数据ebay.xml。Hive XML SerDe是一个基于Hive SerDe(序列化/反序列化)框架的XML处理库。它依赖于Apache Mahout项目中的XmlInputFormat,根据特定的开始和结束标记将输入文件分解成XML片段。 XML SerDe的本质其实是使用XPath处理器查询XML片段来填充Hive表。0 151浏览会员免费
- hive测试数据集大小:2KBhive 操作相关的测试数据集hivehive 操作相关的测试数据集hive0 626浏览会员免费
- Impala大小:5KB这是一个已经写好编译好现成的udf文件,里面有使用手册,解决impala截取中文与英文并存问题。目前,impala的substr函数及substring函数都不支持中文的截取,因此,需要通过udf函数实现。对于impala udf函数,可以采用C++ 和 Java , 但出于效率考虑,一般采用c++。这是一个已经写好编译好现成的udf文件,里面有使用手册,解决impala截取中文与英文并存问题。目前,impala的substr函数及substring函数都不支持中文的截取,因此,需要通过udf函数实现。对于impala udf函数,可以采用C++ 和 Java , 但出于效率考虑,一般采用c++。0 75浏览会员免费
- hive大小:100MBHadoop执行mapreduce和使用jdbc连接虚拟机所使用的全部maven包(修改maven仓库路径即可使用)Hadoop执行mapreduce和使用jdbc连接虚拟机所使用的全部maven包(修改maven仓库路径即可使用)0 953浏览会员免费
- RAR大小:1MBc#比赛记时软件-PLW.rar c#比赛记时软件-PLW.rarc#比赛记时软件-PLW.rarc#比赛记时软件-PLW.rar c#比赛记时软件-PLW.rarc#比赛记时软件-PLW.rar0 60浏览会员免费