- taxi大小:11MB出租车轨迹数据,可以用于大数据轨迹数据分析实验,可以用来分析出租车轨迹数据,可以用于大数据轨迹数据分析实验,可以用来分析5 4410浏览会员免费
- 数据可视化大小:50MB在原网传的工具基础上修改配置文件,实现HBase的数据查询功能在原网传的工具基础上修改配置文件,实现HBase的数据查询功能5 2144浏览会员免费
- ZIP大小:138MBHBase应用架构 [美] 吉恩-马克·斯帕加里(Jean-Marc Spaggiari) 著,陈敏敏 夏锐 陈其生 译HBase应用架构 [美] 吉恩-马克·斯帕加里(Jean-Marc Spaggiari) 著,陈敏敏 夏锐 陈其生 译5 416浏览会员免费
- 高铁shp文件大小:11MB16年出行数据,高铁以及铁路数据,文件为shp格式,用cad打开就行16年出行数据,高铁以及铁路数据,文件为shp格式,用cad打开就行0 1449浏览会员免费
- Sqoop大小:82KBrunning sqoop:java.lang.NullpointerException问题解决running sqoop:java.lang.NullpointerException问题解决2 761浏览会员免费
- 供词分析大小:7MB文献综述,知识图谱,12345678910,woxihuanfangdanshaonian文献综述,知识图谱,12345678910,woxihuanfangdanshaonian4 2431浏览会员免费
- MIPS32位大小:952KBMIPS32位单周期CPU 32位MIPS单周期CPU 可以实现16条指令MIPS32位单周期CPU 32位MIPS单周期CPU 可以实现16条指令4 1218浏览会员免费
- HBase大小:2MBHBase官方文档中文版-HBase官方手册中文版.HBase官方文档中文版-HBase官方手册中文版.0 1473浏览会员免费
- Presto大小:165MBPresto技术内幕Presto技术内幕4 762浏览会员免费
- IKAnalyzer大小:2MBIKAnalyzer分词器版本 2012 兼容Lucene3.3以上版本 对solr1.4提供接口实现 使用IK分词器,应为该集群使用到的solr版本为4.10.3-cdh5.7.5,所以使用的 IK 包为IKAnalyzer2012FF_u1.jar,如果是3x的solr,使用IKAnalyzer2012_u6.jar 具体操作如下: 引用 1.在/opt/cloudera/parcels/CDH/lib/solr/webapps/solr/WEB-INF创建classes目录 2.把IKAnalyzer.cfg.xml 和 stopword.dic添加到classes目录 3.把IKAnalyzer2012FF_u1.jar添加到/opt/cloudera/parcels/CDH/lib/solr/webapps/solr/WEB-INF/lib目录 4.修改 /opt/cdhsolr/fuser/conf/schema.xml文件,在其中添加 <!--配置IK分词器--> 引用 <fieldType name="text_ik" class="solr.TextField"> <!--索引时候的分词器--> <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/> <!--查询时候的分词器--> <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/> </fieldType>IKAnalyzer分词器版本 2012 兼容Lucene3.3以上版本 对solr1.4提供接口实现 使用IK分词器,应为该集群使用到的solr版本为4.10.3-cdh5.7.5,所以使用的 IK 包为IKAnalyzer2012FF_u1.jar,如果是3x的solr,使用IKAnalyzer2012_u6.jar 具体操作如下: 引用 1.在/opt/cloudera/parcels/CDH/lib/solr/webapps/solr/WEB-INF创建classes目录 2.把IKAnalyzer.cfg.xml 和 stopword.dic添加到classes目录 3.把IKAnalyzer2012FF_u1.jar添加到/opt/cloudera/parcels/CDH/lib/solr/webapps/solr/WEB-INF/lib目录 4.修改 /opt/cdhsolr/fuser/conf/schema.xml文件,在其中添加 <!--配置IK分词器--> 引用 <fieldType name="text_ik" class="solr.TextField"> <!--索引时候的分词器--> <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/> <!--查询时候的分词器--> <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/> </fieldType>5 457浏览会员免费
- phoenix大小:126KBspringboot整合mybties利用xml和注解两种方式操作phoenix,连接池使用比较快的HikariCP,通过实体类对应的增删改查等方法操作hbase的表,使用分页,这个东西有点新,网上一直没找到,就自己写了一个springboot整合mybties利用xml和注解两种方式操作phoenix,连接池使用比较快的HikariCP,通过实体类对应的增删改查等方法操作hbase的表,使用分页,这个东西有点新,网上一直没找到,就自己写了一个5 766浏览会员免费
- zookeeper大小:9MBzookeeper官方文档 zookeeper zookeeper集群 zookeeper介绍zookeeper官方文档 zookeeper zookeeper集群 zookeeper介绍0 142浏览会员免费
- hbase大小:67MB本代码是java链接并对hbase进行增删改查操作的实例代码,并包括批量插入,范围查询等,并包含所需jar包.本代码是java链接并对hbase进行增删改查操作的实例代码,并包括批量插入,范围查询等,并包含所需jar包.4 423浏览会员免费
- hbase大小:2MBHbase的图形化界面,很好用,漂亮的界面,完善的功能。Hbase的图形化界面,很好用,漂亮的界面,完善的功能。0 161浏览会员免费
- hbase大小:62MBhbase可视化客户端 类似PL/SQL,是一个HBase数据库的客户端数据管理软件。 1: put支持中文 2: 支持文件形式的批量put命令执行 3: 支持扫描目录下所有文件的批量put命令执行 4: 支持put命令字符的执行 5: 支持文件编码自动识别 6: 支持图形化界面管理hbase可视化客户端 类似PL/SQL,是一个HBase数据库的客户端数据管理软件。 1: put支持中文 2: 支持文件形式的批量put命令执行 3: 支持扫描目录下所有文件的批量put命令执行 4: 支持put命令字符的执行 5: 支持文件编码自动识别 6: 支持图形化界面管理3 2727浏览会员免费
- springboot大小:276KBspringboot连接hbase工程示例。服务端采用微服务框架springboot,是要phoenix连接hbasespringboot连接hbase工程示例。服务端采用微服务框架springboot,是要phoenix连接hbase3 228浏览会员免费
- IT十八掌大小:749KBIT十八掌大数据第三期配套课堂笔记! 1 、HBase的特点 2 、HBase访问接口 3 、HBase存储结构与格式 4 、HBase设计 5 、关键算法和流程 6 、HBase安装 7、HBase的Shell操作 8、HBase客户端IT十八掌大数据第三期配套课堂笔记! 1 、HBase的特点 2 、HBase访问接口 3 、HBase存储结构与格式 4 、HBase设计 5 、关键算法和流程 6 、HBase安装 7、HBase的Shell操作 8、HBase客户端1 197浏览会员免费
- waterdrop大小:38MB大数据连接工具 waterdrop 64位,希望对大家有帮助 。大数据连接工具 waterdrop 64位,希望对大家有帮助 。0 5180浏览会员免费
- java-json.ja大小:80KB报错空指针,且提示json错误时,将此jar包放到hbase/lib和sqoop/lib 中,可解决问题报错空指针,且提示json错误时,将此jar包放到hbase/lib和sqoop/lib 中,可解决问题5 586浏览会员免费
- HBase大小:42MBHBase权威指南中文版 高清版的 HBase权威指南中文版 高清版的HBase权威指南中文版 高清版的 HBase权威指南中文版 高清版的5 98浏览会员免费
- Linux系统大小:267KBLinux系统CSI设备驱动开发-2012.1.30 Linux系统CSI设备驱动开发-2012.1.30Linux系统CSI设备驱动开发-2012.1.30 Linux系统CSI设备驱动开发-2012.1.300 552浏览会员免费
- phoeni大小:183KBspringboot + mybaties + phoenix + HikariCP。 springboot + mybaties + phoenix + HikariCP 整合项目。 springboot整合mybties操作phoenix,连接池使用比较快的HikariCP,通过实体类对应的增删改查等方法操作hbase的表,使用分页,这个东西有点新,网上一直没找到,就自己写了一个 phoenix hbase mybaties springboot springspringboot + mybaties + phoenix + HikariCP。 springboot + mybaties + phoenix + HikariCP 整合项目。 springboot整合mybties操作phoenix,连接池使用比较快的HikariCP,通过实体类对应的增删改查等方法操作hbase的表,使用分页,这个东西有点新,网上一直没找到,就自己写了一个 phoenix hbase mybaties springboot spring3 732浏览会员免费
- phoenix大小:5MBhttp://www.apache.org/dist/phoenix/apache-phoenix-4.14.0-cdh5.13.2/parcels/ 请自行跳转至 官方下载对应parcelshttp://www.apache.org/dist/phoenix/apache-phoenix-4.14.0-cdh5.13.2/parcels/ 请自行跳转至 官方下载对应parcels4 310浏览会员免费
- hbase大小:15KBHbase和Hadoop JMX监控实战Hbase和Hadoop JMX监控实战5 1490浏览会员免费
- Hbase大小:90KB默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入数据的时候,所有的HBase客户端都向这一个region写数据,直到这个region足够大了才进行切分。 一种可以加快批量写入速度的方法是通过预先创建一些空的regions,这样当数据写入HBase时,会按照region分区情况,在集群内做数据的负载均衡。默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入数据的时候,所有的HBase客户端都向这一个region写数据,直到这个region足够大了才进行切分。 一种可以加快批量写入速度的方法是通过预先创建一些空的regions,这样当数据写入HBase时,会按照region分区情况,在集群内做数据的负载均衡。4 251浏览会员免费
- hbase大小:16MB项目主要是hbase的javaweb实现,实现了hbase的增,删,改,查等相关功能。项目主要是hbase的javaweb实现,实现了hbase的增,删,改,查等相关功能。5 748浏览会员免费
- habse大小:71MB使用Hbase协作器(Coprocessor)同步数据到ElasticSearch(hbase 版本 1.2.0-cdh5.8.0, es 2.4.0 版本)源代码使用Hbase协作器(Coprocessor)同步数据到ElasticSearch(hbase 版本 1.2.0-cdh5.8.0, es 2.4.0 版本)源代码0 536浏览会员免费
- phoenix大小:124KBspringboot整合mybties操作phoenix,连接池使用比较快的HikariCP,通过实体类对应的增删改查等方法操作hbase的表,使用分页,这个东西有点新,网上一直没找到,就自己写了一个springboot整合mybties操作phoenix,连接池使用比较快的HikariCP,通过实体类对应的增删改查等方法操作hbase的表,使用分页,这个东西有点新,网上一直没找到,就自己写了一个5 489浏览会员免费
- MapReduce大小:3MB在hadoop集群搭建完毕之后,可以对sougou.500w.utf数据进行分析处理,用MapReduce和Hive两种操作对所需要求的管理下得到想要看到的结果,下载压缩包里有源码,截图,文档及数据要求在hadoop集群搭建完毕之后,可以对sougou.500w.utf数据进行分析处理,用MapReduce和Hive两种操作对所需要求的管理下得到想要看到的结果,下载压缩包里有源码,截图,文档及数据要求3 486浏览会员免费
- hbase大小:76MBhbase不睡觉书,高清版,本人也是从其他码友处下载的,感觉写的很不错,对Hbase性能调优,以及性能影响分析很详细。与大家分享hbase不睡觉书,高清版,本人也是从其他码友处下载的,感觉写的很不错,对Hbase性能调优,以及性能影响分析很详细。与大家分享0 0浏览会员免费
- 学生成绩大小:16MB学生成绩管理系统 学生成绩管理系统学生成绩管理系统 学生成绩管理系统学生成绩管理系统 学生成绩管理系统学生成绩管理系统 学生成绩管理系统0 735浏览会员免费
- hbase大小:19MB找不到或无法加载主类org.jruby.Main。 原因是/usr/local/hbase/lib 目录下没有jruby-complete-1.7.19.jar文件.,下载本文件,解压缩后将jar文件直接添加到/usr/local/hbase/lib 目录下。找不到或无法加载主类org.jruby.Main。 原因是/usr/local/hbase/lib 目录下没有jruby-complete-1.7.19.jar文件.,下载本文件,解压缩后将jar文件直接添加到/usr/local/hbase/lib 目录下。0 1187浏览会员免费
- hbase大小:34KB这是hbase对数据存储的代码实现,让你轻松秒懂hbase,这是hbase对数据存储的代码实现,让你轻松秒懂hbase,5 856浏览会员免费
- 大数据大小:76MB大数据【经典书籍】:HBase不睡觉书 带目录(高清)【608页】大数据【经典书籍】:HBase不睡觉书 带目录(高清)【608页】0 0浏览会员免费
- hbase大小:108MB本资源为hbase的安装和使用,内含hbase安装工具包,hbase的安装说明,hbase的使用说明 。本资源为hbase的安装和使用,内含hbase安装工具包,hbase的安装说明,hbase的使用说明 。0 1222浏览会员免费
- phoenix大小:76MBphoenix +hbase+spring 整合技术 phoenix +hbase+spring 整合技术 phoenix +hbase+spring 整合技术 根据需要 下载 集成的jar phoenix-core-4.13.0-HBase-0.98.jarphoenix +hbase+spring 整合技术 phoenix +hbase+spring 整合技术 phoenix +hbase+spring 整合技术 根据需要 下载 集成的jar phoenix-core-4.13.0-HBase-0.98.jar5 164浏览会员免费
- hbase-hive大小:439KB通过条件查询hbase数据导出csv,文本,html等文件,实现方式:将hbase关联hive,然后将hive数据导入真实表,在将真实表数据导入sql数据库通过条件查询hbase数据导出csv,文本,html等文件,实现方式:将hbase关联hive,然后将hive数据导入真实表,在将真实表数据导入sql数据库0 2316浏览会员免费
- hbase大小:129MB自己公司集群用的hbase安装包,因为项目比较多,因此需要经常搭建集群,放到这里,以自用。自己公司集群用的hbase安装包,因为项目比较多,因此需要经常搭建集群,放到这里,以自用。2 526浏览会员免费
- 大数据大小:3MB面试大数据岗位的时候,和面试官谈话过程的全程录音,在准备面试过程中,有较大的帮助,所以分享面试大数据岗位的时候,和面试官谈话过程的全程录音,在准备面试过程中,有较大的帮助,所以分享0 145浏览会员免费
- hbase大小:80KB出现此问题时使用:java.lang.NullPointerException at org.json.JSONObject.<init>(JSONObject.java:144) at org.apache.sqoop.util.SqoopJsonUtil.getJsonStringforMap(SqoopJsonUtil.java:43) at org.apache.sqoop.SqoopOptions.writeProperties(SqoopOptions.java:784) at org.apache.sqoop.mapreduce.JobBase.putSqoopOptionsToConfiguration(JobBase.java:392) at org.apache.sqoop.mapreduce.JobBase.createJob(JobBase.java:378) at org.apache.sqoop.mapreduce.ImportJobBase.runImport(ImportJobBase.java:256) at org.apache.sqoop.manager.SqlManager.importQuery(SqlManager.java:748) at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:515) at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:621) at org.apache.sqoop.Sqoop.run(Sqoop.java:147) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70) at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:183) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:234) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243) at org.apache.sqoop.Sqoop.main(Sqoop.java:252)出现此问题时使用:java.lang.NullPointerException at org.json.JSONObject.<init>(JSONObject.java:144) at org.apache.sqoop.util.SqoopJsonUtil.getJsonStringforMap(SqoopJsonUtil.java:43) at org.apache.sqoop.SqoopOptions.writeProperties(SqoopOptions.java:784) at org.apache.sqoop.mapreduce.JobBase.putSqoopOptionsToConfiguration(JobBase.java:392) at org.apache.sqoop.mapreduce.JobBase.createJob(JobBase.java:378) at org.apache.sqoop.mapreduce.ImportJobBase.runImport(ImportJobBase.java:256) at org.apache.sqoop.manager.SqlManager.importQuery(SqlManager.java:748) at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:515) at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:621) at org.apache.sqoop.Sqoop.run(Sqoop.java:147) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70) at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:183) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:234) at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243) at org.apache.sqoop.Sqoop.main(Sqoop.java:252)0 994浏览会员免费
- hbase大小:5KB博客文档:https://phoenix.blog.csdn.net/article/details/131457322博客文档:https://phoenix.blog.csdn.net/article/details/1314573220 149浏览免费
- 清除网页上的所有广告.crx大小:5MBGoogle翻译插件.crx 捕捉网页截图,编辑并将它们保存为PDF.crx 节省高达95%的内存,并减轻标签页混乱现象.crx 可以强行复制网页文字(例如百度文库) .crx 清除网页上的所有广告.crx 最新强大油猴插件扩展程序图标 Tampermonkey4.9.crxGoogle翻译插件.crx 捕捉网页截图,编辑并将它们保存为PDF.crx 节省高达95%的内存,并减轻标签页混乱现象.crx 可以强行复制网页文字(例如百度文库) .crx 清除网页上的所有广告.crx 最新强大油猴插件扩展程序图标 Tampermonkey4.9.crx5 617浏览会员免费
- java大小:17MBjava客户端连接hbase所需要的最少的jar包集合,这个我用的hbase1.2.1的,大家用的版本可能是有稍许的差别(但是这个jar包应该可以用),不过所需要的包名是一样的,只是版本不一样而已,可以根据具体的需要修改为相应的版本。java客户端连接hbase所需要的最少的jar包集合,这个我用的hbase1.2.1的,大家用的版本可能是有稍许的差别(但是这个jar包应该可以用),不过所需要的包名是一样的,只是版本不一样而已,可以根据具体的需要修改为相应的版本。0 234浏览会员免费
- protobuf大小:1MBprotobuf是google 的一种数据交换的格式,它独立于语言,独立于平台。google 提供了多种语言的实现:java、c#、c++、go 和 python,每一种实现都包含了相应语言的编译器以及库文件。由于它是一种二进制的格式,比使用 xml 进行数据交换快许多。可以把它用于分布式应用之间的数据通信或者异构环境下的数据交换。作为一种效率和兼容性都很优秀的二进制数据传输格式,可以用于诸如网络传输、配置文件、数据存储等诸多领域。protobuf是google 的一种数据交换的格式,它独立于语言,独立于平台。google 提供了多种语言的实现:java、c#、c++、go 和 python,每一种实现都包含了相应语言的编译器以及库文件。由于它是一种二进制的格式,比使用 xml 进行数据交换快许多。可以把它用于分布式应用之间的数据通信或者异构环境下的数据交换。作为一种效率和兼容性都很优秀的二进制数据传输格式,可以用于诸如网络传输、配置文件、数据存储等诸多领域。0 247浏览会员免费
- hbase大小:86KBPhoenix Hbase springjdbc整合 demo Phoenix最早是saleforce的一个开源项目,后来成为Apache基金的顶级项目。 Phoenix是构建在HBase上的一个SQL层,能让我们用标准的JDBC APIs而不是HBase客户端APIs来创建表,插入数据和对HBase数据进行查询。Phoenix Hbase springjdbc整合 demo Phoenix最早是saleforce的一个开源项目,后来成为Apache基金的顶级项目。 Phoenix是构建在HBase上的一个SQL层,能让我们用标准的JDBC APIs而不是HBase客户端APIs来创建表,插入数据和对HBase数据进行查询。0 412浏览会员免费
- 多维数据大小:65MBsaiku源码,Saiku是一个模块化分析套件,提供轻量级OLAP,易于嵌入,可扩展和可配置。Saiku RESTful服务器连接到现有的OLAP系统,通过我们基于轻量级JQuery的前端为用户友好,直观的分析提供支持。saiku源码,Saiku是一个模块化分析套件,提供轻量级OLAP,易于嵌入,可扩展和可配置。Saiku RESTful服务器连接到现有的OLAP系统,通过我们基于轻量级JQuery的前端为用户友好,直观的分析提供支持。4 600浏览会员免费
- 大数据大小:1MB全面描述大数据列式存储HBase知识,涵盖概念、架构、工作原理、Hbase优化、读写流程、系统优化等方面。本思维导图内容全面,同时对Flush、compaction工作原理进行深度总结。是个非常不错的资源!全面描述大数据列式存储HBase知识,涵盖概念、架构、工作原理、Hbase优化、读写流程、系统优化等方面。本思维导图内容全面,同时对Flush、compaction工作原理进行深度总结。是个非常不错的资源!0 302浏览会员免费
- Google大小:1MB关于 Google Protocol Buffer的2.5.jar和 proto.exe 和IDEA的Proto插件。在开发中可以让你们省很多时间,直接通过IDEA编译Proto文件,超级方便关于 Google Protocol Buffer的2.5.jar和 proto.exe 和IDEA的Proto插件。在开发中可以让你们省很多时间,直接通过IDEA编译Proto文件,超级方便1 380浏览会员免费
- java代码大小:2KB本代码是java链接hbase数据库并对hbase进行增删改查操作的实例代码,包括批量操作本代码是java链接hbase数据库并对hbase进行增删改查操作的实例代码,包括批量操作0 604浏览会员免费
- BigData,大小:41MBHBase权威指南,PDF电子书籍 资源只用于学习,如有版权问题,请联系删除HBase权威指南,PDF电子书籍 资源只用于学习,如有版权问题,请联系删除5 88浏览会员免费
- HBase大小:12MBHBase与关系数据库的关系以及其它NoSQL的关系 HBase的Java API编程接口 HBase的表设计、行键设计等 在非Java语言中使用HBase HBase的使用场景,与MongoDB、Redis、Memcache的区分HBase与关系数据库的关系以及其它NoSQL的关系 HBase的Java API编程接口 HBase的表设计、行键设计等 在非Java语言中使用HBase HBase的使用场景,与MongoDB、Redis、Memcache的区分5 144浏览会员免费
- 大数据大小:3MB1.理解四种数据库(MySQL,HBase,Redis,MongoDB)的概念以及不同点;2.熟练使用四种数据库操作常用的Shell命令;3.熟悉四种数据库操作常用的Java API。1.理解四种数据库(MySQL,HBase,Redis,MongoDB)的概念以及不同点;2.熟练使用四种数据库操作常用的Shell命令;3.熟悉四种数据库操作常用的Java API。0 464浏览会员免费
- flume大小:577KBhttp://blog.csdn.net/m0_37739193/article/details/78779052这篇文章中所需的代码http://blog.csdn.net/m0_37739193/article/details/78779052这篇文章中所需的代码0 243浏览会员免费
- hue大小:101MBhue搭建。。hue搭建。。0 251浏览会员免费
- MATLAB大小:15MBMATLAB数据分析与挖掘实战 MATLAB数据分析与挖掘实战 vMATLAB数据分析与挖掘实战 MATLAB数据分析与挖掘实战 v0 0浏览会员免费
- hbase大小:21MBhbase_lib,在Linux系统中解压后,配置环境变量HBASE_HOMEhbase_lib,在Linux系统中解压后,配置环境变量HBASE_HOME0 288浏览会员免费
- HBASE大小:100MBHBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。0 453浏览会员免费
- python大小:26KBpython3连接hbase1.2.x所需的hbase连接库基于python3语法的修改版python3连接hbase1.2.x所需的hbase连接库基于python3语法的修改版0 203浏览免费
- hbase大小:126MBhbase-2.0.5-bin.tar.gz 辛苦找的资源,可以使用,希望能够帮助你~hbase-2.0.5-bin.tar.gz 辛苦找的资源,可以使用,希望能够帮助你~0 267浏览会员免费
- 大数据大小:51MB大数据开发学习指南与数据分析案例,这里面有大数据工程师必读手册 像阿里巴巴一样玩转大数据,数据分析案例实战:企业级数据分析案例实战、趣味生活类数据分析项目、数据分析 Python 应用实战、数据分析 Tableau 应用实战大数据开发学习指南与数据分析案例,这里面有大数据工程师必读手册 像阿里巴巴一样玩转大数据,数据分析案例实战:企业级数据分析案例实战、趣味生活类数据分析项目、数据分析 Python 应用实战、数据分析 Tableau 应用实战0 5422浏览会员免费