没有合适的资源?快使用搜索试试~
我知道了~
文库首页
大数据
算法与数据结构
example-hdfs
example-hdfs
共8个文件
xml:5个
java:1个
class:1个
hdfs
需积分: 9
0 下载量
5 浏览量
2019-03-08
17:10:03
上传
评论
收藏
10KB
ZIP
举报
温馨提示
立即下载
example-hdfs用java写的对hsfs操作的代码,使用Apache自带的api
资源详情
资源评论
收起资源包目录
example-hdfs.zip
(8个子文件)
example-hdfs
pom.xml
1004B
example-hdfs.iml
81B
target
classes
com
bigdata
hdfs
TestHDFSClient.class
2KB
generated-sources
annotations
src
test
java
main
resources
java
com
bigdata
hdfs
TestHDFSClient.java
2KB
.idea
misc.xml
526B
encodings.xml
138B
compiler.xml
545B
workspace.xml
10KB
共 8 条
1
评论
收藏
内容反馈
立即下载
评论0
去评论
最新资源
alarmRules.tsx
python 测试python 测试python 测试
基于ThinkPHP V6.*的面向API的后台管理系统设计源码
fastdfs双节点高可用部署(docker)
镇康电气总图(新加弱电管路示意图).DWG
获取文件夹层次结构列表的脚本
落实算法安全主体责任基本情况.docx 已通过审核
使用 XGBoost 分类器来分类电子邮件并进行可视化
c语言.docc语言.doc
通信直流电源设备施工作业指导书.doc
dayaoK
粉丝: 141
资源:
12
私信
上传资源 快速赚钱
前往需求广场,查看用户热搜
相关推荐
c 操作hdfs
通过libhdfs操作hdfs,需要配置好开发环境,makefile中的文件路径根据实际路径修改。
hdfs.pages
第1章 大数据概论 第2章 从Hadoop框架讨论大数据生态 第3章 Hadoop运行环境搭建(开发重点) 第4章 Hadoop运行模式 第5章 Hadoop编译源码
kafka写入hdfs
消费json格式kafka数据再以Parquet格式写入HDFS 每隔10000 ms进行启动一个检查点【设置checkpoint的周期】
hdfs-元数据测试
本文重在探索hdfs分布式文件系统的元数据合并及更新原理。
hdfs explorer
hdfs explorer 安装包
hdfs-inotify-example:HDFS inotify示例
hdfs-inotify-example HDFS iNotify示例 有关iNotify的信息,请参见 ,尤其是幻灯片#16 您必须以hdfs用户身份运行此工具。 Usage: $ java -jar hdfs-inotify-example-uber.jar <HDFS> [] 这是一个快速而肮脏的...
spark-scala-hdfs-docker-example:使用Scala的Spark将文件写入HDFS,并使用Docker“ scale”自动添加新的Spark工人
spark-scala-hdfs-docker-example 使用Scala的Spark可以使用Docker“ scale”自动添加新的Spark工人,从而将文件读/写到HDFS 默认值: 工作区目录位于/ app Jar文件位于/app/app.jar。 主类是app.Main 如果要...
hdfs-test:样本Python HDFS
指示: 1. Install all requirements using: `pip install -r requirements.txt` 2. Create your own config file to edit: `cp config.example.py config.py` 3. Run `python hdfs.py`
hadoopexample.rar_Java编程_Java_
java hadoop examplejava/hadoop範例-hdfs存取、計算字元總數、montecarlo計算
hdfs笔记.txt
启动hadoop:start-dfs.sh,start-yarn.sh 关闭hadoop:stop-dfs.sh,stop-yarn.sh 启动hdfs时可在任意节点,启动yarn得在相应yarn的主节点上执行 hadoop fs -命令(hadoop1.0的时候用的) hdfs dfs -命令(hadoop2.0的时候用的) hadoop/hdfs
hdfs的高可用搭建
关于hdfs的高可用搭建文档,详细介绍了hdfs如何搭建ha
hdfs-site.xml
HA高可用所需要的hdfs-site.xml
hdfs_monitor
可以监控hdfs的多项指标及入库mysql,需要先对mysql建表,支持入Influence;CREATE TABLE `nihao` ( `dt` datetime DEFAULT NULL, `AddBlockNumOps` bigint(20) DEFAULT NULL, `BlockReceivedAndDeletedNumOps` bigint(20) DEFAULT NUL
hdfs.dll hdfs.lib
hadoop的hdfs系统 开发vc++客户端使用 hadoop版本 2.6.0
5星 · 资源好评率100%
kafka-consumer-example
kafka-consumer-example文件目录结构 src/main/java下包含两个工程。 一个是consumer_local,消费你的kafka topic中的消息,并写入指定的本地文件中。 一个是consumer_hdfs,消费你的kafka topic中的消息,并写入指定...
hadoop-example:Hadoop MapReduce示例
hdfs dfs -rm -r / user / huangzehai / wordcount / output hadoop jar target / hadoop-example-1.0-SNAPSHOT.jar huangzehai.mr.wordcout.WordCount / user / huangzehai / wordcount / input / user / ...
geomesa-learn-example.zip
集成GeoMesa的数据读写,空间分析等能力,数据读写支持本地文件,HDFS文件,HBase,S3,Postgis等能力,分析包括切割分析,并集分析,缓存区分析等能力
5星 · 资源好评率100%
geotrellis-learn-example.zip
GeoTrellis学习案例,包含了基于HDFS,S3,Local等栅格数据的读写,而且包含了丰富的分析算子,包含唯值分析,最大值最小值分析,汇总分析,核密度算法等。
Parquet-Hbase-bulkload-Put-Buffered-example:通过使用 WAL 和缓冲的 Put 从 Hdfs 文件中摄取 HBase 记录
通过使用 WAL 和缓冲的 Put 从 Hdfs 文件中摄取 HBase 记录 通过 WAL(使用 Put)将具有 PARQUET 格式的 hdfs 文件加载到 Hbase 的包。 该包基于仅使用 Mapper 加载表。 很快我将添加如何使用 reducer 以及使用 MR ...
hdfs命令大全
hdfs命令大全速查手册,平时工作整理,方便快捷!!!
hdfs balancer
hadoop hdfs balancer数据均衡,在集群扩容或数据缺失的情况下,可以重新均衡数据
hadoop-hdfs.pdf
亲手整理的hdfs面试题,不是从网上粘贴的,仅此一份。
hdfs写原理
hdfs写的原理,描述客户端如何将数据写的hdfs中的详细过程
hdfs安装手册
hdfs安装手册
4星 · 用户满意度95%
inverted-index-mapreduce:倒排索引的Mapreduce代码
将输入文件复制到 HDFS hadoop fs -copyFromLocal $HOME/sampleInput.txt /sampleInput.txt 执行 MapReduce 作业 hadoop jar /target/inverted-index-example-1.0.jar ...
pyhdfs:Python HDFS客户端
HdfsClient ( hosts = 'nn1.example.com:50070,nn2.example.com:50070' , user_name = 'someone' ) >> > fs . list_status ( '/' ) [ FileStatus ( pathSuffix = 'benchmarks' , permission = '777' , typ
Elasticsearch for Hadoop
Configuring hdfs-site.xml Configuring yarn-site.xml Configuring mapred-site.xml The format distributed filesystem Starting Hadoop daemons Setting up Elasticsearch Downloading Elasticsearch ...
hadoop-example
Hadoop 示例确保Makefile中的路径正确: HADOOP = hadoopHDFS = hdfsYARN = yarnTEST_DIR = /janzhou-hadoop-example编译 make准备测试数据 make prepare运行测试 make test结果位于test/result在本地。清理所有文件...
datastax-syncing-example
SparkSync 作业负责验证 HDFS 中的一些数据并更新 DSE/Cassandra 中的相应行。 您需要下载 users.csv 并将其放入 src/main/resources 文件夹注意这是 188MB - 这个演示假设你已经安装了 dse4.6 并可以访问 hdfs ...
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0
最新资源