没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论
hadoop 中的文件系统外壳
文件系统(
FS
)外壳程序包括各种类似于外壳程序的命令,这些命令可直接与
Hadoop
分布式文件系统(
HDFS
)以及
Hadoop
支持的其他文件系统(例如本
地
FS
,
WebHDFS
,
S3 FS
等)进行交互。
FS Shell
通过以下方式调用:
bin / hadoop fs <args>
所有 FS Shell 命令都将路径 URI 作为参数。URI 格式为 scheme:// authority /
path。对于 HDFS,方案为 hdfs,对于本地 FS,方案为 file。方案和权限是可
选的。如果未指定,则使用配置中指定的默认方案。可以将 HDFS 文件或目录
(例如/ parent / child)指定为 hdfs:// namenodehost / parent / child 或简单地
指定为/ parent / child(假设您的配置设置为指向 hdfs:// namenodehost)。
FS Shell 中的大多数命令的行为类似于相应的 Unix 命令。每个命令都描述了差
异。错误信息将发送到 stderr,输出将发送到 stdout。
如果使用 HDFS,则 hdfs dfs 是同义词。
可以使用相对路径。对于 HDFS,当前工作目录是 HDFS 主目录/ user / <用户
名>,该目录通常必须手动创建。也可以隐式访问 HDFS 主目录,例如,当使用
HDFS 垃圾文件夹时,主目录中的.Trash 目录。
有关通用外壳程序选项,请参见《命令手册》。
appendToFile
用法:hadoop fs -appendToFile <localsrc> ... <dst>
从本地文件系统附加一个或多个 src 到目标文件系统。还从 stdin 读取输入,并
将其追加到目标文件系统。
hadoop fs -appendToFile 本地文件/ user / hadoop / hadoopfile
hadoop fs -appendToFile localfile1 localfile2 / user / hadoop / hadoopfile
hadoop fs -appendToFile 本地文件 hdfs:
//nn.example.com/hadoop/hadoopfile
hadoop fs -appendToFile-hdfs://nn.example.com/hadoop/hadoopfile 从
标准输入读取输入。
退出代码:
成功返回
0
,错误返回
1
。
猫
用法:hadoop fs -cat [-ignoreCrc] URI [URI ...]
将源路径复制到标准输出。
选件
该-ignoreCrc 选项禁用 checkshum 验证。
例:
hadoop fs -cat hdfs
:
//nn1.example.com/file1 hdfs
:
//nn2.example.com/file2
hadoop fs -cat
文件:
/// file3 / user / hadoop / file4
退出代码:
成功返回
0
,错误返回
-1
。
校验和
用法:
hadoop fs -checksum URI
返回文件的校验和信息。
例:
hadoop fs-校验和 hdfs://nn1.example.com/file1
hadoop fs -checksum 文件:/// etc / hosts
chgrp
用法:hadoop fs -chgrp [-R] GROUP URI [URI ...]
更改文件的组关联。用户必须是文件的所有者,或者是超级用户。其他信息在“ 权
限指南”中。
选件
-R
选项将通过目录结构递归进行更改。
chmod
用法:hadoop fs -chmod [-R] <MODE [,MODE] ... | OCTALMODE> URI
[URI ...]
更改文件的权限。使用-R,通过目录结构递归进行更改。用户必须是文件的所有
者,或者是超级用户。其他信息在“ 权限指南”中。
选件
-R 选项将通过目录结构递归进行更改。
wn
用法:
hadoop fs -chown [-R] [OWNER] [
:
[GROUP]] URI [URI]
更改文件的所有者。该用户必须是超级用户。其他信息在
“
权限指南
”
中。
选件
-R 选项将通过目录结构递归进行更改。
copyFromLocal
用法:hadoop fs -copyFromLocal <localsrc> URI
与 fs -put 命令相似,不同之处在于源仅限于本地文件引用。
选项:
-p
:保留访问和修改时间,所有权和权限。(假设权限可以在文件系统之
间传播)
-f
:如果目的地已经存在,则将其覆盖。
-l
:允许
DataNode
将文件延迟保存到磁盘,将复制因子强制为
1
。此标
志将导致持久性降低。小心使用。
-d
:跳过后缀为
._COPYING_
的临时文件的创建。
copyToLocal
用法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
与 get 命令类似,除了目标仅限于本地文件引用。
计数
用法:hadoop fs -count [-q] [-h] [-v] [-x] [-t [<存储类型>]] [-u] [-e] <路径>
计算与指定文件模式匹配的路径下的目录,文件和字节数。获取配额和使用情况。
具有-count 的输出列是:DIR_COUNT,FILE_COUNT,CONTENT_SIZE,
PATHNAME
-u 和-q 选项控制输出包含哪些列。-q 表示显示配额,-u 将输出限制为仅显示配
额和使用情况。
具有-count -q 的输出列是:QUOTA,REMAINING_QUOTA,SPACE_QUOTA,
REMAINING_SPACE_QUOTA,DIR_COUNT,FILE_COUNT,
CONTENT_SIZE,PATHNAME
具有-count -u 的输出列是:QUOTA,REMAINING_QUOTA,SPACE_QUOTA,
REMAINING_SPACE_QUOTA,PATHNAME
-t 选项显示每种存储类型的配额和使用情况。如果未给出-u 或-q 选项,则-t 选项
将被忽略。可以在-t 选项中使用的可能参数的列表(不区分大小写,但参数“”除
外):“”,“ all”,“ ram_disk”,“ ssd”,“ disk”或“ archive”。
-h 选项以人类可读的格式显示大小。
-v 选项显示标题行。
-x 选项从结果计算中排除快照。如果没有-x 选项(默认值),则总是从所有 INode
(包括给定路径下的所有快照)计算结果。如果指定了-u 或-q 选项,则-x 选项
将被忽略。
-e 选项显示每个文件的擦除编码策略。
具有-count -e 的输出列是:DIR_COUNT,FILE_COUNT,CONTENT_SIZE,
ERASURECODING_POLICY,PATHNAME
ERASURECODING_POLICY 是文件策略的名称。如果在该文件上设置了擦除
编码策略,它将返回该策略的名称。如果未设置擦除编码策略,它将返回“已复
制”,这表示它使用复制存储策略。
例:
hadoop fs -count hdfs://nn1.example.com/file1 hdfs:
//nn2.example.com/file2
hadoop fs -count -q hdfs://nn1.example.com/file1
hadoop fs -count -q -h hdfs://nn1.example.com/file1
hadoop fs -count -q -h -v hdfs://nn1.example.com/file1
hadoop fs -count -u hdfs://nn1.example.com/file1
hadoop fs -count -u -h hdfs://nn1.example.com/file1
hadoop fs -count -u -h -v hdfs://nn1.example.com/file1
hadoop fs -count -e hdfs://nn1.example.com/file1
退出代码:
成功返回 0,错误返回-1。
cp
用法:hadoop fs -cp [-f] [-p | -p [topax]] URI [URI ...] <目标>
将文件从源复制到目标。此命令也允许多个源,在这种情况下,目标必须是目录。
如果(1)源文件系统和目标文件系统支持它们(仅 HDFS),并且(2)所有源
文件路径和目标路径名都在/.reserved/raw 层次结构中,则保留'raw。*'名称空间
扩展属性。确定是否保留 raw。*名称空间 xattrs 与-p(保留)标志无关。
选项:
如果目标已经存在,则
-f
选项将覆盖该目标。
-p
选项将保留文件属性
[topx]
(时间戳,所有权,权限,
ACL
,
XAttr
)。
如果
-p
不带
arg
,则保留时间戳,所有权,权限。如果指定了
-pa
,则还
将保留权限,因为
ACL
是权限的超集。确定是否保留原始名称空间扩展
属性与
-p
标志无关。
例:
hadoop fs -cp /用户/ hadoop /文件 1 /用户/ hadoop /文件 2
hadoop fs -cp /用户/ hadoop /文件 1 /用户/ hadoop /文件 2 /用户/ hadoop
/目录
退出代码:
成功返回 0,错误返回-1。
createSnapshot
请参阅《HDFS 快照指南》。
deleteSnapshot
请参阅《HDFS 快照指南》。
剩余25页未读,继续阅读
资源评论
icysmile131
- 粉丝: 4627
- 资源: 682
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 使用 C++ (VC6.0) 开发的易语言枚举文件子目录支持库(原“辅助调试支持库”).zip
- leetcode 2. 两数相加
- 临时起意使用Java语言编写的简易邮件服务器,包含客户端和服务端,功能基础但够用(无前端).zip
- 数据结构-顺序表的实现代码
- 一款基于`kotlin`语言开发的简单易用的依赖注入框架,拥有较强的扩展性,可以自定义注入器、拦截器 .zip
- LiuShuaiDong:springboot跨域解决方案
- ShardingSphere - 构建异构数据库上层的标准和生态
- 一款以易语言开发的工具箱,基本上框架已经写好,就差一些bat脚本了,放弃了这个软件1年多了,要搞的机子没希望 .zip
- 智慧工地工地扬尘检测数据集VOC+YOLO格式3382张1类别.zip
- 一个非常简单的C,S型易语言程序,可以实现在同一局域网内聊天,并有传文件功能 .zip
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功