没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论




















一、Hadoop 部分
文件系统 Shell
调用文件系统(FS)Shell 命令应使用bin/hadoop fs <args>的形式。所有的的 FS shell 命令使用
URI 路径作为参数。URI 格式是 scheme://authority/path。对 HDFS 文件系统,scheme 是 hdfs,对
本地文件系统,scheme 是 le。其中 scheme 和 authority 参数都是可选的,如果未加指定,就会使用
配置中指定的默认 scheme。一个 HDFS 文件或目录比如/parent/child 可以表示成 hdfs://
namenode:namenodeport/parent/child,或者更简单的/parent/child(假设你配置文件中的默认值
是 namenode:namenodeport)。大多数 FS Shell 命令的行为和对应的 Unix Shell 命令类似,不同之
处会在下面介绍各命令使用详情时指出。出错信息会输出到 stderr,其他信息输出到 stdout。
cat
使用方法:hadoop fs -cat URI [URI …]
将路径指定文件的内容输出到 stdout。
示例:
hadoop fs -cat hdfs://host1:port1/file1 hdfs://host2:port2/file2
hadoop fs -cat file:///file3 /user/hadoop/file4
返回值:
成功返回 0,失败返回-1。
chgrp
使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …]Change group association of
les. With-R, make the change recursively through the directory structure. The user must
be the owner of les, or else a super-user. Additional information is in thePermissions User
Guide. -->
改变文件所属的组。使用-R 将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超
级用户。更多的信息请参见 HDFS
权限用户指南 。

chmod
使用方法:hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI
…]
改变文件的权限。使用-R 将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级
用户。更多的信息请参见 HDFS
权限用户指南 。
chown
使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
改变文件的拥有者。使用-R 将使改变在目录结构下递归进行。命令的使用者必须是超级用户。更多的信
息请参见 HDFS
权限用户指南 。
copyFromLocal
使用方法:hadoop fs -copyFromLocal <localsrc> URI
除了限定源路径是一个本地文件外,和 put 命令相似。
copyToLocal
使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
除了限定目标路径是一个本地文件外,和 get 命令类似。
cp
使用方法:hadoop fs -cp URI [URI …] <dest>
将文件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。
示例:
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
返回值:
成功返回 0,失败返回-1。
du
使用方法:hadoop fs -du URI [URI …]

显示目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。
示例:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1
hdfs://host:port/user/hadoop/dir1
返回值:
成功返回 0,失败返回-1。
dus
使用方法:hadoop fs -dus <args>
显示文件的大小。
expunge
使用方法:hadoop fs -expunge
清空回收站。请参考 HDFS
设计 文档以获取更多关于回收站特性的信息。
get
使用方法:hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>
复制文件到本地文件系统。可用-ignorecrc 选项复制 CRC 校验失败的文件。使用-crc 选项复制文件
以及 CRC 信息。
示例:
hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://host:port/user/hadoop/file localfile
返回值:
成功返回 0,失败返回-1。
getmerge
使用方法:hadoop fs -getmerge <src> <localdst> [addnl]
接受一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl 是
可选的,用于指定在每个文件结尾添加一个换行符。
ls
使用方法:hadoop fs -ls <args>
剩余12页未读,继续阅读
资源评论


renhang888
- 粉丝: 0
- 资源: 6
上传资源 快速赚钱
我的内容管理 展开
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助


最新资源
- 计算机工程与应用期刊写作模块(最新)
- jsp 查看页显示图片(使用a标签的形式)
- n_objectracker.m
- gin-demo我自己写的gindemo
- 2023-加速度-DevOps-状态报告-中国DevOps社区版
- Framework-CoreKit-2023.12.07.unitypackage
- Rsync+Sersync
- rustdesk-1.2.3-aarch64-signed.apk.1
- ee240课程,基于斯坦福A Basic Introduction to the gm ID-Based Design
- R214-0762(III)SG-2-D-20231130连廊补三四层变更_t3.dwg
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈



安全验证
文档复制为VIP权益,开通VIP直接复制
