HDFS操作命令

作者&投稿:应药 (若有异议请与网页底部的电邮联系)
~

HDFS命令基本格式:hadoop fs -cmd < args >

表格:

注意:以上表格中路径包括hdfs中的路径和linux中的路径。对于容易产生歧义的地方,会特别指出“linux路径”或者“hdfs路径”。如果没有明确指出,意味着是hdfs路径。

HDFS有一个默认的工作目录/user/$USER,其中$USER是用户的登录用户名。不过目录不会自动建立,需要mkdir建立它
命令格式:hadoop fs -mkdir

注意:支持级联创建新目录,Hadoop的mkdir命令会自动创建父目录,类似于带-p的linux命令

put命令从本地文件系统中 复制单个或多个 源路径到目标文件系统,也支持从标准输入设备中读取输入并写入目标文件系统。分为本地上传和上传到HDFS中。
命令格式:hadoop fs -put filename

最后一个参数是句点,相当于放入了默认的工作目录,等价于 hadoop fs -put example.txt /user/chen

上传文件时,文件首先复制到DataNode上,只有所有的DataNode都成功接收完数据,文件上传才是成功的。
命令格式:hadoop dfs put filename newfilename

从本地文件系统中复制单个或多个源路径到目标文件系统。也支持从 标准输入 中读取输入写入目标文件系统。

采用-ls命令列出HDFS上的文件。在HDFS中未带参数的-ls命令没有返回任何值,它默认返回HDFS的home目录下
的内容。在HDFS中,没有当前工作目录这样一个概念,也没有cmd这样的命令。
命令格式:user@NameNode:hadoop$ bin/hadoop dfs -ls
如:

通过“-ls 文件夹名” 命令浏览HDFS下文件夹中的文件
命令格式:hadoop dfs -ls 文件夹名

通过该命令可以查看in文件夹中的所有文档文件

通过“-cat 文件名”命令查看HDFS下文件夹中某个文件的内容
命令格式:hadoop$ bin/hadoop dfs -cat 文件名

通过这个命令可以查看in文件夹中所有文件的内容

通过“-get 文件按1 文件2”命令将HDFS中某目录下的文件复制到本地系统的某文件中,并对该文件重新命名。
命令格式:hadoop dfs -get 文件名 新文件名

-get 命令与-put命令一样,既可以操作目录,也可以操作文件

通过“-rmr 文件”命令删除HDFS下的文件
命令格式:hadoop$ bin/hadoop dfs -rmr 文件

-rmr 删除文档命令相当于delete的递归版本。

通过-format命令实现HDFS格式化
命令格式:user@NameNode:hadoop$ bin/hadoop NameNode -format

通过运行start-dfs.sh,就可以启动HDFS了
命令格式:user@NameNode:hadoop$ bin/ start-dfs.sh

当需要退出HDFS时,通过stop-dfs.sh 就可以关闭HDFS
命令格式:user@NameNode:hadoop$ bin/ stop-dfs.sh

HDFS的命令远不止这些,对于其他操作,可以通过-help commandName 命令列出清单。下面列举一些命令进行说明。

(1)chgrp改变文件所属的组命令
chgrp命令的用途是:更改文件或目录的组所有权。
语法格式:hadoop fs -charg [-R] GROUP URL .....
使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。

(2)chmod改变文件的权限
chmod用于改变文件或目录的访问权限,这个Linux系统管理员最常用的命令之一。
使用方法:hadoop fs -chmod [-R] ...
使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者是超级用户

(3)chown改变文件的拥有者
chown命令改变文件的拥有者。
使用方法:hadoop fs -chown [-R]....
使用-R将使改变在目录结构下递归进行。命令的使用者必须是超级用户。

(4)copyFromLocal命令
除了限定 源路径 是只能是一个 本地文件 外,其他方面和put命令相似。
使用方法:hadoop fs -copyFromLocal <localsrc> URI

(5)copyToLocal命令
除了限定 目标路径 是一个 本地文件 外,其他方面和get命令类似。
使用方法:hadoop fs -copyToLocal {-ignorecrc} {-crc} URI <localdst>

(6)cp命令
cp命令是将文件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。
使用方法:hadoop fs -cp URI [URI....] <dest>

返回值:成功返回0 ,失败返回-1

(7)du命令
du命令显示目录中 所有文件的大小 ,或者当只指定一个文件时,显示此文件的大小
使用方法:hadoop fs -du URI [URI........]

返回值
成功返回0,失败返回-1

(8)dus命令
dus是显示 文件大小 的命令。
使用方法:hadoop fs -dus <args>

(9)expunge命令
expunge是清空回收站的命令
使用方法:hadoop fs -expunge

(10)get命令
get是复制文件到本地文件系统的命令
使用方法:hadoop fs -get [-ignorecrc] [-crc] <localdst>
可用-ignorecrc选项复制CRC校验失败的文件:使用-CRC选项复制文件以及CRC信息。

返回值
成功返回0,失败返回-1

(11)getmerge命令
getmerge命令用于接受一个源目录和一个目标文件作为输入,并且将源目录中所有的文件合并成本地目标文件。
使用方法:hadoop fs -getmerge <src> <localdst> [addnl]
参数说明:addl是可选的,用于指定在每个文件结尾添加一个换行符;

假设在你的hdfs集群上有一个/user/hadoop/output目录
里面有作业执行的结果(多个文件组成)part-000000,part-000001,part-000002

然后就可以在本地使用vi local_file查看内容了

(12)ls命令
ls命令查看当前目录下的信息
使用方法:hadoop fs -ls <args>
如果是 文件 ,则按照如下格式返回文件信息:
文件名 <副本数>文件大小 修改日期 修改时间 权限 用户ID 组ID

如果是 目录 ,则返回它直接子文件的一个列表,就像在UNIX中一样。目录返回i额表的信息如下:
目录名<dir>修改日期 修改时间 权限 用户ID 组ID

返回值
成功返回0,失败返回-1

(13)lsr命令
lsr命令是-ls命令的递归版,类似于UNIX中的ls-r。
使用方法:hadoop fs -lsr <args>

(14)movefromLocal命令
复制一份本地文件到hdfs,当成功后,删除本地文件
使用方法:dfs -moveFromLocal <src> <dst>

(14.5)moveToLocal命令
类似于-get,但是当复制完成后,会删除hdfs上的文件
使用方法:moveToLocal <src> <localDest>

(15)mv命令
将文件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录
使用方法:hadoop fs -mv URI [URI.....] <dest>
备注:不允许在不同的文件系统间移动文件。

返回值
成功返回0,失败返回-1

(16)put 命令
put命令从本地文件系统中复制单个或多个源路径到目标文件系统,也支持从标准输入中读取输入写入目标文件系统
使用方法:hadoop fs -put <localsrc> .... <dst>

(17)rm命令
rm命令删除指定的文件,只删除非空目录和文件。
使用方法:hadoop fs -rm URI [URI......]
请参考rmr命令了解递归删除。

(18)rmr命令
rmr命令是delete命令的递归版本
使用方法:hadoop fs -rmr URI [URI.......]

返回值
成功返回0,失败返回-1

(19)setrep命令
setrep命令可以改变一个文件的副本系数。
使用方法:hadoop fs -setrep [-R] <path>
参数说明:-R 选项用于递归改变目录下所有文件的副本系数

返回值
成功返回0,失败返回-1

(20)stat命令
stat命令用于返回指定路径的统计信息
使用方法:hadoop fs -stat URI [URI......]

返回值
成功返回0,失败返回-1

(21)tail命令
tail命令将文件尾部1KB的内容输出到stdout。支持-f选项,行为和UNIX中一致
使用方法:hadoop fs -tail [-f] URI

返回值
成功返回0,失败返回-1

(22)test命令
test命令是检查命令,可以检查文件是否存在、文件的大小等。
使用方法:hadoop fs -test -[ezd] URI

(23)text命令
text命令用于将源文件输出问文本格式
使用方法:hadoop fs -text <src>
允许的格式是zip和TextRecordInputStream。

(24)touchz 命令
touchz命令用于创建一个0字节的空文件。
使用方法: hadoop fs -touchz URI [URI....]

返回值
成功返回0,失败返回-1




HDFS中根目录下创建user文件夹的命令为
HDFS中根目录下创建user文件夹的命令为hadoop dfs-mkdir。在hdfs中创建一个input文件夹:hadoop fs -mkdir \/input\/1、使用参数-p创建多级目录:hadoop fs -mkdir -p \/input\/file1。拷贝input目录到hdfs系统的时候,不是采用的hadoop用户,而是用root用户执行的拷贝命令。hdfs的特点和目标:1、硬件故障 ...

何时使用hadoop fs,hadoop dfs与hdfs dfs命令
hadoop fs:使用面最广,可以操作任何文件系统。hadoop dfs与hdfs dfs:只能操作HDFS文件系统相关(包括与Local FS间的操作),前者已经Deprecated,一般使用后者。以下内容参考自stackoverflow Following are the three commands which appears same but have minute differences hadoop fs {args} hadoop dfs ...

怎样使用命令行将hdfs上面的目录删除
命令:hadoop fs -rmr \/home\/mm\/lily2(要求是你把hadoop的bin加到PATH中,并开启hadoop) rm -rf \/home\/mm\/lily2(这是删除linux文件系统的文件夹)

...这个命令是什么意思? grep .\/input .\/output 'dfs[a-z.]+' 谁能...
查询文件input output 中的字符串 'dfs[a-z.]+'这个是正则表达式,查询dfs开头的,后面跟1个或1个以上的字母,比如 dfsa dfsb dfsc

系统命令
这些命令在Win95\/98中支持的比较少,只有几个基本常见的,而在NT或者2000中又元元多于上面的介绍,不过大多数对于初学者也没有必要掌握,所以我选择了WindowsME进行介绍,其中最常用到的是NET VIEW和NET USE,通过者两个命令,学习者可以连接网络上开放了远程共享的系统,并且获得资料。这种远程共享本来是为便捷操作设计的,...

hdfs集群默认权限
hdfs创建的目录权限由umask、父目录权限决定 hadoop的umask 与linux的umask类似,umask-mode值为022,默认为创建文件夹为755对应rwxr-xr-x,文件为644对应rw-r--r-- 针对上述问题,设置为000则为777 根据hadoop集群版本,如果是3.x 以前只能通过client的 umask决定,无法通过父目继承 hdfs dfs 命令参考...

开始-运行命今高手进入!
ntmsoprq.msc---移动存储管理员操作请求netstat -an---(TC)命令检查接口syncapp---创建一个公文包sysedit---系统配置编辑器sigverif---文件签名验证程序sndrec32---录音机shrpubw---创建共享文件夹secpol.msc---本地安全策略syskey---系统加密,一旦加密就不能解开,保护windows xp系统的双重密码services.msc---...

我要DOS命令的大全
将用backup命令备份的磁盘中的文件恢复到另一磁盘中,备份磁盘中 应有backup.00X和control.00X这两条文件。 〔用 法〕 restore [备份盘符] [目标盘符] 将备份盘上备份文件恢复到指定盘上 restore \/s 将备份文件包括子目录都恢复到指定盘上 restore \/p 让用户判断是否恢复文件 restore \/b:日期 恢复日期以...

hadoop常用shell命令怎么用
1 hadoop fs -getmerge \/ merge 将本地文件剪切到hdfs,相当于对本地文件上传后再删除(moveFormLocal)1 hadoop fs -moveFromLocal words \/ 查看当前文件系统的使用状态(df)1 hadoop fs -df 二、常用的hdfs命令(这个用的比较多)用法跟hadoop命令一样,推荐2.0之后使用hdfs命令 1 hdfs dfs...

hadoop命令,hadoop dfs –ls 可以既显示文件夹又显示文件吗?
hadoop dfs –ls是显示指定目录下的所有文件以及目录信息,如果指定的是文件,则显示该文件信息

苏尼特左旗18786749440: 哪个命令来获得 hdfs 状态的报告 -
亓田葛根: 命令:hadoop fs -rmr /home/mm/lily2(要求是你把hadoop的bin加到PATH中,并开启hadoop) rm -rf /home/mm/lily2(这是删除linux文件系统的文件夹)

苏尼特左旗18786749440: spark sql怎么操作hdfs 的数据 -
亓田葛根: 默认是从hdfs读取文件,也可以指定sc.textFile("路径").在路径前面加上hdfs://表示从hdfs文件系统上读 本地文件读取 sc.textFile("路径").在路径前面加上file:// 表示从本地文件系统读,如file:///home/user/spark/README.md

苏尼特左旗18786749440: 如何在linux脚本中执行hdfs命令 -
亓田葛根: 首先脚本需要有执行权限 chmod u+x file.sh 执行脚本有三种方法: 1. ./file.sh特点:开启bash子进程来执行,也就是开启额外的进程来进行,不影响原进程的变量、配置等 2. bash file.sh特点:和./file.sh相同 3. source file.sh 或者 . file.sh特点:在原bash进程中执行脚本.第三种方法主要用于在脚本中切换用户su、切换目录cd等命令. source 和 . 命令是相同的. 你可以搜索 source

苏尼特左旗18786749440: 如何将hdfs里某一目录下的所有文件的文件名读取出来 -
亓田葛根: 最近刚刚接触到RobotFramework,发现这个工具倒是可以满足我的要求,而且可以结合seleniumLibrary,用来做web的自动化测试相当不错.之前我也接触过selenium,不过感觉那个工具更贴近开发人员使用,有了robotFramework之后,感觉...

苏尼特左旗18786749440: 何时使用hadoop fs,hadoop dfs与hdfs dfs命令 -
亓田葛根: hadoop fs:使用面最广,可以操作任何文件系统. hadoop dfs与hdfs dfs:只能操作HDFS文件系统相关(包括与Local FS间的操作),前者已经Deprecated,一般使用后者. Following are the three commands which appears same but have ...

苏尼特左旗18786749440: hdfs怎么查看目录路径 -
亓田葛根: 用ls命令, 如果返回一行说明是文件,如果多行则表示目录 hadoop fs -ls $path | grep $path | wc -l

苏尼特左旗18786749440: 如何查看hadoop hdfs文件系统 -
亓田葛根: 使用插件——Hadoop-Eclipse-Plugin 此方法需要借助Eclipse,插件的安装及使用请参考博文. 借助Eclipse只能进行简单的HDFS操作,如查看,删除,上传,下载.以下是操作界面:

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 星空见康网