Linux基本用法(基于Xshell5&Xftp5,hadoop)

来源:互联网 发布:数据脱敏方式 编辑:程序博客网 时间:2024/06/05 22:42

(1)ls:查看当前目录下文件(夹)

这里写图片描述

(2)ls XX* :通配符*,查看当前目录下以XX开头的匹配文件

这里写图片描述

(3)cd XX:将目录切换到XX文件夹下

这里写图片描述

(4)vim XX.txt:查看XX.txt文件内容

这里写图片描述

(5):q!:退出vim查看

这里写图片描述

这里写图片描述

(6)less XX.txt:按行输出查看XX.txt文件内容

这里写图片描述

这里写图片描述

(7)enter+q:退出less查看

(8)cat XX.txt:对文件XX.txt做标准输出操作

(9)|:连接两个命令的管道命令

(10)python XX.py:执行python文件XX.py脚本命令

这里写图片描述

这里写图片描述

(11)sort:按首字母排序

这里写图片描述

这里写图片描述

(12)head -“数字” XX.txt:取文件XX.txt的前“数字”行

这里写图片描述

(13)rm XX.txt:删除文件XX.txt

由于本地没安装linux系统,远程连接了一个linux服务器,通过Xftp5传输了相关测试文件
这里写图片描述
利用rm测试了下删除命令
这里写图片描述

(14)cp XX.txt XX1.txt:复制文件XX.txt到XX1.txt

这里写图片描述

(15)mkdir FF:新建文件夹FF

这里写图片描述

(16)mr -rf /pathname :向下递归删除/pathname路径下的文件夹及相应文件夹内部文件

这里写图片描述

(17)clear:清命令行屏

(18)hadoop fs -ls /:利用hadoop框架平台“hadoop fs -”运行ls命令,“-”表示登录

(搭建远端hadoop平台待学习)
这里写图片描述
注意,hadoop fs -ls /显示的文件夹不在本地服务器上,而是在hadoop集群服务器上,对比ls可见没有相应“文件夹”(/apps,/spark-history,/sxydata,/tmp,user五个文件夹)

(19)hadoop fs -mkdir -p /JULY:hadoop fs -mkdir利用hadoop框架平台,递归地在根目录下创建文件夹/JULY

这里写图片描述

(20)hadoop fs -put text1.txt /JULY:hadoop fs -put 将本地服务器文件text.txt放到hadoop集群上/JULY文件夹下

这里写图片描述
注意,可以使用hadoop fs -cat /JULY/text1.txt查看上次文件text1.txt内容,但是在实际生成中由于上次文件text.txt过大,轻易不要使用cat命令

(21)hadoop fs -rmr /JULY: hadoop fs -rmr删除hadoop集群上的文件夹/JULY

这里写图片描述

(22)zip -r mydata.zip mydata #压缩mydata目录

把/home目录下面的mydata目录压缩为mydata.zip