dup,dup2,2>&1,tee用法

来源:互联网 发布:电脑网络 编辑:程序博客网 时间:2024/05/16 10:44
dup和dup2用来复制文件描述符。
函数原型:
int dup(int oldfd);
int dup2(int oldfd,int newfd);
   dup用来复制oldfd所指的文件描述符。但复制成功时返回最小的尚未被使用的文件描述符。若有错误则返回-1,错误代码存入errno中。返回的新文件描述符和参数oldfd指向同一个文件,共享所有的锁定,读写指针,和各项权限或标志位。
   dup2可以用参数newfd指定新文件描述符的数值。若newfd已经被程序使用,系统就会将其关闭以释放该文件描述符;若newfd与oldfd相等,dup2将返回newfd,而不关闭他。dup2调用成功返回新的文件描述符,出错则返回-1。
   标准输入(stdin),标准输出(stdout),标准出错信息(stderr)的文件号分别为0,1,2

一个简单的例子:首先在当前目录下存在一个文件mytest2,文件内容为hhhhhhhhhhhh

文件名t1.c

#include <stdio.h> //包含printf定义
#include <fcntl.h> //包含O_RDWR等定义

 int main()
 {
   int oldfd;
   oldfd = open("mytest2",O_RDWR|O_CREAT,0644);
   dup2(oldfd,1);   //复制oldfd到文件描述符1(stdout标准输出)
   close(oldfd);    //关闭文件描述符oldfd
   printf("ddd");  //在标准输出上打印出ddd,这时由于标准输出已经被oldfd文件描述符代替
   return 0;       //打印到标准输出上的内容就全部打印到了文件mytest2中
 }

编译:gcc t1.c -o t1

./t1

程序执行结果为文件mytest2中的内容变为:dddhhhhhhhhh

程序实例:文件名为t2.c

#include <stdio.h> //包含printf定义
#include <fcntl.h> //包含O_RDWR等定义


int main()
{
 int fd;
 int i;
 if((fd=open("mytest3",O_CREAT|O_RDWR,0644))==-1){
      printf("open file error!");    

 return 1;

}


 close(1);  //关闭标准输出
 dup(fd);  // 复制文件描述符fd到1上
 close(fd);

 printf("writ to file\n");
 return 0;   
}

编译:gcc t2.c -o t2

./t2

程序运行结果:

cat mytest3

writ to file

=================================================================

nohup /mnt/Nand3/H2000G >/dev/null 2>&1 &

把标准出错重定向到标准输出,然后扔到/DEV/NULL下面去。通俗的说,就是把所有标准输出和标准出错都扔到垃圾桶里面。

command >out.file 2>&1 &

     command

    >out.file是将command的输出重定向到out.file文件,即输出内容不打印到屏幕上,而是输出到out.file文件中。

    2>&1

    是将标准出错重定向到标准输出,这里的标准输出已经重定向到了out.file文件,即将标准出错也输出到out.file文件中。最后一个&

    , 是让该命令在后台执行。

试想2>1代表什么,2与>结合代表错误重定向,而1则代表错误重定向到一个文件1,而不代表标准输出;

    换成2>&1,&与1结合就代表标准输出了,就变成错误重定向到标准输出.

     你可以用

     ls 2>1测试一下,不会报没有2文件的错误,但会输出一个空的文件1;

     ls xxx 2>1测试,没有xxx这个文件的错误输出到了1中;

     ls xxx 2>&1测试,不会生成1这个文件了,不过错误跑到标准输出了;

     ls xxx >out.txt 2>&1, 实际上可换成 ls xxx 1>out.txt 2>&1;重定向符号>默认是1,错误和输出都传到out.txt了。

为何2>&1要写在后面?

     command > file 2>&1

     首先是command > file将标准输出重定向到file中, 2>&1 是标准错误拷贝了标准输出的行为,也就是同样被重定向到file中,最终结果就是标准输出和错误都被重定向到file中。

     command 2>&1 >file

     2>&1 标准错误拷贝了标准输出的行为,但此时标准输出还是在终端。>file 后输出才被重定向到file,但标准错误仍然保持在终端。

    用strace可以看到:

    1. command > file 2>&1

    这个命令中实现重定向的关键系统调用序列是:

    open(file) == 3

    dup2(3,1)

    dup2(1,2)

    2. command 2>&1 >file

    这个命令中实现重定向的关键系统调用序列是:

    dup2(1,2)

    open(file) == 3

    dup2(3,1)

例子:

touch 1 2 3

ls xxx 1 2 3 >tt 2>&1

cat tt
ls: 无法访问xxx: 没有那个文件或目录
1
2
3
 ls xxx 1 2 3  2>&1 >tt2
ls: 无法访问xxx: 没有那个文件或目录
 cat tt2
1
2
3

======================================

&>file表示重定向标准输出和错误输出到文件

例如:

rm -f $(find ./ -name core) &> /dev/null

/dev/null是一个文件,这个文件比较特殊,所有传给它的东西它都丢弃掉.

n>&m表示使文件描述符n成为输出文件描述符m的副本.这样做的好处是,有的时候你查找文件的时候很容易产生无用的信息,如:

2> /dev/null的作用就是不现实标准错误输出;另外当你运行某些命令的时候,出错信息也许很重要,便于你查出是哪儿出了毛病,如:

2>&1

例如:

注意,为了方便理解,必须设置一个环境使得执行grep da * 命令会有正常输出和错误输出,然后分别使用下面的命令生成三个文件:

grep da * > greplog1

查看greplog1会发现里面只有正常输出内容

grep da * > greplog2 1> &2

查看greplog2会发现里面什么也没有

grep da * > greplog3 2>&1 //grep da * 2> greplog4 1>&2 结果一样

查看greplog3,greplog4会发现里面既有正常输出内容也有错误输出内容

=======================================
shell中可能经常能看到:>/dev/null 2>&1

命令的结果可以通过%>的形式来定义输出

/dev/null 代表空设备文件
> 代表重定向到哪里,例如:echo "123" > /home/123.txt
1 表示stdout标准输出,系统默认值是1,所以">/dev/null"等同于"1>/dev/null"
2 表示stderr标准错误
& 表示等同于的意思,2>&1,表示2的输出重定向等同于1

那么本文标题的语句:
1>/dev/null 首先表示标准输出重定向到空设备文件,也就是不输出任何信息到终端,说白了就是不显示任何信息。
2>&1 接着,标准错误输出重定向等同于 标准输出,因为之前标准输出已经重定向到了空设备文件,所以标准错误输出也重定向到空设备文件。
A. 1> /dev/null 表示将命令的标准输出重定向到 /dev/null2>/dev/null 表示将命令的错误输出重定向到 /dev/null1 - denotes stdout ( standard output )2 - denotes stderr  ( standard error )/dev/null就相当与windows里的回收站,只是进去了不能再出来了。>/dev/null 就是将标准输出和标准出错的信息屏蔽不显示
B.>/dev/null 2>&1   also can write  as  1>/dev/null 2>&1     - stdout redirect to /dev/null (no stdout) ,and redirect stderr to stdout  (stderr gone as well) . end up it turns both stderr and stdout off
C.a little practice may help to undstand above .  #ls /usr  /nothing #ls /usr  /nothing  2>/dev/null #ls /usr  /nothing  >/dev/null 2>&1

我们经常会在UNIX系统下的一些脚本中看到类似”2>&1″这样的用法,例如“/path/to/prog 2>&1 > /dev/null &”,那么它的具体含义是什么呢?
  UNIX有几种输入输出流,它们分别与几个数字有如下的对应关系:0-标准输入流(stdin),1-标准输出流(stdout),2-标准错误流 (stderr)。”2>&1″的意思就是将stderr重定向至stdout,并一起在屏幕上显示出来。如果不加数字,那么默认的重定向动作是针对stdout(1)的,比如”ls -l > result”就等价于”ls -l 1 > result”。这样便于我们更普遍性的理解重定向过程。
  下面举例说明:
#cat std.sh
#!/bin/sh
echo “stdout”
echo “stderr” >&2

#/bin/sh std.sh 2>&1 > /dev/null
stderr

#/bin/sh std.sh > /dev/null 2>&1

  第一条命令的输出结果是stderr,因为stdout和stderr合并后一同重定向到/dev/null,但stderr并未被清除,因此仍将在屏幕中显示出来;第二条命令无输出,因为当stdout重定向至/dev/null后,stderr又重定向到了stdout,这样stderr也被输出到了/dev/null。

今天在做例行工作的时候,发现机器上的sendmail进程奇多无比,并且机器IO好像也很慢。后来发现在/var/spool/clientmqueue目录下ls几乎要死人 – 最少有10万个文件

ps|grep sendmail看这些sendmail进程里面都有/var/spool/clientmqueue

cd过去随便打开了个文件看了下,发现是我crontab里面执行的程序的exception,估计是我的crontab每次执行,linux都试图发邮件给crontab的用户但是又没有配sendmail,所以东西就都被扔到/var/spool/clientmqueue下面了。然后我才明白为啥以前别人写的crontab要加上> /dev/null 2>&1,原来这样就不会每次执行crontab都把结果或者excetion发邮件了。

把这10万个文件删掉后,一切恢复正常

问题现象:
linux操作系统中的/var/spool/clientmqueue/目录下存在大量文件。
原因分析:系统中有用户开启了cron,而cron中执行的程序有输出内容,输出内容会以邮件形式发给cron的用户,而sendmail没有启动所以就产生了这些文件;
解决办法: 1、 将crontab里面的命令后面加上> /dev/null 2>&1
2、知识点:
2>:重定向错误。
2>&1:把错误重定向到输出要送到的地方。即把上述命令的执行结果重定向到/dev/null,即抛弃,同时,把产生的错误也抛弃。
3、具体代码:
(1)、# crontab -u cvsroot -l
01 01 * * * /opt/bak/backup
01 02 * * * /opt/bak/backup2
(2)、# vi /opt/bak/backup
#!/bin/sh
cd /
getfacl -R repository > /opt/bak/backup.acl
(3)、# vi /opt/bak/backup2
#!/bin/sh
week=`date +%w`
tar zcvfp /opt/bak/cvs$week/cvs.tar.gz /repository >/dev/null 2>&1
4、清除/var/spool/clientmqueue/目录下的文件:
# cd /var/spool/clientmqueue
# rm -rf *
如果文件太多,占用空间太大,用上面命令删除慢的话,就执行下面的命令:
# cd /var/spool/clientmqueue
# ls | xargs rm -f
在一個風和日麗的夜晚,我坐在家裡看著電視,後來手機一陣響起,結果是楊老師發現一台主機發生異常,伺服器的 /var/spool/mqueue 目錄被塞了一堆還沒有寄出的信件,而當時沒有把 /var/spool 另外分割出來,所以也影響到了系統 root (/) 區塊,只剩六百多 MB 可以使用,這時一想會有幾個可能.

這台 server 有幫學校的 PC 做寄送信件,所以可能是廣告信在寄出.

使用這台 server 做 mail 寄信的機器,可能是中毒,於是就不斷的送信出去.
一開始只有想到這兩個原因,但是可要把被吞掉的空間給吐出來,所以就打算把所有的 mail queue 都先砍了,當然,要先停掉 mail service.
在砍這些正在排隊的信件時,發現一件事,就是裡面的檔案太多了,使用 ls 命令就變得超級遲頓,沒有反應,使用 mailq 來看看到底是那些信被 queue 住也沒辦法,後來想想算了,只好全剖砍了,不要再玩下去,之後,很順手的下了 rm -rf * 這下子呢,發生了一件很離奇的事,居然檔案太多無法刪除,第一次聽到 rm 在 complain (我是聽到的,楊老師是實作者,所以他有看到 ^^).
那個 error 是: bash: /bin/rm: Argument list too long
雖然無法刪除,但是楊兄並不放棄,到主機面前,開啟了 X Window 之後使用那 Linuxer 最常使用的鸚鵡螺 (nautilus) 開啟到 /var/spool/mqueue. 喔 ~ 可以使用 X Window 來刪呢 ! 後來想說即然 X Window 有這麼大的本事,那麼就用它來刪了其它的 queue files 就好啦,於是掛上電話,放楊兄一個人努力的在機房刪著 ...
當然我也沒有閒著,電視劇剛好演完,於是開啟我的工作伙伴,再度當網路潛水艇 ... 游著游著,突然想到,何不使用 find 來刪除看看 ? 於是刪回歷史文件,發現一個命令就是 find ./ | xargs rm -rf 千萬別小看這小小的指令,因為在我看完之後不久,楊兄打進來,說已經刪到手軟,這時也是晚上十點了,於是我就推薦了這個這道指令,嗯,很好,全都刪了,還頗快的 ...
喔,還沒說為什麼會刪到手軟,是因為 nautilus 在 Load 目錄時,是分批的,不是一次全部讀,所以一次大約是幾千封在讀,刪了之後,沒想到又冒出了還有幾千封 ... 真是嚇死人,後來推論應該是分批的關係.
在下了 find ./ | xargs rm -rf 之後,還在訝異快速之餘,就發現時間不多了,學校也要關門,所以就先 say bye bye,在現場苦命的楊兄也回家休息了.
分析:
rm 有最大一次刪除的數量,所以當一個目錄裡有太多的檔案或目錄時,就會出現錯誤,小弟試過應該是在二萬以下,而使用 find ./ | xargs rm -rf 的目的是先使用 find 列出檔案,再導向到 xargs,xargs 再喂給 rm,在這裡,xargs 會分批依照 rm 的最大數量餵給 rm,然後就可以順利刪除檔案了
。而真正的原因,有可能是 rm 的版本或是檔案系統的問題,我也不再繼續追就,反正能辦好事就好
下面提供當時小弟測試的一個小小 shell script
下載:
mk-file.sh
(這個 shell script 會有目錄下產生 20000 個檔案。)
接下來來做個小小測試:
root # mkfile.sh
root #
會產生 20000 個小檔案,名稱為 test-file-{1~19999}
直接使用 rm 去刪除:
root # rm -rf test-file-*
-bash: /bin/rm: Argument list too long (會回應引數過長的訊息)
改搭配 find 來刪除
root # find ./ -iname 'test-file-*' | xargs rm -rf
root # ls
mk-file.sh
root #
這樣就順利被刪除了。

---------------------------------
#tool_action
45 4 * * * /bin/sh /data/stat/crontab/exec_tool_action_analysis_db.sh >> /data/stat/logs/exec_tool_action_analysis_db.sh.log > /dev/null 2>&1

45 5 * * * /bin/sh /data/stat/crontab/exec_tool_action_analysis_user.sh >> /data/stat/logs/exec_tool_action_analysis_user.sh.log > /dev/null 2>&1

否则在/var/spool/clientmqueue 下会产生以下文件:
-rw-rw---- 1 smmsp   smmsp  975 Jan 17 10:50 qfq0H2o4ei031197

----------------------------------------------------------
#
40 3 * * * sh /work/yule/shell/export_anchor_multi_4_mysql.sh > /work/yule/logs/export_anchor_multi_4_mysql.log 2>&1

====================================================================================================

tee
tee [-ai][--help][--version][文件...]
[功能]
tee以标准输入作为输入,标准输出和文件作为输出。

[描述]
tee指令会从标准输入设备读取数据,将其内容输出到标准输出设备,同时保存成文件。
可以用于既想看到标准输出,又想将标准输出保存到文件中的情况。
参数:
 -a或--append  附加到既有文件的后面,而非覆盖它.
 -i-i或--ignore-interrupts  忽略中断信号。
 --help  在线帮助。
 --version  显示版本信息。

[举例]
*用tee生成一个文件,包含你敲入的内容:
$tee testfile
这样,会提示要你用标准输入输入内容,然后敲回车会将你输入的内容写入testfile和输出到标准输出,如果用[Ctrl]d结束输入([Ctrl]c也行)。如果原来testfile有内容,将会覆盖。

*把内容追加到文件的末尾行:
$tee -a testfile
结果类似上,不过如果原来testfile有内容则不会覆盖而是追加。

*生成一个文件,敲入的时候,不接受中断信号:
$tee -i testfile
结果同testfile,不过不会接收中断信号,只能用[Ctrl]d结束,而不能用[Ctrl]c了。

*执行ls列出目录文件同时将输出保存到文件test中:
$ls | tee test
这样,会像平时一样执行ls命令并将当前目录的文件名输出到标准输出。另外由于进行了tee命令,所以会生成一个test文件,这个test文件的内容和标准输出的内容一样。


0 0
原创粉丝点击