Skip to content Skip to main navigation Skip to footer

shell: linux正则表达式awk讲解

awk和sed一样是流式编辑器,它也是针对文档中的行来操作的,一行一行的去执行。awk比sed更加强大,它能做到sed能做到的,同样也能做到sed不能做到的。awk常用来分段;

awk不用加任何参数就可以实现 + ? * .  | 这些特殊符号;

1、截取文档中的某个段

[root@yonglinux ~]# head -n2 passwd |awk -F: ‘{print $1}’

root

bin

[root@yonglinux ~]# head -n2 passwd |awk -F: ‘{print $0}’

root:x:0:0:root:/root:/bin/bash

bin:x:1:1:bin:/bin:/sbin/nologin

[root@yonglinux ~]# head -n2 passwd |awk -F: ‘{print $1,$3,$7}’

root 0 /bin/bash

bin 1 /sbin/nologin

-F 选项的作用是指定分隔符,如果不加-F指定,则以空格或者tab为分隔符。 Print为打印的动作,用来打印出某个字段。$1为第一个字段,$2为第二个字段,依次类推,有一个特殊的那就是$0,它表示整行。

{ }内可以打印多个字段$1,$3,$7 打印第1、3、7段,中间用逗号隔开;

打印分段默认分隔符为空格,可以自定义分隔符,分隔符需要用冒号括起来;也可以OFS定义输出分隔符;

[root@localhost ~]# awk -F: ‘{print $3,$4}’ 1.txt |head -5

[root@localhost ~]# awk -F: ‘{print $3″:>”$4}’ 1.txt |head -5

[root@localhost ~]# awk -F: ‘OFS=”#>”{print $3,$4}’ 1.txt |head -5

[root@yonglinux ~]# head -n2 passwd |awk -F: ‘{print $1″#>””@>”$3″#>”$7}’

root#@0#/bin/bash

bin#@1#/sbin/nologin

注意awk的格式,-F后紧跟单引号,然后里面为分隔符,print的动作要用 { } 括起来,否则会报错。print还可以打印自定义的内容,但是自定义的内容要用“”双引号括起来。

2、匹配字符或字符串

[root@yonglinux ~]# awk -F: ‘$1~/me/’ passwd

games:x:12:100:games:/usr/games:/sbin/nologin

[root@yonglinux ~]# awk -F: ‘$1~/user/’ passwd

user1:x:600:501::/home/user1:/bin/bash

可以让某个段去匹配,~ 表示匹配的意思,以冒号分隔第一字段然后匹配//里的关键字;

[root@yonglinux ~]# awk -F: ‘/root/ {print $1,$3} /user/ {print $1,$3}’ passwd

root 0

operator 11

ftp 14

saslauth 499

user1 600

awk还可以多次匹配,如上例全文匹配包含root关键词的行,再匹配包含user的行,打印所匹配的第1、3段。

3、条件操作符

判断第3个字段为0的

[root@yonglinux ~]# awk -F: ‘$3==”0>”‘ passwd

root:x:0:0:root:/root:/bin/bash

[root@yonglinux ~]# awk -F: ‘$3==10’ passwd

uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin

判断第3个字段为10的并且打印该行的第7字段;

[root@yonglinux ~]# awk -F: ‘$3==10 {print $7}’ passwd

/sbin/nologin

[root@yonglinux ~]# awk -F: ‘$3==”600>”‘ passwd

user1:x:600:501::/home/user1:/bin/bash

awk中是可以用逻辑符号判断的,比如 ‘==’ 就是等于,也可以理解为 ‘精确匹配’ 另外也有 >, ‘>=, ‘不加双引号则认为是数字。

示例,双引号括起来认为是字符;加单引号和不加则认为是数字;

[root@yonglinux ~]# awk -F: ‘$3>”500>”‘ passwd | sort -t: -k 3 -n

shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown

halt:x:7:0:halt:/sbin:/sbin/halt

mail:x:8:12:mail:/var/spool/mail:/sbin/nologin

vcsa:x:69:69:virtual console memory owner:/dev:/sbin/nologin

sshd:x:74:74:privilege-separated ssh:/var/empty/sshd:/sbin/nologin

dbus:x:81:81:system message bus:/:/sbin/nologin

postfix:x:89:89::/var/spool/postfix:/sbin/nologin

nobody:x:99:99:nobody:/:/sbin/nologin

user1:x:600:501::/home/user1:/bin/bash

[root@yonglinux ~]# awk -F: ‘$3>500’ passwd | sort -t: -k 3 -n

user1:x:600:501::/home/user1:/bin/bash

[root@yonglinux ~]# awk -F: ‘$3>’500” passwd | sort -t: -k 3 -n

user1:x:600:501::/home/user1:/bin/bash

!= 为不匹配,第7字段不等于/sbin/nologin的行,需要用双引号括起来。

[root@yonglinux ~]# awk -F: ‘$7!=”/sbin/nologin>”‘ passwd

root:x:0:0:root:/root:/bin/bash

sync:x:5:0:sync:/sbin:/bin/sync

shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown

halt:x:7:0:halt:/sbin:/sbin/halt

user1:x:600:501::/home/user1:/bin/bash

mysql:x:27:27:MySQL Server:/var/lib/mysql:/bin/bash

除了针对某一个段的字符进行逻辑比较外,还可以两个段之间进行逻辑比较。

[root@yonglinux ~]# awk -F: ‘$3>”5>” && $3

shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown

vcsa:x:69:69:virtual console memory owner:/dev:/sbin/nologin

user1:x:600:501::/home/user1:/bin/bash

另外还可以使用 && “并且”和  || “或者” 的意思。

示例,打印第3段大于第4段,并且第7段为/bin/bash的行;

[root@yonglinux ~]# awk -F: ‘$3>$4 && $7==”/bin/bash>”‘ passwd

user1:x:600:501::/home/user1:/bin/bash

示例,打印第3段小于第4段,或者第7段为/bin/bash的行;

[root@yonglinux ~]# awk -F: ‘$3

root:x:0:0:root:/root:/bin/bash

adm:x:3:4:adm:/var/adm:/sbin/nologin

lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

mail:x:8:12:mail:/var/spool/mail:/sbin/nologin

uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin

games:x:12:100:games:/usr/games:/sbin/nologin

gopher:x:13:30:gopher:/var/gopher:/sbin/nologin

ftp:x:14:50:ftp user:/var/ftp:/sbin/nologin

user1:x:600:501::/home/user1:/bin/bash

mysql:x:27:27:mysql server:/var/lib/mysql:/bin/bash


[1]
 [2]  下一页

原文:http://www.myhack58.com/Article/48/66/2015/61268.htm

0 Comments

There are no comments yet

Leave a comment

Your email address will not be published.