亲宝软件园·资讯

展开

使用Bash读取和处理CSV文件的方法

水滴石穿_wang 人气:0

介绍

我将介绍它,因为在使用 Linux Bash 脚本读取简单的 CSV 文件并对其进行处理时,它非常容易编写。

如何使用 cut 命令

作为读取 CSV 文件并使用您经常看到的 Bash 脚本对其进行处理的方法,有一种描述是从标准输入中逐行读取 CSV 文件并使用 cut 命令将列存储在变量中。

hoge.sh 的内容

 #!/bin/bash

while read line
do
  # 保存 $line 行中读入的CSV文件的一行文本,通过cut命令分列保存在变量中。
  col1=$(echo ${line} | cut -d , -f 1)
  col2=$(echo ${line} | cut -d , -f 2)
  col3=$(echo ${line} | cut -d , -f 3)

  # 处理内容描述在这里

  # $colX 参考读入的 CSV 文件的文本
  echo "col1:$col1 col2:$col2 col3:$col3"
done < $1

csv文件的内容

$ cat hoge.csv 
a1,a2,a3
b1,b2,b3
c1,c2,c3
$ 

以 csv 文件作为参数执行脚本

$ ./hoge.sh hoge.csv 
col1:a1 col2:a2 col3:a3
col1:b1 col2:b2 col3:b3
col1:c1 col2:c2 col3:c3
$ 

如何使用 IFS 将列存储在变量中

通过将分隔符 IFS 的环境变量更改为,并在 read 命令中设置多个变量,可以在不使用 cut 命令的情况下进行简单的描述。

hoge.sh 的内容

 #!/bin/bash

 # 将读取的CSV文件的一行文本分列存储在多个变量中
while IFS=, read col1 col2 col3
do
  # 处理内容描述在这里

  # $colX 参考读入的 CSV 文件的文本
  echo "col1:$col1 col2:$col2 col3:$col3"
done < $1

如何使用 IFS 将列存储在数组中(●)

您还可以使用 read 命令的 -a 选项将拆分列存储在数组中。

 #!/bin/bash

while IFS=, read -a col
do
  echo "col1:${col[0]} col2:${col[1]} col3:${col[2]}"
done < $1

这种方式是最推荐的,因为它是一个数组,所以很容易循环、添加、删除、处理分列,并且可以灵活的引用和使用变量扩展来展示。

#!/bin/bash
while IFS=, read -a col
do
  for c in ${col[@]}
  do
    echo "loop:$c"
  done

  unset col[2]
  col+=(lastcol)

  echo "${col[@]}"
  echo "${col[@]:1}"
  echo "${col[@]/#/col:}"
done < $1
$ ./hoge.sh hoge.csv 
loop:a1
loop:a2
loop:a3
a1 a2 lastcol
a2 lastcol
col:a1 col:a2 col:lastcol
loop:b1
loop:b2
loop:b3
b1 b2 lastcol
b2 lastcol
col:b1 col:b2 col:lastcol
loop:c1
loop:c2
loop:c3
c1 c2 lastcol
c2 lastcol
col:c1 col:c2 col:lastcol
$ 

对于空格或制表符分隔的文件

如果文件分隔符是空格分隔符(SSV)或制表符分隔符(TSV),则分隔符的环境变量IFS默认为空格、制表符和换行符,因此在脚本中不指定IFS进行处理.我可以的。

 #!/bin/bash

while read -a col
do
  echo "col1:${col[0]} col2:${col[1]} col3:${col[2]}"
done < $1

但是,如果该列为空,则将省略其前后连续的空格和制表符,并将变量位置打包在一起。

$ cat hoge.ssv
a1 a2 a3
b1  b3
  c3
$ 
$ ./hoge.sh hoge.ssv
col1:a1 col2:a2 col3:a3
col1:b1 col2:b3 col3:
col1:c3 col2: col3:
$ 

为了防止这种情况,您需要用逗号替换空格和制表符,并将它们读入以逗号分隔的数组。

 #!/bin/bash

IFS=,
while read line
do
  col=(${line// /,})
  echo "col1:${col[0]} col2:${col[1]} col3:${col[2]}"
done < $1
#!/bin/bash

IFS=,
while read line
do
  col=(${line//$'\t'/,})
  echo "col1:${col[0]} col2:${col[1]} col3:${col[2]}"
done < $1

如何处理要读取的CSV文件

如果您想以相反的顺序读取 CSV 文件,替换特定字符,然后读取它,您可以在读取 CSV 文件之前对其进行处理,方法是将进程替换的结果 <() 传递给标准输入。

 #!/bin/bash

while IFS=, read -a col
do
  echo "col1:${col[0]} col2:${col[1]} col3:${col[2]}"
done < <(tac $1)
$ cat hoge.csv 
a1,a2,a3
b1,b2,b3
c1,c2,c3
$ 
$ ./hoge.sh hoge.csv 
col1:c1 col2:c2 col3:c3
col1:b1 col2:b2 col3:b3
col1:a1 col2:a2 col3:a3
$ 

如何使用awk命令

如果您想轻松处理或聚合 CSV 文件,使用 awk 命令处理它可能会更简单。
awk命令从头开始逐行读取指定为参数的文件,自动将分隔符分隔的内容存储在变量$1,$2…中,可以逐行描述要处理的内容。处理 CSV 文件时,需要在 -F 选项中指定逗号作为分隔符。

$ awk -F, '{print "col1:"$1,"col2:"$2,"col3:"$3}' hoge.csv
col1:a1 col2:a2 col3:a3
col1:b1 col2:b2 col3:b3
col1:c1 col2:c2 col3:c3
$ 

此外,如果处理内容变得复杂,则可以将处理内容描述在文件中作为脚本。

{
  print "col1:"$1,"col2:"$2,"col3:"$3
}
$ awk -F, -f hoge.awk hoge.csv 
col1:a1 col2:a2 col3:a3
col1:b1 col2:b2 col3:b3
col1:c1 col2:c2 col3:c3
$ 

如果文件分隔符是空格分隔 (SSV) 或制表符分隔 (TSV),则无需像 Bash 脚本那样指定选项即可读取,但由于变量位置已打包并存储,因此指定选项更安全。

$ awk -F'[. ]' '{print "col1:"$1,"col2:"$2,"col3:"$3}' hoge.ssv
col1:a1 col2:a2 col3:a3
col1:b1 col2: col3:b3
col1: col2: col3:c3
$ 
$ awk -F'[.\t]' '{print "col1:"$1,"col2:"$2,"col3:"$3}' hoge.tsv 
col1:a1 col2:a2 col3:a3
col1:b1 col2: col3:b3
col1: col2: col3:c3
$ 

awk 命令也是一个功能强大的命令,但是还有一种方法是使用 perl 命令来处理 CSV 文件,这种方法更加直观和复杂。
这是一个非常复杂的命令,默认包含在 Linux 服务器中,所以如果您有兴趣,可以使用它。

加载全部内容

相关教程
猜你喜欢
用户评论