你知道Linux中大文件快速处理小的技巧有哪些吗?
发布时间:2022-07-19 12:43:08 所属栏目:云计算 来源:互联网
导读:跟大家分享的文章是关于Linux中大文件快速处理小的方法有哪些。相信正在从事Linux相关工作的小伙伴一定都遇到过这种情况, Linux入门新手和正在Linux学习的小伙伴快来看一看吧,希望能够对大家有所帮助! Linux中大文件快速处理小的方法有哪些吗? 1.背景 工
跟大家分享的文章是关于Linux中大文件快速处理小的方法有哪些。相信正在从事Linux相关工作的小伙伴一定都遇到过这种情况, Linux入门新手和正在Linux学习的小伙伴快来看一看吧,希望能够对大家有所帮助! Linux中大文件快速处理小的方法有哪些吗? 1.背景 工作中使用MapReduce任务导出一批含有路径的文件,共计行数300W+,需要检测文件是否在对应的服务器中存在,而文件所在的服务器并非hadoop集群的服务器,因此打算采用bash脚本进行。具体的方法如下(可直接看方法2,方法1效率较低): 2. 采用的方法 a. 方法1 原本打算使用如下脚本,进行简单验证: !/bin/bash count=0 cat oriTest.txt | while read data do count=$(( $count+1 )) echo $count dir=echo "$data" | awk -F "t" '{print $5}' if [ -e $dir ];then echo "$data" >> exist.txt else echo "$data" >> noexist.txt fi done 原始数据格式如下: name mark id dir 运行时发现处理5000行需要将近4、5分钟的时间(机器为8核),果断不行啊,随后打算采用多进程的方法来执行,见方法2 b. 方法2 主要是通过将大文件分为小文件,然后对小文件进行后台遍历读取,脚本如下: !/bin/bash source ~/.bashrc 判断路径是否存在 readdata(){ cat $1 | while read data do dir=echo "$data" | awk -F "t" '{print $5}' if [ -e $dir ];then echo "$data" >> "exist_$1.txt" else echo "$data" >> "noexist_$1.txt" fi done } 大文件切分为小文件,生成文件名为xaa,axb等(可以自己命名文件) split -l 10000 oriTest.txt declare -a files # 声明数组 files=($(ls x*)) # 分割后的小文件名保存数组 遍历,并后台执行 for i in ${files[@]};do echo $i readdata $i & done (编辑:我爱制作网_潮州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |