加入收藏 | 设为首页 | 会员中心 | 我要投稿 我爱制作网_潮州站长网 (http://www.0768zz.com/)- 物联安全、建站、操作系统、云计算、数据迁移!
当前位置: 首页 > 大数据 > 正文

使用Pandas分块解决大文件

发布时间:2021-05-17 10:58:36 所属栏目:大数据 来源:互联网
导读:解决:我翻了一下文档,这一类读取文件的函数有两个参数:chunksize、iterator 原理就是不一次性把文件数据读入内存中,而是分多次。 1、指定chunksize分块读取文件 read_csv 和 read_table 有一个 chunksize 参数,用以指定一个块大小(每次读取多少行),返

解决:我翻了一下文档,这一类读取文件的函数有两个参数:chunksize、iterator

原理就是不一次性把文件数据读入内存中,而是分多次。

1、指定chunksize分块读取文件

read_csv 和 read_table 有一个 chunksize 参数,用以指定一个块大小(每次读取多少行),返回一个可迭代的 TextFileReader 对象。


  1. table=pd.read_table(path+'kuaishou.txt',sep='t',chunksize=1000000) 
  2. for df in table
  3.     对df处理 
  4.     #如df.drop(columns=['page','video_id'],axis=1,inplace=True
  5.     #print(type(df),df.shape)打印看一下信息12345 

我这里又对文件进行了划分,分成若干个子文件分别处理(没错,to_csv也同样有chunksize参数)

2、指定iterator=True

iterator=True同样返回的是TextFileReader对象


  1. reader = pd.read_table('tmp.sv', sep='t', iterator=True
  2. df=reader.get_chunk(10000) 
  3. #通过get_chunk(size),返回一个size行的块 
  4. #接着同样可以对df处理 

直接看看pandas文档在这一方面的内容吧。

(编辑:我爱制作网_潮州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读