golang怎么高效处理大文件


本文摘自php中文网,作者藏色散人,侵删。

下面由golang教程栏目给大家介绍golang高效处理大文件_使用Pandas分块处理大文件,希望对需要的朋友有所帮助!

使用Pandas分块处理大文件

问题:今天在处理快手的用户数据时,遇到了一个差不多600M的txt文本,用sublime打开都蹦了,我用pandas.read_table()去读,差不多花了近2分钟,最后打开发现差不多3千万行数据。这仅仅是打开,如果要处理不知得多费劲。

解决:我翻了一下文档,这一类读取文件的函数有两个参数:chunksizeiterator

原理就是不一次性把文件数据读入内存中,而是分多次。

1、指定chunksize分块读取文件

read_csv 和 read_table 有一个 chunksize 参数,用以指定一个块大小(每次读取多少行),返回一个可迭代的 TextFileReader 对象。

1

2

3

4

5

table=pd.read_table(path+'kuaishou.txt',sep='t',chunksize=1000000)

for df in table:

    对df处理

    #如df.drop(columns=['page','video_id'],axis=1,inplace=True)

    #print(type(df),df.shape)打印看一下信息

我这里又对文件进行了划分,分成若干个子文件分别处理(没错,to_csv也同样有chunksize参数)

2、指定iterator=True

iterator=True同样返回的是TextFileReader对象

1

2

3

4

reader = pd.read_table('tmp.sv', sep='t', iterator=True)

df=reader.get_chunk(10000)

#通过get_chunk(size),返回一个size行的块

#接着同样可以对df处理

直接看看pandas文档在这一方面的内容吧。

以上就是golang怎么高效处理大文件的详细内容,更多文章请关注木庄网络博客!!

相关阅读 >>

Golang mutex 源码解析

阅读Golang 切片(slice)底层源码

Go - 如何解析 json 数据?

重温Golang要点-常量、字符串、类型转换

详解 Go 语言中的方法

Go学习一·常量constant, iota

Golang反射机制

关于Go的&和*的区别以及应用场景

Golang造轮子,封装一个简单的http client

Go语言循环语句

更多相关阅读请进入《Go》频道 >>




打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,您说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

分享从这里开始,精彩与您同在

评论

管理员已关闭评论功能...