标签:performance arrays memory-management python numpy
我有一组进入numpy数组的大型ascii数据文件.总的来说,我的意思是390行,其中每行是60,000个值(从C程序高精度输出的双精度值),以空格分隔.
目前,我正在使用以下(朴素的)代码:
import numpy as np
data_array = np.genfromtxt('l_sim_s_data.txt')
但是,这需要25秒钟以上的时间才能运行.我怀疑这是由于在读取值之前未预分配data_array.是否有任何方法可以告诉genfromtxt它正在制作的数组的大小(因此将对内存进行预分配)?还是有人对如何加快这一过程有想法?
解决方法:
您是否尝试过np.loadtxt
?
(genfromtxt是更高级的文件加载器,可处理诸如缺少值和格式转换器之类的事情.)
标签:performance,arrays,memory-management,python,numpy 来源: https://codeday.me/bug/20191208/2089647.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。