ICode9

精准搜索请尝试: 精确搜索
  • 混合模式下的熊猫数据帧无法序列化为hdf5?2019-12-01 18:00:29

    在Pandas中,似乎无法存储混合类型的数据框: store = HDFStore('play.h5') df = DataFrame([{'a': 1, 'b': 'hello'}, {'a': 5, 'b': 'world'}]) store.put('df', df, table=True, compression='zlib&#

  • python-Pytables HDF5 ImportError无法打开共享的对象文件2019-11-22 22:06:13

    在IPython中的Ubuntu 13.04中导入PyTables时出现以下错误: In [1]: from tables import * --------------------------------------------------------------------------- ImportError Traceback (most recent call last) <ipython-input-1-4c3ea36

  • 在同一Python进程中同时使用h5py和pytables2019-11-20 19:59:39

    HDF5交互的两个主要Python库是h5py和pytables.他们在一起玩的不好,尤其是在窗户上 >>> import tables >>> import h5py ImportError: DLL load failed >>> import h5py >>> import tables # works fine 我需要在同一个应用程序中同时使用它们,但是导入每个库时都无法从两个库

  • python-熊猫通过索引从HDF5获取特定行2019-11-20 07:59:43

    我有一个已写入HDF5文件的pandas DataFrame.数据由时间戳记索引,如下所示: In [5]: df Out[5]: Codes Price Size Time 2015-04-27 01:31:08-04:00 T 111.75 23 2015-04-27 01:31:39-04:00 T 111.80 23 2015-04-27 01:31:39-04:00

  • python-PyTables中的此错误是什么?2019-11-19 20:57:48

    我正在通过python中的pandas使用pytables.我正在尝试使用pandas.read_hdf()加载文件,但出现此讨厌的错误.我希望我不会丢失我的1.1场不可替代的数据.保存过程中没有看到任何错误.一切似乎都正常. 有人可以解释这个错误在说什么吗? 另外,有什么办法可以恢复吗? HDF5ExtError: HDF5 er

  • python-如何安装libhdf5-dev? (没有yum,rpm或apt-get)2019-11-18 07:50:35

    我想使用需要安装libhdf5-dev的h5py.我从源代码安装了hdf5,并认为编译该选项的任何选项都可以为我提供开发人员标头,但看起来并不像. 有人知道我该怎么做吗?我还需要下载其他来源吗? (尽管找不到) 我在Amazon Linux上,yum search libhdf5-dev没有给出任何结果,我无法使用rpm或apt-get

  • python-通过PyTables或PyHDF将大文本文件“读入” hdf5?2019-11-05 15:06:38

    我正在尝试使用SciPy进行一些统计,但是我的输入数据集非常大(〜1.9GB),并且为dbf格式. 该文件足够大,当我尝试使用genfromtxt创建数组时,Numpy会返回错误消息. (我有3GB的ram,但正在运行win32). 即: Traceback (most recent call last): File "<pyshell#5>", line 1, in <module

  • luarocks和hdf5安装2019-11-05 14:00:08

    1.luarocks安装 1)apt安装:sudo apt-get install luarocks 2)自定义安装 a. 下载http://luarocks.org/releases/luarocks-3.2.1.tar.gz b. tar -xzf luarocks-3.2.1.tar.gz c. cd luarocks-3.2.1 d. ./configure --prefix=/home/yinwenbin/local/luarocks/ --rocks-tree=/home/yinwen

  • 将大型Python阵列保存到磁盘以供以后重用-hdf5?其他方法?2019-11-01 08:05:55

    我目前正在重写一些python代码以提高效率,并且我对保存python数组有疑问,以便以后可以重新使用/操作它们. 我有大量数据,保存在CSV文件中.每个文件都包含我感兴趣的数据的带有时间戳记的值,并且已经达到必须处理数千万个数据点的地步.现在数据已经变得如此庞大,以至于处理时间过长

  • 使用Python编写Fortran无格式文件2019-10-31 07:58:37

    我有一些由Fortran77编写的单精度小尾数未格式化数据文件.我正在使用Python使用以下命令来读取这些文件: import numpy as np original_data = np.dtype('float32') f = open(file_name,'rb')

  • python-同时使用pandas和PyTables(3.1.1),重新打开一个已经打开的文件2019-10-29 14:56:16

    我同时使用了pandas和pytables(3.1.1).问题是我已经用pytables打开了HDF5文件,并且当我尝试用熊猫创建新的HDF5Store时 hdf5store = HDFStore(...) 我收到以下错误: File "/home/travis/virtualenv/python2.7_with_system_site_packages/local/lib/python2.7/site-packages/pan

  • python-熊猫和h5py加载相同的数据(ndarray)的方式不同2019-10-28 11:06:49

    我有一个HDF5格式的文件.它是使用HDF5的C API通过以下方式创建的: struct SignalDefH5 { char id [128]; char name [ 64]; char units[ 16]; float min; float max; hvl_t tags; /* This right there does not work in Pandas... */ }; struct TagD

  • python-通过h5py在hdf5中进行blosc压缩2019-10-27 01:59:16

    我正在使用h5py在python中创建hdf5文件,并且我想使用blosc作为压缩过滤器.我首先通过以下方式从源代码安装了c-blosc: wget https://github.com/Blosc/c-blosc/archive/v1.9.1.tar.gz tar -xvf c-blosc-v1.9.1.tar.gz cd c-blosc-v1.9.1 mkdir build cd build cmake -DCMAKE_INSTAL

  • python-如何使用h5py导入.mat-v7.3文件2019-10-13 04:57:23

    我有.mat文件,其中包含3个矩阵A,B,C. 实际上,我使用scipy.io如下导入了该mat文件. data = sio.loadmat('/data.mat') A = data['A'] B = data['B'] C = data['C'] 但是,v7.3文件无法使用这种方式导入. 因此,我尝试使用h5py进行导入,但是我不知道如何使用h5py.我的代码如下. f =

  • 使用armadillo和hdf5库的简单代码的C构建错误2019-10-09 02:05:12

    我对C和犰狳很新,我遇到了下面描述的建筑错误.我正在尝试测试以下简单代码以将犰狳矩阵保存为hdf5文件: #include <iostream> #include <armadillo> using namespace std; using namespace arma; int main() { mat A = randu<mat>(240,320); A.save("A.hdf5",hdf5_binary

  • 从C中读取hdf5中的字符串2019-10-07 07:06:28

    我正在从Microsoft Visual C 2008中的H5文件中读取数据集.对于int和double类型的数据,一切正常,但遇到字符串时遇到问题.在H5文件中,我有18个字符串,每个字符串都是固定长度24.我的代码如下; StrType strdatatype(PredType::C_S1, 24); char *buffer1[18]; DataSet datasetCurveNa

  • python – 关闭一个打开的h5py数据文件2019-10-05 20:56:55

    在我们的实验室中,我们通过python包h5py将数据存储在hdf5文件中. 在实验开始时,我们创建一个hdf5文件,并在文件中的数据数组之后存储数组(以及其他内容).当实验失败或被中断时,文件未正确关闭. 因为我们的实验是从iPython运行的,所以对数据对象的引用仍然(在某处)存储在内存中. 有

  • 如何使用h5py区分HDF5数据集和组?2019-10-04 21:56:36

    我使用Python包h5py(版本2.5.0)来访问我的hdf5文件. 我想遍历文件的内容并对每个数据集执行某些操作. 使用访问方法: import h5py def print_it(name): dset = f[name] print(dset) print(type(dset)) with h5py.File('test.hdf5', 'r') as f: f.visit(print_it

  • python – TensorFlow – tf.data.Dataset读取大型HDF5文件2019-10-04 20:56:39

    我正在设置一个TensorFlow管道,用于读取大型HDF5文件作为我的深度学习模型的输入.每个HDF5文件包含100个可变大小长度的视频,存储为压缩JPG图像的集合(以使磁盘上的大小可管理).使用tf.data.Dataset和tf.py_func的映射,使用自定义Python逻辑从HDF5文件中读取示例非常简单.例如: def

  • python – 将数组或DataFrame与其他信息一起保存在文件中2019-10-03 22:06:56

    统计软件Stata允许将短文本片段保存在数据集中.这可以使用notes和/或characteristics完成. 这对我来说是一个很有价值的功能,因为它允许我保存各种信息,从提醒和待办事项列表到有关我如何生成数据的信息,甚至是特定变量的估算方法. 我现在正试图在Python 3.6中提出类似的功能.到目

  • python – 将多个csv文件读取到HDF5时的Pandas ParserError EOF字符2019-09-26 21:57:22

    使用Python3,Pandas 0.12 我正在尝试将多个csv文件(总大小为7.9 GB)写入HDF5存储,以便稍后处理. csv文件每个包含大约一百万行,15列和数据类型主要是字符串,但有些浮点数.但是,当我尝试读取csv文件时,我收到以下错误: Traceback (most recent call last): File "filter-1.py", li

  • python – Pandas无法读取用h5py创建的hdf5文件2019-09-26 08:55:48

    当我尝试读取用h5py创建的HDF5格式文件时,我得到了pandas错误.我想知道我是不是做错了什么? import h5py import numpy as np import pandas as pd h5_file = h5py.File('test.h5', 'w') h5_file.create_dataset('zeros', data=np.zeros(shape=(3, 5)), dtype='f') h5_

  • python – numpy undefined symbol:PyFPE_jbuf2019-09-23 21:50:23

    我正在尝试使用One Million Song数据集,为此我必须安装python表,numpy,cython,hdf5,numexpr等等. 昨天我设法安装了我需要的所有东西,在遇到hdf5的麻烦之后,我下载了预编译的二进制包并将它们保存在我的/ bin文件夹中,以及/ lib中的相应库,之后我测试了这个python脚本:http: //labros

  • 如何通过h5py读取v7.3 mat文件?2019-09-23 05:09:38

    我有一个由matlab创建的struct数组,并存储在v7.3格式的mat文件中: struArray = struct('name', {'one', 'two', 'three'}, 'id', {1,2,3}, 'data', {[1:10], [3:9], [0]}) save('test

  • 保存到hdf5非常慢(Python冻结)2019-09-17 15:05:45

    我正在尝试将瓶颈值保存到新创建的hdf5文件中. 瓶颈值分批形成(120,10,10,2048).保存一个单独的批次占用超过16个演出,python似乎在那一批冻结.根据最近的调查结果(见更新,似乎hdf5占用大内存是可以的,但冻结部分似乎是一个小故障. 我只是试图保存前两批用于测试目的,而且仅用于测

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有