ICode9

精准搜索请尝试: 精确搜索
  • 简化数据获取!Uber开源深度学习分布训练库Petastorm2021-04-03 10:51:17

    深度学习集群的搭建即使是在现代硬件上训练深度模型也很耗时,而且在很多情况下,很有必要在多台机器上分配训练负载。典型的深度学习集群需要执行以下几个步骤:一台或多台机器读取集中式或本地数据集。每台机器计算损失函数的值,并根据模型参数计算梯度。在这一步通常会使用 GPU。通过组

  • Delta Lake 提供纯 Scala\Java\Python 操作 API,和 Flink 整合2021-03-31 14:52:46

    Delta Lake 提供纯 Scala\Java\Python 操作 API,和 Flink 整合更加容易 过往记忆大数据 过往记忆大数据 最近,Delta Lake 发布了一项新功能,也就是支持直接使用 Scala、Java 或者 Python 来查询 Delta Lake 里面的数据,这个是不需要通过 Spark 引擎来实现的。Scala 和 Java 读取 Delt

  • 数据组织核心技术2021-03-16 22:53:23

    要高效地使用数据,就必须要有组织,因此业界对数据的结构化组织有很多探索。 1)Cube技术概念 OLAP的目标是满足决策支持或者满足在多维环境下特定的查询和报表需求,它的技术核心是“维”这个概念。“维”(Dimension)是人们观察客观世界的角度,是一种高层次的类型划分。“维”一般包含着层次

  • HIve 常见数据压缩方式对比2021-03-06 15:33:42

      转自:https://blog.csdn.net/weixin_36714575/article/details/8009157 可以参考:https://blog.csdn.net/weixin_43230682/article/details/107185876 五.结论 1.在压缩存储时间上,除Sequencefile外基本都相差无几。 2.数据压缩比例上ORC最优,相比textfile节省了50倍磁盘空间,par

  • Impala官网翻译08-Impala方案设计指南2021-02-05 12:01:53

    Impala方案设计指南 本主题中的指南可以帮助你构建一个优化的、可扩展的模式,这个模式可以与你现有的数据管理流程很好地集成。在进行任何概念验证工作、移植工作或部署到生产中之前,请将这些准则作为检查表。 如果您正在改编现有数据库或 Hive 模式以用于 Impala,请阅读本节中的指导

  • spqrk 读取parquet文件按月、按季、按年统计2021-01-29 19:04:02

    按月、按季、按年读取parquet文件 案列 // 启动spark yarn spark_yarn目录:./bin/spark-shell --master yarn --deploy-mode client --executor-cores 4 --num-executors 3 // 设置基础目录:parquet文件时按日期分片存储 scala> val basePath = "hdfs://192.168.88.1:8020/d

  • java写parquet文件2020-12-16 20:05:09

    https://blog.csdn.net/u012995897/article/details/76623739     打开ParquetWriter或者ParquetReader发现大部分构造方法都是过时的(@Deprecated),经过仔细的百度,和读源码,才发现原来创建ParquetWriter对象采用内部类Builder来build();      实例:(Apache parquet1.9.0)本次写

  • Impala/Presto/ES/kudu/Parquet TPC_DS基准测试2020-12-09 12:58:21

    使用Impala/Presto/ES/kudu/Parquet基准测试 目的 本测试报告为调研OLAP性能测试报告,目的在于总结调研的几个存储查询方案的可用性。 背景 考虑到数据量的的增多以及用户并发操作给服务器造成压力,因此对kudu、parquet、presto、Es 等进行存储及查询的性能测试,在系统配置不变的情

  • 重新认识HBase,Cassandra列存储——本质是还是行存储,只是可以动态改变列(每行对应的数据字段)数量而已,当心不是parquet2020-12-04 18:30:05

    重新认识HBase,Cassandra列存储——本质是还是行存储,只是可以动态改变列(每行对应的数据字段)数量而已,当心不是parquet 行先是以一种非常独特的方式被索引,随后Bigtable利用行键对数据进行分割,将它们分布到集群中。列可以被迅速地定义在行中,让Bigtable适用于大多数的非模式环境。 数

  • Hive插入parquet格式进行压缩2020-11-19 18:31:56

    创建parquet table :create table tabname(a int,b int) STORED AS PARQUET;创建带压缩的parquet table:create table tabname(a int,b int) STORED AS PARQUET TBLPROPERTIES('parquet.compression'='SNAPPY');如果原来创建表的时候没有指定压缩,后续可以通过修改表属性的方式添加

  • Hive 和 Parquet 底层文件存储类型,不一样2020-09-25 02:03:43

    资料 网址 hive doesn't change parquet schema https://stackoverflow.com/questions/36085891/hive-doesnt-change-parquet-schema HIVE底层文件存储类型PARQUET https://www.freesion.com/article/8440846176/ PARQUET_FALLBACK_SCHEMA_RESOLUTION Query Option (Im

  • 列存格式2020-05-14 14:53:48

    https://zhuanlan.zhihu.com/p/35622907 https://blog.csdn.net/yu616568/article/details/51868447   为什么要用列存这里就不聊了,直接看格式的演变 NSM (N-ary Storage Model) ,按行存储 DSM (Decomposition Storage Model) ,按列分页;这样有个问题是,对于应用最终返回还是要按行的

  • Spark Parquet file split2020-05-14 10:02:39

    在实际使用 spark + parquet 的时候, 遇到了两个不解的地方: 我们只有一个 parquet 文件(小于 hdfs block size), 但是 spark 在某个 stage 生成了4个 tasks 来处理. 4个 tasks 中只有一个 task 处理了所有数据, 其他几个都没有处理数据. 这两个问题牵涉到对于 parquet spar

  • Apache CarbonData 2.0 RC2预览版发布,在数据湖+索引+ACID方面大幅增强2020-05-05 14:02:51

    Apache CarbonData 是一个支持索引和物化视图的ACID数据湖,在5月初正式发布了2.0 RC2,这个版本在索引、物化视图、数据湖能力、ACID等方面均有增强。我们可以先快速浏览一下这个版本。 索引和物化视图能力: 详单查询:二级索引、BloomFilter索引、Lucene索引、空间索引、Segment

  • Spark SQL的Parquet那些事儿2020-04-26 09:07:52

    Parquet是一种列式存储格式,很多种处理引擎都支持这种存储格式,也是spark sql的默认存储格式。Spark SQL支持灵活的读和写Parquet文件,并且对parquet文件的schema可以自动解析。当Spark SQL需要写成Parquet文件时,处于兼容的原因所有的列都被自动转化为了nullable。 读写Parquet文件

  • hive的数据存储格式2020-02-06 09:42:20

    hive支持hadoop中的TextFile、RCFile、SequenceFile、AVRO、ORC、Parquet格式 1、TextFile每一行都是一条记录,每行都以换行符\n结尾,数据不压缩,磁盘开销大,数据解析开销大,可以结合Gzip和Bzip2使用。这种方式,hive不会对数据切分,从而也不会对数据进行并行处理 2、SequenceFile是一

  • java-镶木地板格式的Mapreduce错误2019-11-21 23:02:25

    我正在尝试运行mapreduce工作.我的文件是实木复合地板格式. 我收到以下错误: Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/thrift/TException at parquet.format.converter.ParquetMetadateConverter.readParquetMetadata(ParquetMetadateConverter.ja

  • Java-Spark SQL:嵌套类导致拼花错误2019-11-19 01:00:03

    我似乎无法在镶木地板上写JavaRDD< T>.其中T代表Person类.我将其定义为 public class Person implements Serializable { private static final long serialVersionUID = 1L; private String name; private String age; private Address address; .... 地址: pub

  • 是否可以在不依赖Hadoop和HDFS的情况下使用Java读写Parquet?2019-11-11 19:10:44

    我一直在寻找这个问题的解决方案. 在我看来,如果不依赖HDFS和Hadoop,就无法在Java程序中嵌入读写Parquet格式.这个对吗? 我想在Hadoop集群之外的客户端计算机上进行读写. 我开始对Apache Drill感到兴奋,但是看来它必须作为单独的进程运行.我需要的是一种使用Parquet格式读写文件的过

  • HIVE存储格式ORC、PARQUET对比2019-11-06 22:52:15

      hive有三种默认的存储格式,TEXT、ORC、PARQUET。TEXT是默认的格式,ORC、PARQUET是列存储格式,占用空间和查询效率是不同的,专门测试过后记录一下。 一:建表语句差别 create table if not exists text(a bigint) partitioned by (dt string)row format delimited fields

  • python-指定实木复合地板属性pyspark2019-10-26 22:58:44

    如何在PySpark中指定镶木地板块大小和页面大小?我到处搜索,但是找不到函数调用或导入库的任何文档.解决方法:根据spark-user archives sc.hadoopConfiguration.setInt("dfs.blocksize", some_value) sc.hadoopConfiguration.setInt("parquet.block.size", some_value) 所以在PySpa

  • java – 从AWS s3存储桶读取镶木地板数据2019-10-08 00:02:47

    我需要从aws s3读取镶木地板数据.如果我为此使用aws sdk,我可以得到这样的输入流: S3Object object = s3Client.getObject(new GetObjectRequest(bucketName, bucketKey)); InputStream inputStream = object.getObjectContent(); 但是apache镶木地板阅读器只使用这样的本地文件:

  • 在java中创建镶木地板文件2019-10-06 17:05:12

    有没有办法从java创建镶木地板文件? 我在内存中有数据(java类),我想把它写成一个镶木地板文件,以后再从apache-drill中读取它. 有没有一种简单的方法可以做到这一点,比如将数据插入到sql表中? 得到它了 谢谢您的帮助. 结合答案和这个link,我能够创建一个镶木地板文件并用钻头读回来.

  • 如何在python中使用pyarrow从S3读取分区镶木地板文件2019-10-04 01:09:02

    我正在寻找使用python从s3读取多个分区目录数据的方法. data_folder / SERIAL_NUMBER = 1 / cur_date = 20-12-2012 / abcdsd0324324.snappy.parquet data_folder / SERIAL_NUMBER = 2 / cur_date = 27-12-2012 / asdsdfsd0324324.snappy.parquet pyarrow的ParquetDataset模块具有

  • python – dask dataframe读取镶木地板架构差异2019-10-02 09:00:10

    我做以下事情: import dask.dataframe as dd from dask.distributed import Client client = Client() raw_data_df = dd.read_csv('dataset/nyctaxi/nyctaxi/*.csv', assume_missing=True, parse_dates=['tpep_pickup_datetime', 'tpep_dropoff_datetim

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有