ICode9

精准搜索请尝试: 精确搜索
  • Explaion分析partitions字段2020-09-30 18:02:08

    使用EXPLAIN关键字可以模拟优化器执行SQL语句,分析查询语句或是结构的性能瓶颈。在select语句之前增加explaion关键字,MySQL会在查询上设置一个标记,执行查询会返回执行计划的信息,而不是执行SQL。 Explaion分析示例 执行explain: explain select * from actor;   image.jpeg

  • spark源码分析, 任务提交及序列化2020-08-24 15:00:18

      org.apache.spark.scheduler.DAGScheduler#submitMissingTasks   => org.apache.spark.scheduler.TaskSchedulerImpl#submitTasks // First figure out the indexes of partition ids to compute. val partitionsToCompute: Seq[Int] = stage.findMissingPartiti

  • 如何进行zabbix数据库优化?2020-08-06 16:35:05

    MySQL版本推荐 MySQL5.7及以上版本,便捷的在线DDL方便zabbix的快速升级 链接数据库方式:zabbix的server、proxy、MySQL数据库尽量使用域名方式连接,方便进行故障切换。 zabbix数据库的授权 读写权限,用作zabbix自身访问: grant all privileges on zabbix. to 'zabbix'@'1.1.1.1' identi

  • zabbix的数据库优化2020-07-20 09:31:16

    zabbix的数据库优化 AIOPS_DBA关注0人评论1007人阅读2019-12-12 16:54:37   走zabbix的1.6版本开始测试,1.8的版本开始线上使用,线上使用过1.9、2.0、2.2、3.0、4.0的版本,使用或是测试过zabbix1.6之后的所有版本。个人也有之前的SA转变为DBA,就zabbix的运维走数据库层面有一些

  • 切换 leader2020-06-21 17:53:30

    场景: 3 节点集群 (b1, b2, b3),分区 tp1 的 isr[1, 2, 3],leader 是 1,现在希望把 tp1 的 leader 切换为 3,怎么操作? 1. 通过 zk 客户端,修改 zk 上 tp1 的 isr 列表为 [3, 2, 1] 2. 执行命令行 kafka-preferred-replica-election.sh,把需要修改 leader 的分区信息写入到 zk 的 /admin/p

  • Spark Parquet file split2020-05-14 10:02:39

    在实际使用 spark + parquet 的时候, 遇到了两个不解的地方: 我们只有一个 parquet 文件(小于 hdfs block size), 但是 spark 在某个 stage 生成了4个 tasks 来处理. 4个 tasks 中只有一个 task 处理了所有数据, 其他几个都没有处理数据. 这两个问题牵涉到对于 parquet spar

  • 大流量大负载的Kafka集群优化实战2020-04-06 21:01:54

    前言背景 算法优化改版有大需求要上线,在线特征dump数据逐步放量,最终达到现有Kafka集群5倍的流量,预计峰值达到万兆网卡80%左右(集群有几十个节点,网卡峰值流出流量800MB左右/sec、写入消息QPS为100w+ msgs/sec)。上下游服务需要做扩容评估,提前做好容量规划,保障服务持续稳定运行 L3

  • Kafka-再均衡监听器2020-04-06 15:07:12

    Kafka-再均衡监听器 在为消费者分配新分区或移除旧分区时,可以通过消费者API执行一些应用程序代码,在调用subscribe()方法时传进去一个ConsumerRebalanceListener实例就可以了。 public void onPartitionsRevoked(Collection<TopicPartition> partitions) 方法会在再均衡开始之前和

  • kafka创建生产者报错:Invalid partition given with record: 1 is not in the range [0...1)2020-03-03 20:42:24

    原因是在kafka的server.properties文件中设置有默认的partition,num.patitions. 可修改分区默认值。 partitions在是在创建topic的时候默认创建的配置文件中指定的partitions节点个数,只对新创建的topic生效。如果要自定义指定partition的值,可以通过命令实现。 ./bin/kafka-to

  • CF961G Partitions2020-01-26 14:03:30

    CF961G Partitions题解 题意: 给出\(n\) 个物品, 每个物品有一个权值\(w_i\) 定义一个集合\(S\) 的权值\(W(S)=|S|\sum\limits_{x\in S}w_x\) 定义一个划分的权值为\(W'(R)=\sum\limits_{S\subseteq R}W(S)\) 求将\(n\) 个物品划分成\(k\) 个集合的所有方案的权值和 \(n,k\le2\ti

  • Kafka note2019-10-30 23:50:48

    The Kafka cluster stores streams of records in categories called topics. Each record consists of a key, a value, and a timestamp. Kafka has four core APIs: Producer(publish a stream of records to one or more Kafka topics), Consumer(subscribe to one or mor

  • spark--job和DAGScheduler源码2019-10-27 15:55:27

       一个job对应一个action操作,action执行会有先后顺序; 每个job执行会先构建一个DAG路径,一个job会含有多个stage,主要逻辑在DAGScheduler。 spark提交job的源码见(SparkContext.scala的runJob方法): def runJob[T, U: ClassTag]( rdd: RDD[T], func: (TaskContext, Iter

  • kafka消费者2019-10-18 16:00:34

    kafka消费者一个正常的消费逻辑需要具备以下几个步骤: 配置消费者客户端参数及创建相应的消费者实例。 订阅主题。 拉取消息并消费。 提交消费位移。 关闭消费者实例。 kafka消费者参数配置介绍 config-key config-explain bootstrap.servers 用来指定连接 Kafka 集群所需的

  • ucosii内存管理代码的分析2019-08-19 10:53:03

    1.ucosii内存管理的简易原理 ucosii的内存管理,采用的是如下方式,先分成若干个partitions,每个partitions再分成若干个blocks,每个blocks可以划分成若干大小的blksize(ucosii中,对blocksize的缩写)。使用时,通常在task中定义一个局部二维数组作为内存管理的“载体”,这个局部二维数组就是1

  • kafka producer partitions分区器(七)2019-08-13 14:57:25

      消息在经过拦截器、序列化后,就需要确定它发往哪个分区,如果在ProducerRecord中指定了partition字段,那么就不再需要partitioner分区器进行分区了,如果没有指定,那么会根据key来将数据进行分区,如果partitioner和key都没有指定,那么就会采用默认的方式进行数据分区。   有没有指定pa

  • Spark-SubmitTask2019-08-06 22:57:11

    1.Rdd rdd中 reduce、fold、aggregate 这些ShuffleTask  还有collect、count这些finalTask 都会调用 sparkContext.runJob def reduce(f: (T, T) => T): T = withScope {   val cleanF = sc.clean(f)   val reducePartition: Iterator[T] => Option[T] = iter => {     i

  • mysql key分区,分区数制定2019-08-05 12:54:45

    我相信不 太注意的同学肯定会入坑,今天我差点也入坑了,后面自己问自己如果我用key分区,自己问自己 我的分区数应该是多少??? 后面我陷入了沉思......... 我第一次想先随便弄一个分区数,在本地试试,后面意外发生了。 1.我随便定了一个数10个分区: 查看的SQL语句: SELECT table_schema, table_n

  • Kafka partitions 迁移2019-08-02 15:57:08

    echo '{"topics":[{"topic": "test1"},{"topic":"test2"}], "version":1}' >ready-move-topics.json /usr/hdp/current/kafka-broker/bin/kafka-reassign-partitions.sh --zookeeper agent01.amba

  • Spark学习 -- RDD2019-07-11 17:00:35

    一、RDD是什么   RDD,全称为 Resilient Distributed Datasets,是一个容错的、并行的数据结构,可以让用户显式地将数据存储到磁盘和内存中,并能控制数据的分区。   RDD是只读的、分区记录的集合。RDD只能基于在稳定物理存储中的数据集和其他已有的RDD上执行确定性操作来创建。这些确

  • 开发(二) ardunio批量固件上传地址2019-06-15 20:02:23

    https://blog.csdn.net/Naisu_kun/article/details/84958561 批量烧录固件到模块中上面讲了如何编写上传程序,接下来讲讲如何量产。相比《Arduino for esp8266》的量产烧录,这次的ESP32相对来说麻烦些。仔细观察上面程序的上传过程(具体的字节数可能和上文程序有出入):   整个过程向E

  • 大数据学习之Hive数据仓库DDL数据定义语言212019-05-20 15:43:50

    九:DDL数据定义(Data Definition Language 数据定义语言) 数据定义语言,用于定义和管理 SQL 数据库中的所有对象的语言 create table 创建表      alter table  修改表    drop table 删除表    truncate table 删除表中所有行      create index 创建索引

  • Kafka 分区分配计算(分区器 Partitions )2019-05-14 14:55:59

    KafkaProducer在调用send方法发送消息至broker的过程中,首先是经过拦截器Inteceptors处理,然后是经过序列化Serializer处理,之后就到了Partitions阶段,即分区分配计算阶段。在某些应用场景下,业务逻辑需要控制每条消息落到合适的分区中,有些情形下则只要根据默认的分配规则即可。在KafkaP

  • Kafka(一)简介2019-04-23 16:51:54

    1、Kafka简介   Kafka已经被很多公司广泛应用,一款实时流式消息组件。发送消息端称为Producer,接收端称为Consumer,Kafka集群有多个kafka实例组成,每个实例称为broker。无论是producer和consumer都依赖于zookeeper来保证系统可用性集群保存一些meta信息。   2、Topics/logs 一个Topi

  • hive-show-partitions2019-03-15 12:42:08

    展示分区命令 show partitions show partitions 可以展示这个表格之下的所有分区信息。这个命令常常用在使用SQL语句操作数据之前。举个简单的例子,如果我们想要根据uid融合两个hive表格,那么在筛选数据的时候用到分区dt(datetime)以确保融合的数据是在同一天生成的。 我们可以在控制

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有