ICode9

精准搜索请尝试: 精确搜索
  • Kafka的简单使用2022-08-27 17:32:48

    下面目的主要是进行简单测试kafka,比如在其他网络中已提供了IP和地址,进行kafka的读取,自已不想再写代码: 环境要求:存在java环境: 1、下载Kafka的程序 https://kafka.apache.org/downloads 2、将代码解压。 3、执行消息命令。 bin/kafka-console-consumer.sh --topic AUDI_APP_AUDIENC

  • kafka基础使用2022-08-27 12:03:19

    生产者/opt/kafka/bin/kafka-console-producer.sh --broker-list kafka.service.consul:9092 --topic 0bkmonitor_15026750 消费者/opt/kafka/bin/kafka-console-consumer.sh --bootstrap-server kafka.service.consul:9092 --topic 0bkmonitor_15026750 查询历史数据/opt/kafka/b

  • Kafka重启出错:Corrupt index found2022-08-25 20:00:37

        今天发现一台kafka broker宕掉,重启kafka broker集群发现日志中报如下错误,查阅各种资料,解决问题如下 一、出现的问题 Found a corrupted index file due to requirement failed: Corrupt index found, index file (/var/local/kafka/data/uws_topic-2/00000000000000254473.i

  • 消息队列 kafka2022-08-24 15:00:49

    Kafka 概念解释 topic:队列 producer:生产者,指发送消息端 consumer:消费者,消息消费端 consumer group:消费者组,消息会发给每个消费者组,每个消费者对应一个消费者组 border:kafka服务器 partition:分区 replication-factor:副本 ar:分区中的所有副本统称为AR isr:所有与leader副本保持

  • Kafka优势2022-08-22 06:30:59

    Kafka优势 kafka通常以集群的方式运行,实现高可用 topic(主题):在逻辑上对reorder(记录、日志)进行分组保存 kafka的分区 为了实现数据的高可用,比如将分区0的数据分散到不同的kafka节点,每一个分区都有一个broker作为leader和一个broker作为Follower kafka的高性能实现 顺

  • kafka触发Rebalance2022-08-20 00:04:45

    当kafka遇到如下四种情况的时候,kafka会触发Rebalance: 消费组成员发生了变更,比如有新的消费者加入了消费组组或者有消费者宕机 消费者无法在指定的时间之内完成消息的消费 消费组订阅的Topic发生了变化 订阅的Topic的partition发生了变化

  • kafka(3)2022-08-19 23:35:03

    1.kafka 保证消息的顺序性:    1.一个topic 只对应一个分区   2.发送消息的时候指定 key/partition   2.如何保障kafka数据不丢失:   kafka 消息不丢失:   生产端: 1.发送一条消息,调用send方法,会出现回调。如果失败可以重试; 2.参数ack设置,可试着为all,所有副本都落数据,才算成

  • Kafka生产者与消费者2022-08-19 11:31:31

    Kafka生产者与消费者 1. kafka客户端——生产者 1. pom配置 <properties> <lombok.version>1.16.18</lombok.version> <fastjson.version>1.2.66</fastjson.version> <kafka.version>2.4.1</kafka.version> </pr

  • 【kafka启动出错】ERROR Shutdown broker because all log dirs in /.../kafka/logs have failed (kafka.log.LogM2022-08-18 21:02:10

    启动kafka时出现错误    问题就发生在logs文件 ERROR Shutdown broker because all log dirs failed:意思大概是所有的log文件不能用,这样的情况可能是权限问题 那么进入logs查看   当前我们的用户是hadoop,而log文件都是root用户所属,因此可以通过修改权限所属解决 sudo chown

  • canal同步mysql实战2022-08-18 15:32:07

    环境 mysql 5.6.41 canal 1.15 1.16测试过后,一直报错canal_config表不存在,更换版本后正常 目的 : 同步一个数据库中的二个表 1、创建表 CREATE TABLE `user01` ( `id` int(64) NOT NULL AUTO_INCREMENT, `username` varchar(64) DEFAULT NULL, `password` varchar(64) DEFAULT N

  • kafka 如何保证消息不丢失2022-08-16 23:04:39

    今天我们来分析一下这个问题。 先来回忆一下kafka 中消息传输的整个过程   1、kafka 在producer 端产生消息,调用kafka producer client send方法发送消息 2、kafka producer client 使用一个单独的线程,异步的将消息发送给kafka server 3、kafka server收到消息以后,保存数据,并同

  • kafka2022-08-16 15:01:30

      另外找一个zk,有客户端命令的.\zkCli.cmd -server 127.0.0.1:2181ls /brokers 查看注册信息 1,kafka不支持分布式事务消息 不支持消费失败重试 2,kafka的单机TPS能跑到每秒上百万,是因为Producer端将多个小消息合并,批量发向broker 3,RocketMQ写入性能上不如kafka, 主要因为kafka主

  • 消息中间件系列---【使用密码方式SASL_PLAINTEXT连接Kafka时在docker中无法启动的问题】2022-08-16 12:02:04

    1.前言   当你读到这篇文章的时候,想必也被这个问题折磨了好久,同时我敢肯定的是,你也一定是内网开发,我甚至连镜像源都没有,只能一个一个下载,手动安装,但是再大的困难,只要遇到了执着的我们,便都能得到解决。 2.问题描述   项目测试环境是使用docker部署的,jdk采用的是openjdk,当kafka

  • kafka加密后命令行操作kafka2022-08-15 17:02:31

    kafka加密后命令行操作kafka   kafka安装时使用加密安装时,命令行操作kakfa进行topic创建,偏移量查看,消费者消费状况查询都需要使用到改密码,此处作为记录,便于后续查询使用。 1、创建文件,存放kafka加密算法及密码信息 cd  ${kafka_home}/  && mkdir cmd && cd cmd && touch confi

  • Windows下搭建kafka并通过命令消费2022-08-14 12:30:08

    一、依赖环境准备   1、检查JDK是否存在且和JVM版本一致,我这里系统是64位,JVM也是64位                      2、如果出现以下报错则是JVM不一致      二、安装kafka   1、下载最新版本kafka         kafka官方下载路径: https://kafka.apache.org/downloa

  • Kafaka基础架构2022-08-12 19:00:54

    Kafka定义   KafKa传统定义:Kafka是一个分布式的基于发布/订阅模式的消息队列(Message Queue),主要应用于大数据实时处理领域。   2.8以后的最新定义:Kafka是一个开源的分布式事件流平台(Event Streaming Platform),被数千家公司用于高性能数据管道、流分析、数据集成和关键任务应用

  • zookeeper、kafka加SASL认证后offsetExplorer如何连接2022-08-12 18:31:26

    按照如下所示配置既可:              

  • Springboot集成kafka高级应用实战2022-08-12 14:02:57

    深入应用 4.1 springboot-kafka 1)配置文件 kafka: bootstrap-servers: 52.82.98.209:10903,52.82.98.209:10904 producer: # producer 生产者 retries: 0 # 重试次数 acks: 1 # 应答级别:多少个分区副本备份完成时向生产者发送ack确认(可选0、1、all/-1)

  • kafka 拦截器2022-08-12 13:33:09

    kafka 拦截器 拦截器:允许应用程序在不修改逻辑的情况下,动态地实现一组可插拔的事件处理逻辑链。它能够在主业务操作的前后多个时间点上插入对应的“拦截”逻辑。 Spring MVC 拦截器视图: kafka 拦截器: Kafka 拦截器分为生产者拦截器和消费者拦截器。 生产者拦截器:允许你在发送消

  • Kafka消息交付可靠性保障2022-08-12 13:32:34

    Kafka消息交付可靠性保障 Kafka 消息交付可靠性保障以及精确处理一次语义的实现。 Kafka 对 Producer 和 Consumer 提供的消息交付可靠性保障: 最多一次(at most once):消息可能会丢失,但绝不会被重复发送。 至少一次(at least once):消息不会丢失,但有可能被重复发送。 精确一次(exactly o

  • Kafka基于TCP进行通信2022-08-12 13:32:06

    Kafka基于TCP进行通信 Apache Kafka 的所有通信都是基于 TCP 的,无论是生产者、消费者,还是 Broker 之间的通信都是如此。 生产者端的TCP管理 何时建立TCP连接 在创建 KafkaProducer 实例时,生产者应用会在后台创建并启动一个名为 Sender 的线程,该 Sender 线程开始运行时首先会创

  • Kafka 消费者组2022-08-12 13:31:40

    Kafka 消费者组 Consumer Group 是kafka 当中比较有亮点的设计了。 1. 消费者组的特点: 一个分区只可以被消费组中的一个消费者所消费。 一个消费组中的一个消费者可以消费多个分区,例如 C1 消费了 P0, P3。 一个消费组中的不同消费者消费的分区一定不会重复,例如: C1 -> P0、P3 C2

  • kafka 位移主题 __consumer_offsets2022-08-12 13:31:05

    kafka 位移主题 __consumer_offsets 位移主题 诞生背景 老版本的Kafka会把位移信息保存在Zookeeper中,当Consumer重启后,自动从Zk中读取位移信息。这种设计使Kafka Broker不需要保存位移数据,可减少Broker端需要持有的状态空间,有利于实现高伸缩性。 Zookeeper不适用于高频的写操作,这

  • kafka 提交位移2022-08-12 13:30:24

    kafka 提交位移 Kafka Consumer 提交位移的方式有两种:自动提交位移和手动提交位移(包括同步提交与异步提交)。 位移提交的语义保障是由你来负责的,Kafka 只会“无脑”地接受你提交的位移。你对位移提交的管理直接影响了你的 Consumer 所能提供的消息语义保障。 自动提交位移 ena

  • kafka 消费者2022-08-11 13:03:57

    消费者 消费者和消费者组 Kafka消费者从属于消费者群组。一个群组里的消费者订阅的是同一个主题,每个消费者接收主题一部分分区的消息。 消费者组1和消费者组2可以同时消费所有消息,互不影响。 再平衡: 分区的所有权从一个消费者转移到另一个消费者,这样的行为被称为再均衡。 消费

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有