ICode9

精准搜索请尝试: 精确搜索
  • RocketMQ基础及应用2021-06-01 16:02:20

    RocketMQ基础及应用 基础概念消息消费模式消息发送方式消息过滤事务消息重试机制顺序消费 基础概念 消息消费模式       消息消费模式由消费者来决定,可以由消费者设置MessageModel来决定消息模式。消费模式默认为集群消费模式。       1.MessageModel.CLUST

  • kafka分布式的情况下,如何保证消息的顺序?2021-05-31 20:34:51

    作者:可期链接:https://www.zhihu.com/question/266390197/answer/772404605来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 关于Kafka保证单partition有序的讨论如下: 一、为什么只保证单partition有序 如果Kafka要保证多个partition有序,不仅broker

  • 一文让你了解的Kafka重点原理2021-05-29 22:03:22

    Kafka原理解析 文章目录 Kafka原理解析一、什么是消息队列?什么是Kafka?1.1 消息队列1.2 Kafka概念与基础架构 二、Kafka架构深入!!2.1 Kafka存储模型2.2 Kafka Producer2.2.1 数据分区2.2.2 数据可靠性保证2.2.3 Exactly-Once语义2.2.4 Producer数据提交流程 2.3 Kafka Consu

  • Kafka生产者参数剖析2021-05-27 18:06:13

    1.acks kafka producer向topic分区leader副本所在的broker发送消息时,leader副本会向producer发出应答。根据不同的ack参数,应答方式也不同。 acks = 0 ,producer发完消息,不等待broker端返回,直接开始发送下一条数据,很显然,如果消息发送到broker的过程中,出了问题,这条消息就丢失了,因此生

  • python开发基础-生产消费模型2021-05-26 20:03:33

    # 生产者消费模型import reimport time def eat(): def producer(): # 生产 bun = [] for i in range(11): bun.append(i) time.sleep(1) print(time.asctime(time.localtime(time.time()))) # 打印服务器时间 retur

  • Kafka 如果丢了消息,怎么处理的?2021-05-25 23:51:59

    Kafka存在丢消息的问题,消息丢失会发生在Broker,Producer和Consumer三种。 Broker Broker丢失消息是由于Kafka本身的原因造成的,kafka为了得到更高的性能和吞吐量,将数据异步批量的存储在磁盘中。消息的刷盘过程,为了提高性能,减少刷盘次数,kafka采用了批量刷盘的做法。即,按照一定的消息

  • RocketMQ源码分析(二)Producer2021-05-24 23:02:08

    1.3 Producer 消息生产者的代码都在client模块中,相对于RocketMQ来讲,消息生产者就是客户端,也是消息的提供者。 1.3.1 方法和属性 1)主要方法介绍 //创建主题 void createTopic(final String key, final String newTopic, final int queueNum) throws MQClientException; 12 //根

  • 【实战】SpringBoot + KafKa实现生产者和消费者功能2021-05-21 12:01:20

    1.配置pom包 <dependency>   <groupId>org.springframework.kafka</groupId>   <artifactId>spring-kafka</artifactId> </dependency> 2.配置application.yml kafka部分: kafka:    # 指定kafka 代理地址,可以多个     bootstrap-servers: hadoop:9092, s

  • Debuting a Modern C++ API for Apache Kafka2021-05-15 14:01:36

    Morgan Stanley uses Apache Kafka® to publish market data to internal clients and to persist it for replay purposes. We started out using librdkafka’s C++ API, which maintains C++98 compatibility. C++ is evolving quickly, and we wanted to break away from t

  • Kafka如何保证百万级写入速度 并 保证不丢失不重复消费2021-05-13 18:04:11

    一、如何保证百万级写入速度: 目录 1、页缓存技术 + 磁盘顺序写 2、零拷贝技术 3、最后的总结 “这篇文章来聊一下Kafka的一些架构设计原理,这也是互联网公司面试时非常高频的技术考点。 Kafka是高吞吐低延迟的高并发、高性能的消息中间件,在大数据领域有极为广泛的运用。配置良好的K

  • 如何让消息队列达到最大吞吐量?2021-05-13 09:57:44

    你在使用消息队列的时候关注过吞吐量吗? 思考过吞吐量的影响因素吗? 考虑过怎么提高吗? 总结过最佳实践吗? 本文带你一起探讨下消息队列消费端高吞吐的 Go 框架实现。Let’s go! 关于吞吐量的一些思考 写入消息队列吞吐量取决于以下两个方面 网络带宽 消息队列(比如Kafka)写入速度

  • 消息队列把消息弄丢了怎么办?2021-05-13 09:33:42

    消息队列会丢失消息吗? 答案是肯定的,所以对于业务严谨的数据,我们要确保其在消息队列中的安全,不能丢。 要想解决不丢的问题,首先要弄清楚 消息是怎么丢的呢? 丢消息的关键点有3个: Producer 发送消息的过程 消息队列的消息存储 Consumer 消费消息的过程 下面挨个看看都是怎么丢的,以及

  • kafka一些基本原理2021-05-11 17:33:59

       Producer:Producer即生产者,消息的产生者,是消息的入口。  kafka cluster:    Broker:Broker是kafka实例,每个服务器上有一个或多个kafka的实例,我们姑且认为每个broker对应一台服务器。每个kafka集群内的broker都有一个不重复的编号,如图中的broker-0、broker-1等……   

  • RocketMQ消息发送demo演示2021-05-11 15:30:06

    导入pom依赖 <dependency> <groupId>org.apache.rocketmq</groupId> <artifactId>rocketmq-client</artifactId> <version>4.4.0</version> </dependency> 消息发送者步骤分析 1.创建消息生产者producer,并制定生产者组名 2.指定Nameserver地址

  • Kafka Producer 的缓冲池机制【转】2021-05-11 13:04:51

    在新版的 Kafka Producer 中,设计了一个消息缓冲池,在创建 Producer 时会默认创建一个大小为 32M 的缓冲池,也可以通过 buffer.memory 参数指定缓冲池的大小,同时缓冲池被切分成多个内存块,内存块的大小就是我们创建 Producer 时传的 batch.size 大小,默认大小 16384,而每个 Batch 都会包

  • kafka 简要搭建测试2021-05-10 14:58:28

    简介 Kafka是最初由Linkedin公司开发,是一个分布式、分区的、多副本的、多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/nginx日志、访问日志,消息服务等等 主要应用场景是:日志收集系统和消息系统。 快速搭建测试 这里使用的docker进行快速构建服

  • Kafka2021-05-06 21:01:55

    第1章 Kafka概述 1.1 定义   Kafka是一个分布式的基于发布/订阅模式的消息队列(Message Queue),主要应用于大数据实时处理领域。 1.2 消息队列 1.2.1 传统消息队列的应用场景   使用消息队列的好处     1)解耦       允许你独立的扩展或修改两边的处理过程,只要确保

  • RocketMQ入门到入土(一)新手也能看懂的原理和实战!2021-05-04 22:56:18

    精彩推荐 一百期Java面试题汇总SpringBoot内容聚合IntelliJ IDEA内容聚合Mybatis内容聚合学任何技术都是两步骤: 搭建环境 helloworld 我也不例外,直接搞起来。 一、RocketMQ的安装1、文档官方网站 http://rocketmq.apache.org GitHub https://github.com/apache/rocketmq 2、下

  • RocketMQ入门到入土(二)事务消息&顺序消息2021-05-04 22:55:33

    精彩推荐一百期Java面试题汇总SpringBoot内容聚合IntelliJ IDEA内容聚合Mybatis内容聚合 接上一篇:RocketMQ入门到入土(一)新手也能看懂的原理和实战! 一、事务消息的由来 1、案例 引用官方的购物案例: 小明购买一个100元的东西,账户扣款100元的同时需要保证在下游的积分系统给小明这个

  • 从入门到入土(三)RocketMQ 怎么保证的消息不丢失?2021-05-04 22:55:01

    精彩推荐 一百期Java面试题汇总SpringBoot内容聚合IntelliJ IDEA内容聚合Mybatis内容聚合 接上一篇:RocketMQ入门到入土(二)事务消息&顺序消息 面试官常常喜欢问:RocketMQ 怎么保证的消息不丢失? 再遇到这个问题,就可以把这篇文章甩给他了~ 一、消息发送过程 我们将消息流程分为如下三大

  • RocketMQ入门到入土(四)producer生产消息源码剖析2021-05-04 22:54:52

    精彩推荐 一百期Java面试题汇总SpringBoot内容聚合IntelliJ IDEA内容聚合Mybatis内容聚合 接上一篇:从入门到入土(三)RocketMQ 怎么保证的消息不丢失? 篇幅不是每一行代码都进行解析,没意义。冗余的文字你看着烦我写着也闹心,只剖析核心流程以及原理。 一、Demo import org.apache.rocke

  • python操作kafka2021-04-29 15:01:42

    1.生产者推送 # pip install kafka-python import json import time import datetime from kafka import KafkaProducer topic='topic' server="ip:port" # 测试版:无用户名密码 # value_serializer 指定序列号方式,传入字典,转成json字符串 def producer(): producer = Kaf

  • RocketMQ的发送模式和消费模式2021-04-28 23:04:50

     前言小伙伴们大家好啊,王子又来和大家一起闲谈MQ技术了。通过之前文章的学习,我们已经对RocketMQ的基本架构有了初步的了解,那今天王子就和大家一起来点实际的,用代码和大家一起看看RocketMQ的几种发送模式和消费模式。好了,让我们开始吧。 RocketMQ的环境准备本次我们的环境搭建是基

  • [源码分析] 消息队列 Kombu 之 Producer2021-04-26 10:57:59

    本系列我们介绍消息队列 Kombu。Kombu 的定位是一个兼容 AMQP 协议的消息队列抽象。通过本文,大家可以了解 Kombu 中的 Producer 概念。[源码分析] 消息队列 Kombu 之 Producer目录[源码分析] 消息队列 Kombu 之 Producer4.1 组装消息 in channel4.2 发送消息 in channel4.3 deliver

  • 大数据:kafka2021-04-25 23:01:56

    kafka是一个分布式的基于发布/订阅模式的消息队列,主要应用于大数据实时处理领域。2消息队列的两种模式1、点对点模式(一对一,消费者主动拉取数据,消息收到后消息消除)消息生产者生产消息发送到队列中,然后消息消费者从队列中取出并且消费消息。消息被消费以后,queue中不再有存储,所以消息

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有