ICode9

精准搜索请尝试: 精确搜索
  • Kafka多线程消费2021-09-24 18:01:17

    本文简单介绍下如何使用多线程消费kafka 注: 以下示例采用Kafka版本2.2 消费者配置 消费者从Kafka读取消息,需要考虑以下消费者配置。 参数 说明 max.poll.records(default=500) 消费者单次获取的最大消息条数 fetch.max.bytes(default=52428800) 服务器应为获取请求返回

  • Java8新特性 consumer2021-09-20 18:01:27

    个人公众号,欢迎关注下:小蜗牛会飞 Java8新特性 consumerJava8的一个新特性-consumerhttps://mp.weixin.qq.com/s/YIddXxQvW18ic73O3Jl_0w 今天来聊聊Java8的一个新特性-consumer,这个是在项目中发现同事用过,所以就研究研究一下。 consumer从字面上面来理解就是消费的意思,用过mq的,

  • 4.死信队列2021-09-20 17:37:04

    目录死信队列生产者消费者死信队列验证流程代码下载 死信队列 当消息未被确认消费,在满足指定规则情况下,会进入死信队列,运维人员会对一直不能消费的消息进行处理 生产者 /** * 同步-生产消息 * @param msg * @throws PulsarClientException */ @GetMapping

  • 2.0 kafka知识点!2021-09-14 19:04:41

    参考 https://blog.csdn.net/yuan_xw/article/details/51210954   Kafka是分布式发布-订阅消息系统,它最初由LinkedIn公司开发,使用Scala语言编写,之后成为Apache项目的一部分。   1.Kafka 模式简介: Kafka 将消息以 topic 为单位进行归纳 将向 Kafka topic 发布消息的程序成为

  • java实现数据批量处理,达到一定数量或者达到一定时间去处理2021-09-13 21:02:25

    1、批量处理通用代码 public class BatchQueue { private final int batchSize; private final Consumer<List<T>> consumer; private final int timeoutInMs; private AtomicBoolean isLooping = new AtomicBoolean(false); private BlockingQueue<T> queue = new

  • rabbitMq 全量同步数据 出现consumer和mq断开2021-09-10 17:02:10

    有个需求,需要从其他系统全量同步供应商数据(大概有40万的信息,每个信息有大量的数据,需要保存到多个表中),第一次同步发下触发了GC,同时发现consumer从mq断开。 然后开始排查,第一步怀疑是oom,创建对象过多,cup高负荷运行,导致内存oom, 针对这个问题,使用了克隆clone方式,实体类实现 添加

  • java~并行计算~大集合的并行处理2021-09-10 14:32:13

    上一次写了关于《FunctionalInterface~一个批量处理数据的类》和《Future和Callable实现大任务的并行处理》的文章,本讲主要结合实际应用,来封装一个集合并行处理组件,我们的集合分为数据库查询出现的分页集合;还有一个是内存的集合,今天主要说一下内存集合的并行处理。 场景介绍 有一

  • 分布式消息队列RocketMQ(四): RocketMQ工作原理2021-09-10 11:32:20

    工作原理 一、消息的生产1 消息的生产过程2 Queue选择算法轮询算法最小投递延迟算法 二、消息的存储1 commitlog文件2 consumequeue3 对文件的读写4 与Kafka的对比 三、indexFile1 索引条目结构2 indexFile的创建3 查询流程 四、消息的消费1 获取消费类型:拉取式、推送式2

  • Java8新特性-Lambda表达式,被spring相关问题虐哭了2021-09-09 13:02:00

    // 4.返回值简写 IRun run2 = () -> 10; run2.run(); } } interface IEat { void eat(String thing); } interface ISpeak { void talk(String who, String content); } interface IRun { int run(); } []( )案例3 final类型参数 ------------------

  • 如何获取 Kafka 的消费者详情? —— 从 Scala 到 Java 的切换2021-09-07 15:33:25

    目标及实现 实现如同 bin/kafka-consumer-group.sh –describe –bootstrap-server localhost:9092 –group CONSUMER_GROUP_ID的效果: [root@node2 kafka_2.12-1.0.0]# bin/kafka-consumer-groups.sh --describe --bootstrap-server localhost:9092 --group CONSUMER_GROUP_I

  • 7张图了解kafka基本概念2021-09-05 17:03:16

    kafka是apache基金会管理的开源流处理平台(官网http://kafka.apache.org/),但国内大多数人对其认知基本都是消息队列,所以我们先来了解下什么是消息队列。 消息队列 消息队列顾名思义就是存储消息的一个队列,消息生产者(producer) 往消息队列中投放消息, 消费者(consumer)读取消息队

  • kafka知识点2021-09-04 20:04:14

    kafka是什么? kafka比较官方的定义是一种高吞吐量的分布式发布订阅消息系统,主要用来做消息的异步处理、系统解耦、削峰控流处理; kafka系统架构图 上图所示,就是kafka的整体架构图,主要来说分为四个部分,下面主要对这四个部分的功能做一个简单介绍 topic:消息存放的目录即主题pro

  • kafka运维命令大全2021-09-01 18:31:56

    转自:【kafka运维】Kafka全网最全最详细运维命令合集(精品强烈建议收藏!!!) https://mp.weixin.qq.com/s?__biz=Mzg4ODY1NTcxNg==&mid=2247484656&idx=3&sn=cf8b22b7631453b34cfb5c748056f41e&chksm=cff69efbf88117ed240376b6e2f2131718116716ec9a358068d7cdab19006b725443fa779d96

  • Kafka的工作原理及过程2021-08-26 23:32:47

    一、Broker启动   当每个 broker 启动时,会在 ZooKeeper 中的 /brokers/ids 路径下创建⼀个节点来注册⾃⼰,节点 ID 为配置⽂件中的 broker.id 参数,后注册的 broker 会报 NodeExists 的错。如果不指定 broker.id 或者指定成 -1,节点 ID 会从 reserved.broker.max.id 这个参数加 1的

  • RabbitMQ原理介绍2021-08-25 14:02:18

    介绍 RabbitMQ是一个由erlang开发的AMQP(Advanved Message Queue)的开源实现。 应用场景 用户注册后,需要发注册邮件和注册短信,传统的做法有两种1.串行的方式;2.并行的方式 串行 将注册信息写入数据库后,发送注册邮件,再发送注册短信,以上三个任务全部完成后才返回给客户端。

  • 5.ribbon2021-08-25 13:34:43

       客户端负载均衡工具顾名思义应该是更改客户端即consumer  

  • 从零开始实现简单 RPC 框架 4:注册中心2021-08-24 22:03:29

    RPC 中服务消费端(Consumer) 需要请求服务提供方(Provider)的接口,必须要知道 Provider 的地址才能请求到。 那么,Consumer 要从哪里获取 Provider 的地址呢? 能不能 Consumer 自己配置 Provider 的地址? 这种方式理论上是可行的,不过事实上没人这么做。这种方式有以下缺点: Consum

  • 从零开始实现简单 RPC 框架 4:注册中心2021-08-24 22:00:07

    RPC 中服务消费端(Consumer) 需要请求服务提供方(Provider)的接口,必须要知道 Provider 的地址才能请求到。 那么,Consumer 要从哪里获取 Provider 的地址呢? 能不能 Consumer 自己配置 Provider 的地址? 这种方式理论上是可行的,不过事实上没人这么做。这种方式有以下缺点: Consumer

  • SpringBoot+Zookeeper+Dubbo整合(二)2021-08-23 17:03:41

        这篇文章总结结构上的服务提供方,消费方demo,用于学习交流:    1.打开idea,新建一个项目,这里要用到聚合项目搭建,首先新建一个maven或者SpringBoot项目的外壳,   结构层次是: <modules> <module>house-api</module> <module>house-provider</module> <module>hou

  • 8.20面试小结2021-08-20 20:03:39

    Flink介绍一下 flink是分布式的处理引擎,用于处理批数据或者流数据,批数据是有界的,流数据是无界的,分别对应批处理和流处理 Flink整个的架构由三个组成:Client,JobManager,TaskManager Client对Flink任务进行预处理,并将任务提交到Flink集群中 JobManager对整个集群进行管理,并负责资源的

  • Consumer的应用2021-08-20 14:36:10

    一、简介 Consumer表示一个操作,它接受一个输入参数,输入参数是个函数,并返回任何结果。与大多数其他功能接口,预计消费者操作通过副作用。 例如:输入参数:e -> System.out.println("Filtered value: " + e) 打印输出:Filtered value: three 说明这个函数正在消费stream流中的元素 二

  • 用 “volatile 标记位的停止方法“ 不适合的场景2021-08-18 08:00:18

      package com.mzj.thread.interrupt; import java.util.concurrent.ArrayBlockingQueue; import java.util.concurrent.BlockingQueue; /** * 用 “volatile 标记位的停止方法“ 不适合的场景 * * @author muzhongjiang 2021-08-12 **/ public class VolatileCanStop {

  • apisix基于username和password的JWT验证插件2021-08-13 15:04:21

    插件说明          基于jwt-auth插件,新增了password字段和相应的逻辑判断。          jwt-diy的属性表如下: 名称 类型 必选项 默认值 有效值 描述 key string 必须     不同的 consumer 对象应有不同的值,它应当是唯一的。不同 con

  • Python简单使用kafka2021-08-09 23:02:45

    在Windows上安装kafka可以参考: https://blog.csdn.net/weixin_38004638/article/details/91893910 简介 Kafka是分布式流处理系统(RabbitMQ仅仅只是消息队列),是一个分布式、分区的、多副本的、多订阅者,基于Zookeeper协调的分布式日志系统。kafka的吞吐量是很高的,至于为什么这么高可

  • kafka简介2021-08-07 14:57:51

    kafka为何高性能 Kafka基于zero copy原则,深度依靠操作系统内核实现快速移动数据。Kafka能将数据记录分批处理。这些批次数据可以通过端到端的方式从生产者到文件系统(Kafka主题日志)再到消费者。批处理能实现更高效的数据压缩并减少I / O延迟。Kafka将不可变的提交日志写入连续磁

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有