ICode9

精准搜索请尝试: 精确搜索
  • ElasticSearch实战(四十八)-Debeizum 实现 MySQL 数据实时同步方案2021-09-25 15:02:13

            前文我们通过 Canal 来实时同步数据,Debeizum 是一种比 Canal 更好的实时同步方案,它底层是基于 Kafka-connect 为核心构建的,可以完美对接 Kafka 家族生态,上游支持接入 MongoDB、MySQL、PostgreSQL、SQL Server、Oracle、Db2、Cassandra、Vitess,下游是只支持接入 Kaf

  • ELK7日志采集架构与实战2021-09-25 12:04:47

    先带大家看一张架构图,建议企业日志采集架构采用:Beats + Kafka + Logstash + ES集群 + Kibana(Grafana)   Beats: 由于原生的Logstash当日志采集器过重,所以采用Beats来进行采集,常用的采集器有filebeat和metricbeat。采集数据写入Kafka Kafka: 由于Logstash当日志接收的话,有单点瓶颈

  • 2021年Java网络编程总结篇,美团阿里Java程序员晒工资被围观2021-09-25 11:34:31

    那么,如何学习Kafka源码?? 我觉得最高效的方式就是去读最核心的源码,先看一张?Kafka结构图?以及?Kafka 源码全景图 梳理一下关于?Kafka 框架,找到学习的重点。 其次,我要说的就是一个Kafka源码解析的文档——《Kafka源码解析与实战》 前5章分别是:Kafka简介、Kafka的架构、Broker概述、

  • Kafka多线程消费2021-09-24 18:01:17

    本文简单介绍下如何使用多线程消费kafka 注: 以下示例采用Kafka版本2.2 消费者配置 消费者从Kafka读取消息,需要考虑以下消费者配置。 参数 说明 max.poll.records(default=500) 消费者单次获取的最大消息条数 fetch.max.bytes(default=52428800) 服务器应为获取请求返回

  • 37 手游基于 Flink CDC + Hudi 湖仓一体方案实践2021-09-24 11:05:34

    ​简介: 介绍了 37 手游为何选择 Flink 作为计算引擎,并如何基于 Flink CDC + Hudi 构建新的湖仓一体方案。 本文作者是 37 手游大数据开发徐润柏,介绍了 37 手游为何选择 Flink 作为计算引擎,并如何基于 Flink CDC + Hudi 构建新的湖仓一体方案,主要内容包括: Flink CDC 基本知识介

  • kafka docker 安装2021-09-24 10:07:06

    使用Docker 安装 Kafka 最近工作需要用到kafka相关的知识,但是之前没有学过,所以想着在自己的服务器上面搭建一个单节点的kafka消息队列,来做测试,学习,记录一下搭建的简单过程 首先你需要有一台linux的机器,这个不多做赘述。都知道 kafka需要zookeeper,所以需要先运行zookeeper。

  • Kafka面试准备,收藏这一篇就够了!!!2021-09-24 09:00:29

        为什么要用消息队列?为什么选择了kafka? kafka的组件与作用(架构)? kafka为什么要分区? Kafka生产者分区策略? kafka的数据可靠性怎么保证?(丢,重) kafka的副本机制? kafka的消费分区分配策略? kafka的offset怎么维护? kafka为什么这么快?(高效读写数据) Kafka消息数据积压,Kafk

  • Kafka动态增加Topic的副本2021-09-23 21:30:10

    一 需求描述 一个分区可以有多个副本,这些副本保存在不同的broker上,可实现kafka高可用。每个分区的副本中都会有一个作为Leader。当一个broker失败时,Leader在这台broker上的分区都会变得不可用,kafka会自动移除Leader,再其他副本中选一个作为新的Leader。 假如我们目前kafka集群环

  • kafka的使用2021-09-23 18:32:18

    参考文章 [参考文章](https://www.cnblogs.com/yangms/p/14445307.html) [参考文章](https://www.cnblogs.com/juniorMa/articles/13936154.html) 关键字 Topics(主题):每条发布到Kafka集群的消息都有一个类别,这个类别被称为topic。(物理上不同topic的消息分开存储,逻辑上一个to

  • 这本Alibaba高性能架构路线,看过的人都已经年薪百万了!2021-09-23 13:33:36

    架构师?多么具有吸引力的三个字!那咱今天就来聊聊Alibaba百万年薪架构师必备技能——高性能架构学习路线:中间件、Nginx、缓存、ZK等等...看下方高性能架构进阶技能图... 纯手绘高性能架构进阶技能图 说明:以下全部所说的架构师必备技能之高性能架构学习路线及相关笔记:中间件、Ngi

  • KafKa2021-09-22 09:05:12

    服务注册发现的过程 etcd由哪几部分构成? etcd作为一个高可用的键值存储系统,天生就是为了集群化而设计的,一般etcd推荐奇数个节点,推荐的节点数量是 3、5、7 构成一个集群。 启动etcd 安装完 etcd 以后,使用 go 进行连接 连接 etcd import ( "context" "fmt" "time" "go.etcd.i

  • 消息队列之 kafka 集群搭建2021-09-21 21:00:10

    我们先弄清楚kafka集群环境首先需要些什么 JDK 10+ Zookeeper Kafka 2.x 首先准备三台虚拟机 centos7 ,更改IP地址为静态地址分别为,29、30.31 cd /etc/sysconfig/network-scripts #进入网卡文件目录 vim ifcfg-ens33 #使用vim编辑器编辑该网卡信息(需要编辑当前链接的网卡) servi

  • apache druid 与kafka整合使用2021-09-21 19:30:15

    前言 在上一篇,我们了解了apache druid的搭建,以及如何快速导入外部数据源到apache druid中进行数据分析和使用 本篇,我们结合一个实际的简单的应用场景,来说说apache druid如何在实际项目中进行使用 业务场景 如下所示,是一个很常见的数据分析的业务,通常来说,很多实时或准实时的数

  • 大型数据库(8)--- Kafka安装与配置2021-09-20 18:32:36

    安装说明 安装环境 虚拟机:VirtualBox-6.1.18 操作系统:Ubuntu16.04LTS 集群情况: 主机名称Hadoop版本ZooKeeper版本IP地址hadoop-master2.7.33.6.3192.168.56.1hadoop-slave12.7.33.6.3192.168.56.1hadoop-slave22.7.33.6.3192.168.56.1 本次安装的Kafka Kafka版本:2.13-2.8.0

  • “快”到上天的Kafka,性能优化的手段有多高明?2021-09-19 23:36:47

    以讲解性能作为 Kafka 之旅的开篇之作,让我们一起来深入了解 Kafka “快”的内部秘密。你不仅可以学习到 Kafka 性能优化的各种手段,也可以提炼出各种性能优化的方法论,这些方法论也可以应用到我们自己的项目之中,助力我们写出高性能的项目。   关公战秦琼   65: Redis 和 Kafka 完

  • 快速实现KAFKA单机、集群部署2021-09-19 09:33:28

    一、概述 1、关键作用:解耦、削峰填谷、异步处理 2、常见的MQ消费分类:至多一次消费、没限制 3、kafka名词解释: ① topic:一个消息只能进入一个topic中; ② partition:每个topic会根据分区数划分多个分区,每个分区相互独立。消息有key时使用hash分发到对应分区,无key使用轮询分散到

  • 大数据技术周报第 003 期2021-09-18 18:04:30

    这里记录过去一周,大数据相关值得分享的东西,每周日发布。 ![大数据技术周报003.png](https://img-blog.csdnimg.cn/img_convert/9ef503957983ff8e385f23e27754c98f.png#clientId=u0c6597f6-6c1c-4&from=ui&id=u9090de37&margin=[object Object]&name=大数据技术周报003.png&or

  • Kafka - 01 - 入门及安装2021-09-18 11:06:07

    文章目录 1. 初识 kafka2. kafka 名词解释3. 入门介绍3.1 主要功能3.2 kafka 使用场景3.3 一些常识3.4 kafka 的 4 个核心 API:3.5 kafka 基本术语3.6 Toic 和 Log3.7 分布式(Distribution)3.8 Geo-Replication(异地数据同步技术)3.9 生产者(producers)3.10 消费者(Consumers)3.11 K

  • kafka命令2021-09-17 18:34:38

    目录 kafka 启动 1、zookeeper启动 2、kafka启动 查询所有topic 实时查询topic数据 查询指定topic创建信息 创建topic 删除topic 生产数据 消费数据 kafka 启动 由于kafka依赖zookeeper,因此启动kafka需要先启动zookeeper。 1、zookeeper启动 cd zookeeper-3.4.6 /

  • kafka(五):消费组信息提取2021-09-17 13:01:59

    文章目录 说明分享环境实现maven代码 总结 2021-09-17 说明 本博客每周五更新一次。本文功能性博文,提取kafka所有消费组相关信息,整理后,提供为prometheus。 分享 大数据博客列表 环境 kafka2.3.0 实现 maven <dependency> <groupId>org.apache.kafka</groupId>

  • 程序员中年危机,深度解析跳槽从开始到结束完整流程,2021-09-17 12:05:16

    第一份资料:Kafka实战笔记 Kafka入门 为什么选择Kafka Karka的安装、管理和配置 Kafka的集群 第一个Kafka程序 afka的生产者 Kafka的消费者 深入理解Kafka 可靠的数据传递 Spring和Kalka的整合 Sprinboot和Kafka的整合 Kafka实战之削峰填谷 数据管道和流式处理(了解即

  • kafka自动提交offset的设置理解2021-09-17 09:58:41

    1 开启checkpoint时: 我们需要在数据流创建的时候设置开启自动提交offst至checkpoint,它会自动同步offset到kafka 这样设置之后,程序在checkpoint时,如果checkpoint成功, 那么会同步当前checkpoint中的offset至kafka 2 关闭checkpoint时: 1、如果还想自动提交offset 可以在kafka

  • kafka集群部署2021-09-16 22:59:56

    kafka集群部署 1)解压安装包 tar -zxvf kafka_2.11-2.4.1.tgz -C /home/xyp9x/ 2)在kafka目录下创建logs、kafka-logs文件夹 mkdir logs kafka-logs 3)修改配置文件 vi server.properties 将原内容全部清空,输入以下内容: #broker的全局唯一编号,不能重复 broker.id=0 #是否允许

  • 面向Java开发者的复习指南,搞定kafka看这一篇就够了2021-09-16 14:33:29

    所以,我认为在你选择之前不妨好好想想什么是Java?你适不适合从事这份工作? Java开发是近20多年来最热门的编程语言,就业市场确实比较大,入门的难度也比C和C++要低,结合各方面来说,你选择Java是一定没有问题的。 接下来就要好好想想自己适不适合从事这份工作。现在的IT互联网市场,如果你是

  • docker-compose kafka安装及外部访问不到kafka问题2021-09-16 13:32:54

    文章目录 一、docker-compose.yml二、kafkamanager/kafka-manager连接zookeeper三、PHP生产者、消费者连接总结 一、docker-compose.yml version: '3' services: zookeeper: image: bitnami/zookeeper container_name: zoo restart: always ports:

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有