ICode9

精准搜索请尝试: 精确搜索
  • flume日志收集2020-07-10 18:35:07

    1、flume日志收集架构如下      2、解压安装包,修改文件夹名称,配置环境变量 tar -zxvf apache-flume-1.6.0-bin.tar.gz  export FLUME_HOME=/soft/flume  export PATH=$PATH:$FLUME_HOME/bin 修改conf下的flume-env.sh,在里面配置JAVA_HOME 3、从netcat收集日志 1、先在flume

  • 采集数据到HDFS2020-06-23 12:04:06

    采集数据到HDFS 安装flume在虚拟机hdp-1中, 打开SFTP-hdp-1窗口,将fllume压缩包导入到虚拟机hdp-1的/root/目录中.   解压flume压缩包到/root/apps/下,命令:    tar -xvzf apache-flume-1.6.0-bin.tar.gz -C apps/ 并将apache-flume-1.6.0-bin文件夹重命名为flume-1.6.0, 命令

  • Flume的学习和使用2020-06-19 17:36:57

    Flume的学习和使用 本文是基于CentOS 7.3系统环境,进行Flume的学习和使用 CentOS 7.3 一、Flume的简介 1.1 Flume基本概念 (1) 什么是Flume Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。 (2) Flume的目的 Flume最主要的作业就是,实

  • [BD] Flume2020-05-21 22:01:43

    什么是Flume 采集日志,存在HDFS上 分布式、高可用、高可靠的海量日志采集、聚合和传输系统 支持在日志系统中定制各类数据发送方,用于收集数据 支持对数据进行简单处理,写到数据接收方 组件 source channel sink 实例 配置文件 1 #bin/flume-ng agent -n a4 -f myagent/a4.c

  • Flume2-高可用+拦截器2020-04-05 17:02:50

    13-flume高可用-failover-模型分析(搭建一个Flume集群,当一个Flume挂掉之后,其他flume迅速补上)        ============================================================================================================================================================

  • 05 flume将数据导入到Hive2020-03-29 22:02:00

    我们已经了解了使用flume监听端口以及文件内容,本节将展示使用flume导入数据到hbase。 1 系统、软件以及前提约束 CentOS 7 64 工作站 作者的机子ip是192.168.100.200,请读者根据自己实际情况设置 已完成flume安装并监听端口数据,flume的服务名称为a1 https://www.jianshu.com/p/3e4

  • flume 的配置总结2020-03-11 21:57:27

      flume的配置无非就是四步:1、创建一个配置文件 2、在其中配置source,sink,Channel 的各项参数 3、连接各个组件   4、调用启动命令 配置参考官网http://flume.apache.org/releases/content/1.9.0/FlumeUserGuide.html 1、针对NetCat的配置 1.1选用NetCat TCP Source   这个sou

  • flume从kafka取数据,并发往另外一台kafka配置2020-02-23 17:00:10

    flume从kafka取数据,并发往另外一台kafka配置 agent.sources = s1agent.sinks = k1agent.channels = c1agent.sources.s1.type = org.apache.flume.source.kafka.KafkaSourceagent.sources.s1.kafka.bootstrap.servers = 192.168.133.137:9092agent.sources.s1.kafka.topics = tes

  • Flume使用入门2020-01-22 21:50:51

    记录一下日志采集框架flume的相关内容,flume是由Cloudera开发,后面贡献给了Apache,是一个分布式的、稳定的,用于日志采集、汇聚和传输的系统,现在用的一般是1.x版本,老版本的因为用得少暂时不考虑。   基本概念 包括agent和event。 Agent 以下是数据流模型图,source+channel+sink组成一

  • flume的配置详解2020-01-17 11:02:29

    Flume:===================== Flume是一种分布式的、可靠的、可用的服务,可以有效地收集、聚合和移动大量的日志数据。 它有一个基于流数据的简单而灵活的体系结构。 它具有健壮性和容错能力,具有可调的可靠性机制和许多故障转移和恢复机制。 它使用一个简单的可扩展数据

  • flume+kafka 监控日志文件2019-12-24 09:57:27

    (一) 下载 :wget http://mirror.bit.edu.cn/apache/flume/1.8.0/apache-flume-1.8.0-bin.tar.gz tar -zxvf apache-flume-1.8.0-bin.tar.gz -C /home/hadoop (二)编辑工程配置文件 vi /home/hadoop/flume-180/conf/kafka_sink.conf 内容如下######################################

  • Flume理论研究与实验2019-12-17 17:53:45

    一、理论研究  1.1 总览     Flume是一个分布式的可靠的日志收集系统,主要是用于从各种数据源收集、聚合并移动大批量的日志数据到存储系统;它本身具有许多故障转移和恢复机制,具有强大的容错能力;它使用下面这样一个简单的可扩展的数据流模型来进行在线分析。    1.2 核心概

  • Flume学习笔记2019-09-18 20:35:23

    为什么用Flume: 可靠性: Flume是Cloudera公司的一款高性能、高可用的分布式日志收集系统。 Flume的核心是把数据从数据源收集过来再送到目的地。为了保证输送一定成功,在送到目的地之前,会先缓存数据,待数据真正到达目的地后,再删除缓存的数据。 Flume传输数据的基本单位是even

  • Flume多对一,一个telnet 监听端口,一个监听文件,sink 到 hdfs2019-09-07 12:39:43

      flume11.conf  #agent a1.sources = r1 a1.sinks = k1 a1.channels = c1 # 2 source a1.sources.r1.type = exec a1.sources.r1.command = tail -F /opt/Andy a1.sources.r1.shell = /bin/bash -c # 3 sink a1.sinks.k1.type = avro a1.sinks.k1.hostname = bigdata121

  • 大数据技术之Flume(扇入)2019-09-05 17:42:24

    扇入:多处Flume流入一处Flume. 目标:flume11监控文件hive.log,flume-22监控某一个端口的数据流,flume11与flume-22将数据发送给flume-33,flume33将最终数据写入到HDFS。 分步实现: 1:创建flume11.conf,用于监控hive.log文件,同时sink数据到flume-33: #1 agent a1.sources = r1 a1.s

  • 应用zookeeper动态修改flume接受数据格式2019-08-16 16:05:40

    项目位置:https://github.com/wty19920422/mydesign 按照需求可以自定制代码,下面展示部分简单展示流程 应用flume接受tcp数据的过程中,为了产品需要有时需要动态修改数据格式。例如增加公司信息、数据监管人员信息以及其他自定制格式等,数据接受实时性很高,格式变化需要及时响应。

  • 大数据采集工具flume各种采集方案案例2019-08-10 23:56:11

    以下是整理flume的各种采集方式 代码直接用 一、source类型是netcata1.sources = r1a1.sinks = k1a1.channels = c1a1.sources.r1.type = netcata1.sources.r1.bind = linux1a1.sources.r1.port = 666a1.s

  • NS-3 和Aqua-sim-ng 学习笔记(一)2019-07-31 20:55:40

    因为要搞水下网络,OMNET++不太合适,就转Aqua-sim。这是基于NS-2上的模型,NS-2需要额外学一门tcl脚本语言。 正好查到它的一个升级版Aqua-sim-NG,在github上,https://github.com/rmartin5/aqua-sim-ng是基于NS-3的,只需要基本的C++,不用学tcl语言。美滋滋。   装好ubuntu之后,安装NS-3和Aqu

  • kafka安装使用配置1.22019-07-25 20:53:23

    进入cd /usr/local/flume/conf/ vi kafka.conf 配置 agent.sources=s1 agent.channels=c1 agent.sinks=k1 agent.sources.s1.type=exec agent.sources.s1.command=tail -F /tmp/logs/kafka.log agent.sources.s1.channels=c1 agent.channels.c1.type=memory agent.channels.c1.cap

  • 第1节 kafka消息队列:10、flume与kafka的整合使用2019-07-21 14:00:32

      11、flume与kafka的整合 实现flume监控某个目录下面的所有文件,然后将文件收集发送到kafka消息系统中 第一步:flume下载地址 http://archive.cloudera.com/cdh5/cdh/5/flume-ng-1.6.0-cdh5.14.0.tar.gz   第二步:上传解压flume   第三步:配置flume.conf #为我们的source channel

  • 非kerberos环境下,flume采集日志到kafka2019-07-16 22:00:33

    kafkaflume.conf agent.sources = s1 agent.channels = c1 agent.sinks = k1 agent.sources.s1.type=exec agent.sources.s1.command=tail -F /usr/local/src/flume/testflume2.log agent.sources.s1.channels=c1 agent.channels.c1.type=memory agent.channels.c1.capacity=

  • 云计算(六)——flume采集日志信息2019-07-13 09:39:20

    一、flume采集日志信息到hdfs系统 【实验目的】     1)   掌握flume的应用原理     2)   掌握flume对日志信息的采集过程 【实验原理】     Flume是Cloudera提供的日志收集系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行

  • flume入门笔记2019-07-09 11:36:22

    标签(空格分隔): hadoop 学习三问 flume是什么? flume干什么? flume怎么用? flume官网地址 flume是什么 Apache Flume is a distributed, reliable, and available system for efficiently collecting, aggregating and moving large amounts of log data from many different so

  • Flume日志采集框架的使用2019-06-30 17:53:12

    文章作者:foochane  原文链接:https://foochane.cn/article/2019062701.html Flume日志采集框架 安装和部署 Flume运行机制 采集静态文件到hdfs 采集动态日志文件到hdfs 两个agent级联 Flume日志采集框架 在一个完整的离线大数据处理系统中,除了hdfs+mapreduce+hive组成分析系统的

  • 第1节 flume:13、14、更多flume案例一,通过拦截器实现不同类型的数据区分2019-06-25 11:40:17

    1.6、flume案例一 1. 案例场景 A、B两台日志服务机器实时生产日志主要类型为access.log、nginx.log、web.log 现在要求: 把A、B 机器中的access.log、nginx.log、web.log 采集汇总到C机器上然后统一收集到hdfs中。 但是在hdfs中要求的目录为: /source/logs/access/20180101/** /sourc

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有