`
corejava2008
  • 浏览: 292376 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Flume入门教程-简单案例

阅读更多

Flume入门教程-简单案例

 

1.下载安装

 

官方网站:http://flume.apache.org/
http://mirror.bit.edu.cn/apache/flume/1.6.0/apache-flume-1.6.0-bin.tar.gz
tar -zxvf apache-flume-1.6.0-bin.tar.gz

 

 

2.修改配置

重命名flume-conf.properties.template文件为simple.conf,并修改为以下内容

 

Agent名称定义为agent. 
Source:可以理解为输入端,定义名称为s1
channel:传输频道,定义为c1,设置为内存模式
sinks:可以理解为输出端,定义为sk1,

agent.sources = s1  
agent.channels = c1
agent.sinks = sk1

#设置Source的内省为netcat 端口为5678,使用的channel为c1
agent.sources.s1.type = netcat
agent.sources.s1.bind = localhost
agent.sources.s1.port = 5678
agent.sources.s1.channels = c1

#设置Sink为logger模式,使用的channel为c1
agent.sinks.sk1.type = logger
agent.sinks.sk1.channel = c1
#设置channel信息
agent.channels.c1.type = memory #内存模式
agent.channels.c1.capacity = 1000   
agent.channels.c1.transactionCapacity = 100 #传输参数设置。

 

 

3.启动Agent

bin/flume-ng agent -c conf -f conf/simple.conf --name agent -Dflume.root.logger=INFO,console

 

4.发送测试数据

 

telnet localhost 5678
hello,world.

 

5.验证数据接收

验证flume是否接收到了数据

 

 

6.简单优化配置:
修改flume-env.sh,设置JDK版本,Flume1.6.0需要JDK1.6+
export JAVA_HOME=/opt/jdk1.7/jdk1.7.0_45/

设置内存相关参数
JAVA_OPTS="-Xms8192m -Xmx8192m -Xss256k -Xmn2g -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:-UseGCOverheadLimit"

 

7.其他配置案例

 使用命令行模式Tail读取日志文件配置

agent.sources = s1
agent.channels = c1
agent.sinks = sk1

#设置Tail方式跟踪日志内容
agent.sources.s1.type = exec
agent.sources.s1.command = tail -F /usr/local/logstash-1.4.2/new_log.2015-03-26.txt 
agent.sources.s1.channels = c1

agent.sinks.sk1.type = logger
agent.sinks.sk1.channel = c1

#In Memory !!!
agent.channels.c1.type = memory
agent.channels.c1.capacity = 10004
agent.channels.c1.transactionCapacity = 100

 

设置跟踪目录方式

 

agent.sources = s1
agent.channels = c1
agent.sinks = sk1

#设置spooldir
agent.sources.s1.type = spooldir
agent.sources.s1.spoolDir = /usr/local/logstash-1.4.2/logs
agent.sources.s1.fileHeader = true

agent.sources.s1.channels = c1
agent.sinks.sk1.type = logger
agent.sinks.sk1.channel = c1

#In Memory !!!
agent.channels.c1.type = memory
agent.channels.c1.capacity = 10004
agent.channels.c1.transactionCapacity = 100

 

 

 

1
0
分享到:
评论

相关推荐

    入门简介教程-大数据组件flume

    flume入门介绍,简单介绍flume的背景和应用场景,flume的实现原理以及案例分享

    Flume1.6.0入门:安装、部署、及flume的案例

    Flume1.6.0入门:安装、部署、及flume的案例

    最全Flume视频教程,大数据入门必学

    Flume是的一个分布式、高可用、高可靠的海量日志采集、聚合和传输的系统,支持在日志系统中定制各类数据发送方,用于收集数据,同时提供了对数据进行简单处理并写到各种数据接收方的能力。 2、适应人群 有一定的...

    Flume1.5.0入门:安装、部署、及flume的案例

    Flume1.5.0入门:安装、部署、及flume的案例Flume1.5.0入门:安装、部署、及flume的案例

    flime安装+配置+测试+案例(采集日志至HDFS)

    flime安装+配置+测试+案例(采集日志至HDFS)+理论+搭建错误解决,超详细flum搭建,一篇带你入门flume,通俗易懂,详细步骤注解!!!

    尚硅谷大数据技术之Flume笔记1

    第 2 章 Flume 快速入门2.1.1 安装地址2)文档查看地址3)下载地址2.1.2 安装部署2.2.1 监控端口数据官方案例1)案例需求:使用 Flum

    hadoop新手入门资料

    大数据视频学习资料-【课程内容】 01_Linux基础 02_Hadoop 03_Zookeeper 04_Hadoop-HA 05_Hive框架基础 06_Flume 07_Oozie 08_HBase 09_Kafka 09_杂项 10_Storm 11_1离线平台项目测试 11_项目:大数据离线平台 12_...

    实时处理.rar

    第6章 Spark Streaming入门 第7章 Spark Streaming核心概念与编程 第8章 Spark Streaming进阶与案例实战 第9章 Spark Streaming整合Flume 第10章 Spark Streaming整合Kafka 第11章 Spark Streaming整合Flume&Kafka;...

    价值上万的视频教程互联网程序开发+大数据+Hadoop、hive、Spark

    HBase、 Java9 、Java10 、MySQL优化 、JVM原理 、JUC多线程、 CDH版Hadoop Impala、 Flume 、Sqoop、 Azkaban、 Oozie、 HUE、 Kettle、 Kylin 、Spark 、Mllib机器学习、 Flink、 Python、 SpringBoot、 Hadoop3.x...

    Spark Streaming实时流处理项目实战视频网盘下载

    初识实时流处理 第3章 分布式日志收集框架Flume 第4章 分布式发布订阅消息系统Kafka 第5章 实战环境搭建 第6章 Spark Streaming入门 第7章 Spark Streaming核心概念与编程 第8章 Spark Streaming进阶与案例实战 ...

    Flink+Kafka的JavaAPI应用

    此案例使用的是IDEA开发工具,项目属于maven项目 使用JavaAPI操作Flink的流处理,Flink从Kafka中获取数据,执行处理...根据(《Flink入门与实战》徐葳著)教材最后的综合案例改变,适合没有学习不会使用Flume的人使用

Global site tag (gtag.js) - Google Analytics