设为首页 收藏本站
查看: 1996|回复: 0

[经验分享] KAFKA安装+配置详解+常用操作+监控

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-9-29 09:51:07 | 显示全部楼层 |阅读模式
一、kafka理论

1、kafka是神马?
    kafka是分布式发布-订阅消息系统。它最初由LinkedIn公司开发,之后成为Apache项目的一部分。Kafka是一个分布式的,可划分的,冗余备份的持久性的日志服务。它主要用于处理活跃的流式数据。分布式系统,易于向外扩展。所有的producer、broker和consumer都会有多个,均为分布式的。无需停机即可扩展机器。


2、kafka的设计方案
消息持久化及其缓存
    磁盘性能:在传统的磁盘写入很慢,因为它使用随机写入 50k/s(6个7200转的sata硬盘组成的raid-5),但是线性写入速度有300ms/s的速度,所以kafka利用线性写入的方式。
    线性写入:将数据调用操作系统文件接口写到文件系统里面去这样就缓存到操作系统的页面缓存中,然后传统意思来说将其flush一下到磁盘中,但是kafka并没有这样,而是保存在页面缓存中(相当于放在内存当中)并没有进行flush操作,这样他就会提供比较高的读的性能,下次读就从内核页面缓存中读数据,但是内存中存储数量不是无限大的,所以我们配置参数(每当接收到N条信息或者每过M秒),进行一个flush操作,从而可以为系统硬件崩溃时“处于危险之中”的数据在量上加个上限。
    kafka的缓存不是在内存中保存尽可能多的数据并在需要时将这些数刷新到文件系统,而是做完全相反的事情,将所有的数据立即写入文件系统中的持久化的日志中,但不进行刷刷新数据的调用,实际这么做意味着数据被传输到os内核的页面缓存中去了,随后在根据配置刷新到硬盘。

持久化常量时间
    以往的消息系统元数据的持久化数据结构往往采用BTree。BTree是目前最常用额数据结构,在消息系统中它可以用来广泛支持多种不同的事物性活非事务性的语义,他的确带来了一个非常高的处理开销,Btree的运算时间的复杂度为0(LOG n),Btree需要一种非常负责的页面级或者行级锁才能避免在每次操作时锁定整颗树。实现这种机器就要为行级锁定付出非常昂贵的代价,负责就必须所有的读取操作进行串行化(serialize).因为对磁盘寻道操作的高度依赖,就不太可能高效的从驱动器密码的提高中获得改善,因而就不得不使用容量较小(<100GB)转速较快的sas驱动,以维持一种比较合理的数据与寻道容量之比。kafka的设计是什么样的呢?kafka利用按照通常的日志解决方案的样子构建,只是简单的文件读取和简单地向文件中追加内容。当然相比的劣势在于不支持Btree这样事物和非事物的语义支持,但是优势在于其所有的操作夫妻度都是0(1),读取操作并不需要阻止写入操作,而且反之亦然。这样做显然有性能优势,因为性能完全同数据大小之间脱离了关系。能够存取到几乎无限大的磁盘空间而无须付出性能代价,意味着,我们可以提供其他消息系统并不常见的功能,例如在kafka中,消息在使用完全后并没有立即删除,而是会将这些消息保存相当长一段时间,这样可以利用offset功能进行多次消费,比如说 可以设置从某个offset id往下进行消费,当然一般只有是消费失败才回这么做。

效率最大化
    传统的消息发送:
        a、操作系统将数据从磁盘中读取到内核空间里的页面缓存。
        b、应用程序将数据从内核空间读入到用户空间的缓冲区。
        c、应用程序将读到的数据写会内核空间并放入socket的缓冲区
        d、操作系统将数据从socket的缓冲区拷贝到NIC(网络接口卡,即网卡)的缓冲区,自此数据才能通过网络发送出去。
        这样效率显然很低,因为里面涉及到4此拷贝,2次系统调用。

    kafka的信息发送是如何的呢?
        kafka使用sendfile(0拷贝)就可以避免这些重复的拷贝操作,让os直接将数据从页面缓存发送到网络中,其中只需最后一步中的将数据拷贝到NIC的缓冲区。
        kafka采用全文所属的sendfile拷贝优化方案,数据只需要拷贝到页面缓存中一次,然后每次发送给使用者时都对他重复使用即可,一次拷贝发给多个消费者。

端到端的批量压缩
    在传输的过程中,传输前压缩,到目标后在解压缩。


二、kafka安装


1、jdk安装

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
wget -c http://118.186.220.66:8002/jdk-7u51-linux-x64.gz
mkdir -p /usr/local/java
tar zxf jdk-7u51-linux-x64.gz -C /usr/local/java
ln -s /usr/local/java/jdk1.7.0_51/bin/java /usr/bin/java
ln -s /usr/local/java/jdk1.7.0_51/bin/javac /usr/bin/javac
ln -s /usr/local/java/jdk1.7.0_51/bin/javadoc /usr/bin/javadoc
ln -s /usr/local/java/jdk1.7.0_51/bin/javaws /usr/bin/javaws

# tail -3 ~/.bash_profile
export JAVA_HOME=/usr/local/java/jdk1.7.0_51
export PATH=$PATH:$JAVA_HOME/bin
exportCLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$CLASSPATH

java -version

2、zookeeper安装

cd /Data/tools/software/
wget http://www.apache.org/dist//zook ... keeper-3.4.9.tar.gz
tar zxvf zookeeper-3.4.9.tar.gz
cd /Data/tools/software/zookeeper-3.4.9/conf
cp zoo_sample.cfg zoo.cfg




3、kafka安装
1
2
3
wget https://archive.apache.org/dist/ ... ka_2.10-0.9.0.1.tgz
tar zxvf kafka_2.10-0.9.0.1.tgz
nohup bin/kafka-server-start.sh config/server.properties &





二、配置文件详解
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
#server.properties配置文件
broker.id=1
port=9092
host.name=10.0.0.8
zookeeper.connect=10.0.0.8:2181,10.0.0.0.9:2181,10.0.0.10:2181
num.network.threads=8   #broker处理消息的最大线程数 一般等于核心数
  
num.io.threads=8# 同上
socket.send.buffer.bytes=1048576       #socket 发送缓冲区 socket调优参数
socket.receive.buffer.bytes=1048576     #接收缓冲区  socket调优参数
socket.request.max.bytes=104857600     #socket请求最大数值,防止serverOOM
log.dirs=/data/kafka/kafka-logs
num.partitions=8                        #默认制定分区 会被命令行参数覆盖
log.retention.check.interval.ms=60000     #文件大小检查周期
log.cleaner.enable=false           #是否启用压缩
segment.ms=24*60*60                 
num.replica.fetchers=4           #leader 进行复制的线程数。 增大这个数值会增加follow的io
default.replication.factor=2       # 创建topic的时候的副本数,可以创建topic时制定参数覆盖     
replica.fetch.max.bytes=2048000    # replicas 每次获取数据的最大大小  
replica.fetch.wait.max.ms=500        # replicas 同leader之间的通信的最大等待时间,失败了会重试。
replica.high.watermark.checkpoint.interval.ms=5000   #每个replica检查是否将最高水平进行固化的频率
replica.socket.timeout.ms=30000       #follower与leader之间的socket超时时间
replica.socket.receive.buffer.bytes=65536   #leader复制时间的socket缓存大小
replica.lag.time.max.ms=10000              #replicas响应partition leader的最长等待时间,若是超过这个时间,就将replicas列入ISR(in-sync replicas),并认为它是死的,不会再加入管理中
replica.lag.max.messages=4000            #如果follower落后与leader太多,将会认为此follower[或者说partition relicas]已经失效 ##通常,在follower与leader通讯时,因为网络延迟或者链接断开,总会导致replicas中消息同步滞后 ##如果消息之后太多,leader将认为此follower网络延迟较大或者消息吞吐能力有限,将会把此replicas迁移 ##到其他follower中. ##在broker数量较少,或者网络不足的环境中,建议提高此值.
controller.socket.timeout.ms=30000   # partition leader与replicas之间通讯时,socket的超时时间
controller.message.queue.size=10   #partition leader与replicas 数据同步时,消息的队列尺寸               
message.max.bytes=2048000   #消息体的最大大小 但是是字节 --------------------
auto.create.topics.enable=true  #是否允许自动创建topic,若是false就需要通过命令创建topic
log.index.interval.bytes=4096      #当执行一个fetch操作后,需要一定的空间来扫描最近的offset大小,设置越大,代表扫描速度越快,但是也更好内存,一般情况下不需要搭理这个参数
log.index.size.max.bytes=10485760  #对于segment日志的索引文件大小限制,会被topic创建时的指定参数覆盖
log.retention.hours=24             #数据存储的最大时间超过这个时间会根据log.cleanup.policy设置的策略处理。
log.flush.interval.ms=10000      #仅仅通过interval来控制消息的磁盘写入时机,是不足的.此参数用于控制"fsync"的时间间隔,如果消息量始终没有达到阀值,但是离上一次磁盘同步的时间间隔达到阀值,也将触发.   --------
log.flush.interval.messages=20000             #log文件”sync”到磁盘之前累积的消息条数,因为磁盘IO操作是一个慢操作,但又是一个”数据可靠性"的必要手段,所以此参数的设置,需要在"数据可靠性"与"性能"之间做必要的权衡.如果此值过大,将会导致每次"fsync"的时间较长(IO阻塞),如果此值过小,将会导致"fsync"的次数较多,这也意味着整体的client请求有一定的延迟.物理server故障,将会导致没有fsync的消息丢失.
log.flush.scheduler.interval.ms=2000            #检查是否需要固化到硬盘的时间间隔
log.roll.hours=24                        #这个参数会在日志segment没有达到log.segment.bytes设置的大小,也会强制新建一个segment会被 topic创建时的指定参数覆盖
log.cleanup.interval.mins=30               
log.segment.bytes=1073741824             #一个消息长度 超过在创建一个
zookeeper.connection.timeout.ms=6000
zookeeper.sync.time.ms=2000
fetch.purgatory.purge.interval.requests=1000          ## f防止oom 的参数  用于request 状态转变为complete后从purgatory中移除。
producer.purgatory.purge.interval.requests=1000     ## f防止oom 的参数  用于request 状态转变为complete后从purgatory中移除。







运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-279009-1-1.html 上篇帖子: Kafka 入门 and kafka+logstash 实战应用 下篇帖子: Centos6.5下kafka部署安装 监控
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表