设为首页 收藏本站
查看: 1292|回复: 0

[经验分享] FastDFS配置文件(tracker.conf)

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2015-9-10 08:49:21 | 显示全部楼层 |阅读模式

  • # ===========================基本配置====================================
  • # 该配置文件是否生效
  • # false:生效
  • # true:无效
  • disabled=false

  • # 绑定IP
  • # 后面为绑定的IP地址 (常用于服务器有多个IP但只希望一个IP提供服务)。
  • # 如果不填则表示所有的(一般不填就OK),相信较熟练的SA都常用到类似功能,
  • # 很多系统和应用都有
  • bind_addr=

  • # 服务端口
  • port=22122

  • # 连接超时(秒)
  • # 默认值 30s
  • connect_timeout=30

  • # 网络超时(秒)
  • # 默认值 30s
  • network_timeout=60

  • # Tracker数据/日志目录地址
  • # ${base_path}
  • #     |__data
  • #     |     |__storage_groups.dat:存储分组信息
  • #     |     |__storage_servers.dat:存储服务器列表
  • #     |__logs
  • #           |__trackerd.log:tracker server日志文件
  • base_path=/home/yuqing/fastdfs

  • # 数据文件storage_groups.dat和storage_servers.dat中的记录之间以换行符(\n)分隔,字段之间以西文逗号(,)分隔。
  • # storage_groups.dat中的字段依次为:
  • #   1. group_name:组名
  • #   2. storage_port:storage server端口号
  • #
  • # storage_servers.dat中记录storage server相关信息,字段依次为:
  • #   1. group_name:所属组名
  • #   2. ip_addr:ip地址
  • #   3. status:状态
  • #   4. sync_src_ip_addr:向该storage server同步已有数据文件的源服务器
  • #   5. sync_until_timestamp:同步已有数据文件的截至时间(UNIX时间戳)
  • #   6. stat.total_upload_count:上传文件次数
  • #   7. stat.success_upload_count:成功上传文件次数
  • #   8. stat.total_set_meta_count:更改meta data次数
  • #   9. stat.success_set_meta_count:成功更改meta data次数
  • #   10. stat.total_delete_count:删除文件次数
  • #   11. stat.success_delete_count:成功删除文件次数
  • #   12. stat.total_download_count:下载文件次数
  • #   13. stat.success_download_count:成功下载文件次数
  • #   14. stat.total_get_meta_count:获取meta data次数
  • #   15. stat.success_get_meta_count:成功获取meta data次数
  • #   16. stat.last_source_update:最近一次源头更新时间(更新操作来自客户端)
  • #   17. stat.last_sync_update:最近一次同步更新时间(更新操作来自其他storage server的同步)

  • # 最大连接数
  • max_connections=256

  • # w线程数,通常设置CPU数,值 <= 最大连接数
  • # 默认值 4
  • work_threads=4

  • # 上传文件的选组方式,如果在应用层指定了上传到一个固定组,那么这个参数被绕过
  • # 0: 表示轮询
  • # 1: 表示指定组
  • # 2: 表示存储负载均衡(选择剩余空间最大的组)
  • store_lookup=2

  • # 指定上传的组,如果在应用层指定了具体的组,那么这个参数将不会起效。
  • # 另外如果store_lookup如果是0或2,则此参数无效
  • store_group=group2

  • # 选择哪个storage server 进行上传操作
  • # 一个文件被上传后,这个storage server就相当于这个文件的storage server源,
  • # 会对同组的storage server推送这个文件达到同步效果
  • # 0: 轮询方式(默认)
  • # 1: 根据ip 地址进行排序选择第一个服务器(IP地址最小者)
  • # 2: 根据优先级进行排序(上传优先级由storage server来设置,参数名为upload_priority),优先级值越小优先级越高。
  • store_server=0

  • # 上传路径的选择方式。storage server可以有多个存放文件的base path(可以理解为多个磁盘)
  • # 0: 轮流方式,多个目录依次存放文件
  • # 2: 选择剩余空间最大的目录存放文件(注意:剩余磁盘空间是动态的,因此存储到的目录或磁盘可能也是变化的)
  • store_path=0

  • # 选择哪个 storage server 作为下载服务器
  • # 0: 轮询方式,可以下载当前文件的任一storage server
  • # 1: 哪个为源storage server就用哪一个,就是之前上传到哪个storage server服务器就是哪个了
  • download_server=0

  • # storage server上保留的空间,保证系统或其他应用需求空间。
  • # 可以用绝对值或者百分比(V4开始支持百分比方式)
  • # 如果同组的服务器的硬盘大小一样,以最小的为准
  • # a group <= reserved_storage_space,
  • # no file can be uploaded to this group.
  • # bytes unit can be one of follows:
  • ### G or g for gigabyte(GB)
  • ### M or m for megabyte(MB)
  • ### K or k for kilobyte(KB)
  • ### no unit for byte(B)
  • ### XX.XX% as ratio such as reserved_storage_space = 10%
  • reserved_storage_space = 10%

  • # 选择日志级别
  • ### emerg for emergency
  • ### alert
  • ### crit for critical
  • ### error
  • ### warn for warning
  • ### notice
  • ### info
  • ### debug
  • log_level=info

  • # 指定运行该程序的用户组(不填 就是当前用户组,哪个启动进程就是哪个)
  • run_by_group=

  • # 操作系统运行FastDFS的用户 (不填 就是当前用户,哪个启动进程就是哪个)
  • run_by_user=

  • # 可以连接到此 tracker server 的ip范围(对所有类型的连接都有影响,包括客户端,storage server)
  • # "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or
  • # host[01-08,20-25].domain.com, for example:
  • # allow_hosts=10.0.1.[1-15,20]
  • # allow_hosts=host[01-08,20-25].domain.com
  • allow_hosts=*

  • # 同步或刷新日志信息到硬盘的时间间隔,单位为秒
  • # 注意:tracker server 的日志不是时时写硬盘的,而是先写内存。
  • sync_log_buff_interval = 10

  • # 检测 storage server 存活的时间隔,单位为秒。
  • # storage server定期向tracker server 发心跳,
  • # 如果tracker server在一个check_active_interval内还没有收到storage server的一次心跳,
  • # 那边将认为该storage server已经下线。所以本参数值必须大于storage server配置的心跳时间间隔。
  • # 通常配置为storage server心跳时间间隔的2倍或3倍。
  • check_active_interval = 120

  • # 线程栈的大小。FastDFS server端采用了线程方式。
  • # 更正一下,tracker server线程栈不应小于64KB,不是512KB。
  • # 线程栈越大,一个线程占用的系统资源就越多。如果要启动更多的线程可以适当降低本参数值。
  • thread_stack_size = 64KB

  • # 这个参数控制当storage server IP地址改变时,集群是否自动调整。
  • # 注:只有在storage server进程重启时才完成自动调整。
  • storage_ip_changed_auto_adjust = true

  • # ===========================同步======================================
  • # V2.0引入的参数。存储服务器之间同步文件的最大延迟时间,缺省为1天。根据实际情况进行调整
  • # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,判断文件是否已经被同步完成的一个阀值(经验值)
  • # default value is 86400 seconds (one day)
  • storage_sync_file_max_delay = 86400

  • # V2.0引入的参数。存储服务器同步一个文件需要消耗的最大时间,缺省为300s,即5分钟。
  • # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个阀值(经验值)
  • storage_sync_file_max_time = 300

  • # ===========================trunk 和 slot============================
  • # V3.0引入的参数。是否使用小文件合并存储特性,缺省是关闭的。
  • use_trunk_file = false

  • # V3.0引入的参数。
  • # trunk file分配的最小字节数。比如文件只有16个字节,系统也会分配slot_min_size个字节。
  • # the min slot size, should <= 4KB
  • # default value is 256 bytes
  • slot_min_size = 256

  • # V3.0引入的参数。
  • # 只有文件大小<=这个参数值的文件,才会合并存储。
  • # 如果一个文件的大小大于这个参数值,将直接保存到一个文件中(即不采用合并存储方式)。
  • slot_max_size = 16MB

  • # V3.0引入的参数。
  • # 合并存储的trunk file大小,至少4MB,缺省值是64MB。不建议设置得过大。
  • trunk_file_size = 64MB

  • # 是否提前创建trunk file。只有当这个参数为true,下面3个以trunk_create_file_打头的参数才有效。
  • # default value is false
  • # since V3.06
  • trunk_create_file_advance = false

  • # 提前创建trunk file的起始时间点(基准时间),02:00表示第一次创建的时间点是凌晨2点
  • # the time format: HH:MM
  • # default value is 02:00
  • # since V3.06
  • trunk_create_file_time_base = 02:00

  • # 创建trunk file的时间间隔,单位为秒。如果每天只提前创建一次,则设置为86400
  • # default value is 38400 (one day)
  • # since V3.06
  • trunk_create_file_interval = 86400

  • # 提前创建trunk file时,需要达到的空闲trunk大小
  • # 比如本参数为20G,而当前空闲trunk为4GB,那么只需要创建16GB的trunk file即可。
  • # default value is 0
  • # since V3.06
  • trunk_create_file_space_threshold = 20G

  • # trunk初始化时,是否检查可用空间是否被占用
  • # if check trunk space occupying when loading trunk free spaces
  • # the occupied spaces will be ignored
  • # default value is false
  • # since V3.09
  • # NOTICE: set this parameter to true will slow the loading of trunk spaces
  • # when startup. you should set this parameter to true when neccessary.
  • trunk_init_check_occupying = false

  • # 是否无条件从trunk binlog中加载trunk可用空间信息
  • # FastDFS缺省是从快照文件storage_trunk.dat中加载trunk可用空间,
  • # 该文件的第一行记录的是trunk binlog的offset,然后从binlog的offset开始加载
  • # if ignore storage_trunk.dat, reload from trunk binlog
  • # default value is false
  • # since V3.10
  • # set to true once for version upgrade when your version less than V3.10
  • trunk_init_reload_from_binlog = false

  • # 是否使用server ID作为storage server标识
  • # since V4.00
  • use_storage_id = false

  • # use_storage_id 设置为true,才需要设置本参数
  • # 在文件中设置组名、server ID和对应的IP地址,参见源码目录下的配置示例:conf/storage_ids.conf
  • # since V4.00
  • storage_ids_filename = storage_ids.conf

  • # 存储服务器的文件名中的id类型,取值如下
  • ## IP:存储服务器的IP地址
  • ## id:被存储服务器的服务器标识
  • # 只有当use_storage_id设置为true时此参数是有效的
  • # 默认值是IP
  • # since V4.03
  • id_type_in_filename = ip

  • # 存储从文件是否采用symbol link(符号链接)方式
  • # 如果设置为true,一个从文件将占用两个文件:原始文件及指向它的符号链接。
  • # if store slave file use symbol link
  • # default value is false
  • # since V4.01
  • store_slave_file_use_link = false

  • # 是否定期轮转error log,目前仅支持一天轮转一次
  • # if rotate the error log every day
  • # default value is false
  • # since V4.02
  • rotate_error_log = false

  • # error log定期轮转的时间点,只有当rotate_error_log设置为true时有效
  • # rotate error log time base, time format: Hour:Minute
  • # Hour from 0 to 23, Minute from 0 to 59
  • # default value is 00:00
  • # since V4.02
  • error_log_rotate_time=00:00

  • # error log按大小轮转
  • # 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中
  • # rotate error log when the log file exceeds this size
  • # 0 means never rotates log file by log file size
  • # default value is 0
  • # since V4.02
  • rotate_error_log_size = 0

  • # 是否使用连接池
  • # default value is false
  • # since V4.05
  • use_connection_pool = false

  • # 连接的空闲时间超过这个时间将被关闭,单位:秒
  • # default value is 3600
  • # since V4.05
  • connection_pool_max_idle_time = 3600

  • # ===========================HTTP 相关=================================
  • # HTTP是否生效
  • # true 失效
  • # false 生效
  • http.disabled=false

  • # tracker server上的HTTP服务器端口号
  • http.server_port=8090

  • # 检查storage http server存活的间隔时间,单位为秒
  • # <= 0 for never check
  • # default value is 30
  • http.check_alive_interval=30

  • # 检查storage http server存活的方式
  • # tcp:连接到storage server的http端口,不进行request和response。
  • # http:storage check alive url must return http status 200.
  • #note:只有http.disabled=false时才生效
  • # default value is tcp
  • http.check_alive_type=tcp

  • # 检查storage http server是否alive的uri/url
  • # NOTE: storage embed HTTP server support uri: /status.html
  • http.check_alive_uri=/status.html

  • # 如果需要查找的内容类型格式的文件扩展名
  • http.need_find_content_type=true

  • # HTTP服务的其他配置文件
  • #include http.con




来自为知笔记(Wiz)

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-111716-1-1.html 上篇帖子: 我心中的核心组件(可插拔的AOP)~分布式文件上传组件~基于FastDFS 下篇帖子: FastDFS 搭建
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表