设为首页 收藏本站
查看: 1144|回复: 0

[经验分享] hadoop三个配置文件的参数含义说明(转)

[复制链接]

尚未签到

发表于 2015-7-12 11:49:58 | 显示全部楼层 |阅读模式
  来自:http://blog.iyunv.com/yangjl38/article/details/7583374
1       获取默认配置
  配置hadoop,主要是配置core-site.xml,hdfs-site.xml,mapred-site.xml三个配置文件,默认下来,这些配置文件都是空的,所以很难知道这些配置文件有哪些配置可以生效,上网找的配置可能因为各个hadoop版本不同,导致无法生效。浏览更多的配置,有两个方法:
  1.选择相应版本的hadoop,下载解压后,搜索*.xml,找到core-default.xml,hdfs-default.xml,mapred-default.xml,这些就是默认配置,可以参考这些配置的说明和key,配置hadoop集群。
  2.浏览apache官网,三个配置文件链接如下:
  http://hadoop.apache.org/common/docs/current/core-default.html
  http://hadoop.apache.org/common/docs/current/hdfs-default.html
  http://hadoop.apache.org/common/docs/current/mapred-default.html
   这里是浏览hadoop当前版本号的默认配置文件,其他版本号,要另外去官网找。其中第一个方法找到默认的配置是最好的,因为每个属性都有说明,可以直接使用。另外,core-site.xml是全局配置,hdfs-site.xml和mapred-site.xml分别是hdfs和mapred的局部配置。
2       常用的端口配置
2.1  HDFS端口
  
  参数
  描述
  默认
  配置文件
  例子值
  fs.default.name namenode
  namenode RPC交互端口
  8020
  core-site.xml
  hdfs://master:8020/
  dfs.http.address
  NameNode web管理端口
  50070
  hdfs- site.xml
  0.0.0.0:50070
  dfs.datanode.address
  datanode 控制端口
  50010
  hdfs -site.xml
  0.0.0.0:50010
  dfs.datanode.ipc.address
  datanode的RPC服务器地址和端口
  50020
  hdfs-site.xml
  0.0.0.0:50020
  dfs.datanode.http.address
  datanode的HTTP服务器和端口
  50075
  hdfs-site.xml
  0.0.0.0:50075
  
2.2  MR端口
  参数
  描述
  默认
  配置文件
  例子值
  mapred.job.tracker
  job-tracker交互端口
  8021
  mapred-site.xml
  hdfs://master:8021/
  job
  tracker的web管理端口
  50030
  mapred-site.xml
  0.0.0.0:50030
  mapred.task.tracker.http.address
  task-tracker的HTTP端口
  50060
  mapred-site.xml
  0.0.0.0:50060
  
  
2.3  其它端口
  参数
  描述
  默认
  配置文件
  例子值
  dfs.secondary.http.address
  secondary NameNode web管理端口
  50090
  hdfs-site.xml
  0.0.0.0:50090
  
  
  
  
  
  
  
  
  
  
  
3       三个缺省配置参考文件说明
3.1  core-default.html
  序号
  参数名
  参数值
  参数说明
  1
  hadoop.tmp.dir                     
  /tmp/hadoop-${user.name}                             
  临时目录设定
  2
  hadoop.native.lib                  
  true                                                
  使用本地hadoop库标识。
  3
  hadoop.http.filter.initializers   
  
  http服务器过滤链设置                        
  4
  hadoop.security.group.mapping      
  org.apache.hadoop.security.ShellBasedUnixGroupsMapping
  组内用户的列表的类设定
  5
  hadoop.security.authorization      
  false                                                
  服务端认证开启
  6
  hadoop.security.authentication     
  simple                                                
  无认证或认证设置
  7
  hadoop.security.token.service.use_ip
  true                                                
  是否开启使用IP地址作为连接的开关
  8
  hadoop.logfile.size               
  10000000                                             
  日志文件最大为10M
  9
  hadoop.logfile.count
  10                                                   
  日志文件数量为10个
  10
  io.file.buffer.size
  4096
  流文件的缓冲区为4K
  11
  io.bytes.per.checksum
  512
  校验位数为512字节
  12
  io.skip.checksum.errors
  false
  校验出错后是抛出异常还是略过标识。True则略过。
  13
  io.compression.codecs
  org.apache.hadoop.io.compress.DefaultCodec,
  org.apache.hadoop.io.compress.GzipCodec,
  org.apache.hadoop.io.compress.BZip2Codec,
  org.apache.hadoop.io.compress.SnappyCodec
  压缩和解压的方式设置
  14
  io.serializations
  org.apache.hadoop.io.serializer.WritableSerialization
  序例化和反序列化的类设定
  15
  fs.default.name
  file:///                                            
  缺省的文件URI标识设定。
  16
  fs.trash.interval
  0                                                   
  文件废弃标识设定,0为禁止此功能
  17
  fs.file.impl
  org.apache.hadoop.fs.LocalFileSystem               
  本地文件操作类设置
  18
  fs.hdfs.impl
  org.apache.hadoop.hdfs.DistributedFileSystem        
  HDFS文件操作类设置
  19
  fs.s3.impl
  org.apache.hadoop.fs.s3.S3FileSystem               
  S3文件操作类设置
  20
  fs.s3n.impl            
  org.apache.hadoop.fs.s3native.NativeS3FileSystem
  S3文件本地操作类设置
  21
  fs.kfs.impl            
  org.apache.hadoop.fs.kfs.KosmosFileSystem
  KFS文件操作类设置.
  22
  fs.hftp.impl            
  org.apache.hadoop.hdfs.HftpFileSystem
  HTTP方式操作文件设置
  23
  fs.hsftp.impl           
  org.apache.hadoop.hdfs.HsftpFileSystem
  HTTPS方式操作文件设置
  24
  fs.webhdfs.impl         
  org.apache.hadoop.hdfs.web.WebHdfsFileSystem
  WEB方式操作文件类设置
  25
  fs.ftp.impl            
  org.apache.hadoop.fs.ftp.FTPFileSystem
  FTP文件操作类设置
  26
  fs.ramfs.impl           
  org.apache.hadoop.fs.InMemoryFileSystem
  内存文件操作类设置
  27
  fs.har.impl            
  org.apache.hadoop.fs.HarFileSystem
  压缩文件操作类设置.
  28
  fs.har.impl.disable.cache
  true
  是否缓存har文件的标识设定
  29
  fs.checkpoint.dir      
  ${hadoop.tmp.dir}/dfs/namesecondary
  备份名称节点的存放目前录设置
  30
  fs.checkpoint.edits.dir     
  ${fs.checkpoint.dir}
  备份名称节点日志文件的存放目前录设置
  31
  fs.checkpoint.period        
  3600
  动态检查的间隔时间设置
  32
  fs.checkpoint.size         
  67108864
  日志文件大小为64M
  33
  fs.s3.block.size            
  67108864
  写S3文件系统的块的大小为64M
  34
  fs.s3.buffer.dir            
  ${hadoop.tmp.dir}/s3
  S3文件数据的本地存放目录
  35
  fs.s3.maxRetries            
  4
  S3文件数据的偿试读写次数
  36
  fs.s3.sleepTimeSeconds      
  10
  S3文件偿试的间隔
  37
  local.cache.size            
  10737418240
  缓存大小设置为10GB
  38
  io.seqfile.compress.blocksize
  1000000
  压缩流式文件中的最小块数为100万
  39
  io.seqfile.lazydecompress   
  true
  块是否需要压缩标识设定
  40
  io.seqfile.sorter.recordlimit
  1000000
  内存中排序记录块类最小为100万
  41
  io.mapfile.bloom.size
  1048576
  BloomMapFiler过滤量为1M
  42
  io.mapfile.bloom.error.rate
  0.005
  
  43
  hadoop.util.hash.type
  murmur
  缺少hash方法为murmur
  44
  ipc.client.idlethreshold
  4000
  连接数据最小阀值为4000
  45
  ipc.client.kill.max
  10
  一个客户端连接数最大值为10
  46
  ipc.client.connection.maxidletime
  10000
  断开与服务器连接的时间最大为10秒
  47
  ipc.client.connect.max.retries
  10
  建立与服务器连接的重试次数为10次
  48
  ipc.server.listen.queue.size
  128
  接收客户连接的监听队例的长度为128
  49
  ipc.server.tcpnodelay
  false
  开启或关闭服务器端TCP连接算法
  50
  ipc.client.tcpnodelay
  false
  开启或关闭客户端TCP连接算法
  51
  webinterface.private.actions
  false
  Web交互的行为设定
  
  52
  hadoop.rpc.socket.factory.class.default      
  org.apache.hadoop.net.StandardSocketFactory
  缺省的socket工厂类设置
  53
  hadoop.rpc.socket.factory.class.ClientProtocol
  
  与dfs连接时的缺省socket工厂类
  54
  hadoop.socks.server                          
  
  服务端的工厂类缺省设置为SocksSocketFactory.
  55
  topology.node.switch.mapping.impl            
  org.apache.hadoop.net.ScriptBasedMapping
  
  56
  topology.script.file.name                    
  
  
  57
  topology.script.number.args                  
  100
  参数数量最多为100
  58
  hadoop.security.uid.cache.secs               
  14400
  
  
  
  
  
  
3.2  hdfs-default.html
  
  序号
  参数名
  参数值
  参数说明
  1
  dfs.namenode.logging.level      
  info         
  输出日志类型
  2
  dfs.secondary.http.address      
  0.0.0.0:50090
  备份名称节点的http协议访问地址与端口                                                                                    
  3
  dfs.datanode.address            
  0.0.0.0:50010
  数据节点的TCP管理服务地址和端口
  4
  dfs.datanode.http.address        
  0.0.0.0:50075
  数据节点的HTTP协议访问地址和端口
  5
  dfs.datanode.ipc.address         
  0.0.0.0:50020
  数据节点的IPC服务访问地址和端口
  6
  dfs.datanode.handler.count      
  3            
  数据节点的服务连接处理线程数
  7
  dfs.http.address                 
  0.0.0.0:50070
  名称节点的http协议访问地址与端口
  8
  dfs.https.enable                 
  false        
  支持https访问方式标识
  9
  dfs.https.need.client.auth      
  false        
  客户端指定https访问标识
  10
  dfs.https.server.keystore.resource
  ssl-server.xml
  Ssl密钥服务端的配置文件
  11
  dfs.https.client.keystore.resource
  ssl-client.xml
  Ssl密钥客户端的配置文件
  12
  dfs.datanode.https.address      
  0.0.0.0:50475
  数据节点的HTTPS协议访问地址和端口
  13
  dfs.https.address               
  0.0.0.0:50470
  名称节点的HTTPS协议访问地址和端口
  14
  dfs.datanode.dns.interface      
  default      
  数据节点采用IP地址标识
  15
  dfs.datanode.dns.nameserver      
  default      
  指定DNS的IP地址
  16
  dfs.replication.considerLoad     
  true         
  加载目标或不加载的标识
  17
  dfs.default.chunk.view.size      
  32768         
  浏览时的文件块大小设置为32K
  18
  dfs.datanode.du.reserved         
  0            
  每个卷预留的空闲空间数量
  19
  dfs.name.dir                     
  ${hadoop.tmp.dir}/dfs/name
  存贮在本地的名字节点数据镜象的目录,作为名字节点的冗余备份
  20
  dfs.name.edits.dir               
  ${dfs.name.dir}         
  存贮文件操作过程信息的存贮目录
  21
  dfs.web.ugi                     
  webuser,webgroup         
  Web接口访问的用户名和组的帐户设定
  22
  dfs.permissions                  
  true                     
  文件操作时的权限检查标识。
  23
  dfs.permissions.supergroup      
  supergroup               
  超级用户的组名定义
  24
  dfs.block.access.token.enable   
  false                    
  数据节点访问令牌标识
  25
  dfs.block.access.key.update.interval
  600                     
  升级访问钥时的间隔时间
  26
  dfs.block.access.token.lifetime   
  600                     
  访问令牌的有效时间
  27
  dfs.data.dir                        
  ${hadoop.tmp.dir}/dfs/data
  数据节点的块本地存放目录
  28
  dfs.datanode.data.dir.perm         
  755                     
  数据节点的存贮块的目录访问权限设置
  29
  dfs.replication                    
  3                        
  缺省的块复制数量
  30
  dfs.replication.max                 
  512                     
  块复制的最大数量
  31
  dfs.replication.min               
  1                        
  块复制的最小数量
  32
  dfs.block.size                     
  67108864                 
  缺省的文件块大小为64M
  33
  dfs.df.interval                    
  60000                     
  磁盘空间统计间隔为6秒
  34
  dfs.client.block.write.retries     
  3                        
  块写入出错时的重试次数
  35
  dfs.blockreport.intervalMsec      
  3600000                  
  块的报告间隔时为1小时
  36
  dfs.blockreport.initialDelay      
  0                        
  块顺序报告的间隔时间
  37
  dfs.heartbeat.interval            
  3                        
  数据节点的心跳检测间隔时间
  38
  dfs.namenode.handler.count         
  10                       
  名称节点的连接处理的线程数量
  39
  dfs.safemode.threshold.pct         
  0.999f                  
  启动安全模式的阀值设定
  
  40
  dfs.safemode.extension            
  30000                    
  当阀值达到量值后扩展的时限
  41
  dfs.balance.bandwidthPerSec        
  1048576                  
  启动负载均衡的数据节点可利用带宽最大值为1M
  42
  dfs.hosts                          
  
  可与名称节点连接的主机地址文件指定。
  43
  dfs.hosts.exclude                  
  
  不充计与名称节点连接的主机地址文件设定
  44
  dfs.max.objects                    
  0
  文件数、目录数、块数的最大数量
  45
  dfs.namenode.decommission.interval
  30
  名称节点解除命令执行时的监测时间周期
  46
  dfs.namenode.decommission.nodes.per.interval
  5      
  名称节点解除命令执行是否完检测次数
  47
  dfs.replication.interval                  
  3      
  名称节点计算数据节点的复制工作的周期数.
  48
  dfs.access.time.precision                  
  3600000
  充许访问文件的时间精确到1小时
  49
  dfs.support.append                        
  false   
  是否充许链接文件指定
  50
  dfs.namenode.delegation.key.update-interval
  86400000
  名称节点上的代理令牌的主key的更新间隔时间为24小时
  51
  dfs.namenode.delegation.token.max-lifetime
  604800000
  代理令牌的有效时间最大值为7天
  52
  dfs.namenode.delegation.token.renew-interval
  86400000
  代理令牌的更新时间为24小时
  53
  dfs.datanode.failed.volumes.tolerated      
  0      
  决定停止数据节点提供服务充许卷的出错次数。0次则任何卷出错都要停止数据节点
  
  
3.3  mapred-default.html
  序号
  参数名
  参数值
  参数说明
  1
  hadoop.job.history.location
  
  作业跟踪管理器的静态历史文件的存放目录。
  2
  hadoop.job.history.user.location
  
  可以指定具体某个作业的跟踪管理器的历史文件存放目录
  3
  mapred.job.tracker.history.completed.location
  
  已完成作业的历史文件的存放目录
  4
  io.sort.factor
  10         
  排完序的文件的合并时的打开文件句柄数
  5
  io.sort.mb
  100        
  排序文件的内存缓存大小为100M
  6
  io.sort.record.percent
  0.05      
  排序线程阻塞的内存缓存剩余比率
  7
  io.sort.spill.percent
  0.80      
  当缓冲占用量为该值时,线程需要将内容先备份到磁盘中。
  8
  io.map.index.skip
  0         
  索引条目的间隔设定
  9
  mapred.job.tracker
  local      
  作业跟踪管理器是否和MR任务在一个进程中
  10
  mapred.job.tracker.http.address
  0.0.0.0:50030
  作业跟踪管理器的HTTP服务器访问端口和地址
  11
  mapred.job.tracker.handler.count         
  10        
  作业跟踪管理器的管理线程数,线程数比例是任务管理跟踪器数量的0.04
  12
  mapred.task.tracker.report.address        
  127.0.0.1:0
  任务管理跟踪器的主机地址和端口地址
  
  13
  mapred.local.dir                          
  ${hadoop.tmp.dir}/mapred/local
  MR的中介数据文件存放目录
  14
  mapred.system.dir                        
  ${hadoop.tmp.dir}/mapred/system
  MR的控制文件存放目录
  15
  mapreduce.jobtracker.staging.root.dir     
  ${hadoop.tmp.dir}/mapred/staging
  每个正在运行作业文件的存放区
  16
  mapred.temp.dir                           
  ${hadoop.tmp.dir}/mapred/temp  
  MR临时共享文件存放区   
  17
  mapred.local.dir.minspacestart            
  0                              
  MR本地中介文件删除时,不充许有任务执行的数量值。
  18
  mapred.local.dir.minspacekill            
  0                              
  MR本地中介文件删除时,除非所有任务都已完成的数量值。
  19
  mapred.tasktracker.expiry.interval        
  600000                        
  任务管理跟踪器不发送心跳的累计时间间隔超过600秒,则任务管理跟踪器失效
  20
  mapred.tasktracker.resourcecalculatorplugin
  
  指定的一个用户访问资源信息的类实例
  21
  mapred.tasktracker.taskmemorymanager.monitoring-interval
  5000   
  监控任务管理跟踪器任务内存使用率的时间间隔
  22
  mapred.tasktracker.tasks.sleeptime-before-sigkill      
  5000   
  发出进程终止后,间隔5秒后发出进程消亡信号
  
  23
  mapred.map.tasks                                       
  2      
  每个作业缺省的map任务数为2
  24
  mapred.reduce.tasks                                    
  1      
  每个作业缺省的reduce任务数为1
  25
  mapreduce.tasktracker.outofband.heartbeat              
  false  
  让在任务结束后发出一个额外的心跳信号
  26
  mapreduce.tasktracker.outofband.heartbeat.damper      
  1000000
  当额外心跳信号发出量太多时,则适当阻止
  
  27
  mapred.jobtracker.restart.recover                     
  false  
  充许任务管理器恢复时采用的方式
  28
  mapred.jobtracker.job.history.block.size               
  3145728
  作业历史文件块的大小为3M
  29
  mapreduce.job.split.metainfo.maxsize                  
  10000000
  分隔元信息文件的最大值是10M以下
  
  30
  mapred.jobtracker.taskScheduler                     
  org.apache.hadoop.mapred.JobQueueTaskScheduler
  设定任务的执行计划实现类
  31
  mapred.jobtracker.taskScheduler.maxRunningTasksPerJob
  
  作业同时运行的任务数的最大值
  32
  mapred.map.max.attempts                             
  4   
  Map任务的重试次数
  33
  mapred.reduce.max.attempts                          
  4   
  Reduce任务的重试次数
  34
  mapred.reduce.parallel.copies                        
  5   
  在复制阶段时reduce并行传送的值。
  35
  mapreduce.reduce.shuffle.maxfetchfailures           
  10   
  取map输出的最大重试次数
  36
  mapreduce.reduce.shuffle.connect.timeout            
  180000
  REDUCE任务连接任务管理器获得map输出时的总耗时是3分钟         
  
  37
  mapreduce.reduce.shuffle.read.timeout               
  180000
  REDUCE任务等待map输出数据的总耗时是3分钟
  38
  mapred.task.timeout                                 
  600000
  如果任务无读无写时的时间耗时为10分钟,将被终止
  39
  mapred.tasktracker.map.tasks.maximum               
  2   
  任管管理器可同时运行map任务数为2
  40
  mapred.tasktracker.reduce.tasks.maximum            
  2   
  任管管理器可同时运行reduce任务数为2
  41
  mapred.jobtracker.completeuserjobs.maximum
  100   
  当用户的完成作业数达100个后,将其放入作业历史文件中
  42
  mapreduce.reduce.input.limit               
  -1     
  Reduce输入量的限制。
  43
  mapred.job.tracker.retiredjobs.cache.size  
  1000   
  作业状态为已不在执行的保留在内存中的量为1000
  44
  mapred.job.tracker.jobhistory.lru.cache.size
  5      
  作业历史文件装载到内存的数量
  45
  mapred.child.java.opts                     
  -Xmx200m
  启动task管理的子进程时的内存设置
  46
  mapred.child.env                           
  
  子进程的参数设置
  47
  mapred.child.ulimit                        
  
  虚拟机所需内存的设定。
  48
  mapred.cluster.map.memory.mb               
  -1     
  
  49
  mapred.cluster.reduce.memory.mb            
  -1     
  
  50
  mapred.cluster.max.map.memory.mb           
  -1     
  
  51
  mapred.cluster.max.reduce.memory.mb        
  -1     
  
  52
  mapred.job.map.memory.mb                  
  -1     
  
  53
  mapred.job.reduce.memory.mb               
  -1     
  
  54
  mapred.child.tmp                           
  /tmp   
  Mr任务信息的存放目录
  55
  mapred.inmem.merge.threshold               
  1000   
  内存中的合并文件数设置
  56
  mapred.job.shuffle.merge.percent           
  0.66   
  
  57
  mapred.job.shuffle.input.buffer.percent   
  0.70   
  
  58
  mapred.job.reduce.input.buffer.percent     
  0.0   
  
  59
  mapred.map.tasks.speculative.execution     
  true   
  Map任务的多实例并行运行标识
  60
  mapred.reduce.tasks.speculative.execution  
  true   
  Reduce任务的多实例并行运行标识
  61
  mapred.job.reuse.jvm.num.tasks
  1           
  每虚拟机运行的任务数
  62
  mapred.min.split.size
  0           
  Map的输入数据被分解的块数设置
  63
  mapred.jobtracker.maxtasks.per.job
  -1         
  一个单独作业的任务数设置
  64
  mapred.submit.replication
  10         
  提交作业文件的复制级别
  65
  mapred.tasktracker.dns.interface
  default     
  任务管理跟踪器是否报告IP地址名的开关
  66
  mapred.tasktracker.dns.nameserver
  default     
  作业和任务管理跟踪器之间通讯方式采用的DNS服务的主机名或IP地址
  67
  tasktracker.http.threads
  40         
  http服务器的工作线程数量
  68
  mapred.task.tracker.http.address
  0.0.0.0:50060
  任务管理跟踪器的http服务器的地址和端口
  69
  keep.failed.task.files
  false      
  失败任务是否保存到文件中
  
  70
  mapred.output.compress
  false      
  作业的输出是否压缩
  71
  mapred.output.compression.type
  RECORD      
  作业输出采用NONE, RECORD or BLOCK三种方式中一种压缩的写入到流式文件
  72
  mapred.output.compression.codec
  org.apache.hadoop.io.compress.DefaultCodec
  压缩类的设置
  73
  mapred.compress.map.output
  false                                    
  Map的输出是否压缩
  74
  mapred.map.output.compression.codec
  org.apache.hadoop.io.compress.DefaultCodec
  Map的输出压缩的实现类指定
  75
  map.sort.class
  org.apache.hadoop.util.QuickSort         
  排序键的排序类指定
  76
  mapred.userlog.limit.kb
  0                                       
  每个任务的用户日志文件大小
  77
  mapred.userlog.retain.hours
  24                                       
  作业完成后的用户日志留存时间为24小时
  78
  mapred.user.jobconf.limit
  5242880                                 
  Jobconf的大小为5M
  79
  mapred.hosts
  
  可与作业管理跟踪器连接的主机名
  80
  mapred.hosts.exclude
  
  不可与作业管理跟踪器连接的主机名
  81
  mapred.heartbeats.in.second                    
  100               
  作业管理跟踪器的每秒中到达的心跳数量为100
  82
  mapred.max.tracker.blacklists                  
  4                  
  任务管理跟踪器的黑名单列表的数量
  83
  mapred.jobtracker.blacklist.fault-timeout-window
  180               
  任务管理跟踪器超时180分钟则訪任务将被重启
  84
  mapred.jobtracker.blacklist.fault-bucket-width
  15                 
  
  85
  mapred.max.tracker.failures                    
  4                  
  任务管理跟踪器的失败任务数设定
  86
  jobclient.output.filter                        
  FAILED            
  控制任务的用户日志输出到作业端时的过滤方式
  87
  mapred.job.tracker.persist.jobstatus.active   
  false              
  是否持久化作业管理跟踪器的信息
  88
  mapred.job.tracker.persist.jobstatus.hours     
  0                  
  持久化作业管理跟踪器的信息的保存时间
  89
  mapred.job.tracker.persist.jobstatus.dir      
  /jobtracker/jobsInfo
  作业管理跟踪器的信息存放目录
  90
  mapreduce.job.complete.cancel.delegation.tokens
  true               
  恢复时是否变更领牌   
  91
  mapred.task.profile                           
  false              
  任务分析信息是否建设标志
  92
  mapred.task.profile.maps                       
  0-2               
  设置map任务的分析范围
  93
  mapred.task.profile.reduces                    
  0-2               
  设置reduce任务的分析范围
  94
  mapred.line.input.format.linespermap           
  1                  
  每次切分的行数设置
  95
  mapred.skip.attempts.to.start.skipping         
  2                  
  在跳转模式未被设定的情况下任务的重试次数                                                                                    
  96
  mapred.skip.map.auto.incr.proc.count           
  true               
  MapRunner在调用map功能后的增量处理方式设置
  97
  mapred.skip.reduce.auto.incr.proc.count        
  true               
  在调用reduce功能后的增量处理方式设置
  98
  mapred.skip.out.dir                             
  
  跳过记录的输出目录
  99
  mapred.skip.map.max.skip.records               
  0                  
  
  100
  mapred.skip.reduce.max.skip.groups            
  0                  
  
  101
  job.end.retry.attempts                        
  0                  
  Hadoop偿试连接通知器的次数  
  102
  job.end.retry.interval                        
  30000              
  通知偿试回应的间隔操作为30秒
  103
  hadoop.rpc.socket.factory.class.JobSubmissionProtocol
  
  指定与作业跟踪管理器的通讯方式,缺省是采用rpc方式
  104
  mapred.task.cache.levels                           
  2     
  任务缓存级别设置
  105
  mapred.queue.names                                 
  default
  分隔作业队例的分隔符设定
  106
  mapred.acls.enabled                                 
  false
  指定ACL访问控制列表
  107
  mapred.queue.default.state                           
  RUNNING
  定义队列的状态
  108
  mapred.job.queue.name                              
  default
  已提交作业的队列设定
  109
  mapreduce.job.acl-modify-job                        
  
  指定可修改作业的ACL列表
  110
  mapreduce.job.acl-view-job                          
  
  指定可浏临作业的ACL列表
  111
  mapred.tasktracker.indexcache.mb                    
  10   
  任务管理跟踪器的索引内存的最大容器
  112
  mapred.combine.recordsBeforeProgress               
  10000
  在聚合处理时的记录块数
  
  113
  mapred.merge.recordsBeforeProgress                  
  10000
  在汇总处理时的记录块数
  114
  mapred.reduce.slowstart.completed.maps              
  0.05  
  
  115
  mapred.task.tracker.task-controller                 
  org.apache.hadoop.mapred.DefaultTaskController
  任务管理器的设定
  116
  mapreduce.tasktracker.group                          
  
  任务管理器的组成员设定
  117
  mapred.healthChecker.script.path                    
  
  脚本的绝对路径指定,这些脚本是心跳服务的
  118
  mapred.healthChecker.interval                       
  60000                                       
  节点心跳信息的间隔
  119
  mapred.healthChecker.script.timeout                 
  600000                                       
  
  120
  mapred.healthChecker.script.args                    
  
  参数列表
  
  121
  mapreduce.job.counters.limit                        
  120                                          
  作业计数器的最小值
  
  
  
  
  
  
  
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85792-1-1.html 上篇帖子: hadoop中使用的Unsafe.java 下篇帖子: Hadoop + HBase + Hive 完全分布式部署笔记
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表