设为首页 收藏本站
查看: 2987|回复: 6

[经验分享] hadoop分布式文件系统

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2013-9-29 08:45:55 | 显示全部楼层 |阅读模式
hadoop分布式文件系统
http://hadoop.apache.org/docs/r1.1.2/single_node_setup.html
实验环境:
Master:desk11192.168.122.11
Datanode:server90192.168.122.190
Server233192.168.122.233
server73192.168.122.173用作之后的在线添加
做好本地解析:
192.168.122.11desk11.example.comdesk11
192.168.122.190server90.example.comserver90
192.168.122.233server233.example.comserver233
192.168.122.173server73.eample.comserver73
1.环境配置
hadoop是java程序所以必须运行于java虚拟上(jdk)
准备jdk:jdk-6u26-linux-x64.bin
shjdk-6u26-linux-x64.bin
mvjdk1.6.0_26//usr/local/jdk
vim/etc/profile
添加:
exportJAVA_HOME=/usr/local/jdk
exportCLASSPATH=.:$JAVA_HOME/lib
exportPATH=$PATH:$JAVA_HOME/bin
source/etc/profile
如果系统上安装了默认的java:openjdk,你需要更新一下:
#alternatives--install/usr/bin/javajava/usr/local/jdk/bin/java2
#alternatives--setjava/usr/local/jdk/bin/java
#java-version
javaversion"1.6.0_32"
Java(TM)SERuntimeEnvironment(build1.6.0_32-b05)
JavaHotSpot(TM)64-BitServerVM(build20.7-b02,mixedmode)
检测一下java命令位置
whichjava
/usr/local/jdk/bin/java则位置正常
java环境正常!
1.伪分布式系统(MasterDatanode等节点均在一台主机上)
选择Master主机:desk11
yum-yinstallopensshrsync
useradd-u600hadoop#hadoop均已hadoop身份运行
echohadoop|passwd--stdinhadoop
Chownhadoop.hadoop/home/hadoop-R
以下操作均在hadoop身份操作
su-hadoop
建立ssh无密码验证(ssh等效性)
ssh-keygent一路回车
ssh-copy-idlocalhost
得到的效果是:
[hadoop@desk11~]$sshlocalhost
Lastlogin:SatAug313:59:582013fromlocalhost
配置hadoop
cdhadoop-1.0.4/conf
vimcore-site.xml


fs.default.name
hdfs://desk11:9000


vimhdfs-site.xml


dfs.replication
1#启动一个节点



vimmapred-site.xml



mapred.job.tracker
desk11:9001



[hadoop@desk11conf]$vimhadoop-env.sh
exportJAVA_HOME=/usr/local/jdk
如果没有设置java环境的位置在启动hadoop时则会报错:
205053120.png
格式化:
bin/hadoopnamenode-format
正常结果如下:
205145522.png
启动hadoop
bin/start-all.sh
205320490.png
查看启动的进程:jps
205400426.png
启动之后我们可以在web上访问:

205515972.png
205517709.png
测试:
bin/hadoopfs-putconfwestos#将当前目录下的conf目录下的内容上传到HDFS存于westos目录中
bin/hadoopfs-ls#查看fs系统中的内容
205926223.png
复制分布式文件系统的文件到本地:
bin/hadoopfs-getwestostest#从hdfs上下载westos的内容到test目录
210522117.png
看见在当前的目录下会有test目录里面的内容正好是上传上去conf里的配置文件;
在文件系统创建目录: 210524984.png
bin/hadoopfs-mkdirwangzi
bin/hadoopfs-ls

bin/hadoopfs-rmrwangzi#删除hdfs上的目录
bin/hadoopfs-ls
210526510.png
bin/hadoopjarhadoop-examples-1.0.4.jargrepwestosoutput'dfs[a-z.]+'
#运算测试,在westos内查找以dfs开头的内容并存到output内
运算过程:
13/08/0313:38:27INFOutil.NativeCodeLoader:Loadedthenative-hadooplibrary
13/08/0313:38:27WARNsnappy.LoadSnappy:Snappynativelibrarynotloaded
13/08/0313:38:27INFOmapred.FileInputFormat:Totalinputpathstoprocess:16
13/08/0313:38:27INFOmapred.JobClient:Runningjob:job_201308031321_0001
13/08/0313:38:28INFOmapred.JobClient:map0%reduce0%
13/08/0313:39:28INFOmapred.JobClient:map6%reduce0%
13/08/0313:39:33INFOmapred.JobClient:map12%reduce0%
网页监测:
可以看出已经有意个job提交了,并且正在运算
210528150.png
210530779.png

运算完成: 210532918.png

可见hadoop将任务分成两个job提交的;
[hadoop@desk11hadoop-1.0.4]$bin/hadoopfs-ls

查看output的内容:
210537406.png
关闭hadoop:
[hadoop@desk11hadoop-1.0.4]$bin/stop-all.sh
[hadoop@desk11hadoop-1.0.4]$jps
28027Jps


2.分布式文件系统:
1)jdk环境:
在两个数据节点server90及server233上:
shjdk-6u26-linux-x64.bin
mvjdk1.6.0_26//usr/local/jdk
vim/etc/profile
添加:
exportJAVA_HOME=/usr/local/jdk
exportCLASSPATH=.:$JAVA_HOME/lib
exportPATH=$PATH:$JAVA_HOME/bin
source/etc/profile
检测一下java命令位置
whichjava
/usr/local/jdk/bin/java则位置正常
java环境正常!
2)。seync搭建:(配置以root身份进行)
Master节点与其他的节点之间的配置是要相同的,并且需要各个节点之间要建立ssh等效性,即任意两个节点之间的ssh链接不能有密码。
为方便部署采用里seync
需要安装包:sersync2.5_64bit_binary_stable_final.tar.gz
在各节点上:
yum-yinstallrsyncxinetd
在Master上:
tarzxfsersync2.5.4_64bit_binary_stable_final.tar.gz
[iyunv@desk11home]#ls
GNU-Linux-x86hadoop
[iyunv@desk11home]#cdGNU-Linux-x86/
[iyunv@desk11GNU-Linux-x86]#ls
confxml.xmlsersync2
[iyunv@desk11GNU-Linux-x86]#vimconfxml.xml


#同步服务器同步的目录
#name为目标服务器设定的同步名



在目标服务器上,即在两个数据节点上;
useradd-u600hadoop#hadoop均已hadoop身份运行
echohadoop|passwd--stdinhadoop
[iyunv@server90~]#vim/etc/rsyncd.conf
uid=hadoop#同步过来的所有的内容的所有者及属组均为hadoop
gid=hadoop
maxconnections=36000
usechroot=no
logfile=/var/log/rsyncd.log
pidfile=/var/run/rsyncd.pid
lockfile=/var/run/rsyncd.lock
[rsync]#与Master上的name="rsync"保持一至
path=/home/hadoop#同步本地的目录
comment=testfiles
ignoreerrors=yes
readonly=no
hostsallow=192.168.122.11/24
hostsdeny=*
[iyunv@server90~]#/etc/init.d/xinetdrestart
Stoppingxinetd:[OK]
Startingxinetd:[OK]
rsync--daemon
两个数据节点上操作完全一样
Master节点上:
[iyunv@desk11GNU-Linux-x86]#/etc/init.d/xinetdrestart
Stoppingxinetd:[FAILED]
Startingxinetd:[OK]
[iyunv@desk11GNU-Linux-x86]#./sersync2-r-d#-r整体同步-d
后台运行并检测同步服务器的数据是否发生变化,只要数据变化就会将变化的数据同步到其他的两个节点上;
3)分布式文件系统的配置:
以hadoop身份操作:
Master节点上:
[hadoop@desk11conf]$vimmasters#制定Master位置
desk11#注意解析
[hadoop@desk11conf]$vimslaves
server90
server233
[hadoop@desk11conf]$vimhdfs-site.xml


dfs.replication
2#启动两个Datanode


启动:
[hadoop@desk11hadoop-1.0.4]$bin/hadoopnamenode-format
bin/start-all.sh
210534527.png
211547775.png


可以看见在Master节点上的DataNode进程没有启动,这个进程是在两个数据节点上启动的;
在数据节点server90及server233上:
[hadoop@server90conf]$jps
22978DataNode
23145Jps
23071TaskTracker
[hadoop@server233~]$jps
23225Jps
23150TaskTracker
23055DataNode
测试:
211549568.png
211551321.png
可见节点数变成了两个:
执行测试测试程序:
[hadoop@desk11hadoop-1.0.4]$bin/hadoopjarhadoop-examples-1.0.4.jargrepwestosoutput'dfs[a-z.]+'
13/08/0501:41:10INFOutil.NativeCodeLoader:Loadedthenative-hadooplibrary
13/08/0501:41:10WARNsnappy.LoadSnappy:Snappynativelibrarynotloaded
13/08/0501:41:10INFOmapred.FileInputFormat:Totalinputpathstoprocess:16
13/08/0501:41:11INFOmapred.JobClient:Runningjob:job_201308050135_0001
13/08/0501:41:12INFOmapred.JobClient:map0%reduce0%
13/08/0501:41:39INFOmapred.JobClient:map12%reduce0%
13/08/0501:41:43INFOmapred.JobClient:map25%reduce0%
13/08/0501:42:05INFOmapred.JobClient:map31%reduce0%
13/08/0501:42:08INFOmapred.JobClient:map37%reduce0%
13/08/0501:42:17INFOmapred.JobClient:map43%reduce0%
13/08/0501:42:20INFOmapred.JobClient:map50%reduce0%
监控计算状态:
[hadoop@desk11hadoop-1.0.4]$bin/hadoopdfsadmin-report
ConfiguredCapacity:6209044480(5.78GB)
PresentCapacity:3567787548(3.32GB)
DFSRemaining:3567493120(3.32GB)
DFSUsed:294428(287.53KB)
DFSUsed%:0.01%
Underreplicatedblocks:0
Blockswithcorruptreplicas:0
Missingblocks:0

-------------------------------------------------
Datanodesavailable:2(2total,0dead)

Name:192.168.122.233:50010
DecommissionStatus:Normal
ConfiguredCapacity:3104522240(2.89GB)
DFSUsed:147214(143.76KB)
NonDFSUsed:1320521970(1.23GB)
DFSRemaining:1783853056(1.66GB)
DFSUsed%:0%
DFSRemaining%:57.46%
Lastcontact:MonAug0501:45:38CST2013


Name:192.168.122.190:50010
DecommissionStatus:Normal
ConfiguredCapacity:3104522240(2.89GB)
DFSUsed:147214(143.76KB)
NonDFSUsed:1320734962(1.23GB)
DFSRemaining:1783640064(1.66GB)
DFSUsed%:0%
DFSRemaining%:57.45%
Lastcontact:MonAug0501:45:36CST2013
可以看出两个Datanode均参与了节点的计算,负载均衡
211835508.png

4)hadoop在线添加节点:
1.在新增节点上安装jdk,并创建相同的hadoop用户,uid等保持一致
2.在conf/slaves文件中添加新增节点的ip或者对应域名
3.建立各节点之间与server73的ssh等效性
4.同步master上hadoop所有数据到新增节点上,路径保持一致
5.在新增节点上启动服务:
[hadoop@server73hadoop-1.0.4]$bin/hadoop-daemon.shstartdatanode
[hadoop@server73hadoop-1.0.4]$bin/hadoop-daemon.shstarttasktracker
[hadoop@server73hadoop-1.0.4]$jps
1926DataNode
2024TaskTracker
2092Jps
211837492.png
节点数加一了
6.均衡数据:
在Master节点上:
[hadoop@desk11hadoop-1.0.4]$bin/start-balancer.sh
startingbalancer,loggingto/home/hadoop/hadoop-1.0.4/libexec/../logs/hadoop-hadoop-balancer-desk11.example.com.out
1)如果不执行均衡,那么cluster会把新的数据都存放在新的datanode上,这样会降低mapred的工作效率
2)设置平衡阈值,默认是10%,值越低各节点越平衡,但消耗时间也更长
[hadoop@desk11hadoop-1.0.4]$bin/start-balancer.sh-threshold5
[hadoop@desk11hadoop-1.0.4]$bin/hadoopjarhadoop-examples-1.0.4.jargrepwestostest'dfs[a-z.]+'
13/08/0503:03:49INFOutil.NativeCodeLoader:Loadedthenative-hadooplibrary
13/08/0503:03:49WARNsnappy.LoadSnappy:Snappynativelibrarynotloaded
13/08/0503:03:49INFOmapred.FileInputFormat:Totalinputpathstoprocess:16
13/08/0503:03:49INFOmapred.JobClient:Runningjob:job_201308050135_0003
13/08/0503:03:50INFOmapred.JobClient:map0%reduce0%
[hadoop@desk11hadoop-1.0.4]$bin/hadoopdfsadmin-report
ConfiguredCapacity:9313566720(8.67GB)
PresentCapacity:5379882933(5.01GB)
DFSRemaining:5378859008(5.01GB)
DFSUsed:1023925(999.93KB)
DFSUsed%:0.02%
Underreplicatedblocks:2
Blockswithcorruptreplicas:0
Missingblocks:0

-------------------------------------------------
Datanodesavailable:3(3total,0dead)

Name:192.168.122.233:50010
DecommissionStatus:Normal
ConfiguredCapacity:3104522240(2.89GB)
DFSUsed:424147(414.21KB)
NonDFSUsed:1321731885(1.23GB)
DFSRemaining:1782366208(1.66GB)
DFSUsed%:0.01%
DFSRemaining%:57.41%
Lastcontact:MonAug0503:04:25CST2013


Name:192.168.122.73:50010#新添加的节点
DecommissionStatus:Normal
ConfiguredCapacity:3104522240(2.89GB)
DFSUsed:195467(190.89KB)
NonDFSUsed:1290097781(1.2GB)
DFSRemaining:1814228992(1.69GB)
DFSUsed%:0.01%
DFSRemaining%:58.44%
Lastcontact:MonAug0503:04:24CST2013

Name:192.168.122.190:50010
DecommissionStatus:Normal
ConfiguredCapacity:3104522240(2.89GB)
DFSUsed:404311(394.83KB)
NonDFSUsed:1321854121(1.23GB)
DFSRemaining:1782263808(1.66GB)
DFSUsed%:0.01%
DFSRemaining%:57.41%
Lastcontact:MonAug0503:04:23CST2013
212132763.png

5)hadoop在线删除datanode节点
[hadoop@desk11conf]$vimmapred-site.xml
添加:

dfs.hosts.exclude
/home/hadoop/hadoop-1.0.4/conf/datanode-exclude


创建/home/hadoop/hadoop-1.0.4/conf/datanode-exclude文件,写入要删除的主机,一行一个
[hadoop@desk11conf]$echo"server73">
/home/hadoop/hadoop-1.0.4/conf/datanode-exclude
在master上在线刷新节点:
[hadoop@desk11hadoop-1.0.4]$bin/hadoopdfsadmin-refreshNodes
此操作会在后台迁移数据
212134268.png
可以看出在Datanode上的已经有意个节点down掉了;
6)hadoop在线删除tasktracker节点:
在master上修改conf/mapred-site.xml

mapred.hosts.exclude
/home/hadoop/hadoop-1.0.4/conf/trasktracker-exclude

创建/home/hadoop/hadoop-1.0.4/conf/trasktracker-exclude文件:
touch/home/hadoop/hadoop-1.0.4/conf/trasktracker-exclude
vim/home/hadoop/hadoop-1.0.4/conf/trasktracker-exclude
server73或192.168.122.173
刷新节点:

[hadoop@desk11bin]$./hadoopmradmin-refreshNodes



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-9536-1-1.html 上篇帖子: hadoop 安装、配置、调试、排错 下篇帖子: CentoS5.6 X64下Hadoop的架设

尚未签到

发表于 2013-9-29 10:05:42 | 显示全部楼层
俺从不写措字,但俺写通假字!

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

尚未签到

发表于 2013-9-29 14:32:16 | 显示全部楼层
帮帮顶顶!!

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

尚未签到

发表于 2013-9-29 16:33:48 | 显示全部楼层
没看完~~~~~~ 先顶,好同志

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

发表于 2013-9-29 19:18:20 | 显示全部楼层
有竞争才有进步嘛

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

尚未签到

发表于 2013-9-30 11:34:24 | 显示全部楼层
恐龙说:“遇到色狼,不慌不忙;遇到禽兽,慢慢享受……”

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

尚未签到

发表于 2013-10-1 17:00:24 | 显示全部楼层
睡眠是一门艺术——谁也无法阻挡我追求艺术的脚步!

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表