一 环境准备
1.1 基础环境
ntp配置:略 #建议配置ntp服务,保证时间一致性
etcd版本:v3.3.9
防火墙及selinux:关闭防火墙和selinux
名称
地址
主机名
备注
etcd1
172.24.8.71
用于保存相关ip信息
docker01
172.24.8.72
docker01.example.com
docker02
172.24.8.73
docker02.example.com
1
2
3
# hostnamectl set-hostname etcd1.example.com
# hostnamectl set-hostname docker01.example.com
# hostnamectl set-hostname docker02.example.com
提示:主机名非必须。
1.2 docker环境
以上所有节点均安装docker,具体方式见《002.docker版本及安装》。
二 etcd节点部署
提示:本环境全部采用docker化,即etcd服务也以docker形式存在。
2.1 etcd基础配置
1
2
3
4
5
6
7
8
# mkdir -p /var/log/etcd/ #建议创建etcd日志保存目录
# mkdir -p /data/etcd #建议创建单独的etcd数据目录
# export host_1=172.24.8.71 #设置etcd节点的ip
# export data_dir=/data/etcd #设置集群etcd数据节点
# registry=quay.io/coreos/etcd #建议使用此仓库
# etcd_version=latest #设置etcd版本
# export name_1=etcd1 #设置etcd节点的name
# docker volume create –name etcd-data
提示:以上所有操作需要在所有节点操作。
2.3 启动docker etcd集群
1
2
3
4
5
6
7
8
9
10
[root@etcd1 ~]# docker run \
-p 2379:2379 \
-p 2380:2380 \
–volume=${data_dir}:/etcd-data \
–name etcd ${registry}:${etcd_version} \
/usr/local/bin/etcd \
–data-dir=/etcd-data –name ${name_1} \
–initial-advertise-peer-urls http://${host_1}:2380 –listen-peer-urls http://0.0.0.0:2380 \
–advertise-client-urls http://${host_1}:2379 –listen-client-urls http://0.0.0.0:2379 \
–initial-cluster ${name_1}=http://${host_1}:2380
提示:quay.io/coreos/etcd镜像国内可能无法pull,可在国外节点pull,然后scp至集群节点。
2.4 确认验证
1
[root@etcd1 ~]# docker ps
1
[root@etcd1 ~]# docker exec -it bcb96fb0f987 /usr/local/bin/etcdctl cluster-health
?
1
[root@etcd1 ~]# docker exec -it bcb96fb0f987 /usr/local/bin/etcdctl –endpoints=http://${host_1}:2379 member list
三 docker宿主机节点配置
3.1 docker01配置
?
1
2
3
[root@docker01 ~]# vi /etc/sysconfig/docker
options=–cluster-store=etcd://172.24.8.71:2379 –cluster-advertise=172.24.8.72:2379
[root@docker01 ~]# systemctl restart docker
3.2 docker02配置
?
1
2
3
[root@docker02 ~]# vi /etc/sysconfig/docker
options=–cluster-store=etcd://172.24.8.71:2379 –cluster-advertise=172.24.8.73:2379
[root@docker02 ~]# systemctl restart docker
3.3 创建overlay网络
?
1
2
3
[root@docker01 ~]# docker network create -d overlay overlaynet1
418654e0092f5d1c3e4bf2b9ee73cdd22932dd60fecf12d7a3b024818118244b
[root@docker01 ~]# docker network inspect overlaynet1
?
1
[root@docker02 ~]# docker network inspect overlaynet1
提示:分别在docker01和docker02宿主机查看在docker01上创建的overlay网络,若都存在则表示通过 etcd,网络数据是分布式而不是本地的了。
3.4 测试网络
?
1
2
3
4
[root@docker01 ~]# docker run -d –name container01 –network overlaynet1 training/webapp python app.py
[root@docker02 ~]# docker run -d –name container02 –network overlaynet1 training/webapp python app.py
[root@docker01 ~]# docker exec -it 73e984a5528a /bin/bash
root@73e984a5528a:/opt/webapp# ifconfig
?
1
root@73e984a5528a:/opt/webapp# route -n
?
1
2
[root@docker02 ~]# docker exec -it 89eac9521743 /bin/bash
root@89eac9521743:/opt/webapp# ifconfig
说明:
所有容器对会存在两个网卡,eth0和eth1;
其中 eth1 的网络是一个内部的网段,即普通的 nat 模式;
其中 eth0 是 overlay 网段上分配的ip地址,即 overlay 网络,且 mtu 是 1450 而不是 1500;
只有同一个 overlay 网络中的容器之间的通信才会通过 eth0,其它所有通信还是经过 eth1。
?
1
[root@docker01 ~]# brctl show
?
1
[root@docker01 ~]# docker network ls
其他引用:
docker 在每个节点上创建了两个 linux bridge,一个用于 overlay 网络,一个用于非 overlay 的 nat 网络(docker_gwbridge);
容器内的到overlay 网络的其它容器的网络流量走容器的 overlay 网卡(eth0),其它网络流量走容器的 nat 网卡(eth1);
当前 docker 创建 vxlan 隧道的id范围为 256~1000,因而最多可以创建745个网络,因此,本例中的这个 vxlan 隧道使用的 id 是 256;
docker vxlan 驱动使用 4789 udp 端口;
overlay网络模型底层需要类似 consul 或 etcd 的 kv 存储系统进行消息同步;
docker overlay 不使用多播;
overlay 网络中的容器处于一个虚拟的大二层网络中,
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:http://www.cnblogs.com/itzgr/p/10175652.html
声明: 猿站网有关资源均来自网络搜集与网友提供,任何涉及商业盈利目的的均不得使用,否则产生的一切后果将由您自己承担! 本平台资源仅供个人学习交流、测试使用 所有内容请在下载后24小时内删除,制止非法恶意传播,不对任何下载或转载者造成的危害负任何法律责任!也请大家支持、购置正版! 。本站一律禁止以任何方式发布或转载任何违法的相关信息访客发现请向站长举报,会员发帖仅代表会员个人观点,并不代表本站赞同其观点和对其真实性负责。本网站的资源部分来源于网络,如有侵权烦请发送邮件至:2697268773@qq.com进行处理。