小知识:Kubernetes 有状态应用基本概念&Nginx部署

%小知识:Kubernetes 有状态应用基本概念&Nginx部署-猿站网-插图

1、无状态与有状态

Deployment控制器设计原则:管理的所有Pod一模一样,提供同一个服务,也不考虑在哪台Node运行,可随意扩容和缩容。这种应用称为“无状态”,例如Web服务

但是,在实际的场景中,并不能满足所有应用,尤其是分布式应用,会部署多个实例,这些实例之间往往有依赖关系,例如主从关系、主备关系,这种应用称为“有状态”,例如MySQL主从、Etcd集群、redis-cluster 等等

2、StatefulSet 控制器概述

StatefulSet控制器用于部署有状态应用,满足一些有状态应用的需求:

Pod有序的部署、扩容、删除和停止 Pod分配一个稳定的且唯一的网络标识 Pod分配一个独享的存储

3、StatefulSet 控制器:网络标识

稳定的网络标识:

使用无头服务 Headless Service(相比普通Service只是将spec.clusterIP定义为None,也就是没有clusterIP,使用endport 来通信)来维护Pod网络身份,会为每个Pod分配一个数字编号并且按照编号顺序部署。还需要在StatefulSet添加serviceName: “nginx”字段指定StatefulSet控制器要使用这个Headless Service。

稳定主要体现在主机名和Pod A记录:

主机名:-<编号> Pod DNS A记录:. ..svc.cluster.local (POD 之间通过DNS A 记录通信)

例如: web-0.web.default.svc.cluster.local

备注: A记录:将域名指向一个IPv4地址(例如:100.100.100.100),需要增加A记录 CNAME记录:如果将域名指向一个域名,实现与被指向域名相同的访问效果,需要增加CNAME记录。这个域名一般是主机服务商提供的一个域名 MX记录:建立电子邮箱服务,将指向邮件服务器地址,需要设置MX记录。建立邮箱时,一般会根据邮箱服务商提供的MX记录填写此记录 NS记录:域名解析服务器记录,如果要将子域名指定某个域名服务器来解析,需要设置NS记录 TXT记录:可任意填写,可为空。一般做一些验证记录时会使用此项,如:做SPF(反垃圾邮件)记录 AAAA记录:将主机名(或域名)指向一个IPv6地址(例如:ff03:0:0:0:0:0:0:c1),需要添加AAAA记录

案例:

通过创建一个 nginx 应用的statefluset 控制器

创建 Headless Service ,定义 clusterIP: None (表示K8S 不会在给这个service 去颁发一个clusterIP 了;相比 deployment 控制器 的每个POD 都是相同的,而 statefuset 控制器的每个POD 都是有状态的

需要单独去访问 )

[root@master-1statefulset]#vimservice.yaml apiVersion:v1 kind:Service metadata: name:web spec: clusterIP:None ports: -protocol:TCP port:80 selector: app:nginx [root@master-1statefulset]#kubectlapply-fservice.yaml [root@master-1statefulset]#kubectlgetservice NAMETYPECLUSTER-IPEXTERNAL-IPPORT(S)AGE webClusterIPNone80/TCP8m18s

#创建statefulset,指定serviceName

[root@master-1statefulset]#catstatefulset.yaml apiVersion:apps/v1 kind:StatefulSet metadata: name:web spec: serviceName:“web” replicas:3 selector: matchLabels: app:nginx template: metadata: labels: app:nginx spec: containers: name:nginx image:nginx ports: -containerPort:80 name:web [root@master-1statefulset]#kubectlapply-fstatefulset.yaml statefulset.apps/webcreated #发现pod名称带有序号 [root@master-1statefulset]#kubectlgetpods NAMEREADYSTATUSRESTARTSAGE web-01/1Running016s web-11/1Running013s web-21/1Running06s #查了POD的主机名 主机名默认与POD名一致,即使POD飘逸到其他node上或者删除后重建主机名都是和POD名一致。有个稳定的主机名 [root@master-1statefulset]#kubectlexec-itweb-0–hostname web-0 [root@master-1statefulset]#kubectlexec-itweb-1–hostname web-1 [root@master-1statefulset]#kubectlexec-itweb-2–hostname web-2 #临时启动一个busyboxpod,测试dns解析(注意这里的busybox版本为1.28.4最新版的busyboxnslookup会有问题) [root@master-1statefulset]#kubectlrun-itdns-test–rm–image=busybox:1.28.4–sh /#nslookupweb Server:10.0.0.2 Address1:10.0.0.2kube-dns.kube-system.svc.cluster.local Name:web Address1:10.244.2.114web-2.web.default.svc.cluster.local Address2:10.244.2.113web-0.web.default.svc.cluster.local Address3:10.244.1.65web-1.web.default.svc.cluster.local 可以看到解析出3条记录出来,解析出对应的三个PodIP记录,其他Pod可使用这个名称访问 模拟测试删除这些pod,升级镜像版本,发现podip虽然发生变化,但是主机名,PodDNSA记录不会发生变化 /#nslookupweb Server:10.0.0.2 Address1:10.0.0.2kube-dns.kube-system.svc.cluster.local Name:web Address1:10.244.2.116web-2.web.default.svc.cluster.local Address2:10.244.2.115web-0.web.default.svc.cluster.local Address3:10.244.1.66web-1.web.default.svc.cluster.local

这个就验证了 statefulset 的 Pod是 有序的部署、扩容、删除和停止 且 给每一个POD 分配一个稳定的且唯一的网络标识

4、StatefulSet 控制器:独享存储

独享存储:StatefulSet的存储卷使用VolumeClaimTemplate创建,称为卷申请模板,当StatefulSet使用VolumeClaimTemplate创建一个PersistentVolume时,

同样也会为每个Pod分配并创建一个编号的PVC,每个PVC绑定对应的PV,从而保证每个Pod都拥有独立的存储。

在创建StatefulSet 控制器 独享存储前,需要先定义好存储卷,使用pv 作为持久化存储卷,后端存储为NFS

这里采用动态PV 的方式(NFS server 搭建的过程省略)

一、部署NFS服务器

#服务器安装nfs服务,提供nfs存储功能 1、安装nfs-utils yuminstallnfs-utils(centos) 或者apt-getinstallnfs-kernel-server(ubuntu) 2、启动服务 systemctlenablenfs-server systemctlstartnfs-server 3、创建共享目录完成共享配置 mkdir/home/nfs#创建共享目录 4、编辑共享配置 vim/etc/exports #语法格式:共享文件路径客户机地址(权限)#这里的客户机地址可以是IP,网段,域名,也可以是任意* /home/nfs*(rw,async,no_root_squash) 服务自检命令 exportfs-arv 5、重启服务 systemctlrestartnfs-server 6、本机查看nfs共享目录 #showmount-e服务器IP地址(如果提示命令不存在,则需要yuminstallshowmount) showmount-e127.0.0.1 /home/nfs/nginx* 7、客户端模拟挂载[所有k8s的节点都需要安装客户端] [root@master-1~]#yuminstallnfs-utils(centos) 或者apt-getinstallnfs-common(ubuntu) [root@master-1~]#mkdir/test [root@master-1~]#mount-tnfs172.16.201.209:/home/nfs/test #取消挂载 [root@master-1~]#umount/test

二、配置PV 动态供给(NFS StorageClass),创建pvc

#部署NFS实现自动创建PV插件: 一共设计到4个yaml 文件 ,官方的文档有详细的说明

https://github.com/kubernetes-incubator/external-storage

%小知识:Kubernetes 有状态应用基本概念&Nginx部署-1猿站网-插图 %小知识:Kubernetes 有状态应用基本概念&Nginx部署-2猿站网-插图 root@k8s-master1:~#mkdir/root/pvc root@k8s-master1:~#cd/root/pvc

创建rbac.yaml 文件

root@k8s-master1:pvc#catrbac.yaml kind:ServiceAccount apiVersion:v1 metadata: name:nfs-client-provisioner kind:ClusterRole apiVersion:rbac.authorization.k8s.io/v1 metadata: name:nfs-client-provisioner-runner rules: -apiGroups:[“”] resources:[“persistentvolumes”] verbs:[“get”,“list”,“watch”,“create”,“delete”] -apiGroups:[“”] resources:[“persistentvolumeclaims”] verbs:[“get”,“list”,“watch”,“update”] -apiGroups:[“storage.k8s.io”] resources:[“storageclasses”] verbs:[“get”,“list”,“watch”] -apiGroups:[“”] resources:[“events”] verbs:[“create”,“update”,“patch”] kind:ClusterRoleBinding apiVersion:rbac.authorization.k8s.io/v1 metadata: name:run-nfs-client-provisioner subjects: -kind:ServiceAccount name:nfs-client-provisioner namespace:default roleRef: kind:ClusterRole name:nfs-client-provisioner-runner apiGroup:rbac.authorization.k8s.io kind:Role apiVersion:rbac.authorization.k8s.io/v1 metadata: name:leader-locking-nfs-client-provisioner rules: -apiGroups:[“”] resources:[“endpoints”] verbs:[“get”,“list”,“watch”,“create”,“update”,“patch”] kind:RoleBinding apiVersion:rbac.authorization.k8s.io/v1 metadata: name:leader-locking-nfs-client-provisioner subjects: -kind:ServiceAccount name:nfs-client-provisioner #replacewithnamespacewhereprovisionerisdeployed namespace:default roleRef: kind:Role name:leader-locking-nfs-client-provisioner apiGroup:rbac.authorization.k8s.io

创建deployment.yaml 文件

#官方默认的镜像地址,国内可能无法下载,可以使用 image:

fxkjnj/nfs-client-provisioner:latest

#定义NFS 服务器的地址,共享目录名称

root@k8s-master1:pvc#catdeployment.yaml apiVersion:v1 kind:ServiceAccount metadata: name:nfs-client-provisioner kind:Deployment apiVersion:apps/v1 metadata: name:nfs-client-provisioner spec: replicas:1 strategy: type:Recreate selector: matchLabels: app:nfs-client-provisioner template: metadata: labels: app:nfs-client-provisioner spec: serviceAccountName:nfs-client-provisioner containers: name:nfs-client-provisioner image:fxkjnj/nfs-client-provisioner:latest volumeMounts: name:nfs-client-root mountPath:/persistentvolumes env: name:PROVISIONER_NAME value:fuseim.pri/ifs name:NFS_SERVER value:172.16.201.209 name:NFS_PATH value:/home/nfs volumes: name:nfs-client-root nfs: server:172.16.201.209 path:/home/nfs

创建class.yaml

# archiveOnDelete: “true” 表示当PVC 删除后,后端数据不直接删除,而是归档

root@k8s-master1:pvc#catclass.yaml apiVersion:storage.k8s.io/v1 kind:StorageClass metadata: name:managed-nfs-storage provisioner:fuseim.pri/ifs#orchooseanothername,mustmatchdeploymentsenvPROVISIONER_NAME parameters: archiveOnDelete:“true”

查看存储类

root@k8s-master1:~/kubernetes/redis#kubectlgetsc NAMEPROVISIONERRECLAIMPOLICYVOLUMEBINDINGMODEALLOWVOLUMEEXPANSIONAGE managed-nfs-storagefuseim.pri/ifsDeleteImmediatefalse6s

基于上面的内容创建 statefulset.yaml 文件

root@k8s-master1:~#mkdir/root/statefulset root@k8s-master1:~#cd/root/statefulset root@k8s-master1:statefulset#vimstatefulset.yaml apiVersion:apps/v1 kind:StatefulSet metadata: name:web spec: serviceName:“web” replicas:3 selector: matchLabels: app:nginx template: metadata: labels: app:nginx spec: containers: name:nginx image:nginx:1.16 ports: -containerPort:80 name:web volumeMounts: name:nginx-pvc#指定PVC名称 mountPath:/usr/share/nginx/html volumeClaimTemplates:#相当于pvc模板 -metadata: name:nginx-pvc#创建的PVC名称 spec: storageClassName:“managed-nfs-storage”#指定动态PV名称 accessModes: -ReadWriteOnce#访问模式,读写在单台机器 resources: requests: storage:1Gi root@k8s-master1:statefulset#kubectlapply-fstatefulset.yaml statefulset.apps/webcreated root@k8s-master1:~/kubernetes/statefulset#kubectlgetpv NAMECAPACITYACCESSMODESRECLAIMPOLICYSTATUSCLAIMSTORAGECLASSREASONAGE pvc-8eacbe25-3875-4f78-91ca-ba83b6967a8a100GiRWXDeleteBoundredis/nfs-redismanaged-nfs-storage6d pvc-935033b7-9ac8-4346-8543-1f95492dcde91GiRWODeleteBounddefault/nginx-pvc-web-1managed-nfs-storage39s pvc-bd3a8c59-b66d-457b-a6f2-90f3b7f9ebf01GiRWODeleteBounddefault/nginx-pvc-web-2managed-nfs-storage19s pvc-be5cf42a-aeaa-4667-901c-77e1d2350f491GiRWODeleteBounddefault/nginx-pvc-web-0managed-nfs-storage61s root@k8s-master1:~/kubernetes/statefulset#kubectlgetpvc NAMESTATUSVOLUMECAPACITYACCESSMODESSTORAGECLASSAGE nginx-pvc-web-0Boundpvc-be5cf42a-aeaa-4667-901c-77e1d2350f491GiRWOmanaged-nfs-storage82s nginx-pvc-web-1Boundpvc-935033b7-9ac8-4346-8543-1f95492dcde91GiRWOmanaged-nfs-storage61s nginx-pvc-web-2Boundpvc-bd3a8c59-b66d-457b-a6f2-90f3b7f9ebf01GiRWOmanaged-nfs-storage40s oot@k8s-master1:~/kubernetes/statefulset#kubectlgetpods–show-labels NAMEREADYSTATUSRESTARTSAGELABELS web-01/1Running04m50sapp=nginx,controller-revision-hash=web-b56c497b,statefulset.kubernetes.io/pod-name=web-0 web-11/1Running04m29sapp=nginx,controller-revision-hash=web-b56c497b,statefulset.kubernetes.io/pod-name=web-1 web-21/1Running04m8sapp=nginx,controller-revision-hash=web-b56c497b,statefulset.kubernetes.io/pod-name=web-2 #分别进入到3个pod中,写入一个数据,验证各自的独享存储 root@k8s-master1:~/kubernetes/statefulset#kubectlgetpods-owide–selectorapp=nginx NAMEREADYSTATUSRESTARTSAGEIPNODENOMINATEDNODEREADINESSGATES web-01/1Running07m6s10.244.169.179k8s-node2 web-11/1Running06m45s10.244.107.228k8s-node3 web-21/1Running06m24s10.244.169.180k8s-node2 [root@master-1~]#kubectlexec-itweb-0–bash-c”echocongratulationsweb-0fork8s>/usr/share/nginx/html/index.html” [root@master-1~]#kubectlexec-itweb-1–bash-c”echocongratulationsweb-1fork8s>/usr/share/nginx/html/index.html” [root@master-1~]#kubectlexec-itweb-2–bash-c”echocongratulationsweb-2fork8s>/usr/share/nginx/html/index.html” #直接访问podIP测试内容: root@k8s-master1:~/kubernetes/statefulset#curl10.244.169.179 congratulationsweb-0fork8s root@k8s-master1:~/kubernetes/statefulset#curl10.244.107.228 congratulationsweb-1fork8s root@k8s-master1:~/kubernetes/statefulset#curl10.244.169.180 congratulationsweb-2fork8s

删除statefulset

删除statefulset 有两张方法,级联删除 和 非级联删除

使用非级联删除 statefulset 时,statefulset 的POD 不会被删除 使用级联删除时,statefulset 和 pod 都会被删除 (1)、非级联删除 使用kubectldeletestatefulsetXXXX删除statefulset,只需要提供–cascade=false参数,就会采用非联机删除,此时删除statefulset不会删除pod kubectldeletestatefulsetweb–cascade=false (2)、级联删除 省略–cascade=false参数即可 kubectldeletestatefulsetweb

原文链接:https://www.toutiao.com/a7024051811204088350/

声明: 猿站网有关资源均来自网络搜集与网友提供,任何涉及商业盈利目的的均不得使用,否则产生的一切后果将由您自己承担! 本平台资源仅供个人学习交流、测试使用 所有内容请在下载后24小时内删除,制止非法恶意传播,不对任何下载或转载者造成的危害负任何法律责任!也请大家支持、购置正版! 。本站一律禁止以任何方式发布或转载任何违法的相关信息访客发现请向站长举报,会员发帖仅代表会员个人观点,并不代表本站赞同其观点和对其真实性负责。本网站的资源部分来源于网络,如有侵权烦请发送邮件至:2697268773@qq.com进行处理。
建站知识

小知识:Apache RewriteBase 指令使用介绍

2023-3-16 12:08:08

建站知识

小知识:在 Kubernetes 中部署高可用应用程序的实践

2023-3-16 12:22:48

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索