searchusermenu
  • 发布文章
  • 消息中心
点赞
收藏
评论
分享
原创

微服务运行平台Kubernetes

2023-12-08 06:05:09
8
0

 简介

      K8S全称kubernetes,其起源于谷歌内部的一个叫Borg系统,谷歌在这方面已经有十几年的使用经验,所以,在Docker技术面世后,谷歌使用自家的Golang语言重写了Borg系统,这就是K8S。

      在K8S的物理架构上,分为Master节点和Node节点,Master节点负责整个集群的管理工作,Node节点负责运行具体的容器。我们可以认为Master就是整个K8S集群的大脑,Node就是具体执行大脑指令的苦力。接下来我们将介绍一下Master和Node节点的各个组成部分。

Master

     Master节点主要由三个组件构成:API ServerSchedulerController Manager,接下来我们逐一介绍一下这三个组件的各自的功能。

API Server

      API Server从字面意思来看,就是提供一组API的服务,其作用是接收处理用户请求。比如,我们需要新建一个容器,那么就可以通过向API Server发送一个请求,由API Server来完成创建容器的后续功能。

Scheduler

      在K8S集群中,Node节点一般都会有多个,当我们需要对容器进行操作的时候,我们需要评估一下这些Node节点是否满足容器的运行条件,例如我们需要启动一个容器,这个容器需要2G内存,那么我们就需要在所有Node节点上查找出哪些节点满足我们的资源需求。这项工作就是由我们的Scheduler来帮助我们完成的,Scheduler会帮助我们选出最佳的运行容器的Node节点。

Controller Manage

       我们都知道,K8S为我们提供了故障自愈的功能,那这是怎么实现的呢?比如我们在Node节点上运行着一些容器,如果此时容器异常退出了,那此时K8S需要为我们自动拉起一个新的容器,或者一台Node节点宕机了,那此节点上的容器就需要自动调度到其他的节点上去。那问题来了,K8S是怎么知道容器是否健康呢?答案是通过一种叫控制器的东西,控制器就是一个死循环,不停的检测其托管的容器的状态,一旦发现某个容器状态异常了,那么就自动为我们修复这个容器。

      那么,问题又来了,如果这个控制器退出了呢?那此时我们的容器异常退出后,K8S就无法获取容器的健康状态了。此时,就需要我们的Controller Manager了,这个组件就是用来为我们监测所有的控制器的状态的。那么问题又来了,如果Controller Manager也退出了怎么办呢?如果Controller Manager也退出了,那就表示当前这台Master出现了异常,这是我们需要避免的问题,所以,一般在一个K8S集群中,我们往往需要多个Master节点,保持Master节点的高可用。

Etcd

      以上就是在Master节点上的三个组件的功能,我们知道,通过API Server可以来发送请求,通过Scheduler来实现选择容器具体运行在的Node节点,通过Controller Manager来管理控制器。而且我们还要保证Master节点的高可用。那么问题又来了,集群的信息保存在哪呢?答案是Etcd中。      K8S使用Etcd作为其外部存储,所有的集群信息都会保存在Etcd集群之中,所有的Master节点都从同一个Etcd集群来获取数据,这就保证了所有的Master节点都可以无差别的管理我们的K8S集群。所以,在部署K8S集群的Master节点是,Etcd服务也是必不可少的,虽然Etcd并不是K8S的组件,但是K8S要使用其来存储数据。关于Etcd的相关内容,我们将放在部署的文章中做介绍,此处就不在赘述。大家只需要记住,Etcd服务是用来存储K8S集群信息的就可以了。

Node

        Node节点主要由三个部分组成:容器引擎,kubelet,kube-proxy,其中容器引擎并不属于K8S本身的组件,且容器引擎也可以有多种,只不过目前应用最广泛的是Docker容器引擎,本文也是基于Docker容器引擎来阐述的,所以,在后文中容器引擎就默认是Docker了。由此可知,我们所有的Node节点上都需要先部署上Docker,然后再来安装剩下的两个组件。

Kubelete

      我们介绍Master节点时说过,当我们需要对一个Pod进行操作时,Master上的Scheduler会帮我们选择最优的Node节点,之后在这个节点上来完成我们的操作。那这些具体的操作是由谁来完成的呢?答案就是kubelet组件,Node节点上的kubelet组件就是用来具体执行我们操作的。

CNI网络插件

      上面我们介绍了Node上的K8S组件,我们知道在一个K8S集群中,往往有很多台Node节点,每个Node节点上都会有若干个pod,具有相同标签的pod就会加入一个service资源中来提供服务,那么在不同Node主机上的pod的IP地址会不会冲突,又能不能互相通信呢?我们已经知道,在同一台宿主机上的不同容器之间是可以相互通信的,但是在不同主机上的pod节点默认是不能通信的,为了解决这个问题,我们还需要在Node节点上部署CNI网络插件来管理我们的pod网络,这个CNI网络插件并不是K8S官方提供的,常用的CNI网络插件都是第三方提供的,最常用的有Calica、Flannel>

0条评论
0 / 1000
w****n
3文章数
0粉丝数
w****n
3 文章 | 0 粉丝
w****n
3文章数
0粉丝数
w****n
3 文章 | 0 粉丝
原创

微服务运行平台Kubernetes

2023-12-08 06:05:09
8
0

 简介

      K8S全称kubernetes,其起源于谷歌内部的一个叫Borg系统,谷歌在这方面已经有十几年的使用经验,所以,在Docker技术面世后,谷歌使用自家的Golang语言重写了Borg系统,这就是K8S。

      在K8S的物理架构上,分为Master节点和Node节点,Master节点负责整个集群的管理工作,Node节点负责运行具体的容器。我们可以认为Master就是整个K8S集群的大脑,Node就是具体执行大脑指令的苦力。接下来我们将介绍一下Master和Node节点的各个组成部分。

Master

     Master节点主要由三个组件构成:API ServerSchedulerController Manager,接下来我们逐一介绍一下这三个组件的各自的功能。

API Server

      API Server从字面意思来看,就是提供一组API的服务,其作用是接收处理用户请求。比如,我们需要新建一个容器,那么就可以通过向API Server发送一个请求,由API Server来完成创建容器的后续功能。

Scheduler

      在K8S集群中,Node节点一般都会有多个,当我们需要对容器进行操作的时候,我们需要评估一下这些Node节点是否满足容器的运行条件,例如我们需要启动一个容器,这个容器需要2G内存,那么我们就需要在所有Node节点上查找出哪些节点满足我们的资源需求。这项工作就是由我们的Scheduler来帮助我们完成的,Scheduler会帮助我们选出最佳的运行容器的Node节点。

Controller Manage

       我们都知道,K8S为我们提供了故障自愈的功能,那这是怎么实现的呢?比如我们在Node节点上运行着一些容器,如果此时容器异常退出了,那此时K8S需要为我们自动拉起一个新的容器,或者一台Node节点宕机了,那此节点上的容器就需要自动调度到其他的节点上去。那问题来了,K8S是怎么知道容器是否健康呢?答案是通过一种叫控制器的东西,控制器就是一个死循环,不停的检测其托管的容器的状态,一旦发现某个容器状态异常了,那么就自动为我们修复这个容器。

      那么,问题又来了,如果这个控制器退出了呢?那此时我们的容器异常退出后,K8S就无法获取容器的健康状态了。此时,就需要我们的Controller Manager了,这个组件就是用来为我们监测所有的控制器的状态的。那么问题又来了,如果Controller Manager也退出了怎么办呢?如果Controller Manager也退出了,那就表示当前这台Master出现了异常,这是我们需要避免的问题,所以,一般在一个K8S集群中,我们往往需要多个Master节点,保持Master节点的高可用。

Etcd

      以上就是在Master节点上的三个组件的功能,我们知道,通过API Server可以来发送请求,通过Scheduler来实现选择容器具体运行在的Node节点,通过Controller Manager来管理控制器。而且我们还要保证Master节点的高可用。那么问题又来了,集群的信息保存在哪呢?答案是Etcd中。      K8S使用Etcd作为其外部存储,所有的集群信息都会保存在Etcd集群之中,所有的Master节点都从同一个Etcd集群来获取数据,这就保证了所有的Master节点都可以无差别的管理我们的K8S集群。所以,在部署K8S集群的Master节点是,Etcd服务也是必不可少的,虽然Etcd并不是K8S的组件,但是K8S要使用其来存储数据。关于Etcd的相关内容,我们将放在部署的文章中做介绍,此处就不在赘述。大家只需要记住,Etcd服务是用来存储K8S集群信息的就可以了。

Node

        Node节点主要由三个部分组成:容器引擎,kubelet,kube-proxy,其中容器引擎并不属于K8S本身的组件,且容器引擎也可以有多种,只不过目前应用最广泛的是Docker容器引擎,本文也是基于Docker容器引擎来阐述的,所以,在后文中容器引擎就默认是Docker了。由此可知,我们所有的Node节点上都需要先部署上Docker,然后再来安装剩下的两个组件。

Kubelete

      我们介绍Master节点时说过,当我们需要对一个Pod进行操作时,Master上的Scheduler会帮我们选择最优的Node节点,之后在这个节点上来完成我们的操作。那这些具体的操作是由谁来完成的呢?答案就是kubelet组件,Node节点上的kubelet组件就是用来具体执行我们操作的。

CNI网络插件

      上面我们介绍了Node上的K8S组件,我们知道在一个K8S集群中,往往有很多台Node节点,每个Node节点上都会有若干个pod,具有相同标签的pod就会加入一个service资源中来提供服务,那么在不同Node主机上的pod的IP地址会不会冲突,又能不能互相通信呢?我们已经知道,在同一台宿主机上的不同容器之间是可以相互通信的,但是在不同主机上的pod节点默认是不能通信的,为了解决这个问题,我们还需要在Node节点上部署CNI网络插件来管理我们的pod网络,这个CNI网络插件并不是K8S官方提供的,常用的CNI网络插件都是第三方提供的,最常用的有Calica、Flannel>

文章来自个人专栏
大数据AI
3 文章 | 1 订阅
0条评论
0 / 1000
请输入你的评论
1
0