元月's blog 元月's blog
首页
  • 基础
  • 并发编程
  • JVM
  • Spring
  • Redis篇
  • Nginx篇
  • Kafka篇
  • Otter篇
  • Shardingsphere篇
  • 设计模式
  • MySQL
  • Oracle
  • 基础
  • 操作系统
  • 网络
  • 数据结构
  • 技术文档
  • Git常用命令
  • GitHub技巧
  • 博客搭建
  • 开发工具
更多

元月

临渊羡鱼,不如退而结网
首页
  • 基础
  • 并发编程
  • JVM
  • Spring
  • Redis篇
  • Nginx篇
  • Kafka篇
  • Otter篇
  • Shardingsphere篇
  • 设计模式
  • MySQL
  • Oracle
  • 基础
  • 操作系统
  • 网络
  • 数据结构
  • 技术文档
  • Git常用命令
  • GitHub技巧
  • 博客搭建
  • 开发工具
更多
  • 容器化

  • K8S

    • 快速了解云原生架构
    • k8s简介与底层原理
      • 一、k8s是什么?
      • 二、K8S 核心架构原理
    • k8s安装与基本使用
    • k8s核心概念与高级特性
    • Dashboard安装和使用
  • 云原生
  • K8S
元月
2023-02-07
目录

k8s简介与底层原理

# 一、k8s是什么?

K8S (Kubernetes),是负责自动化运维管理多个容器化程序的集群

  • 服务发现与负载均衡:无需修改你的应用程序即可使用陌生的服务发现机制。

  • 存储编排:自动挂载所选存储系统,包括本地存储。

  • Secret和配置管理:部署更新Secrets和应用程序的配置时不必重新构建容器镜像,且不必将软件堆栈配置中的秘密信息暴露出来。

  • 批量执行:除了服务之外,Kubernetes还可以管理你的批处理和CI工作负载,在期望时替换掉失效的容器。

  • 水平扩缩:使用一个简单的命令、一个UI或基于CPU使用情况自动对应用程序进行扩缩。

  • 滚动更新与回滚:Kubernetes会分步骤地将针对应用或其配置的更改上线,同时监视应用程序运行状况以确保你不会同时终止所有实例。

  • 自动装箱:根据资源需求和其他约束自动放置容器,同时避免影响可用性。

  • 自我修复:重新启动失败的容器,在节点死亡时替换并重新调度容器,杀死不响应用户定义的健康检查的容器。

# 二、K8S 核心架构原理

这里,我们从宏观架构上来学习 K8S 的设计思想。首先看下图:

K8S 是属于主从设备模型(Master-Slave 架构),即 Master Node负责核心的调度、管理和运维,Worker Node则执行用户的程序。

注意:Master Node 和 Worker Node 是分别安装了 K8S 的 Master 和 Woker 组件的实体服务器,每个 Node 都对应了一台实体服务器(虽然 Master Node 可以和其中一个 Worker Node 安装在同一台服务器,但是建议 Master Node 单独部署),所有 Master Node 和 Worker Node 组成了 K8S 集群,同一个集群可能存在多个 Master Node 和 Worker Node。

首先来看Master Node都有哪些组件:

  • API Server。K8S 的请求入口服务。

    API Server 负责接收 K8S 所有请求(来自 UI 界面或者 CLI 命令行工具),然后,API Server 根据用户的具体请求,去通知其他组件干活。

  • Controller Manager。K8S 所有 Worker Node 的监控器。

Controller Manager 有很多具体的 Controller, Node Controller、Service Controller、Volume Controller 等。Controller 负责监控和调整在 Worker Node 上部署的服务的状态,比如用户要求 A 服务部署 2 个副本,那么当其中一个服务挂了的时候,Controller 会马上调整,让 Scheduler 再选择一个 Worker Node 重新部署服务。

  • Scheduler。K8S 所有 Worker Node 的调度器。

    当用户要部署服务时,Scheduler 会选择最合适的 Worker Node(服务器)来部署。

  • etcd。K8S 的存储服务。

    etcd 存储了 K8S 的关键配置和用户配置,K8S 中仅 API Server 才具备读写权限,其他组件必须通过 API Server 的接口才能读写数据。

接着来看Worker Node的组件:

  • Kubelet。Worker Node 的监视器,以及与 Master Node 的通讯器。

    Kubelet 是 Master Node 安插在 Worker Node 上的“眼线”,它会定期向 Master Node 汇报自己 Node 上运行的服务的状态,并接受来自 Master Node 的指示采取调整措施。负责控制所有容器的启动停止,保证节点工作正常。

  • Kube-Proxy。K8S 的网络代理。

    Kube-Proxy 负责 Node 在 K8S 的网络通讯、以及对外部网络流量的负载均衡。

  • Container Runtime。Worker Node 的运行环境。

    即安装了容器化所需的软件环境确保容器化程序能够跑起来,比如 Docker Engine运行环境。

在大概理解了上面几个组件的意思后,我们来看下上面用K8S部署Nginx的过程中,K8S内部各组件是如何协同工作的:

我们在master节点执行一条命令要master部署一个nginx应用(kubectl create deployment nginx --image=nginx)

  1. 这条命令首先发到master节点的网关api server,这是matser的唯一入口
  2. api server将命令请求交给controller mannager进行控制
  3. controller mannager 进行应用部署解析
  4. controller mannager 会生成一次部署信息,并通过api server将信息存入etcd存储中
  5. scheduler调度器通过api server从etcd存储中,拿到要部署的应用,开始调度看哪个节点有资源适合部署
  6. scheduler把计算出来的调度信息通过api server再放到etcd中
  7. 每一个node节点的监控组件kubelet,随时和master保持联系(给api-server发送请求不断获取最新数据),拿到master节点存储在etcd中的部署信息
  8. 假设node2的kubelet拿到部署信息,显示他自己节点要部署某某应用
  9. kubelet就自己run一个应用在当前机器上,并随时给master汇报当前应用的状态信息
  10. node和master也是通过master的api-server组件联系的
  11. 每一个机器上的kube-proxy能知道集群的所有网络,只要node访问别人或者别人访问node,node上的kube-proxy网络代理自动计算进行流量转发
#k8s
快速了解云原生架构
k8s安装与基本使用

← 快速了解云原生架构 k8s安装与基本使用→

最近更新
01
otter二次开发-支持按目标端主键索引Load数据
08-03
02
mvnw简介
06-21
03
gor流量复制工具
06-03
更多文章>
Theme by Vdoing | Copyright © 2022-2024 元月 | 粤ICP备2022071877号-1
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式