使用LocalPV动态存储卷,即无需预先手动创建PV,只需创建PVC时指定本地存储类(StorageClass),存储插件cstor-csi就会以子目录形式自动创建对应PV资源。
该模式为推荐使用,您可以更关注工作负载本身的存储需求,无需预先手动创建和配置存储资源,降低底层基础设施的复杂性。
前提条件
已创建容器集群
已在插件市场安装存储插件cstor-csi,且插件正常运行;
使用限制
cstor-csi插件安装版本要求3.4.0及以上;
本地存储卷取决于底层节点的可用性,如果节点变得不健康,那么存储卷也将变得不可被 Pod 访问,影响Pod运行;
如果需要指定节点使用本地存储卷,可以通过以下两种方式:
1、创建持久卷声明PVC时,通过设置节点亲和来指定本地存储使用节点;
2、StorageClass创建时指定绑定策略WaitForFirstConsumer模式,创建工作负载指定节点亲和或者NodeSelector,通过pod调度决定存储使用节点。
通过控制台使用LocalPV动态存储卷
1、创建存储类(StorageClass)
登录“云容器引擎管理控制台;
在集群列表页点击进入指定集群;
进入主菜单“存储”——“存储类”,单击左上角“创建”;
在创建对话框,配置存储类StorageClass的相关参数。配置项说明如下:
配置项 | 说明 |
---|---|
名称 | StorageClass的名称。 |
存储类型 | 前支持云盘、弹性文件、对象存储、并行文件、海量文件和本地存储,这里选择本地存储。 具体创建页中展示的存储类型由当前资源池支持情况决定。 |
存储驱动 | 对应StorageClass yaml中provisioner,值为local.csi.cstor.com |
回收策略 | 回收策略,默认为Deleted。
|
绑定策略 | 绑定策略,默认为Immediate。
|
参数 | 本地存储类型:参数键为type;该场景下选择localpv。 挂载目录:参数键为baseStor。当配置目录不存在时,插件会在节点上自动创建目录。 |
挂载选项 | 挂载参数,用户可根据自己的情况实际定制相关参数。比如设置挂载参数为:discard:表示在挂载文件系统时指定 discard 参数,文件系统中删除文件后会自动触发 discard 操作,通知块设备释放掉未使用的 Block 。 |
参数配置完成后,点击“确定”。创建成功后,可以在存储类列表查看。
2、创建持久卷声明(PVC)
进入主菜单“存储”——“持久卷声明”,单击左上角“创建持久卷声明”;
在创建对话框,配置持久卷声明PVC的相关参数。配置项说明如下:
配置项 | 说明 |
---|---|
名称 | PVC的名称 |
存储声明类型 | 前支持云盘、弹性文件、对象存储、并行文件、海量文件和本地存储,这里选择本地存储。具体创建页中展示的存储类型由当前资源池支持情况决定。 |
分配模式 | 这里选择“使用存储类” |
StorageClass名称 | 选择上一步创建的StorageClass |
容量 | 根据业务需求自定义容量 |
卷模式 |
|
访问模式 |
|
高级选项 | 节点:可以根据需要手动选择PVC对应存储的节点。该操作即在PVC上打上标签如下:topology.kubernetes.io/zone: {节点名} |
参数配置完成后,点击“确定”。创建成功后,可以在持久卷声明列表查看。
进入持久卷声明列表页,等待PVC状态为“已绑定” 。此时,进入主菜单“存储”——“持久卷“,可以看到对应的PV创建 。
PV创建完成后,可以登录指定节点,进入StorageClass配置挂载目录,可以看到以PV名称命名的子目录。
如果PVC一直未绑定,可以查看进入对应PVC详情页查看事件,或者查看cstor-csi日志进行定位。
3、创建工作负载
登录“云容器引擎”管理控制台;
在集群列表页点击进入指定集群;
进入主菜单“工作负载”——“有状态”,单击左上角“创建SatefulSet”;
在创建对话框,数据卷栏中,选择添加数据卷,卷类型选择“使用已有PVC”,操作栏选择“添加已有PVC”;
在实例内容器栏,为容器设置挂载点。选择添加挂载点,选择数据卷为上一步创建,根据需要配置容器路径和权限;
所有的信息都配置完成后,单击 “提交” 。创建成功后,您就可以正常使用数据卷。
通过kubectl命令行使用LocalPV动态存储卷
1、创建存储类(StorageClass)
使用kubectl连接集群,创建示例yaml文件sc-example.yaml:
apiVersion: "storage.k8s.io/v1"
kind: "StorageClass"
metadata:
name: "test-localpv"
allowVolumeExpansion: true
parameters:
# 基础存储路径
baseStor: "/tmp"
type: "localpv"
provisioner: "local.csi.cstor.com"
reclaimPolicy: "Delete"
volumeBindingMode: "Immediate"
执行以下命令,创建StorageClass
kubectl apply -f sc-example.yaml
查看创建的StorageClass:
登录“云容器引擎”管理控制台;
在集群列表页点击进入指定集群;
进入主菜单“存储”——“存储类”,在存储类列表查看。
2、创建持久卷声明(PVC)
使用kubectl连接集群,创建示例yaml文件pvc-example.yaml:
apiVersion: "v1" kind: "PersistentVolumeClaim" metadata: name: "localpv-pvc" namespace: "default" spec: accessModes: - "ReadWriteOnce" resources: requests: storage: "1Gi" storageClassName: "test-localpv" volumeMode: "Filesystem"
执行以下命令,创建PVC
kubectl apply -f pvc-example.yaml
查看创建的PVC:
登录“云容器引擎”管理控制台;
在集群列表页点击进入指定集群;
进入主菜单“存储”——“持久卷声明”,在列表查看。
3、创建工作负载
使用kubectl连接集群,创建示例yaml文件sts-example.yaml:
apiVersion: "apps/v1"
kind: "StatefulSet"
metadata:
name: "localpv-sts"
namespace: "default"
spec:
podManagementPolicy: "OrderedReady"
replicas: 1
revisionHistoryLimit: 10
selector:
matchLabels:
name: "localpv-sts"
serviceName: ""
template:
metadata:
labels:
app: ""
ccse_app_name: ""
kubernetes.io/qos: "None"
name: "localpv-sts"
source: "CCSE"
spec:
containers:
- image: "nginx:1.23.2-alpine"
imagePullPolicy: "IfNotPresent"
name: "container1"
resources:
limits:
cpu: "100m"
memory: "128Mi"
requests:
cpu: "100m"
memory: "128Mi"
terminationMessagePath: "/dev/termination-log"
terminationMessagePolicy: "File"
volumeMounts:
- mountPath: "/tmp"
name: "volume1"
dnsPolicy: "ClusterFirst"
restartPolicy: "Always"
schedulerName: "default-scheduler"
securityContext: {}
terminationGracePeriodSeconds: 30
volumes:
- name: "volume1"
persistentVolumeClaim:
claimName: "localpv-pvc"
updateStrategy:
rollingUpdate:
partition: 0
type: "RollingUpdate"
执行以下命令,创建StatefulSet
kubectl apply -f sts-example.yaml
查看创建的有状态负载:
登录“云容器引擎”管理控制台;
在集群列表页点击进入指定集群;
进入主菜单“工作负载”——“有状态”,在列表查看。
验证数据持久化
登录“云容器引擎”管理控制台;
在集群列表页点击进入指定集群;
进入主菜单“工作负载”——“有状态”,进入负载详情;
在Pod列表页,选择“远程登录”,进入到容器内执行以下命令:
1、向/tmp 目录下写一个文件,执行echo "Hello World" > /tmp/test.log
2、查看/tmp目录下文件,执行ls /tmp,预期结果如下:
lost+found test.log
登录pod所在节点,进入StorageClass配置挂载目录下以PV名称命名的子目录,可以看到容器内文件:
退出pod的“远程登录”,对上一步中的Pod执行“销毁重建”,等待Pod重新运行正常;
对新建Pod,继续执行“远程登录”,进入到容器内查看数据。执行cat /tmp/test.log,预期结果如下:
Hello World
以上步骤说明,pod删除重建后,数据仍然存在,说明数据可持久化保存。