立即前往

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
查看全部活动
热门活动
  • 智算采购季 热销S6云服务器2核4G限时88元/年起,部分主机可加赠对象存储组合包!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 一键部署Llama3大模型学习机 0代码一键部署,预装最新主流大模型Llama3与StableDiffusion
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 产品能力
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      基于DRBD的KVM动态迁移

      首页 知识中心 服务器 文章详情页

      基于DRBD的KVM动态迁移

      2024-10-22 07:48:01 阅读次数:23

      配置

      实验目的:构件基于本地存储,可平滑迁移虚拟机的kvm高可用平台
      高可用架构:pacemaker+corosync 并由pcs进行管理
      所需组件:DRBD,DLM,gfs2,clvm,pcs,pacemeker,corosync,libvirtd,qemu,qemu-img
      系统环境:两台kvm节点都是最新的centos7.4,每台节点,挂载一块sdb 40G的磁盘
      实验环境:kvm节点运行在ESXI6.5的宿主机上(如图)

      基于DRBD的KVM动态迁移

      基于DRBD的KVM动态迁移

      #DRBD管理软件的安装(先添加key和elrepo源)
          rpm --import 
          rpm -Uvh 
          yum install kmod-drbd84 drbd84-utils -y
      #虚拟化软件安装
      yum groups install -y "Virtualization Platform " 
      yum groups install -y "Virtualization Hypervisor "
      yum groups install -y "Virtualization Tools "
      yum groups install -y "Virtualization Client "
      
      #群集及配套软件安装
      yum install bash-completion ntpdate tigervnc-server -y
      yum install pacemaker corosync pcs psmisc policycoreutils-python fence-agents-all -y
      
      #gfs2和dlm还有clvm软件
      yum install dlm lvm2-cluster gfs2-utils -y
      
      #升级标准的kvm组件为ev版本(可选)
          yum install centos-release-qemu-ev -y
          yum install qemu-kvm-ev -y      #经测试,安装它后,创建虚拟机时会卡住
      
      #或则运行下面命令一步到位
      rpm --import bd84 drbd84-utils -y  && yum groups install -y "Virtualization Platform "  && yum groups install -y "Virtualization Hypervisor " && yum groups install -y "Virtualization Tools " && yum groups install -y "Virtualization Client " && yum install bash-completion ntpdate tigervnc-server centos-release-qemu-ev -y && yum install pacemaker corosync pcs psmisc policycoreutils-python fence-agents-all -y && yum install dlm lvm2-cluster gfs2-utils -y && reboot

      准备阶段

      1;主机名,hosts解析
          10.0.0.31   node1
          10.0.0.32   node2
      
      2:ssh key互信
          ssh-keygen -t rsa -P ''
          ssh-copy-id -i ~/.ssh/id_rsa.pub root@node1 #到自己免密码
          ssh-copy-id -i ~/.ssh/id_rsa.pub root@node2 #到node2免密码(双向)
      
      3:每个node节点准备挂载一块40G的本地磁盘sdb
      
      4:配置时区和时钟
          cp -f /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
          crontab -e
          */30 * * * * /usr/sbin/ntpdate  &> /dev/null
      
      5:在所有节点创建一个目录
          mkdir /kvm-hosts
      
      6:配置firewalld防火墙,将corosync,drbd的专用网段设置为全开放
          firewall-cmd --zone=trusted --add-source=10.0.0.0/24 --permanent
          firewall-cmd --zone=trusted --add-source=172.168.1.0/24 --permanent
          firewall-cmd --reload
      
      7:配置selinux
              yum install -y policycoreutils-python   #安装这个软件包,才会有下面的命令
          semanage permissive -a drbd_t
      
      8:磁盘准备
      #为本地的那块40G的磁盘创建lv(注意磁盘的大小要一致)(双节点都要做,建议将lv的名称都配置为一样的)
      fdisk /dev/sdb
      partprobe
      pvcreate /dev/sdb1
      vgcreate vgdrbd0 /dev/sdb1
      lvcreate -n lvdrbd0 -L 40G vgdrbd0

      第一:配置DRBD(双节点操作)

      #修改全局配置文件:
          vi /etc/drbd.d/global_common.conf
              usage-count yes; 改成no,这是使用计数,drbd团队收集互联网上有多少在使用drbd
      
      
          #创建配置文件
          vi /etc/drbd.d/r0.res
      
      resource r0 {
      
          protocol C;
          meta-disk internal;
          device    /dev/drbd0;
          disk      /dev/vgdrbd0/lvdrbd0;
          syncer {
              verify-alg sha1;
          }
          on node1 {
              address 172.168.1.41:7789;
          }
          on node2 {
              address 172.168.1.42:7789;
          }
      
          #若是单主drbd可以不配置下面的参数,这里是双主需要配置
          net {
              allow-two-primaries;
              after-sb-0pri discard-zero-changes;
              after-sb-1pri discard-secondary;
              after-sb-2pri disconnect;
          }
          disk {
              fencing resource-and-stonith;
          }
          handlers {
              fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
              after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh";
          }
      }
      
      
          #初始化
              drbdadm create-md r0
              cat /proc/drbd      #此时还看不到状态
              modprobe drbd       #加载drbd模块,
              drbdadm up r0
              cat /proc/drbd      #此时便能看见状态
          #同步(在其中一个节点上,将其置为主,并查看是否从指定网卡进行同步)
              drbdadm primary r0 --force
              ifstat          #查看网卡流量
              cat /proc/drbd      #查看同步进度
      
          #设drbd为开机启动
          echo "drbdadm up r0 " >> /etc/rc.local
          chmod +x /etc/rc.d/rc.local

      第二:创建群集

      systemctl start pcsd
          systemctl enable pcsd
          echo "7845" | passwd --stdin hacluster  #前面三步是双节点操作,后面只需任一节点操作
      
          pcs cluster auth node1 node2 -u hacluster -p 7845
          pcs cluster setup --name kvm-ha-cluster node1 node2 #创建名为kvm-ha-cluster的群集,后面gfs2需要再次用到
          pcs cluster start --all
          pcs cluster enable --all    #开机自动启动所有群集节点(在生产环境中不要将群集设为开机自启动)

      第三:配置STONITH(由于节点的承载平台是ESXI,所以这里用fence_vmware_soap)

      #在双节点上查看是否安装了fence_vmware_soap
          pcs stonith list | grep fence_vmware_soap
      
          #在所有节点上,查看是否可以与esxi主机通信
      [root@node1 ~] fence_vmware_soap -a 192.168.5.1 -z  --ssl-insecure --action list --username="root" --password="tianyu@esxi"
      node1,564d59df-c34e-78e9-87d2-6551bdf96b14
      node2,564d585f-f120-4be2-0ad4-0e1964d4b7b9
      
          #尝试fence_vmware_soap 是否能控制esxi主机,对虚拟机进行操作(譬如:重启node2这台虚拟机)
      [root@node1 ~]# fence_vmware_soap -a 192.168.5.1 -z  --ssl-insecure --action list -l root -p tianyu@esxi --plug="node2" --action=reboot
      Success: Rebooted
      
          解释:-a指代ESXI的管理地址,-z 表示使用ssl连接443端口,-l 是esxi的管理用户名称,-p 是管理密码, --plug 是虚拟机名字,名称不唯一时可以为UUID, --action 是执行动作(reboot|off|on)
      
      
          #配置STONITH
          pcs cluster cib stonith_cfg
      
          pcs -f stonith_cfg stonith create MyVMwareFence fence_vmware_soap ipaddr=192.168.5.1 ipport=443 ssl_insecure=1 inet4_only=1 login="root" passwd="tianyu@esxi" action=reboot pcmk_host_map="node1:564d59df-c34e-78e9-87d2-6551bdf96b14;node2:564d585f-f120-4be2-0ad4-0e1964d4b7b9" pcmk_host_check=static-list pcmk_host_list="node1,node2" power_wait=3 op monitor interval=60s
      
          pcs -f stonith_cfg property set stonith-enabled=true
          pcs cluster cib-push stonith_cfg    #更新
          #注意
              1:pcmk_host_map这里是在ESXI上显示的虚拟机的名字,不是kvm节点系统层面的主机名
              2:pcmk_host_map后面格式是"虚拟机名字:UUID;虚拟机名字:UUID"
      
          #这是查看pcs关于fence_vmware_soap的stonith设置的写法
          pcs stonith describe fence_vmware_soap
      
          #查看刚才配置好的stonith资源
      [root@node1 ~]# pcs stonith show --full
       Resource: MyVMwareFence (class=stonith type=fence_vmware_soap)
        Attributes: action=reboot inet4_only=1 ipaddr=192.168.5.1 ipport=443 login=root passwd=tianyu@esxi pcmk_host_check=static-list pcmk_host_list=node1,node2 pcmk_host_map=node1:564df454-4553-2940-fac6-085387383a62;node2:564def17-cb33-c0fc-3e3f-1ad408818d62 power_wait=3 ssl_insecure=1
        Operations: monitor interval=60s (MyVMwareFence-monitor-interval-60s)
      
          #查看刚才配置的stonith当出现脑裂时将会执行的动作
      [root@node1 ~]# pcs property --all |grep stonith-action
       stonith-action: reboot
      
          测试STONITH设置是否正确设置并生效
          pcs status      #先查看刚才创建的stonith资源MyVMwareFence是否已经在某个节点启动了(然后执行下面的验证)
          stonith_admin --reboot node2        #重启node2节点,验证成功

      第四:配置DLM

      pcs resource create dlm ocf:pacemaker:controld op monitor interval=30s on-fail=fence clone interleave=true ordered=true
      
      #查看dlm是否启动了
      pcs status
      systemctl status pacemaker

      第五:为群集添加DRBD资源

      #首先,要保证两个状态均为Secondary,数据状态都为UpToDate
      [root@node1 ~]# cat /proc/drbd 
      version: 8.4.10-1 (api:1/proto:86-101)
      GIT-hash: a4d5de01fffd7e4cde48a080e2c686f9e8cebf4c build by mockbuild@, 2017-09-15 14:23:22
       0: cs:Connected ro:Secondary/Secondary ds:UpToDate/UpToDate C r-----
          ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0
      
          #若drbd状态现在是这样的Primary/Secondary
          drbdadm down r0     #在Primary端做
          drbdadm up r0       #在Primary端做,而后在查看cat /proc/drbd 
      
          #添加资源(这步操作会将两个节点的drbd状态变成Primary/Primary)
          pcs cluster cib drbd_cfg
          pcs -f drbd_cfg resource create VMdata ocf:linbit:drbd drbd_resource=r0 op monitor interval=60s
          pcs -f drbd_cfg resource master VMdataclone VMdata master-max=2 master-node-max=1 clone-max=2 clone-node-max=1 notify=true
          pcs -f drbd_cfg resource show   #检查是否正确
          pcs cluster cib-push drbd_cfg   #提交
      
          #查看drbd两边的状态
          cat /proc/drbd      #结果是Primary/Primary   ok
      [root@node1 ~]# cat /proc/drbd
      version: 8.4.10-1 (api:1/proto:86-101)
      GIT-hash: a4d5de01fffd7e4cde48a080e2c686f9e8cebf4c build by mockbuild@, 2017-09-15 14:23:22
       0: cs:Connected ro:Primary/Primary ds:UpToDate/UpToDate C r-----
          ns:0 nr:0 dw:0 dr:912 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0

      第六:创建CLVM,并配置约束

      #将lvm工作模式设为群集模式(双节点操作)
          lvmconf --enable-cluster
          reboot
      
          #向群集添加CLVM资源
          pcs resource create clvmd ocf:heartbeat:clvm op monitor interval=30s on-fail=fence clone interleave=true ordered=true 
      
          #查看会发现clvm启动了
          systemctl status pacemaker
      
          #配置约束
          pcs constraint order start dlm-clone then clvmd-clone
          pcs constraint colocation add clvmd-clone with dlm-clone
      
          pcs constraint order promote VMdataclone then start clvmd-clone
          pcs constraint colocation add clvmd-clone with VMdataclone
      
          #验证查看约束
          pcs constraint

      第七:为群集创建LV

      #根据场景,这里需要创建lvm的过滤属性,避免lvm会看到重复的数据(双节点操作)
          #其中一个节点
      [root@node1 ~]# lvscan
        ACTIVE            '/dev/vgdrbd0/lvdrbd0' [5.00 GiB] inherit
        ACTIVE            '/dev/cl/swap' [2.00 GiB] inherit
        ACTIVE            '/dev/cl/root' [28.99 GiB] inherit
      
          pvcreate /dev/drbd0
          pvscan  #发现报错
      
          #(双节点操作)
          vi /etc/lvm/lvm.conf    #找到filter,将其修改为如下
      
                  filter = [ "a|/dev/sd*|", "a|/dev/drbd*|", "r|.*|" ]
              #a 表示接受,r表示拒绝,这里sd*是本地磁盘,drbd*是创建的设备,根据自己实验环境修改,你的可能是vd*
      
          #再次查看
          pvscan  #没有错误了
      
          #在所有节点刷新lvm
          vgscan -v
      
          #只需在其中一个节点创建lvm
          pvcreate /dev/drbd0
          partprobe ; multipath -r 
          vgcreate vgvm0 /dev/drbd0
          lvcreate -n lvvm0 -l 100%FREE vgvm0
          lvscan
      
      [root@node1 ~]# vgs
        VG      #PV #LV #SN Attr   VSize   VFree  
        cl        1   2   0 wz--n- <31.00g   4.00m
        vgdrbd0   1   1   0 wz--n- <40.00g <30.00g
        vgvm0     1   1   0 wz--nc <10.00g      0 
      
          #上面做完后,在另一个节点上刷新一下
          partprobe ; multipath -r 
          lvs

      第八:配置gfs2(任意节点操作)

      #格式化
      lvscan
      mkfs.gfs2 -p lock_dlm -j 2 -t kvm-ha-cluster:kvm /dev/vgvm0/lvvm0
      
      #向群集中添加gfs2文件系统
      pcs resource create VMFS Filesystem device="/dev/vgvm0/lvvm0" directory="/kvm-hosts" fstype="gfs2" clone
      
      #配置约束
      pcs constraint order clvmd-clone then VMFS-clone
      pcs constraint colocation add VMFS-clone with clvmd-clone
      
      #配置SELINUX(不然虚拟机无法访问存储文件)(所有节点都要做)
      semanage fcontext -a -t virt_image_t "/kvm-hosts(/.*)?"
          #如果没有semanage,可以如下安装
          yum install policycoreutils-python
      restorecon -R -v /kvm-hosts

      第九:准备测试用的虚拟机,配置防火墙,并进行在线迁移测试

      #单点创建虚拟机
          qemu-img create -f qcow2 /kvm-hosts/web01.qcow2 10G
      
          virt-install --name web01 --virt-type kvm --ram 1024 --cdrom=/kvm-hosts/CentOS-7-x86_64-Minimal-1708.iso --disk path=/kvm-hosts/web01.qcow2 --network network=default --graphics vnc,listen=0.0.0.0 --noautoconsole --os-type=linux --os-variant=rhel7
      
          #配置第三方管理机能用virtual-manage连接并显示kvm-pt上的虚拟机(所有node节点都要)
          firewall-cmd --permanent --add-service=vnc-server
      
          #配置防火墙(所有kvm节点)
          firewall-cmd --permanent --add-port=16509/tcp   #这是virsh -c qemu+tcp://node2/system 模式,这里不会用到,但还是放行
          firewall-cmd --permanent --add-port=49152-49215/tcp #迁移端口
          firewall-cmd --reload
      
          #创建前:要进行迁移测试(virt-manage和命令行)   结果:都ok,都能平滑迁移
          virsh migrate web01 qemu+ssh://root@node2/system --live --unsafe --persistent --undefinesource

      第十:为群集创建虚拟机资源,并配置相应约束

      #在虚拟机运行节点上导出xml文件
          virsh dumpxml web01 > /kvm-hosts/web01.xml
          virsh undefine web01
      
          #创建虚拟机(虚拟机的磁盘文件和xml配置文件都要放在共享存储上)(虚拟机由群集软件来控制,不由本地的libvirt来控制)
      
      pcs resource create web01_res VirtualDomain \
      hypervisor="qemu:///system" \
      config="/kvm-hosts/web01.xml" \
      migration_transport="ssh" \
      meta allow-migrate="true" 
      
          #配置约束(每配置一个虚拟机,就需要配置下面类似的约束)
          pcs constraint order start VMFS-clone then web01_res        #先启动文件系统,在启动虚拟机资源
      
          #当你对一个节点上的群集服务重启后,若是发现没有挂载gfs2文件系统到响应目录,解决办法有两个
          1:停掉所有节点上的群集,做一次全部启动
          2:在任意节点执行,下面的操作
              pcs constraint colocation add web01_res with VMFS-clone 
              #查找刚才创建约束的id,并立即删除
              pcs constraint --full
              pcs constraint remove  
          pcs constraint  #查看约束,可以加 --full
      
          #配置完成后,虚拟机可以正常启动

      最后:迁移测试

      #pcs cluster standby node2          #平滑迁移ok
          #pcs resource move web01_res node2      #平滑迁移ok
      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/xiaocaicoding/6000227,作者:小蔡coding,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:EFK日志收集系统概述

      下一篇:Filebeat收集Tomcat日志

      相关文章

      2025-04-23 08:18:27

      VS 中调用调试DLL库的方法

      VS 中调用调试DLL库的方法

      2025-04-23 08:18:27
      dll , 点击 , 调试 , 配置
      2025-04-23 08:18:27

      nginx结合前后端分离项目springboot+vue的配置

      项目采用的是前后端分离springboot+vue,通过nginx监听,转发到对应的前端页面或者后台接口调用

      2025-04-23 08:18:27
      nginx , springboot , vue , 分离 , 配置
      2025-04-23 08:18:21

      springboot 整合 LDAP

      springboot 整合 LDAP

      2025-04-23 08:18:21
      LDAP , springboot , 配置
      2025-04-23 08:18:21

      springboot整合LDAP的另外一种方式并实现增删改查功能

      springboot整合LDAP的另外一种方式并实现增删改查功能

      2025-04-23 08:18:21
      springboot , yml , 配置
      2025-04-22 09:28:19

      Vue3中如何安装和配置静态路由

      Vue3中如何安装和配置静态路由

      2025-04-22 09:28:19
      router , 路由 , 跳转 , 配置 , 页面
      2025-04-18 07:11:32

      编译运行,读取日志配置看图

      编译运行,读取日志配置看图

      2025-04-18 07:11:32
      nginx , 编译 , 配置
      2025-04-18 07:11:11

      监控系统在采集侧对接运维平台

      监控系统在采集侧对接运维平台

      2025-04-18 07:11:11
      exporter , prometheus , 监控 , 配置
      2025-04-18 07:10:30

      深入解析 Spring Security —— 打造高效安全的权限管理体系

      Spring Security 是一个专注于认证与授权的安全框架,致力于保护 Web 应用程序的资源安全。通过高度灵活的配置和模块化的设计,它能够满足各种复杂的安全需求。

      2025-04-18 07:10:30
      Security , Spring , 权限 , 用户 , 角色 , 认证 , 配置
      2025-04-18 07:09:19

      Springboot应用的端口配置方法解析与优先级详解

      在Java项目的实际开发中,尤其是Spring Boot项目中,合理配置应用的端口号至关重要。端口的正确配置可以保证服务的正常运行,避免与其他应用的端口冲突,并为不同环境下的部署提供灵活性。

      2025-04-18 07:09:19
      application , 优先级 , 方式 , 环境变量 , 配置 , 配置文件
      2025-04-11 07:16:05

      多module项目的springboot配置swagger

      多module项目的springboot配置swagger

      2025-04-11 07:16:05
      module , security , swagger , 分组 , 文档 , 注解 , 配置
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      32777

      阅读量

      4818871

      查看更多

      最新文章

      nginx结合前后端分离项目springboot+vue的配置

      2025-04-23 08:18:27

      VS 中调用调试DLL库的方法

      2025-04-23 08:18:27

      springboot整合LDAP的另外一种方式并实现增删改查功能

      2025-04-23 08:18:21

      springboot 整合 LDAP

      2025-04-23 08:18:21

      Vue3中如何安装和配置静态路由

      2025-04-22 09:28:19

      编译运行,读取日志配置看图

      2025-04-18 07:11:32

      查看更多

      热门文章

      redis-配置主从-实际操作-over

      2023-03-29 10:07:52

      The type org.springframework.context.ConfigurableApplicationContext cannot be resolved. It is indire

      2022-12-28 07:22:30

      QT配置文件类封装

      2023-03-14 09:17:29

      redis-配置说明-重要的几个配置

      2023-03-29 10:07:17

      nginx【2】配置文件

      2023-04-27 07:57:16

      vim配置

      2023-05-06 09:03:13

      查看更多

      热门标签

      服务器 linux 虚拟机 Linux 数据库 运维 网络 日志 数据恢复 java python nginx 配置 centos mysql
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      ACL原理及实验

      fusuma配置

      防火墙基础概念与实验配置

      redis-配置主从-实际操作-over

      nginx【2】配置文件

      IPSEC VPN

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 权益商城
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 权益商城
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号