立即前往

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
查看全部活动
热门活动
  • 智算采购季 热销S6云服务器2核4G限时88元/年起,部分主机可加赠对象存储组合包!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 一键部署Llama3大模型学习机 0代码一键部署,预装最新主流大模型Llama3与StableDiffusion
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 产品能力
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
    • 关系数据库SQL Server版
    • 企业主机安全
    • 云防火墙
    • CDN加速
    • 物理机
    • GPU云主机
    • 天翼云电脑(政企版)
    • 天翼云电脑(公众版)
    • 云主机备份
    • 弹性云主机
      搜索发现
      关系数据库SQL Server版企业主机安全云防火墙CDN加速物理机GPU云主机天翼云电脑(政企版)天翼云电脑(公众版)云主机备份弹性云主机
    • 文档
    • 控制中心
    • 备案
    • 管理中心
    • 登录
    • 免费注册

    kafka分区、副本介绍及示例、高级API与低级API

    首页 知识中心 云计算 文章详情页

    kafka分区、副本介绍及示例、高级API与低级API

    2023-06-30 08:28:07 阅读次数:375

    java,kafka,分布式

    本文主要介绍分区与副本机制、高级api使用示例手动消费分区数据等。
    本文前提是kafka环境可用。
    本文分为2个部分,即分区与副本机制、高级API与低级API。

    一、分区和副本

    1、生产者分区写入策略

    生产者写入消息到topic,Kafka将依据不同的策略将数据分配到不同的分区中
    1、轮询分区策略
    2、随机分区策略
    3、按key分区分配策略
    4、自定义分区策略

    1)、轮询策略

    默认的策略,也是使用最多的策略,可以最大限度保证所有消息平均分配到一个分区
    如果在生产消息时,key为null,则使用轮询算法均衡地分配分区

    2)、随机策略

    随机策略,每次都随机地将消息分配到每个分区。在较早的版本,默认的分区策略就是随机策略,也是为了将消息均衡地写入到每个分区。但后续轮询策略表现更佳,所以基本上很少会使用随机策略。

    3)、按key分配策略

    按key分配策略,有可能会出现「数据倾斜」,例如:某个key包含了大量的数据,因为key值一样,所有所有的数据将都分配到一个分区中,造成该分区的消息数量远大于其他的分区。

    4)、乱序问题

    轮询策略、随机策略都会导致一个问题,生产到Kafka中的数据是乱序存储的。而按key分区可以一定程度上实现数据有序存储——也就是局部有序,但这又可能会导致数据倾斜,所以在实际生产环境中要结合实际情况来做取舍。

    5)、自定义分区策略

    下例是实现自定义分区的代码

    import java.util.Map;
    import java.util.Properties;
    import java.util.Random;
    import java.util.concurrent.ExecutionException;
    import java.util.concurrent.Future;
    
    import org.apache.kafka.clients.producer.KafkaProducer;
    import org.apache.kafka.clients.producer.Partitioner;
    import org.apache.kafka.clients.producer.ProducerConfig;
    import org.apache.kafka.clients.producer.ProducerRecord;
    import org.apache.kafka.clients.producer.RecordMetadata;
    import org.apache.kafka.common.Cluster;
    
    /**
     * @author alanchan
     *
     */
    public class KeyWithRandomPartitioner implements Partitioner {
        private Random r;
        public final static String TOPIC_NAME = "test_partition";
        public static void main(String[] args) {
            // 1. 创建用于连接Kafka的Properties配置
            Properties props = new Properties();
            props.put("bootstrap.servers", "server1:9092");
            props.put("acks", "all");
            props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
            props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
            //设置kafka分区规则
            props.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, KeyWithRandomPartitioner.class.getName());
            
            // 2. 创建一个生产者对象KafkaProducer
            KafkaProducer<String, String> producer = new KafkaProducer<String, String>(props);
            
            // 3. 调用send发送1-10消息到指定Topic test_partition
            for (int i = 0; i < 10; ++i) {
                try {
                    // 获取返回值Future,该对象封装了返回值
                    Future<RecordMetadata> future = producer.send(new ProducerRecord<String, String>(TOPIC_NAME, null, i + ""));
                    // 调用一个Future.get()方法等待响应
                    future.get();
                } catch (InterruptedException e) {
                    e.printStackTrace();
                } catch (ExecutionException e) {
                    e.printStackTrace();
                }
            }
    
            // 5. 关闭生产者
            producer.close();
        }
    
        @Override
        public void configure(Map<String, ?> configs) {
            r = new Random();
        }
    
        @Override
        public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
            // cluster.partitionCountForTopic 表示获取指定topic的分区数量
            return r.nextInt(1000) % cluster.partitionCountForTopic(topic);
    
        }
    
        @Override
        public void close() {
    
        }
    
    }
    验证

    1、创建topic

    kafka-topics.sh --create --bootstrap-server server1:9092 --topic test_partition --partitions 3 --replication-factor 1

    2、运行生产者程序,生成消息

    3、通过客户端查看各个分区的数据记录数

    4、kafka分区、副本介绍及示例、高级API与低级API

     

    4、kafka分区、副本介绍及示例、高级API与低级API

     

    4、kafka分区、副本介绍及示例、高级API与低级API

    2、消费者组Rebalance机制

    1)、Rebalance再均衡

    Kafka中的Rebalance称之为再均衡,是Kafka中确保Consumer group下所有的consumer如何达成一致,分配订阅的topic的每个分区的机制。
    Rebalance触发的时机有:

    • 消费者组中consumer的个数发生变化
      例如:有新的consumer加入到消费者组,或者是某个consumer停止了。
    • 订阅的topic个数发生变化
      消费者可以订阅多个主题,假设当前的消费者组订阅了三个主题,但有一个主题突然被删除了,此时也需要发生再均衡。
    • 订阅的topic分区数发生变化

    2)、Rebalance的不良影响

    发生Rebalance时,consumer group下的所有consumer都会协调在一起共同参与,Kafka使用分配策略尽可能达到最公平的分配
    Rebalance过程会对consumer group产生非常严重的影响,Rebalance的过程中所有的消费者都将停止工作,直到Rebalance完成

    3、消费者分区分配策略

    1)、Range范围分配策略

    Range范围分配策略是Kafka默认的分配策略,它可以确保每个消费者消费的分区数量是均衡的。
    Rangle范围分配策略是针对每个Topic的。

    • 配置
      配置消费者的partition.assignment.strategy为org.apache.kafka.clients.consumer.RangeAssignor。
    • 算法公式
      n = 分区数量 / 消费者数量
      m = 分区数量 % 消费者数量
      前m个消费者消费n+1个
      剩余消费者消费n个

    2)、RoundRobin轮询策略

    RoundRobinAssignor轮询策略是将消费组内所有消费者以及消费者所订阅的所有topic的partition按照字典序排序(topic和分区的hashcode进行排序),然后通过轮询方式逐个将分区以此分配给每个消费者。

    • 配置
      配置消费者的partition.assignment.strategy为org.apache.kafka.clients.consumer.RoundRobinAssignor

    3)、Stricky粘性分配策略

    从Kafka 0.11.x开始,引入此类分配策略。主要目的:

    • 分区分配尽可能均匀
    • 在发生rebalance的时候,分区的分配尽可能与上一次分配保持相同

    没有发生rebalance时,Striky粘性分配策略和RoundRobin分配策略类似。

    4、kafka分区、副本介绍及示例、高级API与低级API

     

    上面如果consumer2崩溃了,此时需要进行rebalance。如果是Range分配和轮询分配都会重新进行分配,例如:

    4、kafka分区、副本介绍及示例、高级API与低级API

     

    通过上图,我们发现,consumer0和consumer1原来消费的分区大多发生了改变。接下来我们再来看下粘性分配策略。

    4、kafka分区、副本介绍及示例、高级API与低级API

     

    Striky粘性分配策略,保留rebalance之前的分配结果。只是将原先consumer2负责的两个分区再均匀分配给consumer0、consumer1。这样可以明显减少系统资源的浪费,例如:之前consumer0、consumer1之前正在消费某几个分区,但由于rebalance发生,导致consumer0、consumer1需要重新消费之前正在处理的分区,导致不必要的系统开销。(例如:某个事务正在进行就必须要取消了)

    4、副本机制

    副本的目的就是冗余备份,当某个Broker上的分区数据丢失时,依然可以保障数据可用。因为在其他的Broker上的副本是可用的。

    1)、producer的ACKs参数

    对副本关系较大的就是producer配置的acks参数了,acks参数表示当生产者生产消息的时候,写入到副本的要求严格程度。它决定了生产者如何在性能和可靠性之间做取舍。

    • 配置
    Properties props = new Properties();
    
    props.put("acks", "all");
    • acks配置为0

    ACK为0,基准测试

    kafka-producer-perf-test.sh 
    --topic benchmark  
    --num-records 5000000 
    --throughput -1 
    --record-size 1000 
    --producer-props  
    bootstrap.servers=serv1:9092,serv2:9092,serv3:9092  
    acks=0

    测试结果

    4、kafka分区、副本介绍及示例、高级API与低级API

    • acks配置为1

    当生产者的ACK配置为1时,生产者会等待leader副本确认接收后,才会发送下一条数据,性能中等。

    • acks配置为-1或者all
    kafka-producer-perf-test.sh
    --topic benchmark 
    --num-records 5000000 
    --throughput -1 
    --record-size 1000
    --producer-props
    bootstrap.servers=serv1:9092,serv2:9092,serv3:9092 
    acks=all

    4、kafka分区、副本介绍及示例、高级API与低级API

    二、高级(High Level)API与低级(Low Level)API

    1、高级API

    /**
     * 消费者程序:从test主题中消费数据
     */
    public class _2ConsumerTest {
        public static void main(String[] args) {
            // 1. 创建Kafka消费者配置
            Properties props = new Properties();
            props.setProperty("bootstrap.servers", "serv1:9092");
            props.setProperty("group.id", "test");
            props.setProperty("enable.auto.commit", "true");
            props.setProperty("auto.commit.interval.ms", "1000");
            props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
    
            // 2. 创建Kafka消费者
            KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
    
            // 3. 订阅要消费的主题
            consumer.subscribe(Arrays.asList("test"));
    
            // 4. 使用一个while循环,不断从Kafka的topic中拉取消息
            while (true) {
                // 定义100毫秒超时
                ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
                for (ConsumerRecord<String, String> record : records)
                    System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
            }
        }
     }
    • 上面是之前编写的代码,消费Kafka的消息很容易实现,写起来比较简单
    • 不需要执行去管理offset,直接通过ZK管理;也不需要管理分区、副本,由Kafka统一管理
    • 消费者会自动根据上一次在ZK中保存的offset去接着获取数据
    • 在ZK中,不同的消费者组(group)同一个topic记录不同的offset,这样不同程序读取同一个topic,不会受offset的影响
    • 高级API的缺点
      不能控制offset,例如:想从指定的位置读取
      不能细化控制分区、副本、ZK等

    2、低级API

    通过使用低级API,我们可以自己来控制offset,想从哪儿读,就可以从哪儿读。而且,可以自己控制连接分区,对分区自定义负载均衡。而且,之前offset是自动保存在ZK中,使用低级API,我们可以将offset不一定要使用ZK存储,我们可以自己来存储offset。例如:存储在文件、MySQL、或者内存中。但是低级API,比较复杂,需要执行控制offset,连接到哪个分区,并找到分区的leader。

    3、手动消费分区数据

    Kafka根据消费组中的消费者动态地为topic分配要消费的分区。有时需要指定要消费的分区,例如:

    • 如果某个程序将某个指定分区的数据保存到外部存储中,例如:Redis、MySQL,那么保存数据的时候,只需要消费该指定的分区数据即可
    • 如果某个程序是高可用的,在程序出现故障时将自动重启(例如:Flink、Spark程序)。这种情况下,程序将从指定的分区重新开始消费数据。

    手动消费分区中的数据不再使用之前的 subscribe 方法订阅主题,而使用assign方法指定想要消费的数据

    String topic = "test";
     TopicPartition partition0 = new TopicPartition(topic, 0);
     TopicPartition partition1 = new TopicPartition(topic, 1);     
     consumer.assign(Arrays.asList(partition0, partition1));

    一旦指定了分区,就可以就像前面的示例一样,在循环中调用「poll」方法消费消息
    说明
    1、当手动管理消费分区时,即使GroupID是一样的,Kafka的组协调器都将不再起作用
    2、如果消费者失败,也将不再自动进行分区重新分配

    版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/alanchan2win/6280299,作者:一瓢一瓢的饮,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

    上一篇:计算机组成原理知识点

    下一篇:计算机中数的表示和运算

    相关文章

    2025-04-22 09:40:08

    【ETL工具】kettle 程序报错 Javascript error: TypeError: Cannot call method “trim“ of null

    【ETL工具】kettle 程序报错 Javascript error: TypeError: Cannot call method “trim“ of null

    2025-04-22 09:40:08
    java , javascript , org
    2025-04-18 07:10:53

    LDAP基础理论

    分布式目录服务是一种用于存储和管理大量数据的系统,其中数据以层次结构的方式组织,并在多个服务器之间进行分布。它提供了一种集中式访问和管理数据的方法,使得用户可以通过网络连接到任何一个服务器来查询、添加、修改或删除存储在该目录中的信息。

    2025-04-18 07:10:53
    LDAP , 分布式 , 属性 , 服务器 , 用户 , 目录
    2025-04-15 09:25:57

    监控kafka和zookeeper的jvm

    监控kafka和zookeeper的jvm

    2025-04-15 09:25:57
    console , kafka , topic
    2025-04-15 09:24:56

    探秘Redis分布式锁:实战与注意事项

    Redis的Watch命令可以实现乐观锁,这是一种保护数据完整性的机制。在分布式环境中,当多个客户端并发地操作相同的键时,乐观锁有助于防止数据竞争和冲突。

    2025-04-15 09:24:56
    Redis , Redisson , 分布式 , 实例 , 客户端 , 获取
    2025-04-15 09:20:33

    初学Java,List和ListIterator(二十八)

    List代表的是一个有序的集合,每一个元素都有一个对应索引。List是Collection的子接口,所以Collection的所有方法都可以调用,另外也有它自身的方法。

    2025-04-15 09:20:33
    Arrays , java , List , Struts2
    2025-04-15 09:20:33

    初学Java,IO之文件过滤器(四十)

    初学Java,IO之文件过滤器(四十)

    2025-04-15 09:20:33
    File , java , 文件夹 , 方法
    2025-04-15 09:20:22

    初学Java,IO之使用转换流,读取键盘输入(四十三)

    初学Java,IO之使用转换流,读取键盘输入(四十三)

    2025-04-15 09:20:22
    buffer , import , java , string
    2025-04-15 09:20:07

    初学Java,IO之File用法(三十九)

    初学Java,IO之File用法(三十九)

    2025-04-15 09:20:07
    class , java
    2025-04-15 09:19:55

    初学Java,集合类的排序,查找,替换操作(三十五)

    初学Java,集合类的排序,查找,替换操作(三十五)

    2025-04-15 09:19:55
    java , list , 排序 , 替换 , 查找
    2025-04-15 09:19:55

    分布式事务大揭秘:使用MQ实现最终一致性

    在单体应用中,事务的管理相对简单,可以通过数据库的事务机制来保证数据的一致性和完整性。然而,在分布式系统中,由于涉及到多个不同的服务和数据源,保证事务的一致性就变得复杂了。

    2025-04-15 09:19:55
    RocketMQ , 一致性 , 事务 , 分布式 , 发送 , 消息 , 系统
    查看更多
    推荐标签

    作者介绍

    天翼云小翼
    天翼云用户

    文章

    32777

    阅读量

    4794593

    查看更多

    最新文章

    LDAP基础理论

    2025-04-18 07:10:53

    分布式事务大揭秘:使用MQ实现最终一致性

    2025-04-15 09:19:55

    Java实战之亲戚关系计算器(swing版)(3)——界面设计

    2025-04-09 09:15:47

    Pow(x, n)。实现 pow(x, n) ,即计算 x 的 n 次幂函数(即,x**n)。

    2025-04-01 10:29:12

    分布式存储技术

    2025-03-28 07:42:50

    JavaWeb图书管理系统 图书借阅系统项目源码附带视频部署演示教程

    2025-03-27 09:34:39

    查看更多

    热门文章

    Docker部署sentinel Mac Docker 部署 sentinel

    2023-05-05 10:12:49

    java159-两个线程共同完成1到100计算

    2023-03-13 09:29:37

    【Java Web】 Tomcat 的 使用、部署

    2023-05-04 09:17:10

    Android移动设备远程接入ZooKeeper分布式集群

    2023-04-18 14:14:56

    用zookeeper实现分布式session

    2023-02-16 08:59:22

    java学习第二天笔记-java基础概念06-计算公交车司机的人数24

    2023-03-16 06:47:13

    查看更多

    热门标签

    系统 测试 用户 分布式 Java java 计算机 docker 代码 数据 服务器 源码 数据库 管理 算法
    查看更多

    相关产品

    弹性云主机

    随时自助获取、弹性伸缩的云服务器资源

    天翼云电脑(公众版)

    便捷、安全、高效的云电脑服务

    对象存储

    高品质、低成本的云上存储服务

    云硬盘

    为云上计算资源提供持久性块存储

    查看更多

    随机文章

    在Spring Boot中实现分布式缓存策略

    分布式事务大揭秘:使用MQ实现最终一致性

    请求分发场景下的鉴权问题

    介绍 Apache Spark 的基本概念和在大数据分析中的应用

    解决RabbitMq登录时报出Not management user(Login failed)错误以及rabbitmqctl(RabbitMq)新增用户和用户角色权限

    使用Spring Boot实现分布式任务调度

    • 7*24小时售后
    • 无忧退款
    • 免费备案
    • 专家服务
    售前咨询热线
    400-810-9889转1
    关注天翼云
    • 权益商城
    • 天翼云APP
    • 天翼云微信公众号
    服务与支持
    • 备案中心
    • 售前咨询
    • 智能客服
    • 自助服务
    • 工单管理
    • 客户公告
    • 涉诈举报
    账户管理
    • 管理中心
    • 订单管理
    • 余额管理
    • 发票管理
    • 充值汇款
    • 续费管理
    快速入口
    • 权益商城
    • 文档中心
    • 最新活动
    • 免费试用
    • 信任中心
    • 天翼云学堂
    云网生态
    • 甄选商城
    • 渠道合作
    • 云市场合作
    了解天翼云
    • 关于天翼云
    • 天翼云APP
    • 服务案例
    • 新闻资讯
    • 联系我们
    热门产品
    • 云电脑
    • 弹性云主机
    • 云电脑政企版
    • 天翼云手机
    • 云数据库
    • 对象存储
    • 云硬盘
    • Web应用防火墙
    • 服务器安全卫士
    • CDN加速
    热门推荐
    • 云服务备份
    • 边缘安全加速平台
    • 全站加速
    • 安全加速
    • 云服务器
    • 云主机
    • 智能边缘云
    • 应用编排服务
    • 微服务引擎
    • 共享流量包
    更多推荐
    • web应用防火墙
    • 密钥管理
    • 等保咨询
    • 安全专区
    • 应用运维管理
    • 云日志服务
    • 文档数据库服务
    • 云搜索服务
    • 数据湖探索
    • 数据仓库服务
    友情链接
    • 中国电信集团
    • 189邮箱
    • 天翼企业云盘
    • 天翼云盘
    ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
    公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
    • 用户协议
    • 隐私政策
    • 个人信息保护
    • 法律声明
    备案 京公网安备11010802043424号 京ICP备 2021034386号