部署Kafka实例数据复制
应用场景
华为云分布式消息服务Kafka版支持通过Smart Connect实现Kafka实例之间的数据复制,适用于跨地域数据同步、灾备、数据迁移等场景。通过配置Smart Connect任务,可以在源实例和目标实例之间建立数据复制通道,实现主题数据的自动同步。本最佳实践将介绍如何使用Terraform自动化部署Kafka实例数据复制,包括创建多个Kafka实例、Smart Connect和Smart Connect任务。
相关资源/数据源
本最佳实践涉及以下主要资源和数据源:
数据源
资源
资源/数据源依赖关系
操作步骤
1. 脚本准备
在指定工作空间中准备好用于编写当前最佳实践脚本的TF文件(如main.tf),确保其中(也可以是其他同级目录下的TF文件)包含部署资源所需的provider版本声明和华为云鉴权信息。 配置介绍参考部署华为云资源前的准备工作一文中的介绍。
2. 查询数据源
在TF文件(如main.tf)中添加以下脚本以查询可用区和Kafka规格信息:
参数说明:
type:规格类型,通过引用本地变量instance_configurations_without_flavor_id进行赋值,默认值为"cluster"(集群模式)
availability_zones:可用区列表,通过引用输入变量或可用区数据源进行赋值
storage_spec_code:存储规格代码,通过引用本地变量进行赋值,默认值为"dms.physical.storage.ultra.v2"
3. 创建基础网络资源
在TF文件(如main.tf)中添加以下脚本以创建VPC、子网和安全组:
4. 创建Kafka实例资源
在TF文件(如main.tf)中添加以下脚本以告知Terraform创建多个Kafka实例资源(至少需要2个实例):
参数说明:
count:创建数量,通过引用输入变量instance_configurations的长度进行赋值,至少需要2个实例
name:Kafka实例名称,通过引用输入变量instance_configurations进行赋值
availability_zones:可用区列表,通过引用输入变量或可用区数据源进行赋值
engine_version:引擎版本,通过引用输入变量进行赋值,默认值为"3.x"
flavor_id:规格ID,通过引用输入变量或Kafka规格数据源进行赋值
storage_spec_code:存储规格代码,通过引用输入变量进行赋值,默认值为"dms.physical.storage.ultra.v2"
storage_space:存储空间,通过引用输入变量进行赋值,默认值为600(GB)
broker_num:Broker数量,通过引用输入变量进行赋值,默认值为3
vpc_id:VPC ID,通过引用VPC资源进行赋值
network_id:网络子网ID,通过引用子网资源进行赋值
security_group_id:安全组ID,通过引用安全组资源进行赋值
access_user:访问用户名,通过引用输入变量进行赋值,可选参数
password:访问密码,通过引用输入变量进行赋值,可选参数
enabled_mechanisms:启用的认证机制,通过引用输入变量进行赋值,可选参数,支持"SCRAM-SHA-512"等
port_protocol:端口协议配置,通过动态块进行配置,可选参数
5. 创建Kafka主题资源(可选)
在TF文件(如main.tf)中添加以下脚本以创建Kafka主题(如果未指定task_topics,则创建主题):
参数说明:
count:创建数量,当task_topics为空时创建1个主题,否则不创建
instance_id:Kafka实例ID,通过引用第一个Kafka实例资源进行赋值
name:主题名称,通过引用输入变量topic_name进行赋值
partitions:分区数量,通过引用输入变量topic_partitions进行赋值,默认值为10
replicas:副本数量,通过引用输入变量topic_replicas进行赋值,默认值为3
aging_time:老化时间,通过引用输入变量topic_aging_time进行赋值,默认值为72(小时)
sync_replication:同步复制,通过引用输入变量topic_sync_replication进行赋值,默认值为false
sync_flushing:同步刷新,通过引用输入变量topic_sync_flushing进行赋值,默认值为false
description:主题描述,通过引用输入变量topic_description进行赋值,可选参数
configs:主题配置,通过动态块进行配置,可选参数
6. 创建Smart Connect资源
在TF文件(如main.tf)中添加以下脚本以创建Smart Connect:
参数说明:
instance_id:Kafka实例ID,通过引用第一个Kafka实例资源进行赋值
storage_spec_code:存储规格代码,通过引用输入变量smart_connect_storage_spec_code进行赋值,可选参数
bandwidth:带宽,通过引用输入变量smart_connect_bandwidth进行赋值,可选参数
node_count:节点数量,通过引用输入变量smart_connect_node_count进行赋值,默认值为2
7. 创建Smart Connect任务资源
在TF文件(如main.tf)中添加以下脚本以创建Smart Connect任务,实现实例之间的数据复制:
参数说明:
instance_id:Kafka实例ID,通过引用第一个Kafka实例资源进行赋值
task_name:任务名称,通过引用输入变量task_name进行赋值
source_type:源类型,设置为"KAFKA_REPLICATOR_SOURCE"(Kafka复制源)
start_later:是否稍后启动,通过引用输入变量task_start_later进行赋值,默认值为false
topics:主题列表,通过引用输入变量task_topics或主题资源进行赋值
source_task.peer_instance_id:对等实例ID,通过引用第二个Kafka实例资源进行赋值
source_task.direction:复制方向,通过引用输入变量task_direction进行赋值,默认值为"two-way"(双向)
source_task.replication_factor:复制因子,通过引用输入变量task_replication_factor进行赋值,默认值为3
source_task.task_num:任务数量,通过引用输入变量task_task_num进行赋值,默认值为2
source_task.provenance_header_enabled:是否启用来源头,通过引用输入变量task_provenance_header_enabled进行赋值,默认值为false
source_task.sync_consumer_offsets_enabled:是否同步消费者偏移量,通过引用输入变量task_sync_consumer_offsets_enabled进行赋值,默认值为false
source_task.rename_topic_enabled:是否重命名主题,通过引用输入变量task_rename_topic_enabled进行赋值,默认值为true
source_task.consumer_strategy:消费者策略,通过引用输入变量task_consumer_strategy进行赋值,默认值为"latest"
source_task.compression_type:压缩类型,通过引用输入变量task_compression_type进行赋值,默认值为"none"
source_task.topics_mapping:主题映射,通过引用输入变量task_topics_mapping进行赋值,可选参数
source_task.security_protocol:安全协议,根据对等实例的端口协议配置自动判断
source_task.sasl_mechanism:SASL机制,根据对等实例的认证机制自动判断
source_task.user_name:用户名,从对等实例获取
source_task.password:密码,从对等实例获取
8. 预设资源部署所需的入参(可选)
本实践中,部分资源使用了输入变量对配置内容进行赋值,这些输入参数在后续部署时需要手工输入。 同时,Terraform提供了通过tfvars文件预设这些配置的方法,可以避免每次执行时重复输入。
在工作目录下创建terraform.tfvars文件,示例内容如下:
使用方法:
将上述内容保存为工作目录下的
terraform.tfvars文件(该文件名可使用户在执行terraform命令时自动导入该tfvars文件中的内容,其他命名则需要在tfvars前补充.auto定义,如variables.auto.tfvars)根据实际需要修改参数值,特别是:
instance_configurations需要至少配置2个实例,第一个实例作为目标实例,第二个实例作为源实例如果源实例启用了SASL认证,需要配置
access_user、password和enabled_mechanismspassword需要设置符合密码复杂度要求的密码
执行
terraform plan或terraform apply时,Terraform会自动读取该文件中的变量值
除了使用terraform.tfvars文件外,还可以通过以下方式设置变量值:
命令行参数:
terraform apply -var="task_name=my_task" -var="vpc_name=my_vpc"环境变量:
export TF_VAR_task_name=my_task和export TF_VAR_vpc_name=my_vpc自定义命名的变量文件:
terraform apply -var-file="custom.tfvars"
注意:如果同一个变量通过多种方式进行设置,Terraform会按照以下优先级使用变量值:命令行参数 > 变量文件 > 环境变量 > 默认值。由于password包含敏感信息,建议使用环境变量或加密的变量文件进行设置。另外,确保源实例和目标实例的网络连通性,并且源实例的认证配置正确。
9. 初始化并应用Terraform配置
完成以上脚本配置后,执行以下步骤来创建Kafka实例数据复制:
运行
terraform init初始化环境运行
terraform plan查看资源创建计划确认资源计划无误后,运行
terraform apply开始创建Kafka实例、Smart Connect和Smart Connect任务运行
terraform show查看已创建的Smart Connect任务详情
注意:Smart Connect任务创建后,会根据配置自动开始数据复制。如果设置了
start_later=true,任务创建后不会立即启动,需要手动启动。实例的可用区和规格ID在创建后不能修改,因此需要在创建时正确配置。通过lifecycle.ignore_changes可以避免Terraform在后续更新时修改这些不可变参数。
参考信息
Last updated