tencent cloud

文档反馈

TDSQL-C PostgreSQL

最后更新时间:2024-01-09 14:54:12

    操作场景

    CKafka 连接器提供数据流出能力,您可以将 CKafka 数据分发至 TDSQL-C PostgreSQL以对数据进行存储、查询和分析。

    前提条件

    该功能目前依赖 TDSQL TDSQL-C 版产品,使用时需开通相关产品功能。

    操作步骤

    1. 登录 CKafka 控制台
    2. 在左侧导航栏单击连接器 > 任务管理 > 任务列表,选择好地域后,单击新建任务
    3. 填写任务名称,任务类型选择数据流出,数据目标类型选择 TDSQL-C PostgreSQL,单击下一步
    4. 配置数据源信息。
    源 Topic 类型:选择数据源 Topic
    弹性 Topic:选择提前创建好的弹性 Topic,详情参见 Topic 管理
    CKafka 实例内 Topic:选择在 CKafka 创建好的实例和 Topic,若实例设置了ACL 策略,请确保选中的 topic 有读写权限,详情参见 Topic 管理
    起始位置:选择转储时历史消息的处理方式,topic offset 设置。
    5. 设置上述信息后,单击下一步,单击预览 Topic 数据,将会选取源 Topic 中的第一条消息进行解析。
    说明:
    目前解析消息需要满足以下条件:
    消息为 JSON 字符串结构。
    源数据必须为单层 JSON 格式,嵌套 JSON 格式可使用使用 数据处理 进行简单的消息格式转换。
    6. (可选)开启数据处理规则,具体配置方法请参见 简单数据处理
    7. 单击下一步,配置数据目标信息。
    数据目标:选择提前创建好的 TDSQL-C 连接。
    database:选择数据流出的数据库。
    table:选择数据流出的表。
    数据库同步模式:
    默认字段匹配:本选项仅用于:
    源 topic 数据为 DIP 从 MySQL/PostgreSQL 中订阅的、单张表的 Binlog/row-level changes 数据(增删改)。
    源 topic 数据必须有主键,且必须包含 schema。
    字段逐一匹配:
    源数据:点击拉取源 Topic 数据,需要逐一给消息字段选择匹配的目标表字段。
    插入模式:支持 insert 或者 upsert,选择 upsert 时需选择主键(当插入行冲突时,任务将更新冲突行除主键之外其余的列)。
    上游数据格式:支持 JSON 和 Debezium。
    说明:
    当上游 MySQL Binlog/PostgreSQL row-level changes 数据表结构变化时,变化可以同步更新到下游 PostgreSQL。
    失败消息处理:失败消息处理:选择投递失败的消息的处理方式,支持丢弃保留投递至 CLS(需指定投递到的日志集和日志主题并授权访问日志服务 CLS)三种方式。
    保留:适合用于测试环境,任务运行失败时将会终止任务不会重试,并且在事件中心中记录失败原因。
    丢弃:适合用于生产环境,任务运行失败时将会忽略当前失败消息。建议使用 "保留" 模式测试无误后,再将任务编辑成 "丢弃" 模式用于生产。
    投递至 CLS:适合用于严格生产环境,任务运行失败时会将失败消息及元数据和失败原因上传到指定 CLS 主题中。
    8. 单击提交,可以在任务列表看到刚刚创建的任务,在状态栏可以查看任务创建进度。
    联系我们

    联系我们,为您的业务提供专属服务。

    技术支持

    如果你想寻求进一步的帮助,通过工单与我们进行联络。我们提供7x24的工单服务。

    7x24 电话支持