Apache Paimon 学习笔记

本博客对应于 B 站尚硅谷教学视频 尚硅谷大数据Apache Paimon教程(流式数据湖平台),为视频对应笔记的相关整理。

1 概述

1.1 简介

Flink 社区希望能够将 Flink 的 Streaming 实时计算能力和 Lakehouse 新架构优势进一步结合,推出新一代的 Streaming Lakehouse 技术,促进数据在数据湖上真正实时流动起来,并为用户提供实时离线一体化的开发体验。Flink 社区内部孵化了 Flink Table Store (简称 FTS )子项目,一个真正面向 Streaming 以及 Realtime 的数据湖存储项目。2023年3月12日,FTS 进入 Apache 软件基金会 (ASF) 的孵化器,改名为 Apache Paimon (incubating)。

Apache Paimon是一个流数据湖平台,具有高速数据摄取、变更日志跟踪和高效的实时分析的能力。

  1. 读/写:Paimon 支持多种读/写数据和执行 OLAP 查询的方式。
    1. 对于读取,它支持以下方式消费数据:
      1. 从历史快照(批处理模式)
      2. 从最新的偏移量(在流模式下)
      3. 以混合方式读取增量快照。
    2. 对于写入,它支持来自数据库变更日志(CDC)的流式同步或来自离线数据的批量插入/覆盖。
  2. 生态系统
    1. 除了 Apache Flink 之外,Paimon 还支持 Apache Hive、Apache Spark、Trino 等其他计算引擎的读取。
  3. 内部
    1. 在底层,Paimon 将列式文件存储在文件系统/对象存储上,并使用 LSM 树结构来支持大量数据更新和高性能查询。
  4. 统一存储
    1. 对于 Apache Flink 这样的流引擎,通常有三种类型的连接器:
      1. 消息队列:例如 Apache Kafka,在源阶段和中间阶段都使用它,以保证延迟保持在秒级。
      2. OLAP系统:例如 Clickhouse,它以流方式接收处理后的数据并为用户的即席查询提供服务。
      3. 批量存储:例如 Apache Hive,它支持传统批处理的各种操作,包括 INSERT OVERWRITE。
    2. Paimon 提供表抽象。它的使用方式与传统数据库没有什么区别:
      1. 在批处理执行模式下,它就像一个 Hive 表,支持 Batch SQL 的各种操作,查询它以查看最新的快照。
      2. 在流执行模式下,它的作用就像一个消息队列,查询它的行为就像从历史数据永不过期的消息队列中查询流更改日志。

1.2 核心特性

  1. 统一批处理和流处理
    批量写入和读取、流式更新、变更日志生成,全部支持。
  2. 数据湖能力
    低成本、高可靠性、可扩展的元数据。 Apache Paimon 具有作为数据湖存储的所有优势。
  3. 各种合并引擎
    按照您喜欢的方式更新记录。保留最后一条记录、进行部分更新或将记录聚合在一起,由您决定。
  4. 变更日志生成
    Apache Paimon 可以从任何数据源生成正确且完整的变更日志,从而简化您的流分析。
  5. 丰富的表类型
    除了主键表之外,Apache Paimon 还支持 append-only 表,提供有序的流式读取来替代消息队列。
  6. 模式演化
    Apache Paimon 支持完整的模式演化,您可以重命名列并重新排序。

1.3 基本概念

1.3.1 Snapshot

快照表捕获在某个时间点的状态。用户可以通过最新的快照来访问表的最新数据。通过时间旅行,用户还可以通过较早的快照访问表的先前状态。

1.3.2 Partition

Paimon 采用与 Apache Hive 相同的分区概念来分离数据。

分区是一种可选方法,可根据日期、城市和部门等特定列的值将表划分为相关部分。每个表可以有一个或多个分区键来标识特定分区。

通过分区,用户可以高效地操作表中的一片记录。

如果定义了主键,则分区键必须是主键的子集。

1.3.3 Bucket

未分区表或分区表中的分区被细分为存储桶,以便为可用于更有效查询的数据提供额外的结构。

桶的范围由记录中的一列或多列的哈希值确定。用户可以通过提供 bucket-key 选项来指定分桶列。如果未指定 bucket-key 选项,则主键(如果已定义)或完整记录将用作存储桶键。

桶是读写的最小存储单元,因此桶的数量限制了最大处理并行度。不过这个数字不应该太大,因为它会导致大量小文件和低读取性能。一般来说,建议每个桶的数据大小为 1GB 左右。

1.3.4 一致性保证

Paimon writer 使用两阶段提交协议以原子方式将一批记录提交到表中,每次提交时最多生成两个快照。

对于任意两个同时修改表的 writer,只要他们不修改同一个存储桶,他们的提交都是可序列化的。如果他们修改同一个存储桶,则只能保证快照隔离。也就是说,最终表状态可能是两次提交的混合,但不会丢失任何更改。

1.4 文件布局

一张表的所有文件都存储在一个基本目录下,Paimon 文件以分层方式组织。下图说明了文件布局。

从快照文件开始,Paimon reader 可以递归访问表中的所有记录。

图示 描述已自动生成

下面简单介绍文件布局。

1.4.1 Snapshot Files

所有快照文件都存储在快照目录中。

快照文件是一个 JSON 文件,包含有关此快照的信息,包括:

  1. 正在使用的 Schema 文件。
  2. 包含此快照的所有更改的清单列表(manifest list)。

1.4.2 Manifest Files

所有清单列表(manifest list)和清单文件(manifest file)都存储在清单(manifest)目录中。

清单列表(manifest list)是清单文件名(manifest file)的列表。

清单文件(manifest file)是包含有关 LSM 数据文件和更改日志文件的文件信息,例如对应快照中创建了哪个 LSM 数据文件、删除了哪个文件。

1.4.3 Data Files

数据文件按分区和存储桶分组,每个存储桶目录都包含一个 LSM 树及其变更日志文件。目前,Paimon 支持使用 orc(默认)、parquet 和 avro 作为数据文件格式。

1.4.4 LSM Trees

Paimon 采用 LSM 树(日志结构合并树)作为文件存储的数据结构。

1.4.4.1 Sorted Runs

LSM 树将文件组织成多个 Sorted Run,Sorted Run 由一个或多个数据文件组成,并且每个数据文件恰好属于一个Sorted Run。

数据文件中的记录按其主键排序。在 Sorted Run 中,数据文件的主键范围永远不会重叠。

手机屏幕截图
描述已自动生成

正如您所看到的,不同的 Sorted Run 可能具有重叠的主键范围,甚至可能包含相同的主键。查询 LSM 树时,必须合并所有 Sorted Run,并且必须根据用户指定的合并引擎和每条记录的时间戳来合并具有相同主键的所有记录。

写入LSM树的新记录将首先缓存在内存中,当内存缓冲区满时,内存中的所有记录将被排序并刷写到磁盘。

1.4.4.2 Compaction

当越来越多的记录写入 LSM 树时,Sorted Run 的数量将会增加。由于查询 LSM 树需要将所有 Sorted Run 合并起来,太多 Sorted Run 将导致查询性能较差,甚至内存不足。

为了限制 Sorted Run 的数量,我们必须偶尔将多个 Sorted Run 合并为一个大的 Sorted Run,这个过程称为 Compaction。

然而,Compaction 是一个资源密集型过程,会消耗一定的 CPU 时间和磁盘 IO,因此过于频繁的 Compaction 可能会导致写入速度变慢,这是查询和写入性能之间的权衡。
Paimon 目前采用了类似于 Rocksdb 的通用压缩 Compaction 策略。

默认情况下,当 Paimon 将记录追加到 LSM 树时,它也会根据需要执行 Compaction。用户还可以选择在"专用 Compaction 作业"中独立执行所有 Compaction。

2 集成 Flink 引擎

Paimon目前支持 Flink 1.17, 1.16, 1.15 和 1.14。本课程使用Flink 1.17.0。

2.1 环境准备

2.1.1 安装 Flink

  1. 上传并解压Flink安装包

    tar -zxvf flink-1.17.0-bin-scala_2.12.tgz -C /opt/module/
    
  2. 配置环境变量

    sudo vim /etc/profile.d/my_env.sh
    export HADOOP_CLASSPATH=`hadoop classpath`
    source /etc/profile.d/my_env.sh
    

2.1.2 上传 jar 包

  1. 下载并上传 Paimon 的 jar 包
    jar包下载地址:https://repository.apache.org/snapshots/org/apache/paimon/paimon-flink-1.17/0.5-SNAPSHOT

  2. 拷贝 paimon 的 jar 包到 flink 的 lib 目录下

    cp paimon-flink-1.17-0.5-20230703.002437-67.jar
    /opt/module/flink-1.17.0/lib
    

2.1.3 启动 Hadoop

(略)

2.1.4 启动 sql-client

  1. 修改 flink-conf.yaml 配置

    vim /opt/module/flink-1.16.0/conf/flink-conf.yaml
    
    #解决中文乱码,1.17 之前参数是env.java.opts
    env.java.opts.all: -Dfile.encoding=UTF-8
    classloader.check-leaked-classloader: false
    taskmanager.numberOfTaskSlots: 4
    execution.checkpointing.interval: 10s
    state.backend: rocksdb
    state.checkpoints.dir: hdfs://hadoop102:8020/ckps
    state.backend.incremental: true
    
  2. 启动 Flink集群

    1. 解决依赖问题
      hadoop-mapreduce-client-core 包拷贝到 flink 的 lib 目录下

      cp /opt/module/hadoop-3.3.4/share/hadoop/mapreduce/hadoop-mapreduce-client-core-3.3.4.jar /opt/module/flink-1.17.0/lib/
      
    2. 这里以 Yarn-Session 模式为例

      /opt/module/flink-1.17.0/bin/yarn-session.sh -d
      
  3. 启动 Flink 的 sql-client

    /opt/module/flink-1.17.0/bin/sql-client.sh -s yarn-session
    

    图片包含 图示
描述已自动生成

  4. 设置结果显示模式

    SET 'sql-client.execution.result-mode' = 'tableau';
    

2.2 Catalog

Paimon Catalog 可以持久化元数据,当前支持两种类型的 metastore:

  • 文件系统(默认):将元数据和表文件存储在文件系统中。

  • hive:在 hive metastore 中存储元数据。用户可以直接从 Hive 访问表。

2.2.1 文件系统

CREATE CATALOG fs_catalog WITH (
	'type' = 'paimon',
    'warehouse' = 'hdfs://hadoop102:8020/paimon/fs'
);
USE CATALOG fs_catalog;

2.2.2 Hive Catalog

通过使用 Hive Catalog,对 Catalog 的更改将直接影响相应的 hive metastore。在此类 Catalog 中创建的表也可以直接从 Hive 访问。

要使用 Hive Catalog,数据库名称、表名称和字段名称应小写

  1. 上传 hive-connector
    将 flink-sql-connector-hive-3.1.3_2.12-1.17.0.jar 上传到 Flink 的 lib 目录下。

  2. 重启 yarn-session 集群

  3. 启动 hive 的 metastore 服务

    nohup hive \--service metastore &
    
  4. 创建 Hive Catalog

    CREATE CATALOG hive_catalog WITH (
        'type' = 'paimon',
        'metastore' = 'hive',
        'uri' = 'thrift://hadoop102:9083',
        'hive-conf-dir' = '/opt/module/hive/conf',
        'warehouse' = 'hdfs://hadoop102:8020/paimon/hive'
    );
    USE CATALOG hive_catalog;
    
  5. 注意事项
    使用 hive Catalog,通过 alter table 更改不兼容的列类型时,参见 HIVE-17832,需要修改以下配置:

    vim /opt/module/hive/conf/hive-site.xml
    
    <property>
    	<name>hive.metastore.disallow.incompatible.col.type.changes</name>
    	<value>false</value>
    </property>
    

    上述配置需要在 hive-site.xml 中配置,且 hive metastore 服务需要重启。
    如果使用的是 Hive3,请禁用 Hive ACID:

    hive.strict.managed.tables=false
    hive.create.as.insert.only=false
    metastore.create.as.acid=false
    

2.2.3 sql 初始化文件

可以将一些公共执行的 sql 代码放到一个 sql 文件中,在启动 sql-client 时,直接执行,以减少手动初始化操作。

  1. 创建初始化sql文件

    vim conf/sql-client-init.sql
    
    CREATE CATALOG fs_catalog WITH (
    'type' = 'paimon',
    'warehouse' = 'hdfs://hadoop102:8020/paimon/fs'
    );
    
    CREATE CATALOG hive_catalog WITH (
    'type' = 'paimon',
    'metastore' = 'hive',
    'uri' = 'thrift://hadoop102:9083',
    'hive-conf-dir' = '/opt/module/hive/conf',
    'warehouse' = 'hdfs://hadoop102:8020/paimon/hive'
    );
    
    USE CATALOG hive_catalog;
    
    SET 'sql-client.execution.result-mode' = 'tableau';
    
  2. 启动 sql-client 时,指定该 sql 初始化文件

    bin/sql-client.sh -s yarn-session -i conf/sql-client-init.sql
    
  3. 查看catalog

    show catalogs;
    show current catalog;
    

2.3 DDL

2.3.1 建表

2.3.1.1 管理表

在 Paimon Catalog 中创建的表就是 Paimon 的管理表,由Catalog管理。当表从 Catalog 中删除时,其表文件也会被删除,类似于 Hive 的内部表。

  1. 创建表

    CREATE TABLE test (
        user_id BIGINT,
        item_id BIGINT,
        behavior STRING,
        dt STRING,
        hh STRING,
        PRIMARY KEY (dt, hh, user_id) NOT ENFORCED
    );
    
  2. 创建分区表

    CREATE TABLE test_p (
        user_id BIGINT,
        item_id BIGINT,
        behavior STRING,
        dt STRING,
        hh STRING,
        PRIMARY KEY (dt, hh, user_id) NOT ENFORCED
    ) PARTITIONED BY (dt, hh);
    

    通过配置 partition.expiration-time,可以自动删除过期的分区。
    如果定义了主键,则分区字段必须是主键的子集。
    可以定义以下三类字段为分区字段:

    • 创建时间(推荐):创建时间通常是不可变的,因此您可以放心地将其视为分区字段并将其添加到主键中。

    • 事件时间:事件时间是原表中的一个字段。对于CDC数据来说,比如从 MySQL CDC 同步的表或者 Paimon 生成的 Changelogs,它们都是完整的 CDC 数据,包括 UPDATE_BEFORE 记录,即使你声明了包含分区字段的主键,也能达到独特的效果。

    • CDC op_ts:不能定义为分区字段,无法知道之前的记录时间戳。

  3. Create Table As
    表可以通过查询的结果创建和填充,例如,我们有一个这样的sql:

    CREATE TABLE table_b AS 
    SELECT id, name 
    FORM table_a,
    

    生成的表 table_b 相当于创建表并插入数据,相当于执行了以下语句:

    CREATE TABLE table_b(
        id INT, name STRING
    ); 
    INSERT INTO table_b 
    SELECT id, name 
    FROM table_a;
    

    使用 CREATE TABLE AS SELECT 时,我们可以指定主键或分区。

    CREATE TABLE test1(
        user_id BIGINT,
        item_id BIGINT
    );
    
    CREATE TABLE test2 AS SELECT * FROM test1;
    
    -- 指定分区
    CREATE TABLE test2_p WITH (
        'partition' = 'dt'
    ) AS 
    SELECT * FROM test_p;
    
    -- 指定配置
    CREATE TABLE test3(
        user_id BIGINT,
        item_id BIGINT
    ) WITH (
        'file.format' = 'orc'
    );
    
    CREATE TABLE test3_op WITH ('file.format' = 'parquet') AS SELECT * FROM test3;
    
    -- 指定主键
    CREATE TABLE test_pk WITH ('primary-key' = 'dt,hh') AS SELECT * FROM test;
    
    -- 指定主键和分区
    CREATE TABLE test_all WITH ('primary-key' = 'dt,hh', 'partition' = 'dt') AS SELECT * FROM test_p;
    
  4. Create Table Like
    创建与另一个表具有相同 schema、分区和表属性的表。

    CREATE TABLE test_ctl LIKE test;
    
  5. 表属性
    用户可以指定表属性来启用 Paimon 的功能或提高 Paimon 的性能。有关此类属性的完整列表,请参阅配置:https://paimon.apache.org/docs/master/maintenance/configurations。

    CREATE TABLE tbl(
        user_id BIGINT,
        item_id BIGINT,
        behavior STRING,
        dt STRING,
        hh STRING,
        PRIMARY KEY (dt, hh, user_id) NOT ENFORCED
    ) 
    PARTITIONED BY (dt, hh)
    WITH (
        'bucket' = '2',
        'bucket-key' = 'user_id'
    );
    

2.3.1.2 外部表

外部表由 Catalog 记录但不管理。如果删除外部表,其表文件不会被删除,类似于 Hive 的外部表。

Paimon 外部表可以在任何 Catalog 中使用。如果不想创建 Paimon Catalog,而只想读/写表,则可以考虑外部表。

CREATE TABLE ex (
    user_id BIGINT,
    item_id BIGINT,
    behavior STRING,
    dt STRING,
    hh STRING,
    PRIMARY KEY (dt, hh, user_id) NOT ENFORCED
) WITH (
    'connector' = 'paimon',
    'path' = 'hdfs://hadoop102:8020/paimon/external/ex',
    'auto-create' = 'true'
);

和创建内部表不同,在 WITH 语句中,指定了 connectorpath 属性。

2.3.1.3 临时表

仅 Flink 支持临时表。与外部表一样,临时表只是记录,但不由当前 Flink SQL 会话管理。如果临时表被删除,其资源将不会被删除。当 Flink SQL 会话关闭时,临时表也会被删除。与外部表的区别在于,临时表在 Paimon Catalog 中创建。

如果想将 Paimon Catalog 与其他表一起使用,但不想将它们存储在其他 Catalog 中,可以创建临时表。

USE CATALOG hive_catalog;

CREATE TEMPORARY TABLE temp (
    k INT,
    v STRING
) WITH (
    'connector' = 'filesystem',
    'path' = 'hdfs://hadoop102:8020/temp.csv',
    'format' = 'csv'
);

2.3.2 修改表

2.3.2.1 修改表

  1. 更改/添加表属性

    ALTER TABLE test SET (
    'write-buffer-size' = '256 MB'
    );
    
  2. 重命名表名称

    ALTER TABLE test1 RENAME TO test_new;
    
  3. 删除表属性

    ALTER TABLE test RESET ('write-buffer-size');
    

2.3.2.2 修改列

  1. 添加新列

    ALTER TABLE test ADD (c1 INT, c2 STRING);
    
  2. 重命名列名称

    ALTER TABLE test RENAME c1 TO c0;
    
  3. 删除列

    ALTER TABLE test DROP (c0, c2);
    
  4. 更改列的可为空性

    CREATE TABLE test_null(
        id INT PRIMARY KEY NOT ENFORCED,
        coupon_info FLOAT NOT NULL
    );
    
    -- 将列 coupon_info 修改成允许为 null
    ALTER TABLE test_null MODIFY coupon_info FLOAT;
    
    -- 将列 coupon_info 修改成不允许为null
    -- 如果表中已经有 null 值, 修改之前先设置如下参数删除 null 值
    SET 'table.exec.sink.not-null-enforcer' = 'DROP';
    ALTER TABLE test_null MODIFY coupon_info FLOAT NOT NULL;
    
  5. 更改列注释

    ALTER TABLE test MODIFY user_id BIGINT COMMENT 'user id';
    
  6. 添加列位置

    ALTER TABLE test ADD a INT FIRST;
    ALTER TABLE test ADD b INT AFTER a;
    
  7. 更改列位置

    ALTER TABLE test MODIFY b INT FIRST;
    ALTER TABLE test MODIFY a INT AFTER user_id;
    
  8. 更改列类型

    ALTER TABLE test MODIFY a DOUBLE;
    

2.3.2.3 修改水印

  1. 添加水印

    CREATE TABLE test_wm (
        id INT,
        name STRING,
        ts BIGINT
    );
    
    ALTER TABLE test_wm ADD(
        et AS to_timestamp_ltz(ts,3), 
        WATERMARK FOR et AS et - INTERVAL '1' SECOND
    );
    
  2. 更改水印

    ALTER TABLE test_wm MODIFY WATERMARK FOR et AS et - INTERVAL '2' SECOND;
    
  3. 去掉水印

    ALTER TABLE test_wm DROP WATERMARK;
    

2.4 DML

2.4.1 插入数据

INSERT 语句向表中插入新行或覆盖表中的现有数据。插入的行可以由值表达式或查询结果指定,跟标准的 sql 语法一致。

INSERT { INTO | OVERWRITE } table_identifier [ part_spec ] [column_list ] { value_expr | query }
  • part_spec
    ​ 可选,指定分区的键值对列表,多个分区用逗号分隔。可以使用类型文字(例如,date’2019-01-02’,表示将字符串转化为 date 类型,然后传递给分区字段)。
    ​ 语法: PARTITION (分区列名称 = 分区列值 [ , … ] )

  • column_list
    ​ 可选,指定以逗号分隔的字段列表。
    ​ 语法:(col_name1 [,column_name2, …])
    ​ 所有指定的列都应该存在于表中,并且不能重复,包括除静态分区列之外的所有列。字段列表的数量应与 VALUES 子句或查询中的数据字段数量完全相同。

  • value_expr
    ​ 指定要插入的值。可以插入显式指定的值或 NULL,必须使用逗号分隔子句中的每个值,可以指定多于一组的值来插入多行。
    ​ 语法:VALUES ( { 值 | NULL } [ , … ] ) [ , ( … ) ]

目前,Flink 不支持直接使用 NULL,因此需要将 NULL 转换为实际数据类型值,比如 CAST (NULL AS STRING)

注意:将 Nullable 字段写入 Not-null 字段

​ 不能将另一个表的可为空列插入到一个表的非空列中。Flink 可以使用 COALESCE 函数来处理,比如 A 表的 key1 是 not null,B 表的 key2 是 nullable:

INSERT INTO A key1 SELECT COALESCE(key2, <non-null expression>) FROM B;

案例:

INSERT INTO test VALUES(1,1,'order','2023-07-01','1'), (2,2,'pay','2023-07-01','2');
INSERT INTO test_p PARTITION(dt='2023-07-01',hh='1') VALUES(3,3,'pv');

-- 执行模式区分流、批
INSERT INTO test_p SELECT * from test;

Paimon 支持在 sink 阶段通过 partition 和 bucket 对数据进行 shuffle。

2.4.2 覆盖数据

覆盖数据只支持 batch 模式。默认情况下,流式读取将忽略 INSERT OVERWRITE 生成的提交。如果你想读取 OVERWRITE 的提交,可以配置 streaming-read-overwrite

RESET 'execution.checkpointing.interval';
SET 'execution.runtime-mode' = 'batch';
  1. 覆盖未分区的表

    INSERT OVERWRITE test VALUES(3,3,'pay','2023-07-01','2');
    
  2. 覆盖分区表
    对于分区表,Paimon 默认的覆盖模式是动态分区覆盖(即 Paimon 只删除 insert overwrite 数据中出现的分区)。您可以配置动态分区覆盖来更改它。

    INSERT OVERWRITE test_p SELECT * from test;
    

    覆盖指定分区:

    INSERT OVERWRITE test_p PARTITION (dt = '2023-07-01', hh = '2')
    SELECT user_id,item_id,behavior from test;
    
  3. 清空表
    可以使用 INSERT OVERWRITE 通过插入空值来清除表(关闭动态分区覆盖)。

    INSERT OVERWRITE test_p /*+
        OPTIONS('dynamic-partition-overwrite'='false') */
    SELECT * 
    FROM test_p
    WHERE false;
    

2.4.3 更新数据

目前,Paimon 在 Flink 1.17 及后续版本中支持使用 UPDATE 更新记录。您可以在 Flink 的批处理模式下执行 UPDATE

只有主键表支持此功能,不支持更新主键。

MergeEngine 需要 deduplicate 或 partial-update才能支持此功能。(默认deduplicate)

UPDATE test SET item_id = 4, behavior = 'pv' WHERE user_id = 3;

2.4.4 删除数据

从表中删除(Flink 1.17):

  • 只有写入模式设置为 change-log 的表支持此功能。(有主键默认就是 change-log)

  • 如果表有主键,MergeEngine 需要为 deduplicate。(默认deduplicate)

DELETE FROM test WHERE user_id = 3;

2.4.5 Merge Into

通过 merge into 实现行级更新,只有主键表支持此功能。该操作不会产生 UPDATE_BEFORE,因此不建议设置 ‘changelog-producer’ = ‘input’

merge-into 操作使用 upsert 语义而不是 update,这意味着如果该行存在,则执行更新,否则执行插入。

  1. 语法说明:

    <FLINK_HOME>/bin/flink run \
    	/path/to/paimon-flink-action-0.5-SNAPSHOT.jar \
    	merge-into \
    	--warehouse <warehouse-path> \
    	--database <database-name> \
    	--table <target-table> \
    	[--target-as <target-table-alias>] \
    	--source-table <source-table-name> \
    	[--source-sql <sql> ...]
    
    	--on <merge-condition> \
    	--merge-actions	<matched-upsert,matched-delete,not-matched-insert,not-matched-by-source-upsert,not-matched-by-source-delete>
    
    	--matched-upsert-condition <matched-condition> \
    	--matched-upsert-set <upsert-changes> \
    	--matched-delete-condition <matched-condition> \
    	--not-matched-insert-condition <not-matched-condition> \
    	--not-matched-insert-values <insert-values> \
    	--not-matched-by-source-upsert-condition <not-matched-by-source-condition> \
    	--not-matched-by-source-upsert-set <not-matched-upsert-changes> \
    	--not-matched-by-source-delete-condition <not-matched-by-source-condition> \
    	[--catalog-conf	<paimon-catalog-conf> ...]
    
    1. –source-sql
      1. 可以传递 sql 来配置环境并在运行时创建源表。
    2. match
      1. matched:更改的行来自目标表,每个行都可以根据条件匹配源表行(source ∩ target)
        1. 合并条件(–on)
        2. 匹配条件(–matched-xxx-condition)
      2. not-matched:更改的行来自源表,并且根据条件所有行都不能与任何目标表的行匹配(source - target):
        1. 合并条件(–on)
        2. 不匹配条件(–not-matched-xxx-condition):不能使用目标表的列来构造条件表达式。
      3. not-matched-by-source:更改的行来自目标表,并且基于条件所有行都不能与任何源表的行匹配(target - source):
        1. 合并条件(–on)
        2. 源不匹配条件(–not-matched-by-source-xxx-condition):不能使用源表的列来构造条件表达式。
  2. 案例实操

    1. 上传运行是需要的包。
      需要用到 paimon-flink-action-xxxx.jar,上传:

      # 可以将该包放到任何一个位置,这个包是运行时指定的 jar 包。
      cp paimon-flink-action-0.5-20230703.002437-53.jar /opt/module/flink-1.17.0/opt
      

      下载地址:https://repository.apache.org/snapshots/org/apache/paimon/paimon-flink-action/0.5-SNAPSHOT

    2. 准备测试表:

      use catalog hive_catalog;
      
      create database test;
      
      use test;
      
      CREATE TABLE ws1 (
          id INT,
          ts BIGINT,
          vc INT,
          PRIMARY KEY (id) NOT ENFORCED
      );
      
      INSERT INTO ws1 VALUES(1,1,1),(2,2,2),(3,3,3);
      
      CREATE TABLE ws_t (
          id INT,
          ts BIGINT,
          vc INT,
          PRIMARY KEY (id) NOT ENFORCED
      );
      
      INSERT INTO ws_t VALUES(2,2,2),(3,3,3),(4,4,4),(5,5,5);
      
    3. 案例一: ws_t 与ws1 匹配 id,将 ws_t 中 ts>2 的 vc 改为 10,ts<=2 的删除

      bin/flink run \
      	/opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
      	merge-into \
      	--warehouse hdfs://hadoop102:8020/paimon/hive \
      	--database test \
      	--table ws_t \
      	--source-table test.ws1 \
      	--on "ws_t.id = ws1.id" \
      	--merge-actions matched-upsert,matched-delete \
      	--matched-upsert-condition "ws_t.ts > 2" \
      	--matched-upsert-set "vc = 10" \
      	--matched-delete-condition "ws_t.ts <= 2"
      
    4. 案例二:ws_t 与ws1 匹配 id,匹配上的将 ws_t 中 vc 加 10,ws1 中没匹配上的插入 ws_t 中

      bin/flink run \
          /opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
          merge-into \
          --warehouse hdfs://hadoop102:8020/paimon/hive \
          --database test \
          --table ws_t \
          --source-table test.ws1 \
          --on "ws_t.id = ws1.id" \
          --merge-actions matched-upsert, not-matched-insert \
          --matched-upsert-set "vc = ws_t.vc + 10" \
          --not-matched-insert-values "*"
      
    5. 案例三:ws_t 与 ws1 匹配 id,ws_t 中没匹配上的,ts 大于 4 则 vc 加 20,ts=4 则删除

      bin/flink run \
          /opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
          merge-into \
          --warehouse hdfs://hadoop102:8020/paimon/hive \
          --database test \
          --table ws_t \
          --source-table test.ws1 \
          --on "ws_t.id = ws1.id" \
          --merge-actions not-matched-by-source-upsert,not-matched-by-source-delete \
          --not-matched-by-source-upsert-condition "ws_t.ts > 4" \
          --not-matched-by-source-upsert-set "vc = ws_t.vc + 20" \
          --not-matched-by-source-delete-condition " ws_t.ts = 4"
      
    6. 案例四:使用 --source-sql 创建新 catalog 下的源表,匹配 ws_t 的 id,没匹配上的插入 ws_t

      bin/flink run \
          /opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
          merge-into \
          --warehouse hdfs://hadoop102:8020/paimon/hive \
          --database test \
          --table ws_t \
          --source-sql "CREATE CATALOG fs2 WITH ('type' ='paimon','warehouse' = 'hdfs://hadoop102:8020/paimon/fs2')" \
          --source-sql "CREATE DATABASE IF NOT EXISTS fs2.test" \
          --source-sql "CREATE TEMPORARY VIEW fs2.test.ws2 AS SELECT id+10 as id,ts,vc FROM test.ws1" \
          --source-table fs2.test.ws2 \
          --on "ws_t.id = ws2. id" \
          --merge-actions not-matched-insert \
          --not-matched-insert-values "*"
      

2.5 DQL查询表

2.5.1 批量查询

就像所有其他表一样,Paimon 表可以使用 SELECT 语句进行查询。

Paimon 的批量读取返回表快照中的所有数据。默认情况下,批量读取返回最新快照

在 sql-client 中,设置执行模式为批即可:

RESET 'execution.checkpointing.interval';
SET 'execution.runtime-mode' = 'batch';

2.5.1.1 时间旅行

  1. 读取指定id的快照

    SELECT * FROM ws_t /*+ OPTIONS('scan.snapshot-id' = '1') */;
    SELECT * FROM ws_t /*+ OPTIONS('scan.snapshot-id' = '2') */;
    
  2. 读取指定时间戳的快照

    -- 查看快照信息
    SELECT * FROM ws_t&snapshots;
    SELECT * FROM ws_t /*+ OPTIONS('scan.timestamp-millis' = '1688369660841') */;
    
  3. 读取指定标签

    SELECT * FROM ws_t /*+ OPTIONS('scan.tag-name' = 'my-tag') */;
    

2.5.1.2 增量查询

读取开始快照(不包括)和结束快照之间的增量更改。例如,"3,5"表示快照 3 和快照 5 之间的更改:

SELECT * FROM ws_t /*+ OPTIONS('incremental-between' = '3,5') */;

在 batch 模式中,不返回 DELETE 记录,因此 -D 的记录将被删除。如果你想查看 DELETE 记录,可以查询 audit_log 表:

SELECT * FROM ws_t$audit_log /*+ OPTIONS('incremental-between' = '3,5') */;

2.5.2 流式查询

默认情况下,Streaming read 在第一次启动时会读取表的最新快照,并继续读取最新的更改。

SET 'execution.checkpointing.interval'='30s';
SET 'execution.runtime-mode' = 'streaming';

也可以从最新读取,设置扫描模式:

SELECT * FROM ws_t /*+ OPTIONS('scan.mode' = 'latest') */

2.5.2.1 时间旅行

如果只想处理今天及以后的数据,则可以使用分区过滤器来实现:

SELECT * FROM test_p WHERE dt > '2023-07-01'

如果不是分区表,或者无法按分区筛选,可以使用时间旅行的流读取。

  1. 从指定快照id开始读取变更数据

    SELECT * FROM ws_t /*+ OPTIONS('scan.snapshot-id' = '1') */;
    
  2. 从指定时间戳开始读取

    SELECT * FROM ws_t /*+ OPTIONS('scan.timestamp-millis' = '1688369660841') */;
    
  3. 第一次启动时读取指定快照所有数据,然后继续读取变化数据

    SELECT * FROM ws_t /*+ OPTIONS('scan.mode'='from-snapshot-full','scan.snapshot-id' = '3') */;
    

2.5.2.2 Consumer ID

  1. 优点
    在流式读取表时指定 consumer-id,这是一个实验性功能。
    当流读取Paimon表时,下一个快照id将被记录到文件系统中。这有几个优点:

    1. 当之前的作业停止后,新启动的作业可以继续消费之前的进度,而不需要从状态恢复。新的读取将从消费者文件中找到的下一个快照 ID 开始读取。
    2. 在判断一个快照是否过期时,Paimon 会查看文件系统中该表的所有消费者,如果还有消费者依赖这个快照,那么这个快照就不会因为过期而被删除。
    3. 当没有水印定义时,Paimon 表会将快照中的水印传递到下游 Paimon 表,这意味着您可以跟踪整个 pipeline 的水印进度。

    注意:消费者将防止快照过期。可以指定 consumer.expiration-time 来管理消费者的生命周期。

  2. 案例演示

    1. 指定 consumer-id 开始流式查询:

      SELECT * FROM ws_t /*+ OPTIONS('consumer-id' = 'atguigu') */;
      
    2. 停掉原先的流式查询,插入数据:

      insert into ws_t values(6,6,6);
      
    3. 再次指定 consumer-id 流式查询:

      SELECT * FROM ws_t /*+ OPTIONS('consumer-id' = 'atguigu') */;
      

      发现读取到的数据,是接着之前停止的位置继续读取。

2.5.3 查询优化

强烈建议在查询时指定分区和主键过滤器,这将加快查询的数据跳过速度。

可以加速数据跳跃的过滤函数有:

  • =

  • <

  • <=

  • >

  • >=

  • IN (…)

  • LIKE ‘abc%’

  • IS NULL

Paimon 会按主键对数据进行排序,从而加快点查询和范围查询的速度。使用复合主键时,查询过滤器最好形成主键的最左边前缀,以获得良好的加速效果。

CREATE TABLE orders (
    catalog_id BIGINT,
    order_id BIGINT,
    .....,
    PRIMARY KEY (catalog_id, order_id) NOT ENFORCED -- composite primary key
)

通过为主键最左边的前缀指定范围过滤器,查询可以获得很好的加速。

SELECT * FROM orders WHERE catalog_id=1025;
SELECT * FROM orders WHERE catalog_id=1025 AND order_id=29495;
SELECT * FROM orders WHERE catalog_id=1025 AND order_id>2035 AND order_id<6000;

下面例子的过滤器不能很好地加速查询:

-- 过滤字段不是符合主键最左边字段
SELECT * FROM orders WHERE order_id=29495;
-- 过滤条件使用了 or
SELECT * FROM orders WHERE catalog_id=1025 OR order_id=29495;

2.6 系统表

系统表包含有关每个表的元数据和信息,例如创建的快照和使用的选项。用户可以通过批量查询访问系统表。

2.6.1 快照表 Snapshots Table

通过 snapshots 表可以查询表的快照历史信息,包括快照中发生的记录数。

SELECT * FROM ws_t$snapshots;

通过查询快照表,可以了解该表的提交和过期信息以及数据的时间旅行。

2.6.2 模式表 Schemas Table

通过 schemas 表可以查询该表的历史 schema。

SELECT * FROM ws_t$schemas;

可以连接快照表和模式表以获取给定快照的字段。

SELECT s.snapshot_id, t.schema_id, t.fields
FROM ws_t$snapshots s 
JOIN ws_t$schemas t 
ON s.schema_id=t.schema_id 
where s.snapshot_id=3;

2.6.3 选项表 Options Table

可以通过选项表查询 DDL 中指定的表的选项信息。未显示的选项采用默认值。

SELECT * FROM ws_t$options;

2.6.4 审计日志表 Audit log Table

如果需要审计表的 changelog,可以使用 audit_log 系统表。通过 audit_log 表,获取表增量数据时可以获取 rowkind 列。您可以利用该栏目进行过滤等操作来完成审核。

rowkind 有四个值:

  • +I:插入操作。

  • -U:使用更新行的先前内容进行更新操作。

  • +U:使用更新行的新内容进行更新操作。

  • -D:删除操作。

SELECT * FROM ws_t$audit_log;

2.6.5 文件表 Files Table

可以查询特定快照表的文件。

-- 查询最新快照的文件
SELECT * FROM ws_t$files;
-- 查询指定快照的文件
SELECT * FROM ws_t$files /*+ OPTIONS('scan.snapshot-id'='1') */;

2.6.6 标签表 Tags Table

通过 tags 表可以查询表的标签历史信息,包括基于哪些快照进行标签以及快照的一些历史信息。您还可以通过名称获取所有标签名称和时间旅行到特定标签的数据。

SELECT * FROM ws_t$tags;

2.7 维表Join

Paimon 支持 Lookup Join 语法,它用于从 Paimon 查询的数据来补充维度字段。要求一个表具有处理时间属性,而另一个表由查找源连接器支持。

Paimon 支持 Flink 中具有主键的表和 append-only 的表查找联接。以下示例说明了此功能。

USE CATALOG fs_catalog;

CREATE TABLE customers (
    id INT PRIMARY KEY NOT ENFORCED,
    name STRING,
    country STRING,
    zip STRING
);

INSERT INTO customers VALUES(1,'zs','ch','123'),(2,'ls','ch','456'),(3,'ww','ch','789');

CREATE TEMPORARY TABLE Orders (
    order_id INT,
    total INT,
    customer_id INT,
    proc_time AS PROCTIME()
) WITH (
    'connector' = 'datagen',
    'rows-per-second'='1',
    'fields.order_id.kind'='sequence',
    'fields.order_id.start'='1',
    'fields.order_id.end'='1000000',
    'fields.total.kind'='random',
    'fields.total.min'='1',
    'fields.total.max'='1000',
    'fields.customer_id.kind'='random',
    'fields.customer_id.min'='1',
    'fields.customer_id.max'='3'
);

SELECT o.order_id, o.total, c.country, c.zip
FROM Orders AS o
JOIN customers
FOR SYSTEM_TIME AS OF o.proc_time AS c
ON o.customer_id = c.id;

Lookup Join 算子会在本地维护一个 RocksDB 缓存并实时拉取表的最新更新。查找连接运算符只会提取必要的数据,因此您的过滤条件对于性能非常重要。

如果 Orders(主表)的记录 Join 缺失,因为 customers(查找表)对应的数据还没有准备好。可以考虑使用 Flink 的 Delayed Retry Strategy For Lookup。

2.8 CDC集成

Paimon 支持多种通过模式演化将数据提取到 Paimon 表中的方法。这意味着添加的列会实时同步到 Paimon 表中,并且不需要重新启动同步作业

目前支持以下同步方式:

  • MySQL 同步表:将 MySQL 中的一张或多张表同步到一张 Paimon 表中。

  • MySQL 同步数据库:将整个 MySQL 数据库同步到一个 Paimon 数据库中。

  • API 同步表:将您的自定义 DataStream 输入同步到一张 Paimon 表中。

  • Kafka 同步表:将一个 Kafka topic 的表同步到一张 Paimon 表中。

  • Kafka 同步数据库:将一个包含多表的 Kafka 主题或多个各包含一张表的主题同步到一个 Paimon 数据库中。

2.8.1 MySQL

添加 Flink CDC 连接器。

cp flink-sql-connector-mysql-cdc-2.4.0.jar /opt/module/flink-1.17.0/lib

重启 yarn-session 集群和 sql-client。

2.8.1.1 同步表

  1. 语法说明

    <FLINK_HOME>/bin/flink run \
    	/path/to/paimon-flink-action-0.5-SNAPSHOT.jar \
    	mysql-sync-table 
    	--warehouse <warehouse-path> \
    	--database <database-name> \
    	--table <table-name> \
    	[--partition-keys <partition-keys>] \
    	[--primary-keys <primary-keys>] \
    	[--computed-column <'column-name=expr-name(args[, ...])'> \
    	[--mysql-conf <mysql-cdc-source-conf> \
    	[--catalog-conf <paimon-catalog-conf> \
    	[--table-conf <paimon-table-sink-conf> 
    

    参数说明:

    配置描述
    –warehousePaimon 仓库路径。
    –databasePaimon Catalog 中的数据库名称。
    –tablePaimon 表名称。
    –partition-keysPaimon 表的分区键。如果有多个分区键,请用逗号连接,例如 "dt,hh,mm"
    –primary-keysPaimon 表的主键。如果有多个主键,请用逗号连接,例如 "buyer_id,seller_id"
    –computed-column计算列的定义。参数字段来自 MySQL 表字段名称。
    –mysql-confFlink CDC MySQL 源表的配置。每个配置都应以 "key=value" 的格式指定。主机名、用户名、密码、数据库名和表名是必需配置,其他是可选配置。
    –catalog-confPaimon Catalog 的配置。每个配置都应以 "key=value" 的格式指定。
    –table-confPaimon 表 sink 的配置。每个配置都应以 "key=value" 的格式指定。

    如果指定的 Paimon 表不存在,此操作将自动创建该表。其 schema 将从所有指定的 MySQL 表派生。如果 Paimon 表已存在,则其 schema 将与所有指定 MySQL 表的 schema 进行比较。

  2. 案例实操

    1. 将 MySQL 一张表同步到 Paimon 一张表

      bin/flink run \
      	/opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
      	mysql-sync-table \
      	--warehouse hdfs://hadoop102:8020/paimon/hive \
      	--database test \
      	--table order_info_cdc \
      	--primary-keys id \
      	--mysql-conf hostname=hadoop102 \
      	--mysql-conf username=root \
      	--mysql-conf password=000000 \
      	--mysql-conf database-name=gmall \
      	--mysql-conf table-name='order_info' \
      	--catalog-conf metastore=hive \
      	--catalog-conf uri=thrift://hadoop102:9083 \
      	--table-conf bucket=4 \
      	--table-conf changelog-producer=input \
      	--table-conf sink.parallelism=4
      
    2. 将 MySQL 多张表同步到Paimon一张表

      bin/flink run \
      	/opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
      	mysql-sync-table \
      	--warehouse hdfs://hadoop102:8020/paimon/hive \
      	--database test \
      	--table order_cdc \
      	--primary-keys id \
      	--mysql-conf hostname=hadoop102 \
      	--mysql-conf username=root \
      	--mysql-conf password=000000 \
      	--mysql-conf database-name=gmall \
      	# 只能使用正则表达式,不能指定表名列表
      	--mysql-conf table-name='order_.*' \
      	--catalog-conf metastore=hive \
      	--catalog-conf uri=thrift://hadoop102:9083 \
      	--table-conf bucket=4 \
      	--table-conf changelog-producer=input \
      	--table-conf sink.parallelism=4
      

2.8.1.2 同步数据库

  1. 语法说明

    <FLINK_HOME>/bin/flink run \
    	/path/to/paimon-flink-action-0.5-SNAPSHOT.jar \
    	mysql-sync-database \
    	--warehouse <warehouse-path> \
    	--database <database-name> \
    	[--ignore-incompatible <true/false>] \
    	[--table-prefix <paimon-table-prefix>] \
    	[--table-suffix <paimon-table-suffix>] \
    	[--including-tables <mysql-table-name|name-regular-expr>] \
    	[--excluding-tables <mysql-table-name|name-regular-expr>] \
    	[--mysql-conf <mysql-cdc-source-conf> \
    	[--catalog-conf <paimon-catalog-conf> \
    	[--table-conf <paimon-table-sink-conf> 
    

    参数说明:

    配置描述
    –warehousePaimon 仓库路径。
    –databasePaimon Catalog 中的数据库名称。
    –ignore-incompatible默认为 false,在这种情况下,如果 Paimon 中存在 MySQL 表名,并且它们的 schema 不兼容,则会抛出异常。您可以显式将其指定为 true 以忽略不兼容的表和异常。
    –table-prefix所有需要同步的 Paimon 表的前缀。例如,如果您希望所有同步表都以 ods_ 作为前缀,则可以指定 --table-prefix ods_
    –table-suffix所有需要同步的 Paimon 表的后缀。用法与 --table-prefix 相同。
    –including-tables用于指定需要同步哪些源表。您必须使用 `
    –excluding-tables用于指定不需要同步哪些原表。用法与 --include-tables 相同。如果同时指定了 -- except-tables,则 -- except-tables 的优先级高于 --include-tables
    –mysql-confFlink CDC MySQL 源表的配置。每个配置都应以 key=value 的格式指定。主机名、用户名、密码、数据库名和表名是必需配置,其他是可选配置。
    –catalog-confPaimon Catalog 的配置。每个配置都应以 key=value 的格式指定。
    –table-confPaimon 表 sink 的配置。每个配置都应以 key=value 的格式指定。

    只有具有主键的表才会被同步。
    对于每个需要同步的 MySQL 表,如果对应的 Paimon 表不存在,该操作会自动创建该表。其 schema 将从所有指定的 MySQL 表派生。如果 Paimon 表已存在,则其 schema 将与所有指定 MySQL 表的 schema 进行比较。

  2. 案例实操

    bin/flink run \
    	/opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
    	mysql-sync-database \
    	--warehouse hdfs://hadoop102:8020/paimon/hive \
    	--database test \
    	--table-prefix "ods_" \
    	--table-suffix "_cdc" \
    	--mysql-conf hostname=hadoop102 \
    	--mysql-conf username=root \
    	--mysql-conf password=000000 \
    	--mysql-conf database-name=gmall \
    	--catalog-conf metastore=hive \
    	--catalog-conf uri=thrift://hadoop102:9083 
    	--table-conf bucket=4 \
    	--table-conf changelog-producer=input \
    	--table-conf sink.parallelism=4 \
    	--including-tables 'user_info|order_info|activity_rule'
    
  3. 同步数据库中新添加的表
    首先假设 Flink 作业正在同步数据库 source_db 下的表 [product、user、address]。提交作业的命令如下所示:

    <FLINK_HOME>/bin/flink run \
    	/path/to/paimon-flink-action-0.5-SNAPSHOT.jar \
    	mysql-sync-database \
    	--warehouse hdfs:///path/to/warehouse \
    	--database test_db \
    	--mysql-conf hostname=127.0.0.1 \
    	--mysql-conf username=root \
    	--mysql-conf password=123456 \
    	--mysql-conf database-name=source_db \
    	--catalog-conf metastore=hive \
    	--catalog-conf uri=thrift://hive-metastore:9083 \
    	--table-conf bucket=4 \
    	--table-conf changelog-producer=input \
    	--table-conf sink.parallelism=4 \
    	--including-tables 'product|user|address'
    

    稍后,我们希望作业也同步包含历史数据的表 [order, custom]。我们可以通过从作业的先前快照中恢复并重用作业的现有状态来实现这一点。恢复的作业将首先对新添加的表进行快照,然后自动从之前的位置继续读取变更日志。
    从以前的快照恢复并添加新表进行同步的命令如下所示:

    <FLINK_HOME>/bin/flink run \
    	--fromSavepoint savepointPath \
    	/path/to/paimon-flink-action-0.5-SNAPSHOT.jar \
    	mysql-sync-database \
    	--warehouse hdfs:///path/to/warehouse \
    	--database test_db \
    	--mysql-conf hostname=127.0.0.1 \
    	--mysql-conf username=root \
    	--mysql-conf password=123456 \
    	--mysql-conf database-name=source_db \
    	--catalog-conf metastore=hive \
    	--catalog-conf uri=thrift://hive-metastore:9083 \
    	--table-conf bucket=4 \
    	--including-tables 'product|user|address|order|custom'
    

2.8.2 Kafka

Flink 提供了几种 Kafka CDC 格式:canal-json、debezium-json、ogg-json、maxwell-json。如果 Kafka 主题中的消息是使用更改数据捕获 (CDC)工具从另一个数据库捕获的更改事件,则您可以使用 Paimon Kafka CDC,将解析后的 INSERT、UPDATE、DELETE 消息写入到 paimon表 中。Paimon 官网列出支持的格式如下:

表格 描述已自动生成

添加Kafka连接器:

cp flink-sql-connector-kafka-1.17.0.jar /opt/module/flink-1.17.0/lib

重启 yarn-session 集群和 sql-client。

2.8.2.1 同步表

  1. 语法说明
    将 Kafka 的一个主题中的一张或多张表同步到一张 Paimon 表中。

    <FLINK_HOME>/bin/flink run \
    	/path/to/paimon-flink-action-0.5-SNAPSHOT.jar \
    	kafka-sync-table \
    	--warehouse <warehouse-path> \
    	--database <database-name> \
    	--table <table-name> \
    	[--partition-keys <partition-keys>] \
    	[--primary-keys <primary-keys>] \
    	[--computed-column <'column-name=expr-name(args[, ...])'> \
    	[--kafka-conf <kafka-source-conf> \
    	[--catalog-conf <paimon-catalog-conf> \
    	[--table-conf <paimon-table-sink-conf> 
    

    参数说明:

    配置描述
    –warehousePaimon 仓库路径。
    –databasePaimon Catalog 中的数据库名称。
    –tablePaimon 表名称。
    –partition-keysPaimon 表的分区键。如果有多个分区键,请用逗号连接,例如 dt,hh,mm
    –primary-keysPaimon 表的主键。如果有多个主键,请用逗号连接,例如 buyer_id,seller_id
    –computed-column计算列的定义。参数字段来自 Kafka 主题的表字段名称。
    –kafka-confFlink Kafka 源的配置。每个配置都应以 key=value 的格式指定。 properties.bootstrap.serverstopicproperties.group.idvalue.format 是必需配置,其他配置是可选的。
    –catalog-confPaimon Catalog 的配置。每个配置都应以 key=value 的格式指定。
    –table-confPaimon 表 sink 的配置。每个配置都应以 key=value 的格式指定。

    如果您指定的 Paimon 表不存在,此操作将自动创建该表。它的 schema 将从所有指定的 Kafka topic 的表中派生出来,它从 topic 中获取最早的非 DDL 数据解析 schema。如果 Paimon 表已存在,则其 schema 将与所有指定 Kafka 主题表的 schema 进行比较。

  2. 案例实操

    1. 准备数据(canal-json格式)
      为了方便,直接将 canal 格式的数据插入 topic 里(user_info 单表数据):

      kafka-console-producer.sh --broker-list hadoop102:9092 --topic paimon_canal
      

      插入数据如下:

      {"data":[{"id":"6","login_name":"t7dk2h","nick_name":"冰冰11","passwd":null,"name":"淳于冰","phone_num":"13178654378","email":"t7dk2h@263.net","head_img":null,"user_level":"1","birthday":"1997-12-08","gender":null,"create_time":"2022-06-08
      00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689150607000,"id":1,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"冰冰"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151566836,"type":"UPDATE"}
      {"data":[{"id":"7","login_name":"vihcj30p1","nick_name":"豪心22","passwd":null,"name":"魏豪心","phone_num":"13956932645","email":"vihcj30p1@live.com","head_img":null,"user_level":"1","birthday":"1991-06-07","gender":"M","create_time":"2022-06-08
      00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689151623000,"id":2,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"豪心"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151623139,"type":"UPDATE"}
      {"data":[{"id":"8","login_name":"02r2ahx","nick_name":"卿卿33","passwd":null,"name":"穆卿","phone_num":"13412413361","email":"02r2ahx@sohu.com","head_img":null,"user_level":"1","birthday":"2001-07-08","gender":"F","create_time":"2022-06-08
      00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689151626000,"id":3,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"卿卿"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151626863,"type":"UPDATE"}
      {"data":[{"id":"9","login_name":"mjhrxnu","nick_name":"武新44","passwd":null,"name":"罗武新","phone_num":"13617856358","email":"mjhrxnu@yahoo.com","head_img":null,"user_level":"1","birthday":"2001-08-08","gender":null,"create_time":"2022-06-08
      00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689151630000,"id":4,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"武新"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151630781,"type":"UPDATE"}
      {"data":[{"id":"10","login_name":"kwua2155","nick_name":"纨纨55","passwd":null,"name":"姜纨","phone_num":"13742843828","email":"kwua2155@163.net","head_img":null,"user_level":"3","birthday":"1997-11-08","gender":"F","create_time":"2022-06-08
      00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689151633000,"id":5,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"纨纨"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151633697,"type":"UPDATE"}
      
    2. 将单个 Kafka 主题(包含单表数据)同步到 Paimon 表

      bin/flink run \
      	/opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
      	kafka-sync-table \
      	--warehouse hdfs://hadoop102:8020/paimon/hive \
      	--database test \
      	--table kafka_user_info_cdc \
      	--primary-keys id \
      	--kafka-conf properties.bootstrap.servers=hadoop102:9092 \
      	--kafka-conf topic=paimon_canal \
      	--kafka-conf properties.group.id=atguigu \
      	--kafka-conf scan.startup.mode=earliest-offset \
      	--kafka-conf value.format=canal-json \
      	--catalog-conf metastore=hive \
      	--catalog-conf uri=thrift://hadoop102:9083 
      	--table-conf bucket=4 \
      	--table-conf changelog-producer=input \
      	--table-conf sink.parallelism=4
      

2.8.2.2 同步数据库

  1. 语法说明
    将多个主题或一个主题同步到一个 Paimon 数据库中。

    <FLINK_HOME>/bin/flink run \
    	/path/to/paimon-flink-action-0.5-SNAPSHOT.jar \
    	kafka-sync-database \
    	--warehouse <warehouse-path> \
    	--database <database-name> \
    	[--schema-init-max-read <int>] \
    	[--ignore-incompatible <true/false>] \
    	[--table-prefix <paimon-table-prefix>] \
    	[--table-suffix <paimon-table-suffix>] \
    	[--including-tables <table-name|name-regular-expr>] \
    	[--excluding-tables <table-name|name-regular-expr>] \
    	[--kafka-conf <kafka-source-conf> \
    	[--catalog-conf <paimon-catalog-conf> \
    	[--table-conf <paimon-table-sink-conf> 
    

    参数说明:

    配置描述
    –warehousePaimon 仓库路径。
    –databasePaimon 目录中的数据库名称。
    –schema-init-max-read如果您的表全部来自某个 Topic,您可以设置该参数来初始化需要同步的表数量。默认值为 1000。
    –ignore-incompatible默认为 false,在这种情况下,如果 Paimon 中存在 MySQL 表名,并且它们的 schema 不兼容,则会抛出异常。您可以显式将其指定为 true 以忽略不兼容的表和异常。
    –table-prefix所有需要同步的 Paimon 表的前缀。例如,如果您希望所有同步表都以 ods_ 作为前缀,则可以指定 --table-prefix ods_
    –table-suffix所有需要同步的Paimon表的后缀。用法与 --table-prefix 相同。
    –including-tables用于指定要同步哪些源表。您必须使用 `
    –excluding-tables用于指定哪些源表不同步。用法与 --include-tables 相同。如果同时指定了 --excluding-tables,则 -- excluding-tables 的优先级高于 --include-tables
    –kafka-confFlink Kafka 源的配置。每个配置都应以 key=value 的格式指定。 properties.bootstrap.serverstopicproperties.group.idvalue.format 是必需配置,其他配置是可选的。有关完整配置列表,请参阅其文档。
    –catalog-confPaimon 目录的配置。每个配置都应以 key=value 的格式指定。
    –table-confPaimon 餐桌水槽的配置。每个配置都应以 key=value 的格式指定。

    只有具有主键的表才会被同步。
    对于每个要同步的 Kafka 主题中的表,如果对应的 Paimon 表不存在,该操作将自动创建该表。它的 schema 将从所有指定的 Kafka topic 的表中派生出来,它从 topic中 获取最早的非 DDL 数据解析 schema。如果 Paimon 表已存在,则其 schema 将与所有指定 Kafka 主题表的 schema 进行比较。

  2. 案例实操

    1. 准备数据(canal-json格式)
      为了方便,直接将 canal 格式的数据插入 topic 里(user_info 和 spu_info 多表数据):

      kafka-console-producer.sh --broker-list hadoop102:9092 --topic paimon_canal_2
      

      插入数据如下(注意不要有空行):

      {"data":[{"id":"6","login_name":"t7dk2h","nick_name":"冰冰11","passwd":null,"name":"淳于冰","phone_num":"13178654378","email":"t7dk2h@263.net","head_img":null,"user_level":"1","birthday":"1997-12-08","gender":null,"create_time":"2022-06-08 00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689150607000,"id":1,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"冰冰"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151566836,"type":"UPDATE"}
      {"data":[{"id":"7","login_name":"vihcj30p1","nick_name":"豪心22","passwd":null,"name":"魏豪心","phone_num":"13956932645","email":"vihcj30p1@live.com","head_img":null,"user_level":"1","birthday":"1991-06-07","gender":"M","create_time":"2022-06-08 00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689151623000,"id":2,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"豪心"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151623139,"type":"UPDATE"}
      {"data":[{"id":"8","login_name":"02r2ahx","nick_name":"卿卿33","passwd":null,"name":"穆卿","phone_num":"13412413361","email":"02r2ahx@sohu.com","head_img":null,"user_level":"1","birthday":"2001-07-08","gender":"F","create_time":"2022-06-08 00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689151626000,"id":3,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"卿卿"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151626863,"type":"UPDATE"}
      {"data":[{"id":"9","login_name":"mjhrxnu","nick_name":"武新44","passwd":null,"name":"罗武新","phone_num":"13617856358","email":"mjhrxnu@yahoo.com","head_img":null,"user_level":"1","birthday":"2001-08-08","gender":null,"create_time":"2022-06-08 00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689151630000,"id":4,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"武新"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151630781,"type":"UPDATE"}
      {"data":[{"id":"10","login_name":"kwua2155","nick_name":"纨纨55","passwd":null,"name":"姜纨","phone_num":"13742843828","email":"kwua2155@163.net","head_img":null,"user_level":"3","birthday":"1997-11-08","gender":"F","create_time":"2022-06-08 00:00:00","operate_time":null,"status":null}],"database":"gmall","es":1689151633000,"id":5,"isDdl":false,"mysqlType":{"id":"bigint","login_name":"varchar(200)","nick_name":"varchar(200)","passwd":"varchar(200)","name":"varchar(200)","phone_num":"varchar(200)","email":"varchar(200)","head_img":"varchar(200)","user_level":"varchar(200)","birthday":"date","gender":"varchar(1)","create_time":"datetime","operate_time":"datetime","status":"varchar(200)"},"old":[{"nick_name":"纨纨"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"login_name":12,"nick_name":12,"passwd":12,"name":12,"phone_num":12,"email":12,"head_img":12,"user_level":12,"birthday":91,"gender":12,"create_time":93,"operate_time":93,"status":12},"table":"user_info","ts":1689151633697,"type":"UPDATE"}
      {"data":[{"id":"12","spu_name":"华为智慧屏 4K全面屏智能电视机1","description":"华为智慧屏 4K全面屏智能电视机","category3_id":"86","tm_id":"3","create_time":"2021-12-14 00:00:00","operate_time":null}],"database":"gmall","es":1689151648000,"id":6,"isDdl":false,"mysqlType":{"id":"bigint","spu_name":"varchar(200)","description":"varchar(1000)","category3_id":"bigint","tm_id":"bigint","create_time":"datetime","operate_time":"datetime"},"old":[{"spu_name":"华为智慧屏 4K全面屏智能电视机"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"spu_name":12,"description":12,"category3_id":-5,"tm_id":-5,"create_time":93,"operate_time":93},"table":"spu_info","ts":1689151648872,"type":"UPDATE"}
      {"data":[{"id":"3","spu_name":"Apple iPhone 13","description":"Apple iPhone 13","category3_id":"61","tm_id":"2","create_time":"2021-12-14 00:00:00","operate_time":null}],"database":"gmall","es":1689151661000,"id":7,"isDdl":false,"mysqlType":{"id":"bigint","spu_name":"varchar(200)","description":"varchar(1000)","category3_id":"bigint","tm_id":"bigint","create_time":"datetime","operate_time":"datetime"},"old":[{"spu_name":"Apple iPhone 12","description":"Apple iPhone 12"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"spu_name":12,"description":12,"category3_id":-5,"tm_id":-5,"create_time":93,"operate_time":93},"table":"spu_info","ts":1689151661828,"type":"UPDATE"}
      {"data":[{"id":"4","spu_name":"HUAWEI P50","description":"HUAWEI P50","category3_id":"61","tm_id":"3","create_time":"2021-12-14 00:00:00","operate_time":null}],"database":"gmall","es":1689151669000,"id":8,"isDdl":false,"mysqlType":{"id":"bigint","spu_name":"varchar(200)","description":"varchar(1000)","category3_id":"bigint","tm_id":"bigint","create_time":"datetime","operate_time":"datetime"},"old":[{"spu_name":"HUAWEI P40","description":"HUAWEI P40"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"spu_name":12,"description":12,"category3_id":-5,"tm_id":-5,"create_time":93,"operate_time":93},"table":"spu_info","ts":1689151669966,"type":"UPDATE"}
      {"data":[{"id":"1","spu_name":"小米12sultra","description":"小米12","category3_id":"61","tm_id":"1","create_time":"2021-12-14 00:00:00","operate_time":null}],"database":"gmall","es":1689151700000,"id":9,"isDdl":false,"mysqlType":{"id":"bigint","spu_name":"varchar(200)","description":"varchar(1000)","category3_id":"bigint","tm_id":"bigint","create_time":"datetime","operate_time":"datetime"},"old":[{"description":"小米10"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"spu_name":12,"description":12,"category3_id":-5,"tm_id":-5,"create_time":93,"operate_time":93},"table":"spu_info","ts":1689151700998,"type":"UPDATE"}
      

      再准备一个只包含 spu_info 单表数据的Topic:

      kafka-console-producer.sh --broker-list hadoop102:9092 --topic paimon_canal_1
      

      插入数据如下:

      {"data":[{"id":"12","spu_name":"华为智慧屏 4K全面屏智能电视机1","description":"华为智慧屏 4K全面屏智能电视机","category3_id":"86","tm_id":"3","create_time":"2021-12-14 00:00:00","operate_time":null}],"database":"gmall","es":1689151648000,"id":6,"isDdl":false,"mysqlType":{"id":"bigint","spu_name":"varchar(200)","description":"varchar(1000)","category3_id":"bigint","tm_id":"bigint","create_time":"datetime","operate_time":"datetime"},"old":[{"spu_name":"华为智慧屏 4K全面屏智能电视机"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"spu_name":12,"description":12,"category3_id":-5,"tm_id":-5,"create_time":93,"operate_time":93},"table":"spu_info","ts":1689151648872,"type":"UPDATE"}
      {"data":[{"id":"3","spu_name":"Apple iPhone 13","description":"Apple iPhone 13","category3_id":"61","tm_id":"2","create_time":"2021-12-14 00:00:00","operate_time":null}],"database":"gmall","es":1689151661000,"id":7,"isDdl":false,"mysqlType":{"id":"bigint","spu_name":"varchar(200)","description":"varchar(1000)","category3_id":"bigint","tm_id":"bigint","create_time":"datetime","operate_time":"datetime"},"old":[{"spu_name":"Apple iPhone 12","description":"Apple iPhone 12"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"spu_name":12,"description":12,"category3_id":-5,"tm_id":-5,"create_time":93,"operate_time":93},"table":"spu_info","ts":1689151661828,"type":"UPDATE"}
      {"data":[{"id":"4","spu_name":"HUAWEI P50","description":"HUAWEI P50","category3_id":"61","tm_id":"3","create_time":"2021-12-14 00:00:00","operate_time":null}],"database":"gmall","es":1689151669000,"id":8,"isDdl":false,"mysqlType":{"id":"bigint","spu_name":"varchar(200)","description":"varchar(1000)","category3_id":"bigint","tm_id":"bigint","create_time":"datetime","operate_time":"datetime"},"old":[{"spu_name":"HUAWEI P40","description":"HUAWEI P40"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"spu_name":12,"description":12,"category3_id":-5,"tm_id":-5,"create_time":93,"operate_time":93},"table":"spu_info","ts":1689151669966,"type":"UPDATE"}
      {"data":[{"id":"1","spu_name":"小米12sultra","description":"小米12","category3_id":"61","tm_id":"1","create_time":"2021-12-14 00:00:00","operate_time":null}],"database":"gmall","es":1689151700000,"id":9,"isDdl":false,"mysqlType":{"id":"bigint","spu_name":"varchar(200)","description":"varchar(1000)","category3_id":"bigint","tm_id":"bigint","create_time":"datetime","operate_time":"datetime"},"old":[{"description":"小米10"}],"pkNames":["id"],"sql":"","sqlType":{"id":-5,"spu_name":12,"description":12,"category3_id":-5,"tm_id":-5,"create_time":93,"operate_time":93},"table":"spu_info","ts":1689151700998,"type":"UPDATE"}
      
    2. 从一个 Kafka 主题(包含多表数据)同步到 Paimon 数据库

      bin/flink run \
      	/opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
      	kafka-sync-database \
      	--warehouse hdfs://hadoop102:8020/paimon/hive \
      	--database test \
      	--table-prefix "t1_" \
      	--table-suffix "_cdc" \
      	--schema-init-max-read 500 \
      	--kafka-conf properties.bootstrap.servers=hadoop102:9092 \
      	--kafka-conf topic=paimon_canal_2 \
      	--kafka-conf properties.group.id=atguigu \
      	--kafka-conf scan.startup.mode=earliest-offset \
      	--kafka-conf value.format=canal-json \
      	--catalog-conf metastore=hive \
      	--catalog-conf uri=thrift://hadoop102:9083 \
      	--table-conf bucket=4 \
      	--table-conf changelog-producer=input \
      	--table-conf sink.parallelism=4
      
    3. 从多个 Kafka 主题同步到 Paimon 数据库

      bin/flink run \
      	/opt/module/flink-1.17.0/opt/paimon-flink-action-0.5-20230703.002437-53.jar \
      	kafka-sync-database \
      	--warehouse hdfs://hadoop102:8020/paimon/hive \
      	--database test \
      	--table-prefix "t2_" \
      	--table-suffix "_cdc" \
      	--kafka-conf properties.bootstrap.servers=hadoop102:9092 \
      	# 主题列表,多个主题使用英文分号分隔
      	--kafka-conf topic="paimon_canal;paimon_canal_1" \
      	--kafka-conf properties.group.id=atguigu \
      	--kafka-conf scan.startup.mode=earliest-offset \
      	--kafka-conf value.format=canal-json \
      	--catalog-conf metastore=hive \
      	--catalog-conf uri=thrift://hadoop102:9083 \
      	--table-conf bucket=4 \
      	--table-conf changelog-producer=input \
      	--table-conf sink.parallelism=4
      

2.8.3 支持的schema变更

cdc 集成支持有限的 schema 变更。目前,框架不支持删除列,因此 DROP 的行为将被忽略,RENAME 将添加新列。当前支持的架构更改包括:

  1. 添加列。

  2. 更改列类型:

    • 从字符串类型(char、varchar、text)更改为长度更长的另一种字符串类型,

    • 从二进制类型(binary、varbinary、blob)更改为长度更长的另一种二进制类型,

    • 从整数类型(tinyint、smallint、int、bigint)更改为范围更广的另一种整数类型,

    • 从浮点类型(float、double)更改为范围更宽的另一种浮点类型。

2.9 进阶使用

2.9.1 写入性能

Paimon 的写入性能与检查点密切相关,因此需要更大的写入吞吐量:

  • 增加检查点间隔,或者仅使用批处理模式。

  • 增加写入缓冲区大小。

  • 启用写缓冲区溢出。

  • 如果您使用固定存储桶模式,可以重新调整存储桶数量。

2.9.1.1 并行度

建议 sink 的并行度小于等于 bucke t的数量,最好相等。

选项必需的默认值类型描述
sink.parallelism(none)Integer定义 sink 的并行度。默认情况下,并行度由框架使用上游链式运算符的相同并行度来确定。

2.9.1.2 Compaction

当 Sorted Run 数量较少时,Paimon writer 将在单独的线程中异步执行压缩,因此记录可以连续写入表中。然而,为了避免 Sorted Run 的无限增长,当 Sorted Run 的数量达到阈值时,writer 将不得不暂停写入。根据下表属性确定阈值。

选项必需的默认类型描述
num-sorted-run.stop-triggerNo(none)Integer触发停止写入的 Sorted Run 数量,默认值为 num-sorted-run.compaction-trigger + 1。

将 num-sorted-run.stop-trigger 调大,可以让写入停顿变得不那么频繁,从而提高写入性能。但是,如果该值变得太大,则查询表时将需要更多内存和 CPU 时间。如果您担心内存 OOM,请配置 sort-spill-threshold。它的值取决于你的内存大小。

2.9.1.3 优先考虑写入吞吐量

如果希望某种模式具有最大写入吞吐量,则可以缓慢而不是匆忙地进行 Compaction。可以对表使用以下策略

num-sorted-run.stop-trigger = 2147483647
sort-spill-threshold = 10

此配置将在写入高峰期生成更多文件,并在写入低谷期逐渐合并,以到最佳读取性能。

2.9.1.4 触发Compaction的Sorted Run数量

Paimon 使用 LSM 树,支持大量更新。 LSM 在多次 Sorted Run 中组织文件。从 LSM 树查询记录时,必须组合所有 Sorted Run 以生成所有记录的完整视图。

过多的 Sorted Run 会导致查询性能不佳。为了将 Sorted Run 的数量保持在合理的范围内,Paimon writer 将自动执行 Compaction。下表属性确定触发 Compaction 的最小 Sorted Run 数量。

选项必需的默认类型描述
num-sorted-run.compaction-triggerNo5Integer触发 Compaction 的Sorted Run 数量。包括 0 级文件(一个文件一级排序运行)和高级运行(一个一级排序运行)。

2.9.1.5 写入初始化

在 write 初始化时,bucket 的 writer 需要读取所有历史文件。如果这里出现瓶颈(例如同时写入大量分区),可以使用 write-manifest-cache 缓存读取的 manifest 数据,以加速初始化。

2.9.1.6 内存

Paimon writer 中主要占用内存的地方如下:

  • Writer 的内存缓冲区,由单个任务的所有 Writer 共享和抢占。该内存值可以通过 write-buffer-size 表属性进行调整。

  • 合并多个 Sorted Run 以进行 Compaction 时会消耗内存。可以通过 num-sorted-run.compaction-trigger 选项进行调整,以更改要合并的 Sorted Run 的数量。

  • 如果行非常大,在进行 Compaction 时一次读取太多行数据可能会消耗大量内存。减少 read.batch-size 选项可以减轻这种情况的影响。

  • 写入列式(ORC、Parquet等)文件所消耗的内存,不可调。

2.9.2 读取性能

2.9.2.1 Full Compaction

配置 full-compaction.delta-commits 在 Flink 写入时定期执行 full-compaction,并且可以确保在写入结束之前分区被完全 Compaction。

注意:Paimon 会默认处理小文件并提供良好的读取性能,请不要在没有任何要求的情况下配置此 Full Compaction 选项,因为它会对性能产生重大影响。

2.9.2.2 主键表

对于主键表来说,这是一种 MergeOnRead 技术。读取数据时,会合并多层 LSM 数据,并行数会受到桶数的限制。虽然 Paimon 的 merge 很高效,但是还是赶不上普通的 AppendOnly 表。

如果你想在某些场景下查询得足够快,但只能找到较旧的数据,你可以:

  • 配置 full-compaction.delta-commits,写入数据时(目前只有Flink)定期进行 full Compaction。

  • 配置 scan.modecompacted-full,读取数据时,选择 full-compaction 的快照,读取性能更好。

2.9.2.3 仅追加表

小文件会降低读取速度并影响 DFS 稳定性。默认情况下,当单个存储桶中的小文件超过 compaction.max.file-num(默认50个)时,就会触发 compaction。但是当有多个桶时,就会产生很多小文件。

您可以使用 full-compaction 来减少小文件,full-compaction 会消除大多数小文件。

2.9.2.4 格式

Paimon 对 parquet 读取进行了一些查询优化,因此 parquet 会比 orc 稍快一些。

2.9.3 多Writer并发写入

Paimon 的快照管理支持向多个 writer 写入。

默认情况下,Paimon 支持对不同分区的并发写入,推荐的方式是 streaming job 将记录写入 Paimon 的最新分区;同时批处理作业(覆盖)将记录写入历史分区

图示 描述已自动生成

如果需要多个 Writer 写到同一个分区,事情就会变得有点复杂。例如,不想使用 UNION ALL,那就需要有多个流作业来写入 partial-update 表。参考如下的 Dedicated Compaction Job。

2.9.3.1 Dedicated Compaction Job

默认情况下,Paimon writer 在写入记录时会根据需要执行 Compaction,这对于大多数用例来说已经足够了,但有两个缺点:

  • 这可能会导致写入吞吐量不稳定,因为执行压缩时吞吐量可能会暂时下降。

  • Compaction 会将某些数据文件标记为"已删除"(并未真正删除)。如果多个 writer 标记同一个文件,则在提交更改时会发生冲突。Paimon 会自动解决冲突,但这可能会导致作业重新启动。

为了避免这些缺点,用户还可以选择在 writer 中跳过 Compaction,并运行专门的作业来进行 Compaction。由于 Compaction 由专用作业执行,因此 writer 可以连续写入记录而无需暂停,并且不会发生冲突。

选项必需的默认类型描述
write-onlyNofalseBoolean如果设置为 true,将跳过 Compaction 和快照过期。此选项与独立 Compaction 一起使用。

Flink SQL 目前不支持 compaction 相关的语句,所以我们必须通过 flink run 来提交 compaction 作业。

<FLINK_HOME>/bin/flink run \
	/path/to/paimon-flink-action-0.5-SNAPSHOT.jar \
	compact \
	--warehouse <warehouse-path> \
	--database <database-name> \
	--table <table-name> \
	[--partition <partition-name>] \
	[--catalog-conf <paimon-catalog-conf> 

如果提交一个批处理作业(execution.runtime-mode:batch),则当前所有的表文件都会被 Compaction。如果您提交一个流作业(execution.runtime-mode:Streaming),则该作业会持续监视表的新更改并根据需要执行 Compaction。

2.9.4 表管理

2.9.4.1 管理快照

  1. 快照过期
    Paimon Writer 每次提交都会生成一个或两个快照。每个快照可能会添加一些新的数据文件或将一些旧的数据文件标记为已删除。然而,标记的数据文件并没有真正被删除,因为 Paimon 还支持时间旅行到更早的快照,它们仅在快照过期时被删除。
    目前,Paimon Writer 在提交新更改时会自动执行过期操作。通过使旧快照过期,可以删除不再使用的旧数据文件和元数据文件,以释放磁盘空间。
    设置以下表属性:

    选项必需的默认类型描述
    snapshot.time-retainedNo1 hDuration已完成快照的最长时间保留。
    snapshot.num-retained.minNo10Integer要保留的已完成快照的最小数量。
    snapshot.num-retained.maxNoInteger.MAX_VALUEInteger要保留的已完成快照的最大数量。

    注意,保留时间太短或保留数量太少可能会导致如下问题:

    • 批量查询找不到该文件。例如,表比较大,批量查询需要 10 分钟才能读取到,但是 10 分钟前的快照过期了,此时批量查询会读取到已删除的快照。
    • 表文件上的流式读取作业(没有外部日志系统)无法重新启动。当作业重新启动时,它记录的快照可能已过期。(可以使用 Consumer Id 来保护快照过期的小保留时间内的流式读取)。
  2. 回滚快照

    <FLINK_HOME>/bin/flink run \
    	/path/to/paimon-flink-action-0.5-SNAPSHOT.jar \
    	rollback-to \
    	--warehouse <warehouse-path> \
    	--database <database-name> \
    	--table <table-name> \
    	--snapshot <snapshot-id> \
    	[--catalog-conf <paimon-catalog-conf>
    

2.9.4.2 管理分区

创建分区表时可以设置 partition.expiration-time。Paimon 会定期检查分区的状态,并根据时间删除过期的分区。

判断分区是否过期:将分区中提取的时间与当前时间进行比较,看生存时间是否超过 partition.expiration-time。比如:

CREATE TABLE T (...) PARTITIONED BY (dt) WITH (
    'partition.expiration-time' = '7 d',
    'partition.expiration-check-interval' = '1 d',
    'partition.timestamp-formatter' = 'yyyyMMdd'
);
选项默认类型描述
partition.expiration-check-interval1 hDuration分区过期的检查间隔。
partition.expiration-time(none)Duration分区的过期时间间隔。如果分区的生命周期超过此值,则该分区将过期。分区时间是从分区值中提取的。
partition.timestamp-formatter(none)String用于格式化字符串时间戳的格式化程序。它可以与 partition.timestamp-pattern 一起使用来创建使用指定值的格式化程序。
1. 默认格式化为 yyyy-MM-dd HH:mm:ssyyyy-MM-dd
2. 支持多个分区字段,例如 $year-$month-$day $hour:00:00
3. 时间戳格式化程序与 Java 的 DateTimeFormatter 兼容。
partition.timestamp-pattern(none)String可以指定一种模式来从分区获取时间戳。格式化程序模式由 partition.timestamp-formatter 定义。
1. 默认情况下,从第一个字段读取。
2. 如果分区中的时间戳是名为 dt 的单个字段,则可以使用 $dt
3. 如果它分布在年、月、日和小时的多个字段中,则可以使用 $year-$month-$day $hour:00:00
4. 如果时间戳位于 dt 和 hour 字段中,则可以使用 $dt $hour:00:00

2.9.4.3 管理小文件

小文件可能会导致:

  • 稳定性问题:HDFS 中小文件过多,NameNode 会承受过大的压力。

  • 成本问题:HDFS 中的小文件会使用 1 个Block的大小,例如 128MB。

  • 查询效率:小文件过多查询效率会受到影响。

  1. Flink Checkpoint的影响
    使用 Flink Writer,每个 checkpoint 会生成 1-2 个快照,并且 checkpoint 会强制在 DFS 上生成文件,因此 checkpoint 间隔越小,生成的小文件越多。
    默认情况下,不仅 checkpoint 会导致文件生成,writer 的内存(write-buffer-size)耗尽也会将数据 flush 到 DFS 并生成相应的文件。可以启用 write-buffer-spillable,在 writer 中生成溢出文件,从而在 DFS 中生成更大的文件。
    所以,可以进行如下设置:

    1. 增大 checkpoint 间隔
    2. 增加 write-buffer-size 或启用 write-buffer-spillable
  2. 快照的影响
    Paimon 维护文件的多个版本,文件的 Compaction 和删除是逻辑上的,并没有真正删除文件。文件只有在 Snapshot 过期后才会被真正删除,因此减少文件的第一个方法就是减少 Snapshot 过期的时间。 Flink writer 会自动使快照过期。
    分区和分桶的影响

    图示 描述已自动生成
    表数据会被物理分片到不同的分区,里面有不同的桶,所以如果整体数据量太小,每个桶中至少有一个文件,建议你配置较少的桶数,否则会出现也有很多小文件。

  3. 主键表LSM的影响
    LSM 树将文件组织成 Sorted Run 的运行。Sorted Run 由一个或多个数据文件组成,并且每个数据文件恰好属于一个 Sorted Run。


    默认情况下,Sorted Run 数取决于 num-sorted-run.compaction-trigger,这意味着一个桶中至少有 5 个文件。如果减少此数量,可以保留更少的文件,但写入性能可能会受到影响。

  4. 仅追加表的文件的影响
    默认情况下,Append-Only 会进行自动 Compaction 以减少小文件的数量
    对于分桶的 Append-only 表,为了排序会对 bucket 内的文件行 Compaction,可能会保留更多的小文件。

  5. Full-Compaction的影响
    主键表是 5 个文件,但是 Append-Only 表(桶)可能单个桶里有 50 个小文件,这是很难接受的。更糟糕的是,不再活动的分区还保留了如此多的小文件。
    建议配置 Full-Compaction,在 Flink 写入时配置 full-compaction.delta-commits 以定期进行 full-compaction,可以确保在写入结束之前分区被 full-compaction。

2.9.5 缩放Bucket

  1. 说明
    由于总桶数对性能影响很大,Paimon 允许用户通过 ALTER TABLE 命令调整桶数,并通过 INSERT OVERWRITE 重新组织数据布局,而无需重新创建表/分区。当执行覆盖作业时,框架会自动扫描旧桶号的数据,并根据当前桶号对记录进行哈希处理。

    -- 重新调整总桶数
    ALTER TABLE table_identifier SET ('bucket' = '...')
    -- 重新组织表/分区的数据布局
    INSERT OVERWRITE table_identifier [PARTITION (part_spec)]
    SELECT ...
    FROM table_identifier
    [WHERE part_spec]
    

    注意:

    • ALTER TABLE 仅修改表的元数据,不会重新组织或重新格式化现有数据。重新组织现有数据必须通过 INSERT OVERWRITE 来实现。

    • 重新缩放桶数不会影响读取和正在运行的写入作业。

    • 一旦存储桶编号更改,任何新安排的 INSERT INTO 作业写入未重新组织的现有表/分区将抛出 TableException,并显示如下类似异常:

      Try to write table/partition ... with a new bucket num ..., but the previous bucket num is ... Please switch to batch mode, and perform INSERT OVERWRITE to rescale current data layout first.
      

    对于分区表,不同的分区可以有不同的桶数量。例如:

    ALTER TABLE my_table SET ('bucket' = '4');
    
    INSERT OVERWRITE my_table PARTITION (dt = '2022-01-01')
    SELECT * FROM ...;
    
    ALTER TABLE my_table SET ('bucket' = '8');
    
    INSERT OVERWRITE my_table PARTITION (dt = '2022-01-02')
    SELECT * FROM ...;
    

    在覆盖期间,确保没有其他作业写入同一表/分区。
    注意:对于启用日志系统的表(例如 Kafka),请重新调整主题的分区以保持一致性。
    重新缩放存储桶有助于处理吞吐量的突然峰值。假设有一个每日流式 ETL 任务来同步交易数据。该表的 DDL 和 pipeline 如下所示。

  2. 官方示例:
    如下是正在跑的一个作业:

    -- 建表
    CREATE TABLE verified_orders (
        trade_order_id BIGINT,
        item_id BIGINT,
        item_price DOUBLE,
        dt STRING,
        PRIMARY KEY (dt, trade_order_id, item_id) NOT ENFORCED
    ) PARTITIONED BY (dt)
    WITH (
        'bucket' = '16'
    );
    
    -- kafka表
    CREATE temporary TABLE raw_orders(
        trade_order_id BIGINT,
        item_id BIGINT,
        item_price BIGINT,
        gmt_create STRING,
        order_status STRING
    ) WITH (
        'connector' = 'kafka',
        'topic' = '...',
        'properties.bootstrap.servers' = '...',
        'format' = 'csv'
        ...
    );
    
    -- 流式插入16个分桶
    INSERT INTO verified_orders
    SELECT 
    	trade_order_id,
        item_id,
        item_price,
        DATE_FORMAT(gmt_create, 'yyyy-MM-dd') AS dt
    FROM raw_orders
    WHERE order_status = 'verified';
    

    过去几周运行良好。然而,最近数据量增长很快,作业的延迟不断增加。为了提高数据新鲜度,用户可以执行如下操作缩放分桶:

    1. 使用保存点停止流作业

      $ ./bin/flink stop --savepointPath /tmp/flink-savepoints $JOB_ID
      
    2. 增加桶数

      ALTER TABLE verified_orders SET ('bucket' = '32');
      
    3. 切换到批处理模式并覆盖流作业正在写入的当前分区

      SET 'execution.runtime-mode' = 'batch';
      
      -- 假设今天是2022-06-22
      -- 情况1:没有更新历史分区的延迟事件,因此覆盖今天的分区就足够了
      INSERT OVERWRITE verified_orders PARTITION (dt = '2022-06-22')
      SELECT trade_order_id,
          item_id,
          item_price
      FROM verified_orders
      WHERE dt = '2022-06-22';
      
      -- 情况2:有更新历史分区的延迟事件,但范围不超过3天
      INSERT OVERWRITE verified_orders
      SELECT trade_order_id,
          item_id,
          item_price,
          dt
      FROM verified_orders
      WHERE dt IN ('2022-06-20', '2022-06-21', '2022-06-22');
      
    4. 覆盖作业完成后,切换回流模式,从保存点恢复(可以增加并行度=新bucket数量)。

      SET 'execution.runtime-mode' = 'streaming';
      SET 'execution.savepoint.path' = <savepointPath>;
      INSERT INTO verified_orders
      SELECT trade_order_id,
          item_id,
          item_price,
          DATE_FORMAT(gmt_create, 'yyyy-MM-dd') AS dt
      FROM raw_orders
      WHERE order_status = 'verified';
      

2.10 文件操作理解

2.10.1 插入数据

当我们执行

INSERT INTO
CREATE CATALOG paimon WITH (
    'type' = 'paimon',
    'warehouse' = 'file:///tmp/paimon'
);

USE CATALOG paimon;

CREATE TABLE T (
    id BIGINT,
    a INT,
    b STRING,
    dt STRING COMMENT 'timestamp string in format yyyyMMdd',
    PRIMARY KEY(id, dt) NOT ENFORCED
) PARTITIONED BY (dt);

INSERT INTO T VALUES (1, 10001, 'varchar00001', '20230501');

一旦 Flink 作业完成,记录就会通过成功提交写入 Paimon 表中。用户可以通过执行查询

SELECT * FROM T

来验证这些记录的可见性,该查询将返回单行。提交过程创建位于路径 /tmp/paimon/default.db/T/snapshot/snapshot-1 的快照。 snapshot-1 处生成的文件布局如下所述:

信件 描述已自动生成

snapshot-1 的内容包含快照的元数据,例如清单列表(manifest list)和 schema ID:

{
"version" : 3,
"id" : 1,
"schemaId" : 0,
"baseManifestList" :"manifest-list-4ccc-c07f-4090-958c-cfe3ce3889e5-0",
"deltaManifestList" :"manifest-list-4ccc-c07f-4090-958c-cfe3ce3889e5-1",
"changelogManifestList" : null,
"commitUser" : "7d758485-981d-4b1a-a0c6-d34c3eb254bf",
"commitIdentifier" : 9223372036854775807,
"commitKind" : "APPEND",
"timeMillis" : 1684155393354,
"logOffsets" : { },
"totalRecordCount" : 1,
"deltaRecordCount" : 1,
"changelogRecordCount" : 0,
"watermark" : -9223372036854775808
}

清单列表包含快照的所有更改,baseManifestList 是应用 deltaManifestList 中的更改的基础文件。第一次提交将生成 1 个清单文件(manifest file),并创建 2 个清单列表(manifest list):

./T/manifest:

  • –deltaManifestList:包含对数据文件执行操作的清单条目列表(上图中的 manifest-list-1-delta)manifest-list-4ccc-c07f-4090-958c-cfe3ce3889e5-1

  • –baseManifestList:空的(上图中的 manifest-list-1-base)manifest-list-4ccc-c07f-4090-958c-cfe3ce3889e5-0

  • –清单文件:存储快照中数据文件的信息(上图中的manifest-1-0)manifest-2b833ea4-d7dc-4de0-ae0d-ad76eced75cc-0

跨不同分区插入一批记录:

INSERT INTO T VALUES
(2, 10002, 'varchar00002', '20230502'),
(3, 10003, 'varchar00003', '20230503'),
(4, 10004, 'varchar00004', '20230504'),
(5, 10005, 'varchar00005', '20230505'),
(6, 10006, 'varchar00006', '20230506'),
(7, 10007, 'varchar00007', '20230507'),
(8, 10008, 'varchar00008', '20230508'),
(9, 10009, 'varchar00009', '20230509'),
(10, 10010, 'varchar00010', '20230510');

第二次提交发生,执行 SELECT \* FROM T 将返回 10 行。创建一个新快照,即 snapshot-2,并为我们提供以下物理文件布局:

./T:

dt=20230501
dt=20230502
dt=20230503
dt=20230504
dt=20230505
dt=20230506
dt=20230507
dt=20230508
dt=20230509
dt=20230510
snapshot
schema
manifest

./T/snapshot:

LATEST
snapshot-2
EARLIEST
snapshot-1

./T/manifest:

manifest-list-9ac2-5e79-4978-a3bc-86c25f1a303f-1 # delta manifest list for snapshot-2
manifest-list-9ac2-5e79-4978-a3bc-86c25f1a303f-0 # base manifest list for snapshot-2
manifest-f1267033-e246-4470-a54c-5c27fdbdd074-0 # manifest file for snapshot-2
manifest-list-4ccc-c07f-4090-958c-cfe3ce3889e5-1 # delta manifest list for snapshot-1
manifest-list-4ccc-c07f-4090-958c-cfe3ce3889e5-0 # base manifest list for snapshot-1
manifest-2b833ea4-d7dc-4de0-ae0d-ad76eced75cc-0 # manifest file for snapshot-1

./T/dt=20230501/bucket-0:

data-b75b7381-7c8b-430f-b7e5-a204cb65843c-0.orc
...
# each partition has the data written to bucket-0
...

./T/schema:

schema-0

截止 snapshot-2 的新文件布局如下所示:

图示, 工程绘图
描述已自动生成

2.10.2 删除数据

执行如下删除:

DELETE FROM T WHERE dt >= '20230503';

第三次提交发生,它为我们提供了 snapshot-3。现在,列出表下的文件,会发现没有分区被删除。相反,会为分区 20230503 到 20230510 创建一个新的数据文件:

./T/dt=20230510/bucket-0:

data-b93f468c-b56f-4a93-adc4-b250b3aa3462-0.orc # newer data file created by the delete statement
data-0fcacc70-a0cb-4976-8c88-73e92769a762-0.orc # older data file created by the insert statement

因为我们在第二次提交中插入一条记录(由 +I[10, 10010, ‘varchar00010’, ‘20230510’] 表示),然后在第三次提交中删除该记录。执行 SELECT \* FROM T 将返回 2 行,即:

+I[1, 10001, 'varchar00001', '20230501']
+I[2, 10002, 'varchar00002', '20230502']

截至 snapshot-3 的新文件布局如下所示

图示 描述已自动生成

manifest-3-0 包含 8 个ADD 操作类型的 manifest 条目,对应 8 个新写入的数据文件。

2.10.3 Compaction

小文件的数量会随着连续快照的增加而增加,这可能会导致读取性能下降。因此,需要进行 full compaction以减少小文件的数量。

触发 full-compaction:

./bin/flink run \
	./lib/paimon-flink-action-0.5-SNAPSHOT.jar \
	compact \
	--path file:///tmp/paimon/default.db/T

所有当前表文件将被压缩,并创建一个新快照,即 snapshot-4,并包含以下信息:

{
"version" : 3,
"id" : 4,
"schemaId" : 0,
"baseManifestList" :"manifest-list-9be16-82e7-4941-8b0a-7ce1c1d0fa6d-0",
"deltaManifestList" :"manifest-list-9be16-82e7-4941-8b0a-7ce1c1d0fa6d-1",
"changelogManifestList" : null,
"commitUser" : "a3d951d5-aa0e-4071-a5d4-4c72a4233d48",
"commitIdentifier" : 9223372036854775807,
"commitKind" : "COMPACT",
"timeMillis" : 1684163217960,
"logOffsets" : { },
"totalRecordCount" : 38,
"deltaRecordCount" : 20,
"changelogRecordCount" : 0,
"watermark" : -9223372036854775808
}

截止 snapshot-4 的新文件布局如下所示

manifest-4-0 包含 20 个清单条目(18 个 DELETE 操作和 2 个 ADD 操作):

  • 对于分区 20230503 到 20230510,对两个数据文件进行两次 DELETE 操作

  • 对于分区 20230501 到 20230502,对同一个数据文件进行 1 次 DELETE 操作和 1 次 ADD 操作。

2.10.4 修改表

执行以下语句来配置 full-compaction:

ALTER TABLE T SET ('full-compaction.delta-commits' = '1');

它将为 Paimon 表创建一个新 schema,即 schema-1,但在下一次提交之前还没有快照实际使用该 schema。

2.10.5 过期快照

在快照过期的过程中,首先确定快照的范围,然后将这些快照内的数据文件标记为删除。仅当存在引用特定数据文件的类型为 DELETE 的清单条目时,数据文件才会被标记为删除。此标记可确保该文件不会被后续快照使用并可以安全删除。

假设上图中的所有 4 个快照都即将过期。过期流程如下:

  • 它首先删除所有标记的数据文件,并记录任何更改的存储桶。

  • 然后它会删除所有更改日志文件和关联的清单。

  • 最后,它删除快照本身并写入最早的提示文件。

如果删除过程后有任何目录留空,它们也将被删除。

假设创建了另一个快照 snapshot-5 并触发了快照过期。 snapshot-1 到 snapshot-4 被删除。为简单起见,我们将只关注以前快照中的文件,快照过期后的最终布局如下所示:

图示 描述已自动生成

结果,分区 20230503 至 20230510 被物理删除。

2.10.6 Flink 流式写入

用 CDC 摄取的示例来说明 Flink Stream Write。本节将讨论更改数据的捕获和写入 Paimon,以及异步 Compaction 和快照提交和过期背后的机制。

CDC 摄取工作流程以及所涉及的每个组件所扮演的独特角色:

image-20230808091149626

  1. MySQL CDC Source 统一读取快照和增量数据,分别由 SnapshotReader 读取快照数据和 BinlogReader 读取增量数据。
  2. Paimon Sink 将数据写入桶级别的 Paimon 表中。其中的 CompactManager 将异步触发 Compaction。
  3. Committer Operator 是一个单例,负责提交和过期快照。

端到端数据流:

图示 描述已自动生成

MySQL Cdc Source 读取快照和增量数据,并在规范化后将它们发送到下游:

图示 描述已自动生成

Paimon Sink 首先将新记录缓冲在基于堆的 LSM 树中,并在内存缓冲区满时将它们刷新到磁盘。请注意,写入的每个数据文件都是 Sorted Run。此时,还没有创建清单文件和快照。在 Flink 检查点发生之前,Paimon Sink 将刷新所有缓冲记录并向下游发送可提交消息,该消息在检查点期间由
Committer Operator 读取并提交:

图示 描述已自动生成

在检查点期间,Committer Operator 将创建一个新快照并将其与清单列表关联起来,以便该快照包含有关表中所有数据文件的信息:

图示 描述已自动生成
稍后可能会发生异步 Compaction,CompactManager 生成的提交表包含有关先前文件和合并文件的信息,以便 Committer Operator 可以构造相应的清单条目。在这种情况下,Committer Operator 可能会在 Flink 检查点期间生成两个快照:

  • 一个用于写入数据(Append 类型的快照),

  • 另一个用于compact(Compact 类型的快照)。

如果在检查点间隔期间没有写入数据文件,则只会创建 Compact 类型的快照。Committer Operator 将检查快照是否过期并执行标记数据文件的物理删除。

3 集成 Hive 引擎

前面与 Flink 集成时,通过使用 paimon Hive Catalog,可以从 Flink 创建、删除、查询和插入到 paimon 表中。这些操作直接影响相应的 Hive 元存储。以这种方式创建的表也可以直接从 Hive 访问

更进一步的与 Hive 集成,可以使用 Hive SQL 创建、查询 Paimon 表。

3.1 环境准备

Paimon 目前支持 Hive 3.1、2.3、2.2、2.1 和 2.1-cdh-6.3。支持 Hive Read 的 MR 和 Tez 执行引擎,以及 Hive Write 的 MR 执行引擎(beeline不支持hive write)。

在 Hive 根目录下创建 auxlib 文件夹,将 paimon-hive-connector-0.5-SNAPSHOT.jar 复制到 auxlib 中(不推荐用 add jar,MR 引擎运行 join 语句会报异常):

下载地址:https://repository.apache.org/snapshots/org/apache/paimon/paimon-hive-connector-3.1/0.5-SNAPSHOT

mkdir /opt/module/hive/auxlib
cp paimon-hive-connector-3.1-0.5-20230703.002437-65.jar /opt/module/hive/auxlib

3.2 访问已有的Paimon表

USE test;
SHOW TABLES;
SELECT * FROM ws_t;
INSERT INTO test_table VALUES (9,9,9);

3.3 创建Paimon表

SET hive.metastore.warehouse.dir=hdfs://hadoop102:8020/paimon/hive;

CREATE TABLE test_h(
    a INT COMMENT 'The a field',
    b STRING COMMENT 'The b field'
)
-- 注意最后设置存储格式为 Paimon 相关格式
STORED BY 'org.apache.paimon.hive.PaimonStorageHandler'

3.4 通过外部表访问Paimon表

要访问现有的 paimon 表,还可以将它们注册为 Hive 的外部表,不需要指定任何列或表属性,只需要指定路径。

CREATE EXTERNAL TABLE test.hive_ex
STORED BY 'org.apache.paimon.hive.PaimonStorageHandler'
LOCATION 'hdfs://hadoop102:8020/paimon/hive/test.db/ws_t';

-- 或将路径写在表属性中:
CREATE EXTERNAL TABLE hive_ex
STORED BY 'org.apache.paimon.hive.PaimonStorageHandler'
TBLPROPERTIES (
    'paimon_location' ='hdfs://hadoop102:8020/paimon/hive/test.db/ws_t'
);

操作外部表:

SELECT * FROM hive_ex;
INSERT INTO hive_ex VALUES (8,8,8);

4 集成 Spark 引擎

4.1 环境准备

Paimon 目前支持 Spark 3.4、3.3、3.2 和 3.1。课程使用的Spark版本是3.3.1。

  1. 上传并解压 Spark 安装包

    tar -zxvf spark-3.3.1-bin-hadoop3.tgz -C /opt/module/
    mv /opt/module/spark-3.3.1-bin-hadoop3 /opt/module/spark-3.3.1
    
  2. 配置环境变量

    sudo vim /etc/profile.d/my_env.sh
    export SPARK_HOME=/opt/module/spark-3.3.1
    export PATH=$PATH:$SPARK_HOME/bin
    source /etc/profile.d/my_env.sh
    
  3. 拷贝 paimon 的 jar 包到 Spark 的 jars 目录
    拷贝 jar 包到 spark 的 jars 目录(也可以运行时 --jars
    下载地址:https://repository.apache.org/snapshots/org/apache/paimon/paimon-spark-3.3/0.5-SNAPSHOT

    cp paimon-spark-3.3-0.5-20230703.002437-65.jar /opt/module/spark/jars
    

4.2 Catalog

启动 spark-sql 时,指定 Catalog。切换到 catalog 后,Spark 现有的表将无法直接访问,可以使用 spark_catalog.${database_name}.${table_name} 来访问 Spark 表。

注册 catalog 可以在启动时指定,也可以配置在 spark-defaults.conf 文件中。

4.2.1 文件系统

spark-sql \
--conf spark.sql.catalog.fs=org.apache.paimon.spark.SparkCatalog \
--conf spark.sql.catalog.fs.warehouse=hdfs://hadoop102:8020/spark/paimon/fs

其中,参数前缀为:spark.sql.catalog.<catalog名称>

USE fs.default;

4.2.2 Hive

  1. 启动 hive 的 metastore 服务

    nohup hive --service metastore &
    
  2. 启动时注册 Catalog

    spark-sql \
    	--conf spark.sql.catalog.hive=org.apache.paimon.spark.SparkCatalog \
    	--conf spark.sql.catalog.hive.warehouse=hdfs://hadoop102:8020/spark/paimon/hive \
    	--conf spark.sql.catalog.hive.metastore=hive \
    	--conf spark.sql.catalog.hive.uri=thrift://hadoop102:9083
    

    切换到该catalog下的default数据库:

    USE hive.default;
    
  3. 禁用 Hive ACID(Hive3)

    hive.strict.managed.tables=false
    hive.create.as.insert.only=false
    metastore.create.as.acid=false
    

    使用 hive Catalog 通过 alter table 更改不兼容的列类型时,参见 HIVE-17832。需要配置

    hive.metastore.disallow.inknown.col.type.changes=false
    

4.3 DDL

4.3.1 建表

4.3.1.1 管理表

在 Paimon Catalog 中创建的表就是 Paimon 的管理表,由 Catalog 管理。当表从 Catalog 中删除时,其表文件也将被删除,类似于Hive的内部表。

  1. 创建表

    CREATE TABLE tests (
        user_id BIGINT,
        item_id BIGINT,
        behavior STRING,
        dt STRING,
        hh STRING
    ) TBLPROPERTIES (
        'primary-key' = 'dt,hh,user_id'
    );
    
  2. 创建分区表

    CREATE TABLE tests_p (
        user_id BIGINT,
        item_id BIGINT,
        behavior STRING,
        dt STRING,
        hh STRING
    ) PARTITIONED BY (dt, hh)
    TBLPROPERTIES (
        'primary-key' = 'dt,hh,user_id'
    );
    

    通过配置 partition.expiration-time,可以自动删除过期的分区。
    如果定义了主键,则分区字段必须是主键的子集。
    可以定义以下三类字段为分区字段:

    • 创建时间(推荐):创建时间通常是不可变的,因此您可以放心地将其视为分区字段并将其添加到主键中。

    • 事件时间:事件时间是原表中的一个字段。对于 CDC 数据来说,比如从 MySQL CDC 同步的表或者 Paimon 生成的 Changelogs,它们都是完整的 CDC 数据,包括 UPDATE_BEFORE 记录,即使你声明了包含分区字段的主键,也能达到独特的效果。

    • CDC op_ts:不能定义为分区字段,无法知道之前的记录时间戳。

  3. Create Table As
    表可以通过查询的结果创建和填充,例如,我们有一个这样的sql:

    CREATE TABLE table_b AS SELECT id, name FORM table_a
    

    生成的表 table_b 将相当于创建表并插入数据,相当于以下语句:

    CREATE TABLE table_b(id INT, name STRING); 
    INSERT INTO table_b SELECT id, name FROM table_a;
    

    使用 CREATE TABLE AS SELECT 时我们可以指定主键或分区。

    CREATE TABLE tests1(
    user_id BIGINT,
    item_id BIGINT
    );
    
    CREATE TABLE tests2 AS SELECT * FROM tests1;
    
    -- 指定分区
    CREATE TABLE tests2_p PARTITIONED BY (dt) AS SELECT * FROM tests_p;
    
    -- 指定配置
    CREATE TABLE tests3(
        user_id BIGINT,
        item_id BIGINT
    ) TBLPROPERTIES (
        'file.format' = 'orc'
    );
    
    CREATE TABLE tests3_op TBLPROPERTIES ('file.format' = 'parquet') AS SELECT * FROM tests3;
    
    -- 指定主键
    CREATE TABLE tests_pk TBLPROPERTIES ('primary-key' = 'dt') AS SELECT * FROM tests;
    
    -- 指定主键和分区
    CREATE TABLE tests_all PARTITIONED BY (dt) TBLPROPERTIES ('primary-key' = 'dt,hh') AS SELECT * FROM tests_p;
    
  4. 表属性
    用户可以指定表属性来启用 Paimon 的功能或提高 Paimon 的性能。有关此类属性的完整列表,请参阅配置https://paimon.apache.org/docs/master/maintenance/configurations。

    CREATE TABLE tbl(
        user_id BIGINT,
        item_id BIGINT,
        behavior STRING,
        dt STRING,
        hh STRING
    ) PARTITIONED BY (dt, hh)
    TBLPROPERTIES (
        'primary-key' = 'dt,hh,user_id',
        'bucket' = '2',
        'bucket-key' = 'user_id'
    );
    

4.3.1.2 外部表

外部表由 Catalog 记录但不管理。如果删除外部表,其表文件不会被删除,类似于Hive的外部表。

Paimon 外部表可以在任何 Catalog 中使用。如果您不想创建 Paimon Catalog,而只想读/写表,则可以考虑外部表。

Spark3 仅支持通过 Scala API 创建外部表。以下 Scala 代码将位于 hdfs:///path/to/table 的表加载到 DataSet 中。

val dataset = spark.read.format("paimon").load("hdfs:///path/to/table")

4.3.2 修改表

4.3.2.1 修改表

  1. 更改/添加表属性

    ALTER TABLE tests SET TBLPROPERTIES (
        'write-buffer-size' = '256 MB'
    );
    
  2. 重命名表名称

    ALTER TABLE tests1 RENAME TO tests_new;
    
  3. 删除表属性

    ALTER TABLE tests UNSET TBLPROPERTIES ('write-buffer-size');
    

4.3.2.2 修改列

  1. 添加新列

    ALTER TABLE tests ADD COLUMNS (c1 INT, c2 STRING);
    
  2. 重命名列名称

    ALTER TABLE tests RENAME COLUMN c1 TO c0;
    
  3. 删除列

    ALTER TABLE my_table DROP COLUMNS(c0, c2);
    
  4. 更改列的可为空性

    CREATE TABLE tests_null(
        id INT,
        coupon_info FLOAT NOT NULL
    );
    
    -- Spark只支持将 not null 改为 nullable
    ALTER TABLE tests_null ALTER COLUMN coupon_info DROP NOT NULL;
    
  5. 更改列注释

    ALTER TABLE tests ALTER COLUMN user_id COMMENT 'user id';
    
  6. 添加列位置

    ALTER TABLE tests ADD COLUMN a INT FIRST;
    ALTER TABLE tests ADD COLUMN b INT AFTER a;
    

    注意:这种操作在 hive 中是不允许的,使用 hive catalog 无法执行,需要关闭 hive 的参数限制:

    vim /opt/module/hive/conf/hive-site.xml;
    
    <property>
        <name>hive.metastore.disallow.incompatible.col.type.changes</name>
        <value>false</value>
    </property>
    

    然后重启 hive metastore 服务。

  7. 更改列位置

    ALTER TABLE tests ALTER COLUMN b FIRST;
    ALTER TABLE tests ALTER COLUMN a AFTER user_id;
    
  8. 更改列类型

    ALTER TABLE tests ALTER COLUMN a TYPE DOUBLE;
    

4.4. 插入数据

INSERT 语句向表中插入新行。插入的行可以由值表达式或查询结果指定,跟标准的sql语法一致。

INSERT INTO table_identifier [ part_spec ] [ column_list ] {value_expr | query }
  • part_spec
    可选,指定分区的键值对列表,多个用逗号分隔。可以使用类型文字(例如,date’2019-01-02’)。
    语法: PARTITION (分区列名称 = 分区列值 [ , … ] )

  • column_list
    可选,指定以逗号分隔的字段列表。
    语法:(col_name1 [,column_name2, …])
    所有指定的列都应该存在于表中,并且不能重复。它包括除静态分区列之外的所有列。字段列表的字段数量应与 VALUES 子句或查询中的数据字段数量完全相同。

  • value_expr
    指定要插入的值。可以插入显式指定的值或 NULL。必须使用逗号分隔子句中的每个值。可以指定多于一组的值来插入多行。
    语法:VALUES ( { 值 | NULL } [ , … ] ) [ , ( … ) ]
    注意:将 Nullable 字段写入 Not-null 字段
    不能将另一个表的可为空列插入到一个表的非空列中。Spark 可以使用 nvl 函数来处理,比如 A 表的 key1 是 not null, B 表的 key2 是 nullable:

    INSERT INTO A key1 SELECT nvl(key2, <non-null expression>) FROM B
    

    案例:

    INSERT INTO tests VALUES(1,1,'order','2023-07-01','1'), (2,2,'pay','2023-07-01','2');
    INSERT INTO tests_p SELECT * from tests;
    

4.5. 查询数据

就像所有其他表一样,Paimon 表可以使用 SELECT 语句进行查询。

Paimon 的批量读取返回表快照中的所有数据。默认情况下,批量读取返回最新快照。

4.5.1 时间旅行

可以在查询中使用 VERSION AS OFTIMESTAMP AS OF 来进行时间旅行。

  1. 读取指定id的快照

    SELECT * FROM tests VERSION AS OF 1;
    SELECT * FROM tests VERSION AS OF 2;
    
  2. 读取指定时间戳的快照

    -- 查看快照信息
    SELECT * FROM `tests&snapshots`;
    SELECT * FROM tests TIMESTAMP AS OF '2023-07-03 15:34:20.123';
    
    -- 时间戳指定到秒(向上取整)
    SELECT * FROM tests TIMESTAMP AS OF 1688369660;
    
  3. 读取指定标签

    SELECT * FROM tests VERSION AS OF 'my-tag';
    

4.5.2 增量查询

读取开始快照(不包括)和结束快照之间的增量更改。例如,“3,5” 表示快照 3 和快照 5 之间的更改:

spark.read()
.format("paimon")
.option("incremental-between", "3,5")
.load("path/to/table")

4.6 系统表

系统表包含有关每个表的元数据和信息,例如创建的快照和使用的选项。用户可以通过批量查询访问系统表。

4.6.1 快照表 Snapshots Table

通过 snapshots 表可以查询表的快照历史信息,包括快照中发生的记录数。Spark 中使用需要反引号将表名和系统表名括起来: 表名$系统表名

SELECT * FROM `tests$snapshots`;

通过查询快照表,可以了解该表的提交和过期信息以及数据的时间旅行。

4.6.2 模式表 Schemas Table

通过 schemas 表可以查询该表的历史 schema。

SELECT * FROM `tests$schemas`;

可以连接快照表和模式表以获取给定快照的字段。

SELECT s.snapshot_id, t.schema_id, t.fields
FROM `tests$snapshots` s JOIN `tests$schemas` t
ON s.schema_id=t.schema_id where s.snapshot_id=3;

4.6.3 选项表 Options Table

可以通过选项表查询 DDL 中指定的表的选项信息。未显示的选项将是默认值。

SELECT * FROM `tests$options`;

4.6.4 审计日志表 Audit log Table

如果需要审计表的 changelog,可以使用 audit_log 系统表。通过 audit_log 表,获取表增量数据时可以获取 rowkind 列。您可以利用该栏目进行过滤等操作来完成审核。

rowkind 有四个值:

  • +I:插入操作。

  • -U:使用更新行的先前内容进行更新操作。

  • +U:使用更新行的新内容进行更新操作。

  • -D:删除操作。

SELECT * FROM `tests$audit_log`;

4.6.5 文件表 Files Table

可以查询特定快照表的文件。

-- 查询最新快照的文件
SELECT * FROM `tests$files`;

4.6.6 标签表 Tags Table

通过 tags 表可以查询表的标签历史信息,包括基于哪些快照进行标签以及快照的一些历史信息。您还可以通过名称获取所有标签名称和时间旅行到特定标签的数据。

SELECT * FROM `tests$tags`;

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/64133.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

C++QT教程1——QT概述(下载与安装)

文章目录 1 Qt概述1.1 什么是Qt1.2 Qt的发展史1.3 Qt版本1.4 Qt的下载与安装下载地址&#xff1a;其实我是有点懵逼的&#xff0c;因为还有个qtcreator&#xff0c;我差点不知道下哪个。。。&#xff08;qt框架比qtcreator功能更多更强大&#xff09; 安装 1.5 Qt的优点1.6 QT成…

了解IL汇编异常处理语法

从网上拷过来一个IL汇编程序&#xff0c;编译时先报如下错&#xff0c; 看它是把空格识别为了下注红线的字符&#xff0c;这是字符编码的问题&#xff0c;用记事本替换功能替换了&#xff1b; 然后又报如下的错&#xff0c; 看不出来问题&#xff0c;拷一句正确的来&#xff0…

[考研机试] KY20 完数VS盈数 清华大学复试上机题 C++实现

描述 一个数如果恰好等于它的各因子(该数本身除外)子和&#xff0c;如&#xff1a;6321。则称其为“完数”&#xff1b;若因子之和大于该数&#xff0c;则称其为“盈数”。 求出2到60之间所有“完数”和“盈数”。 输入描述&#xff1a; 题目没有任何输入。 输出描述&#…

STM32 4G学习(二)

特性参数 ATK-IDM750C是正点原子开发的一款高性能4G Cat1 DTU产品&#xff0c;支持移动4G、联通4G和电信4G手机卡。 它以高速率、低延迟和无线数传作为核心功能&#xff0c;可快速解决应用场景下的无线数传方案。 它支持TCP/UDP/HTTP/MQTT/DNS/RNDIS/NTP协议&#xff0c;支持…

DevOps在项目管理中的魔法:简化与深化

什么是DevOps&#xff1f; 定义与核心思想 DevOps, 这个名词&#xff0c;在技术领域中饱受瞩目。但它到底是什么&#xff1f;首先&#xff0c;DevOps并不仅仅是一个技术或者工具&#xff0c;它首先是一种文化&#xff0c;一种思想。DevOps是Development&#xff08;开发&#…

Mac 安装不在 Apple 商店授权的应用程序

文章目录 一、场景介绍二、实操说明 一、场景介绍 在日常的工作生活中&#xff0c;发现一些好用的应用程序&#xff0c;但是出于某些原因&#xff0c;应用程序的开发者并没有将安装包上架到苹果商店。 那么这些优秀的应用程序下载安装以后就会出现如下弹框被拒之门外 二、实操…

【redis】能ping通虚拟机但是端口无法访问

问题 虚拟机上有redis&#xff0c;能ping通虚拟机的ip&#xff0c;但是idea连不上虚拟机里的redis&#xff0c;telnet已启动的redis6379端口失败 基本情况 虚拟机网络模式是NAT模式&#xff0c;linux防火墙firewalld已关闭&#xff0c;没有iptables&#xff0c;主机和虚拟机…

100% 手写代码的十九年老程序员就要被淘汰吗?

&#x1f449;导读 近日&#xff0c;推上用户分享的一则事件引发热议。一名拥有 19 年编码经验、会 100% 手写代码的程序员 Alex 在面试中败给一位仅有 4 年经验却善用 Copilot、GPT-4 的新人 Hamid。前者因不愿拒绝使用辅助代码工具&#xff0c;过于追求代码可控&#xff0c;惨…

Redis 事务

Redis 事务 事务是指一个完整的动作&#xff0c;要么全部执行&#xff0c;要么什么也没有做。 Redis 事务不是严格意义上的事务&#xff0c;只是用于帮助用户在一个步骤中执行多个命令。单个 Redis 命令的执行是原子性的&#xff0c;但 Redis 没有在事务上增加任何维持原子性…

一生一芯1——windows与Ubuntu双系统安装

UltraISO下载 下载链接&#xff1a;https://pan.baidu.com/s/18ukDs6yL64qU6thYyZEo-Q?pwdo8he 提取码&#xff1a;o8he 一路傻瓜安装&#xff0c;安装后点击继续试用 Ubuntu系统下载 这里我使用的是官网的22.04版本&#xff0c;由于大于4G&#xff0c;无法上传至百度网盘…

操作指南 | 如何使用Chainlink喂价功能获取价格数据

Chainlink的去中心化预言机网络中的智能合约包含由运行商为其他智能合约&#xff08;DApps&#xff09;使用或截取所持续更新的实施价格数据。其中有两个主要架构&#xff1a;喂价和基础要求模型。此教程将会展现如何在Moonbeam、Moonriver或是Moonbase Alpha测试网上使用喂价功…

自动拆箱与装箱

自动拆箱与装箱 先进行专栏介绍自动拆箱与装箱是Java语言中一个重要的特性&#xff0c;它们在编程过程中起着至关重要的作用。本文将深入探讨自动拆箱与装箱的原理和相关细节。概念基本概念分析 原理自动拆箱的原理自动装箱的原理总结 注意事项代码示例 先进行专栏介绍 本专栏…

Synchronized同步锁的优化方法 待完工

Synchronized 和后来出的这个lock锁的区别 在并发编程中&#xff0c;多个线程访问同一个共享资源时&#xff0c;我们必须考虑如何维护数据的原子性。在 JDK1.5 之前&#xff0c;Java 是依靠 Synchronized 关键字实现锁功能来做到这点的。Synchronized 是 JVM 实现的一种内置锁…

奥威BI系统:零编程建模、开发报表,提升决策速度

奥威BI是一款非常实用的、易用、高效的商业智能工具&#xff0c;可以帮助企业快速获取数据、分析数据、展示数据。值得特别注意的一点是奥威BI系统支持零编程建模、开发报表&#xff0c;是一款人人都能用的大数据分析系统&#xff0c;有助于全面提升企业的数据分析挖掘效率&…

java+springboot+mysql日程管理系统

项目介绍&#xff1a; 使用javaspringbootmysql开发的日程管理系统&#xff0c;系统包含超级管理员、管理员、用户角色&#xff0c;功能如下&#xff1a; 超级管理员&#xff1a;管理员管理&#xff1b;用户管理&#xff1b;反馈管理&#xff1b;系统公告&#xff1b;个人信息…

SpringCloud实用篇2——Nacos配置管理 Feign远程调用 Gateway服务网关

目录 1 Nacos配置管理1.1 统一配置管理1.1.1 在nacos中添加配置文件1.1.2 从微服务拉取配置 1.2 配置热更新1.2.1 方式一1.2.2 方式二&#xff08;推荐&#xff09; 1.3.配置共享 2 搭建Nacos集群2.1 集群结构图2.2 搭建集群2.2.1 初始化数据库2.2.2 下载nacos2.2.3 配置Nacos2…

UDS服务基础篇之31

UDS服务基础篇之31服务 前言 正如前文《UDS基础之2F服务》所说的2F服务与今天本文要将的31服务存在着有些相似之处&#xff0c;因此需要针对31服务本身进行较为细致的剖析&#xff0c;在此小T抛出如下几个基本问题供大家思考&#xff1a; 你知道31服务是干什么的吗&#xff…

vue 在方法里用字符串赋值图片路径获取不到,提示找不到图片

原因 直接通过字符串赋值命名路径是不会生效的&#xff0c;如 this.file1"../assets/addmodel/TAR.png" 因为在Vue模板中直接使用字符串赋值的方式不会被解析为正确的资源路径。 你可以使用动态绑定&#xff08;v-bind 或简写为 :&#xff09;来设置图片的路径。…

Redis性能瓶颈揭秘:如何优化大key问题?

1. 什么是Redis大key问题 Redis大key问题指的是某个key对应的value值所占的内存空间比较大&#xff0c;导致Redis的性能下降、内存不足、数据不均衡以及主从同步延迟等问题。 到底多大的数据量才算是大key&#xff1f; 没有固定的判别标准&#xff0c;通常认为字符串类型的k…

在WebStorm中通过live-server插件搭建Ajax运行环境

1.下载node.js 官网: https://nodejs.cn/download/ 2.配置Node.js的HTTPS 使用淘宝的镜像&#xff1a; npm config set registry https://registry.npm.taobao.org 也可以使用cnpm npm install -g cnpm --registryhttps://registry.npm.taobao.org 配置之后可以验证是否成…