[doc](1.2) add version tag for feature in 1.2 (#14624)
This commit is contained in:
@ -28,8 +28,12 @@ under the License.
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
backends
|
||||
|
||||
</version>
|
||||
|
||||
### description
|
||||
|
||||
`backends` 是doris内置的一张系统表,存放在`information_schema`数据库下。通过`backends`系统表可以查看当前doris集群中的 `BE` 节点信息。
|
||||
@ -82,4 +86,4 @@ MySQL [information_schema]> select * from information_schema.backends;
|
||||
|
||||
backends, information_schema
|
||||
|
||||
### Best Practice
|
||||
### Best Practice
|
||||
|
||||
@ -28,8 +28,12 @@ under the License.
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
rowsets
|
||||
|
||||
</version>
|
||||
|
||||
### description
|
||||
|
||||
`rowsets` 是doris内置的一张系统表,存放在`information_schema`数据库下。通过 `rowsets` 系统表可以查看各个`BE` 当前rowsets情况。
|
||||
@ -80,4 +84,4 @@ select * from information_schema.rowsets where BACKEND_ID = 10004 limit 10;
|
||||
|
||||
rowsets, information_schema
|
||||
|
||||
### Best Practice
|
||||
### Best Practice
|
||||
|
||||
@ -306,10 +306,10 @@ CREATE ROUTINE LOAD example_db.test1 ON example_tbl
|
||||
>
|
||||
> [https://github.com/edenhill/librdkafka/blob/master/CONFIGURATION.md](https://github.com/edenhill/librdkafka/blob/master/CONFIGURATION.md)
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
**访问 Kerberos 认证的 Kafka 集群**
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
访问开启kerberos认证的Kafka集群,需要增加以下配置:
|
||||
|
||||
- security.protocol=SASL_PLAINTEXT : 使用 SASL plaintext
|
||||
|
||||
@ -403,6 +403,8 @@ mysql> SELECT * FROM table1 ORDER BY citycode;
|
||||
|
||||
### SELECT * EXCEPT
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
`SELECT * EXCEPT` 语句指定要从结果中排除的一个或多个列的名称。输出中将忽略所有匹配的列名称。
|
||||
|
||||
```sql
|
||||
@ -419,6 +421,8 @@ MySQL> SELECT * except (username, citycode) FROM table1;
|
||||
|
||||
**注意**:`SELECT * EXCEPT` 不会排除没有名称的列。
|
||||
|
||||
</version>
|
||||
|
||||
### Join 查询
|
||||
|
||||
查询示例:
|
||||
|
||||
@ -312,7 +312,9 @@ PROPERTIES (
|
||||
|
||||
即Unique 模型的读时合并实现完全可以用聚合模型中的 REPLACE 方式替代。其内部的实现方式和数据存储方式也完全一样。这里不再继续举例说明。
|
||||
|
||||
### 写时合并(1.2版本新增)
|
||||
<version since="1.2">
|
||||
|
||||
### 写时合并
|
||||
|
||||
Unqiue模型的写时合并实现,与聚合模型就是完全不同的两种模型了,查询性能更接近于duplicate模型,在有主键约束需求的场景上相比聚合模型有较大的查询性能优势,尤其是在聚合查询以及需要用索引过滤大量数据的查询中。
|
||||
|
||||
@ -364,6 +366,8 @@ PROPERTIES (
|
||||
2. 旧的Merge-on-read的实现无法无缝升级到新版本的实现(数据组织方式完全不同),如果需要改为使用写时合并的实现版本,需要手动执行`insert into unique-mow-table select * from source table`.
|
||||
3. 在Unique模型上独有的delete sign 和 sequence col,在写时合并的新版实现中仍可以正常使用,用法没有变化。
|
||||
|
||||
</version>
|
||||
|
||||
## Duplicate 模型
|
||||
|
||||
在某些多维分析场景下,数据既没有主键,也没有聚合需求。因此,我们引入 Duplicate 数据模型来满足这类需求。举例说明。
|
||||
|
||||
@ -26,6 +26,8 @@ under the License.
|
||||
|
||||
# Hive External Table of Doris
|
||||
|
||||
<version deprecated="1.2" comment="请使用 Multi-Catalog 功能访问 Hive">
|
||||
|
||||
Hive External Table of Doris 提供了 Doris 直接访问 Hive 外部表的能力,外部表省去了繁琐的数据导入工作,并借助 Doris 本身的 OLAP 的能力来解决 Hive 表的数据分析问题:
|
||||
|
||||
1. 支持 Hive 数据源接入Doris
|
||||
@ -34,6 +36,8 @@ Hive External Table of Doris 提供了 Doris 直接访问 Hive 外部表的能
|
||||
|
||||
本文档主要介绍该功能的使用方式和注意事项等。
|
||||
|
||||
</version>
|
||||
|
||||
## 名词解释
|
||||
|
||||
### Doris 相关
|
||||
|
||||
@ -26,6 +26,8 @@ under the License.
|
||||
|
||||
# Hudi External Table of Doris
|
||||
|
||||
<version deprecated="1.2" comment="请使用 Multi-Catalog 功能访问 Hudi">
|
||||
|
||||
Hudi External Table of Doris 提供了 Doris 直接访问 Hudi 外部表的能力,外部表省去了繁琐的数据导入工作,并借助 Doris 本身的 OLAP 的能力来解决 Hudi 表的数据分析问题:
|
||||
|
||||
1. 支持 Hudi 数据源接入Doris
|
||||
@ -33,6 +35,8 @@ Hudi External Table of Doris 提供了 Doris 直接访问 Hudi 外部表的能
|
||||
|
||||
本文档主要介绍该功能的使用方式和注意事项等。
|
||||
|
||||
</version>
|
||||
|
||||
## 名词解释
|
||||
|
||||
### Doris 相关
|
||||
|
||||
@ -26,6 +26,8 @@ under the License.
|
||||
|
||||
# Iceberg External Table of Doris
|
||||
|
||||
<version deprecated="1.2" comment="请使用 Multi-Catalog 功能访问 Iceberg">
|
||||
|
||||
Iceberg External Table of Doris 提供了 Doris 直接访问 Iceberg 外部表的能力,外部表省去了繁琐的数据导入工作,并借助 Doris 本身的 OLAP 的能力来解决 Iceberg 表的数据分析问题:
|
||||
|
||||
1. 支持 Iceberg 数据源接入Doris
|
||||
@ -33,6 +35,8 @@ Iceberg External Table of Doris 提供了 Doris 直接访问 Iceberg 外部表
|
||||
|
||||
本文档主要介绍该功能的使用方式和注意事项等。
|
||||
|
||||
</version>
|
||||
|
||||
## 名词解释
|
||||
|
||||
### Doris 相关
|
||||
|
||||
@ -26,6 +26,8 @@ under the License.
|
||||
|
||||
# JDBC External Table Of Doris
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
JDBC External Table Of Doris 提供了Doris通过数据库访问的标准接口(JDBC)来访问外部表,外部表省去了繁琐的数据导入工作,让Doris可以具有了访问各式数据库的能力,并借助Doris本身的OLAP的能力来解决外部表的数据分析问题:
|
||||
|
||||
1. 支持各种数据源接入Doris
|
||||
@ -33,6 +35,8 @@ JDBC External Table Of Doris 提供了Doris通过数据库访问的标准接口(
|
||||
|
||||
本文档主要介绍该功能的使用方式等。
|
||||
|
||||
</version>
|
||||
|
||||
### Doris中创建JDBC的外表
|
||||
|
||||
具体建表语法参照:[CREATE TABLE](../../sql-manual/sql-reference/Data-Definition-Statements/Create/CREATE-TABLE.md)
|
||||
|
||||
@ -26,6 +26,8 @@ under the License.
|
||||
|
||||
# ODBC External Table Of Doris
|
||||
|
||||
<version deprecated="1.2" comment="请使用 JDBC 外表功能">
|
||||
|
||||
ODBC External Table Of Doris 提供了Doris通过数据库访问的标准接口(ODBC)来访问外部表,外部表省去了繁琐的数据导入工作,让Doris可以具有了访问各式数据库的能力,并借助Doris本身的OLAP的能力来解决外部表的数据分析问题:
|
||||
|
||||
1. 支持各种数据源接入Doris
|
||||
@ -34,6 +36,8 @@ ODBC External Table Of Doris 提供了Doris通过数据库访问的标准接口(
|
||||
|
||||
本文档主要介绍该功能的实现原理、使用方式等。
|
||||
|
||||
</version>
|
||||
|
||||
## 名词解释
|
||||
|
||||
### Doris相关
|
||||
@ -397,4 +401,4 @@ sudo alien -i oracle-instantclient19.13-sqlplus-19.13.0.0.0-2.x86_64.rpm
|
||||
|
||||
12. 读写sqlserver外表的编码配置
|
||||
|
||||
由于sqlserver的odbc外表连接时,无法直接通过`charset`来配置编码,用户可以使用`ClientCharset`(for freetds)配置项来设置, 比如 "ClientCharset" = "UTF-8"。
|
||||
由于sqlserver的odbc外表连接时,无法直接通过`charset`来配置编码,用户可以使用`ClientCharset`(for freetds)配置项来设置, 比如 "ClientCharset" = "UTF-8"。
|
||||
|
||||
@ -26,6 +26,8 @@ under the License.
|
||||
|
||||
# Java UDF
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
Java UDF 为用户提供UDF编写的Java接口,以方便用户使用Java语言进行自定义函数的执行。相比于 Native 的 UDF 实现,Java UDF 有如下优势和限制:
|
||||
1. 优势
|
||||
* 兼容性:使用Java UDF可以兼容不同的Doris版本,所以在进行Doris版本升级时,Java UDF不需要进行额外的迁移操作。与此同时,Java UDF同样遵循了和Hive/Spark等引擎同样的编程规范,使得用户可以直接将Hive/Spark的UDF jar包迁移至Doris使用。
|
||||
@ -36,6 +38,8 @@ Java UDF 为用户提供UDF编写的Java接口,以方便用户使用Java语言
|
||||
* 性能:相比于 Native UDF,Java UDF会带来额外的JNI开销,不过通过批式执行的方式,我们已经尽可能的将JNI开销降到最低。
|
||||
* 向量化引擎:Java UDF当前只支持向量化引擎。
|
||||
|
||||
</version>
|
||||
|
||||
### 类型对应关系
|
||||
|
||||
|Type|UDF Argument Type|
|
||||
|
||||
@ -26,6 +26,8 @@ under the License.
|
||||
|
||||
# UDF
|
||||
|
||||
<version deprecated="1.2" comment="请使用 JAVA UDF">
|
||||
|
||||
UDF 主要适用于,用户需要的分析能力 Doris 并不具备的场景。用户可以自行根据自己的需求,实现自定义的函数,并且通过 UDF 框架注册到 Doris 中,来扩展 Doris 的能力,并解决用户分析需求。
|
||||
|
||||
UDF 能满足的分析需求分为两种:UDF 和 UDAF。本文中的 UDF 指的是二者的统称。
|
||||
@ -37,6 +39,8 @@ UDF 能满足的分析需求分为两种:UDF 和 UDAF。本文中的 UDF 指
|
||||
|
||||
如果用户使用 UDF 功能并扩展了 Doris 的函数分析,并且希望将自己实现的 UDF 函数贡献回 Doris 社区给其他用户使用,这时候请看文档 [Contribute UDF](./contribute-udf.md)。
|
||||
|
||||
</version>
|
||||
|
||||
## 编写 UDF 函数
|
||||
|
||||
在使用UDF之前,用户需要先在 Doris 的 UDF 框架下,编写自己的UDF函数。在`contrib/udf/src/udf_samples/udf_sample.h|cpp`文件中是一个简单的 UDF Demo。
|
||||
|
||||
@ -28,8 +28,12 @@ under the License.
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
hdfs
|
||||
|
||||
</version>
|
||||
|
||||
### Description
|
||||
|
||||
HDFS表函数(table-valued-function,tvf),可以让用户像访问关系表格式数据一样,读取并访问 HDFS 上的文件内容。目前支持`csv/csv_with_names/csv_with_names_and_types/json/parquet/orc`文件格式。
|
||||
@ -110,4 +114,4 @@ MySQL [(none)]> desc function hdfs(
|
||||
|
||||
### Best Practice
|
||||
|
||||
关于HDFS tvf的更详细使用方法可以参照 [S3](./s3.md) tvf, 唯一不同的是访问存储系统的方式不一样。
|
||||
关于HDFS tvf的更详细使用方法可以参照 [S3](./s3.md) tvf, 唯一不同的是访问存储系统的方式不一样。
|
||||
|
||||
@ -27,7 +27,12 @@ under the License.
|
||||
## S3
|
||||
|
||||
### Name
|
||||
S3
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
s3
|
||||
|
||||
</version>
|
||||
|
||||
### description
|
||||
|
||||
|
||||
@ -66,7 +66,7 @@ RENAME ROLLUP old_rollup_name new_rollup_name;
|
||||
RENAME PARTITION old_partition_name new_partition_name;
|
||||
```
|
||||
|
||||
4.修改 column 名称
|
||||
4. <version since="1.2" type="inline"> 修改 column 名称 </version>
|
||||
|
||||
语法:
|
||||
|
||||
|
||||
@ -56,8 +56,8 @@ PROPERTIES ("key"="value", ...);
|
||||
- PROPERTIES 目前支持以下属性:
|
||||
- "backup_timestamp" = "2018-05-04-16-45-08":指定了恢复对应备份的哪个时间版本,必填。该信息可以通过 `SHOW SNAPSHOT ON repo;` 语句获得。
|
||||
- "replication_num" = "3":指定恢复的表或分区的副本数。默认为3。若恢复已存在的表或分区,则副本数必须和已存在表或分区的副本数相同。同时,必须有足够的 host 容纳多个副本。
|
||||
- "reserve_replica" = "true":默认为 false。当该属性为 true 时,会忽略 replication_num 属性,恢复的表或分区的副本数将与备份之前一样。支持多个表或表内多个分区有不同的副本数。
|
||||
- "reserve_dynamic_partition_enable" = "true":默认为 false。当该属性为 true 时,恢复的表会保留该表备份之前的'dynamic_partition_enable'属性值。该值不为true时,则恢复出来的表的'dynamic_partition_enable'属性值会设置为false。
|
||||
- <version since="1.2" type="inline"> "reserve_replica" = "true":默认为 false。当该属性为 true 时,会忽略 replication_num 属性,恢复的表或分区的副本数将与备份之前一样。支持多个表或表内多个分区有不同的副本数。</version>
|
||||
- <version since="1.2" type="inline"> "reserve_dynamic_partition_enable" = "true":默认为 false。当该属性为 true 时,恢复的表会保留该表备份之前的'dynamic_partition_enable'属性值。该值不为true时,则恢复出来的表的'dynamic_partition_enable'属性值会设置为false。</version>
|
||||
- "timeout" = "3600":任务超时时间,默认为一天。单位秒。
|
||||
- "meta_version" = 40:使用指定的 meta_version 来读取之前备份的元数据。注意,该参数作为临时方案,仅用于恢复老版本 Doris 备份的数据。最新版本的备份数据中已经包含 meta version,无需再指定。
|
||||
|
||||
|
||||
@ -28,8 +28,12 @@ under the License.
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
CREATE CATALOG
|
||||
|
||||
</version>
|
||||
|
||||
### Description
|
||||
|
||||
该语句用于创建外部数据目录(catalog)
|
||||
|
||||
@ -28,8 +28,12 @@ under the License.
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
CREATE POLICY
|
||||
|
||||
</version>
|
||||
|
||||
### Description
|
||||
|
||||
创建策略,包含以下几种:
|
||||
|
||||
@ -227,9 +227,7 @@ distribution_desc
|
||||
)
|
||||
```
|
||||
|
||||
<version since="1.2.0">
|
||||
|
||||
3. MULTI RANGE:批量创建RANGE分区,定义分区的左闭右开区间,设定时间单位和步长,时间单位支持年、月、日、周和小时。
|
||||
3. <version since="1.2" type="inline"> MULTI RANGE:批量创建RANGE分区,定义分区的左闭右开区间,设定时间单位和步长,时间单位支持年、月、日、周和小时。</version>
|
||||
|
||||
```
|
||||
PARTITION BY RANGE(col)
|
||||
@ -241,8 +239,6 @@ distribution_desc
|
||||
)
|
||||
```
|
||||
|
||||
</version>
|
||||
|
||||
* `distribution_desc`
|
||||
|
||||
定义数据分桶方式。
|
||||
@ -348,7 +344,7 @@ distribution_desc
|
||||
|
||||
* `light_schema_change`
|
||||
|
||||
是否使用light schema change优化。
|
||||
<version since="1.2" type="inline"> 是否使用light schema change优化。</version>
|
||||
|
||||
如果设置成 `true`, 对于值列的加减操作,可以更快地,同步地完成。
|
||||
|
||||
|
||||
@ -28,8 +28,12 @@ under the License.
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
CREATE CATALOG
|
||||
|
||||
</version>
|
||||
|
||||
### Description
|
||||
|
||||
该语句用于删除外部数据目录(catalog)
|
||||
|
||||
@ -28,8 +28,12 @@ under the License.
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
CLEAN LABEL
|
||||
|
||||
</version>
|
||||
|
||||
### Description
|
||||
|
||||
用于手动清理历史导入作业的 Label。清理后,Label 可以重复使用。
|
||||
|
||||
@ -40,28 +40,28 @@ curl --location-trusted -u user:passwd [-H ""...] -T data.file -XPUT http://fe_h
|
||||
|
||||
该语句用于向指定的 table 导入数据,与普通Load区别是,这种导入方式是同步导入。
|
||||
|
||||
这种导入方式仍然能够保证一批导入任务的原子性,要么全部数据导入成功,要么全部失败。
|
||||
这种导入方式仍然能够保证一批导入任务的原子性,要么全部数据导入成功,要么全部失败。
|
||||
|
||||
该操作会同时更新和此 base table 相关的 rollup table 的数据。
|
||||
该操作会同时更新和此 base table 相关的 rollup table 的数据。
|
||||
|
||||
这是一个同步操作,整个数据导入工作完成后返回给用户导入结果。
|
||||
这是一个同步操作,整个数据导入工作完成后返回给用户导入结果。
|
||||
|
||||
当前支持HTTP chunked与非chunked上传两种方式,对于非chunked方式,必须要有Content-Length来标示上传内容长度,这样能够保证数据的完整性。
|
||||
当前支持HTTP chunked与非chunked上传两种方式,对于非chunked方式,必须要有Content-Length来标示上传内容长度,这样能够保证数据的完整性。
|
||||
|
||||
另外,用户最好设置Expect Header字段内容100-continue,这样可以在某些出错场景下避免不必要的数据传输。
|
||||
另外,用户最好设置Expect Header字段内容100-continue,这样可以在某些出错场景下避免不必要的数据传输。
|
||||
|
||||
参数介绍:
|
||||
用户可以通过HTTP的Header部分来传入导入参数
|
||||
|
||||
1. label: 一次导入的标签,相同标签的数据无法多次导入。用户可以通过指定Label的方式来避免一份数据重复导入的问题。
|
||||
|
||||
当前Doris内部保留30分钟内最近成功的label。
|
||||
当前Doris内部保留30分钟内最近成功的label。
|
||||
|
||||
2. column_separator:用于指定导入文件中的列分隔符,默认为\t。如果是不可见字符,则需要加\x作为前缀,使用十六进制来表示分隔符。
|
||||
|
||||
如hive文件的分隔符\x01,需要指定为-H "column_separator:\x01"。
|
||||
如hive文件的分隔符\x01,需要指定为-H "column_separator:\x01"。
|
||||
|
||||
可以使用多个字符的组合作为列分隔符。
|
||||
可以使用多个字符的组合作为列分隔符。
|
||||
|
||||
3. line_delimiter:用于指定导入文件中的换行符,默认为\n。可以使用做多个字符的组合作为换行符。
|
||||
|
||||
@ -69,17 +69,17 @@ curl --location-trusted -u user:passwd [-H ""...] -T data.file -XPUT http://fe_h
|
||||
|
||||
如果源文件与表schema不对应,那么需要这个字段进行一些数据转换。这里有两种形式column,一种是直接对应导入文件中的字段,直接使用字段名表示;
|
||||
|
||||
一种是衍生列,语法为 `column_name` = expression。举几个例子帮助理解。
|
||||
一种是衍生列,语法为 `column_name` = expression。举几个例子帮助理解。
|
||||
|
||||
例1: 表中有3个列“c1, c2, c3”,源文件中的三个列一次对应的是"c3,c2,c1"; 那么需要指定-H "columns: c3, c2, c1"
|
||||
例1: 表中有3个列“c1, c2, c3”,源文件中的三个列一次对应的是"c3,c2,c1"; 那么需要指定-H "columns: c3, c2, c1"
|
||||
|
||||
例2: 表中有3个列“c1, c2, c3", 源文件中前三列依次对应,但是有多余1列;那么需要指定-H "columns: c1, c2, c3, xxx";
|
||||
例2: 表中有3个列“c1, c2, c3", 源文件中前三列依次对应,但是有多余1列;那么需要指定-H "columns: c1, c2, c3, xxx";
|
||||
|
||||
最后一个列随意指定个名称占位即可
|
||||
最后一个列随意指定个名称占位即可
|
||||
|
||||
例3: 表中有3个列“year, month, day"三个列,源文件中只有一个时间列,为”2018-06-01 01:02:03“格式;
|
||||
例3: 表中有3个列“year, month, day"三个列,源文件中只有一个时间列,为”2018-06-01 01:02:03“格式;
|
||||
|
||||
那么可以指定-H "columns: col, year = year(col), month=month(col), day=day(col)"完成导入
|
||||
那么可以指定-H "columns: col, year = year(col), month=month(col), day=day(col)"完成导入
|
||||
|
||||
5. where: 用于抽取部分数据。用户如果有需要将不需要的数据过滤掉,那么可以通过设定这个选项来达到。
|
||||
|
||||
@ -99,7 +99,7 @@ curl --location-trusted -u user:passwd [-H ""...] -T data.file -XPUT http://fe_h
|
||||
|
||||
11. exec_mem_limit: 导入内存限制。默认为 2GB。单位为字节。
|
||||
|
||||
12. format: 指定导入数据格式,默认是csv,也支持:csv_with_names(支持csv文件行首过滤),csv_with_names_and_types(支持csv文件前两行过滤) 或 json格式。
|
||||
12. format: 指定导入数据格式,默认是csv,也支持:<version since="1.2" type="inline"> csv_with_names(支持csv文件行首过滤),csv_with_names_and_types(支持csv文件前两行过滤) </version> 或 json格式。
|
||||
|
||||
13. jsonpaths: 导入json方式分为:简单模式和匹配模式。
|
||||
|
||||
@ -134,11 +134,13 @@ curl --location-trusted -u user:passwd [-H ""...] -T data.file -XPUT http://fe_h
|
||||
|
||||
21. send_batch_parallelism: 整型,用于设置发送批处理数据的并行度,如果并行度的值超过 BE 配置中的 `max_send_batch_parallelism_per_job`,那么作为协调点的 BE 将使用 `max_send_batch_parallelism_per_job` 的值。
|
||||
|
||||
22. hidden_columns: 用于指定导入数据中包含的隐藏列,在Header中不包含columns时生效,多个hidden column用逗号分割。
|
||||
22. <version since="1.2" type="inline"> hidden_columns: 用于指定导入数据中包含的隐藏列,在Header中不包含columns时生效,多个hidden column用逗号分割。</version>
|
||||
|
||||
```
|
||||
hidden_columns: __DORIS_DELETE_SIGN__,__DORIS_SEQUENCE_COL__
|
||||
系统会使用用户指定的数据导入数据。在上述用例中,导入数据中最后一列数据为__DORIS_SEQUENCE_COL__。
|
||||
```
|
||||
hidden_columns: __DORIS_DELETE_SIGN__,__DORIS_SEQUENCE_COL__
|
||||
系统会使用用户指定的数据导入数据。在上述用例中,导入数据中最后一列数据为__DORIS_SEQUENCE_COL__。
|
||||
```
|
||||
|
||||
23. load_to_single_tablet: 布尔类型,为true表示支持一个任务只导入数据到对应分区的一个 tablet,默认值为 false,该参数只允许在对带有 random 分区的 olap 表导数的时候设置。
|
||||
|
||||
RETURN VALUES
|
||||
|
||||
@ -49,7 +49,7 @@ column_name1 op { value | value_list } [ AND column_name2 op { value | value_lis
|
||||
2. 使用聚合类的表模型(AGGREGATE、UNIQUE)只能指定 key 列上的条件。
|
||||
3. 当选定的 key 列不存在于某个 rollup 中时,无法进行 delete。
|
||||
4. 条件之间只能是“与”的关系。若希望达成“或”的关系,需要将条件分写在两个 DELETE 语句中。
|
||||
5. 如果为分区表,需要指定分区,如果不指定,doris 会从条件中推断出分区。两种情况下,doris 无法从条件中推断出分区: 1) 条件中不包含分区列;2) 分区列的 op 为 not in。当分区表未指定分区,或者无法从条件中推断分区的时候,需要设置会话变量 delete_without_partition 为 true,此时 delete 会应用到所有分区。
|
||||
5. <version since="1.2" type="inline"> 如果为分区表,需要指定分区,如果不指定,doris 会从条件中推断出分区。两种情况下,doris 无法从条件中推断出分区: 1) 条件中不包含分区列;2) 分区列的 op 为 not in。当分区表未指定分区,或者无法从条件中推断分区的时候,需要设置会话变量 delete_without_partition 为 true,此时 delete 会应用到所有分区。</version>
|
||||
|
||||
注意:
|
||||
1. 该语句可能会降低执行后一段时间内的查询效率。
|
||||
|
||||
@ -63,6 +63,8 @@ INTO OUTFILE "file_path"
|
||||
```
|
||||
|
||||
指定导出格式. 支持 CSV、PARQUET、CSV_WITH_NAMES、CSV_WITH_NAMES_AND_TYPES、ORC. 默认为 CSV。
|
||||
|
||||
> 注:PARQUET、CSV_WITH_NAMES、CSV_WITH_NAMES_AND_TYPES、ORC 在 1.2 版本开始支持。
|
||||
|
||||
3. properties
|
||||
|
||||
|
||||
@ -26,6 +26,14 @@ under the License.
|
||||
|
||||
## ARRAY
|
||||
|
||||
### name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
ARRAY
|
||||
|
||||
</version>
|
||||
|
||||
### description
|
||||
|
||||
`ARRAY<T>`
|
||||
|
||||
@ -25,13 +25,22 @@ under the License.
|
||||
-->
|
||||
|
||||
## DATETIMEV2
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
DATATIMEV2
|
||||
|
||||
</version>
|
||||
|
||||
### description
|
||||
|
||||
DATETIMEV2([P])
|
||||
日期时间类型,可选参数P表示时间精度,取值范围是[0, 6],即最多支持6位小数(微秒)。不设置时为0。
|
||||
取值范围是['0000-01-01 00:00:00[.000000]', '9999-12-31 23:59:59[.999999]'].
|
||||
打印的形式是'YYYY-MM-DD HH:MM:SS.ffffff'
|
||||
|
||||
### note
|
||||
|
||||
相比DATETIME类型,DATETIMEV2更加高效,并且支持了最多到微秒的时间精度。
|
||||
|
||||
### keywords
|
||||
|
||||
@ -25,6 +25,15 @@ under the License.
|
||||
-->
|
||||
|
||||
## DATEV2
|
||||
|
||||
### name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
DATAV2
|
||||
|
||||
</version>
|
||||
|
||||
### description
|
||||
DATEV2类型
|
||||
日期类型,目前的取值范围是['0000-01-01', '9999-12-31'], 默认的打印形式是'YYYY-MM-DD'
|
||||
|
||||
@ -24,12 +24,14 @@ under the License.
|
||||
|
||||
## ADMIN-CANCEL-REBALANCE-DISK
|
||||
|
||||
<version since="1.2.0">
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2.0">
|
||||
|
||||
ADMIN CANCEL REBALANCE DISK
|
||||
|
||||
</version>
|
||||
|
||||
### Description
|
||||
|
||||
该语句用于取消优先均衡BE的磁盘
|
||||
@ -58,4 +60,3 @@ ADMIN CANCEL REBALANCE DISK
|
||||
|
||||
### Best Practice
|
||||
|
||||
</version>
|
||||
|
||||
@ -24,12 +24,14 @@ under the License.
|
||||
|
||||
## ADMIN-REBALANCE-DISK
|
||||
|
||||
<version since="1.2.0">
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2.0">
|
||||
|
||||
ADMIN REBALANCE DISK
|
||||
|
||||
</version>
|
||||
|
||||
### Description
|
||||
|
||||
该语句用于尝试优先均衡指定的BE磁盘数据
|
||||
@ -66,5 +68,3 @@ ADMIN REBALANCE DISK
|
||||
|
||||
### Best Practice
|
||||
|
||||
</version>
|
||||
|
||||
|
||||
@ -28,8 +28,12 @@ under the License.
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
SHOW CATALOG RECYCLE BIN
|
||||
|
||||
</version>
|
||||
|
||||
### Description
|
||||
|
||||
该语句用于展示回收站中可回收的库,表或分区元数据信息
|
||||
|
||||
@ -28,8 +28,12 @@ under the License.
|
||||
|
||||
### Name
|
||||
|
||||
<version since="1.2">
|
||||
|
||||
SHOW CATALOGS
|
||||
|
||||
</version>
|
||||
|
||||
### Description
|
||||
|
||||
该语句用于显示已存在是数据目录(catalog)
|
||||
|
||||
Reference in New Issue
Block a user