[Refactor][doc] Fix bad link in documentation (#9053)

Fix bad link in documentation
This commit is contained in:
smallhibiscus
2022-04-15 19:50:35 +08:00
committed by GitHub
parent 2c7327fb7c
commit c431da3bf8
19 changed files with 62 additions and 33 deletions

View File

@ -96,7 +96,7 @@ FE 分为 Leader,Follower 和 Observer 三种角色。 默认一个集群,
以上方式,都需要 Doris 的 root 用户权限。
BE 节点的扩容和缩容过程,不影响当前系统运行以及正在执行的任务,并且不会影响当前系统的性能。数据均衡会自动进行。根据集群现有数据量的大小,集群会在几个小时到1天不等的时间内,恢复到负载均衡的状态。集群负载情况,可以参见 [Tablet 负载均衡文档](../administrator-guide/operation/tablet-repair-and-balance.md)。
BE 节点的扩容和缩容过程,不影响当前系统运行以及正在执行的任务,并且不会影响当前系统的性能。数据均衡会自动进行。根据集群现有数据量的大小,集群会在几个小时到1天不等的时间内,恢复到负载均衡的状态。集群负载情况,可以参见 [Tablet 负载均衡文档](../maint-monitor/tablet-meta-tool.html)。
### 增加 BE 节点
@ -128,7 +128,7 @@ DECOMMISSION 语句如下:
> ```CANCEL DECOMMISSION BACKEND "be_host:be_heartbeat_service_port";```
> 命令取消。取消后,该 BE 上的数据将维持当前剩余的数据量。后续 Doris 重新进行负载均衡
**对于多租户部署环境下,BE 节点的扩容和缩容,请参阅 [多租户设计文档](../administrator-guide/operation/multi-tenant.md)。**
**对于多租户部署环境下,BE 节点的扩容和缩容,请参阅 [多租户设计文档](../multi-tenant.html)。**
## Broker 扩容缩容

View File

@ -206,4 +206,4 @@ BACKUP的更多用法可参考 [这里](../../sql-manual/sql-reference-v2/Show-S
## 更多帮助
关于 BACKUP 使用的更多详细语法及最佳实践,请参阅 [BACKUP](../../sql-reference-v2/Data-Definition-Statements/Backup-and-Restore/BACKUP.html) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP BACKUP` 获取更多帮助信息。
关于 BACKUP 使用的更多详细语法及最佳实践,请参阅 [BACKUP](../../sql-manual/sql-reference-v2/Data-Definition-Statements/Backup-and-Restore/BACKUP.html) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP BACKUP` 获取更多帮助信息。

View File

@ -50,4 +50,4 @@ RECOVER PARTITION p1 FROM example_tbl;
## 更多帮助
关于 RECOVER 使用的更多详细语法及最佳实践,请参阅 [RECOVER](../../sql-reference-v2/Data-Definition-Statements/Backup-and-Restore/RECOVER.html) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP RECOVER` 获取更多帮助信息。
关于 RECOVER 使用的更多详细语法及最佳实践,请参阅 [RECOVER](../../sql-manual/sql-reference-v2/Data-Definition-Statements/Backup-and-Restore/RECOVER.html) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP RECOVER` 获取更多帮助信息。

View File

@ -180,5 +180,5 @@ RESTORE的更多用法可参考 [这里](../../sql-manual/sql-reference-v2/Show-
## 更多帮助
关于 RESTORE 使用的更多详细语法及最佳实践,请参阅 [RESTORE](../../sql-reference-v2/Data-Definition-Statements/Backup-and-Restore/RESTORE.html) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP RESTORE` 获取更多帮助信息。
关于 RESTORE 使用的更多详细语法及最佳实践,请参阅 [RESTORE](../../sql-manual/sql-reference-v2/Data-Definition-Statements/Backup-and-Restore/RESTORE.html) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP RESTORE` 获取更多帮助信息。

View File

@ -32,7 +32,7 @@ under the License.
## 重要提示
* 当前元数据的设计是无法向后兼容的。即如果新版本有新增的元数据结构变动(可以查看 FE 代码中的 `FeMetaVersion.java` 文件中是否有新增的 VERSION),那么在升级到新版本后,通常是无法再回滚到旧版本的。所以,在升级 FE 之前,请务必按照 [升级文档](../upgrade.md) 中的操作,测试元数据兼容性。
* 当前元数据的设计是无法向后兼容的。即如果新版本有新增的元数据结构变动(可以查看 FE 代码中的 `FeMetaVersion.java` 文件中是否有新增的 VERSION),那么在升级到新版本后,通常是无法再回滚到旧版本的。所以,在升级 FE 之前,请务必按照 [升级文档](../../admin-manual/cluster-management/upgrade.html) 中的操作,测试元数据兼容性。
## 元数据目录结构
@ -136,7 +136,7 @@ under the License.
### 添加 FE
添加 FE 流程在 [弹性扩缩容](../elastic-expansion.html) 有详细介绍,不再赘述。这里主要说明一些注意事项,以及常见问题。
添加 FE 流程在 [弹性扩缩容](../../admin-manual/cluster-management/elastic-expansion.html) 有详细介绍,不再赘述。这里主要说明一些注意事项,以及常见问题。
1. 注意事项

View File

@ -71,7 +71,7 @@ under the License.
## 创建作业
创建 Schema Change 的具体语法可以查看帮助 [ALTER TABLE COLUMN](../sql-manual/sql-reference-v2/Data-Definition-Statements/Alter/ALTER-TABLE-COLUMN.md) 中 Schema Change 部分的说明。
创建 Schema Change 的具体语法可以查看帮助 [ALTER TABLE COLUMN](../../sql-manual/sql-reference-v2/Data-Definition-Statements/Alter/ALTER-TABLE-COLUMN.md) 中 Schema Change 部分的说明。
Schema Change 的创建是一个异步过程,作业提交成功后,用户需要通过 `SHOW ALTER TABLE COLUMN` 命令来查看作业进度。
@ -247,4 +247,4 @@ ADD COLUMN k5 INT default "1" to rollup2;
## 更多帮助
关于Schema Change使用的更多详细语法及最佳实践,请参阅 [ALTER TABLE COLUMN](../sql-manual/sql-reference-v2/Data-Definition-Statements/Alter/ALTER-TABLE-COLUMN.md) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP ALTER TABLE COLUMN` 获取更多帮助信息。
关于Schema Change使用的更多详细语法及最佳实践,请参阅 [ALTER TABLE COLUMN](../../sql-manual/sql-reference-v2/Data-Definition-Statements/Alter/ALTER-TABLE-COLUMN.md) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP ALTER TABLE COLUMN` 获取更多帮助信息。

View File

@ -275,7 +275,7 @@ PROPERTIES (
1. 原子的覆盖写操作
某些情况下,用户希望能够重写某一分区的数据,但如果采用先删除再导入的方式进行,在中间会有一段时间无法查看数据。这时,用户可以先创建一个对应的临时分区,将新的数据导入到临时分区后,通过替换操作,原子的替换原有分区,以达到目的。对于非分区表的原子覆盖写操作,请参阅[替换表文档](https://doris.apache.org/zh-CN/administrator-guide/alter-table/alter-table-replace-table.html)
某些情况下,用户希望能够重写某一分区的数据,但如果采用先删除再导入的方式进行,在中间会有一段时间无法查看数据。这时,用户可以先创建一个对应的临时分区,将新的数据导入到临时分区后,通过替换操作,原子的替换原有分区,以达到目的。对于非分区表的原子覆盖写操作,请参阅[替换表文档](../../advanced/alter-table/replace-table.html)
2. 修改分桶数

View File

@ -127,7 +127,7 @@ PROPERTIES
`driver`: 标示外部表使用的driver动态库,引用该resource的ODBC外表必填,旧的mysql外表选填。
具体如何使用可以,可以参考[ODBC of Doris](https://doris.apache.org/zh-CN/extending-doris/odbc-of-doris.html)
具体如何使用可以,可以参考[ODBC of Doris](../ecosystem/external-table/odbc-of-doris.html)
#### 示例

View File

@ -75,7 +75,7 @@ Examples:
### SHOW FILE
该语句可以查看已经创建成功的文件,具体操作可查看 [SHOW FILE](../sql-manual/sql-reference-v2/Data-Definition-Statements/Drop/DROP-FILE.md)。
该语句可以查看已经创建成功的文件,具体操作可查看 [SHOW FILE](../sql-manual/sql-reference-v2/Show-Statements/SHOW-FILE.html)。
Examples:
@ -131,4 +131,4 @@ Examples:
## 更多帮助
关于文件管理器使用的更多详细语法及最佳实践,请参阅 [CREATE FILE](../sql-manual/sql-reference-v2/Data-Definition-Statements/Create/CREATE-FILE.html) 、[DROP FILE](../sql-manual/sql-reference-v2/Data-Definition-Statements/Drop/DROP-FILE.html) 和 [SHOW FILE](../sql-manual/sql-reference-v2/Show-Statements/SHOW-FILE.md) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP CREATE FILE``HELP DROP FILE``HELP SHOW FILE` 获取更多帮助信息。
关于文件管理器使用的更多详细语法及最佳实践,请参阅 [CREATE FILE](../sql-manual/sql-reference-v2/Data-Definition-Statements/Create/CREATE-FILE.html) 、[DROP FILE](../sql-manual/sql-reference-v2/Data-Definition-Statements/Drop/DROP-FILE.html) 和 [SHOW FILE](../sql-manual/sql-reference-v2/Show-Statements/SHOW-FILE.html) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP CREATE FILE``HELP DROP FILE``HELP SHOW FILE` 获取更多帮助信息。

View File

@ -156,11 +156,11 @@ SELECT /*+ SET_VAR(query_timeout = 1, enable_partition_cache=true) */ sleep(3);
- `disable_colocate_join`
控制是否启用 [Colocation Join](https://doris.apache.org/zh-CN/administrator-guide/colocation-join.html) 功能。默认为 false,表示启用该功能。true 表示禁用该功能。当该功能被禁用后,查询规划将不会尝试执行 Colocation Join。
控制是否启用 [Colocation Join](../advanced/colocation-join.html) 功能。默认为 false,表示启用该功能。true 表示禁用该功能。当该功能被禁用后,查询规划将不会尝试执行 Colocation Join。
- `enable_bucket_shuffle_join`
控制是否启用 [Bucket Shuffle Join](https://doris.apache.org/zh-CN/administrator-guide/bucket-shuffle-join.html) 功能。默认为 true,表示启用该功能。false 表示禁用该功能。当该功能被禁用后,查询规划将不会尝试执行 Bucket Shuffle Join。
控制是否启用 [Bucket Shuffle Join](../advanced/bucket-shuffle-join.html) 功能。默认为 true,表示启用该功能。false 表示禁用该功能。当该功能被禁用后,查询规划将不会尝试执行 Bucket Shuffle Join。
- `disable_streaming_preaggregations`
@ -168,7 +168,7 @@ SELECT /*+ SET_VAR(query_timeout = 1, enable_partition_cache=true) */ sleep(3);
- `enable_insert_strict`
用于设置通过 INSERT 语句进行数据导入时,是否开启 `strict` 模式。默认为 false,即不开启 `strict` 模式。关于该模式的介绍,可以参阅 [这里](https://doris.apache.org/zh-CN/administrator-guide/load-data/insert-into-manual.html)。
用于设置通过 INSERT 语句进行数据导入时,是否开启 `strict` 模式。默认为 false,即不开启 `strict` 模式。关于该模式的介绍,可以参阅 [这里](../data-operate/import/import-way/insert-into-manual.html)。
- `enable_spilling`
@ -289,11 +289,11 @@ SELECT /*+ SET_VAR(query_timeout = 1, enable_partition_cache=true) */ sleep(3);
- `max_pushdown_conditions_per_column`
该变量的具体含义请参阅 [BE 配置项](https://doris.apache.org/zh-CN/administrator-guide/config/be_config.html) 中 `max_pushdown_conditions_per_column` 的说明。该变量默认置为 -1,表示使用 `be.conf` 中的配置值。如果设置大于 0,则当前会话中的查询会使用该变量值,而忽略 `be.conf` 中的配置值。
该变量的具体含义请参阅 [BE 配置项](../admin-manual/config/be-config.html) 中 `max_pushdown_conditions_per_column` 的说明。该变量默认置为 -1,表示使用 `be.conf` 中的配置值。如果设置大于 0,则当前会话中的查询会使用该变量值,而忽略 `be.conf` 中的配置值。
- `max_scan_key_num`
该变量的具体含义请参阅 [BE 配置项](https://doris.apache.org/zh-CN/administrator-guide/config/be_config.html) 中 `doris_max_scan_key_num` 的说明。该变量默认置为 -1,表示使用 `be.conf` 中的配置值。如果设置大于 0,则当前会话中的查询会使用该变量值,而忽略 `be.conf` 中的配置值。
该变量的具体含义请参阅 [BE 配置项](../admin-manual/config/be-config.html) 中 `doris_max_scan_key_num` 的说明。该变量默认置为 -1,表示使用 `be.conf` 中的配置值。如果设置大于 0,则当前会话中的查询会使用该变量值,而忽略 `be.conf` 中的配置值。
- `net_buffer_length`

View File

@ -90,7 +90,7 @@ Doris 会首先在指定的远端存储的路径中,建立一个名为 `__dori
### Broker 参数
Export 需要借助 Broker 进程访问远端存储,不同的 Broker 需要提供不同的参数,具体请参阅 [Broker文档](./advanced/broker.html)
Export 需要借助 Broker 进程访问远端存储,不同的 Broker 需要提供不同的参数,具体请参阅 [Broker文档](../../advanced/broker.html)
## 开始导出

View File

@ -59,7 +59,7 @@ Doris 自身能够保证不丢不重的订阅 Kafka 中的消息,即 `Exactly-
CREATE FILE "client.pem" PROPERTIES("url" = "https://example_url/kafka-key/client.pem", "catalog" = "kafka");
```
上传完成后,可以通过 [SHOW FILES]() 命令查看已上传的文件。
上传完成后,可以通过 [SHOW FILES](../../../sql-manual/sql-reference-v2/Show-Statements/SHOW-FILE.html) 命令查看已上传的文件。
### 创建例行导入作业
@ -68,7 +68,7 @@ Doris 自身能够保证不丢不重的订阅 Kafka 中的消息,即 `Exactly-
1. 访问无认证的 Kafka 集群
```sql
CREATE ROUTINE LOAD demo.my_first_routine_load_job ON test_1
CREATE ROUTINE LOAD demo.my_first_routine_load_job ON test_1
COLUMNS TERMINATED BY ","
PROPERTIES
(

View File

@ -222,7 +222,7 @@ GTID = source_id:transaction_id
## 配置Canal端
canal是属于阿里巴巴otter项目下的一个子项目,主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费,用于解决跨机房同步的业务场景,建议使用canal 1.1.5及以上版本,[下载地址 (opens new window)](https://github.com/alibaba/canal/releases),下载完成后,请按以下步骤完成部署。
canal是属于阿里巴巴otter项目下的一个子项目,主要用途是基于 MySQL 数据库增量日志解析,提供增量数据订阅和消费,用于解决跨机房同步的业务场景,建议使用canal 1.1.5及以上版本,[下载地址](https://github.com/alibaba/canal/releases),下载完成后,请按以下步骤完成部署。
1. 解压canal deployer
@ -337,7 +337,7 @@ canal client调用get命令时,canal server会产生数据batch发送给client
Binlog Load只能支持Unique类型的目标表,且必须激活目标表的Batch Delete功能。
开启Batch Delete的方法可以参考[ALTER TABLE PROPERTY](sql-manual/sql-reference-v2/Data-Definition-Statements/Alter/ALTER-TABLE-PROPERTY.html)中的批量删除功能。
开启Batch Delete的方法可以参考[ALTER TABLE PROPERTY](../../../sql-manual/sql-reference-v2/Data-Definition-Statements/Alter/ALTER-TABLE-PROPERTY.html)中的批量删除功能。
示例:
@ -357,7 +357,7 @@ ALTER TABLE canal_test.test1 ENABLE FEATURE "BATCH_DELETE";
### 创建同步作业
创建数据同步作业的的详细语法可以连接到 Doris 后,[CREATE SYNC JOB](../../../sql-manual/sql-reference-v2/Data-Definition-Statements/Create/CREATE-SYNC-JOB.html) 查看语法帮助。这里主要详细介绍,创建作业时的注意事项。
创建数据同步作业的的详细语法可以连接到 Doris 后,[CREATE SYNC JOB](../../../sql-manual/sql-reference-v2/Data-Manipulation-Statements/Load/CREATE-SYNC-JOB.html) 查看语法帮助。这里主要详细介绍,创建作业时的注意事项。
- job_name
@ -385,7 +385,7 @@ ALTER TABLE canal_test.test1 ENABLE FEATURE "BATCH_DELETE";
### 查看作业状态
查看作业状态的具体命令和示例可以通过 [SHOW SYNC JOB](../../../sql-manual/sql-reference-v2/show/SHOW-SYNC-JOB.html) 命令查看。
查看作业状态的具体命令和示例可以通过 [SHOW SYNC JOB](../../../sql-manual/sql-reference-v2/Show-Statements/SHOW-SYNC-JOB.html) 命令查看。
返回结果集的参数意义如下:
@ -505,4 +505,4 @@ ALTER TABLE canal_test.test1 ENABLE FEATURE "BATCH_DELETE";
## 更多帮助
关于 Binlog Load 使用的更多详细语法及最佳实践,请参阅 [Binlog Load](../../../sql-manual/sql-reference-v2/Data-Manipulation-Statements/Load/BINLOG-LOAD.html) 命令手册,你也可以在 MySql 客户端命令行下输入 `HELP BINLOG` 获取更多帮助信息。
关于 Binlog Load 使用的更多详细语法及最佳实践,你也可以在 MySql 客户端命令行下输入 `HELP BINLOG` 获取更多帮助信息。

View File

@ -311,7 +311,7 @@ CREATE ROUTINE LOAD example_db.test1 ON example_tbl
### 修改作业属性
用户可以修改已经创建的作业。具体说明可以通过 `HELP ALTER ROUTINE LOAD;` 命令查看或参阅 [ALTER ROUTINE LOAD](../../sql-manual/sql-reference-v2/Data-Manipulation-Statements/Load/ALTER-ROUTINE-LOAD.html)。
用户可以修改已经创建的作业。具体说明可以通过 `HELP ALTER ROUTINE LOAD;` 命令查看或参阅 [ALTER ROUTINE LOAD](../../../sql-manual/sql-reference-v2/Data-Manipulation-Statements/Load/ALTER-ROUTINE-LOAD.html)。
### 作业控制

View File

@ -103,7 +103,7 @@ Spark load 任务的执行主要分为以下5个阶段。
## Hive Bitmap UDF
Spark 支持将 hive 生成的 bitmap 数据直接导入到 Doris。详见 [hive-bitmap-udf](../../../ecosystem/external-table/hive-bitmap-udf.html) 文档。
Spark 支持将 hive 生成的 bitmap 数据直接导入到 Doris。
## 基本操作

View File

@ -74,7 +74,7 @@ Doris 的每一个导入作业,不论是使用 Broker Load 进行批量导入
同时,一个导入作业都会有一个 Label。这个 Label 是在一个数据库(Database)下唯一的,用于唯一标识一个导入作业。Label 可以由用户指定,部分导入功能也会由系统自动生成。
Label 是用于保证对应的导入作业,仅能成功导入一次。一个被成功导入的 Label,再次使用时,会被拒绝并报错 `Label already used`。通过这个机制,可以在 Doris 做到 `At-Most-Once` 语义。如果结合上游系统的 `At-Least-Once` 语义,则可以实现导入数据的 `Exactly-Once` 语义。
Label 是用于保证对应的导入作业,仅能成功导入一次。一个被成功导入的 Label,再次使用时,会被拒绝并报错 `Label already used`。通过这个机制,可以在 Doris 做到 `At-Most-Once` 语义。如果结合上游系统的 `At-Least-Once` 语义,则可以实现导入数据的 `Exactly-Once` 语义。
关于原子性保证的最佳实践,可以参阅 导入事务和原子性。

View File

@ -130,7 +130,7 @@ Doris 会执行这些sql时会自动命中这个 ROLLUP 表。
### Duplicate 模型中的 ROLLUP
因为 Duplicate 模型没有聚合的语意。所以该模型中的 ROLLUP,已经失去了“上卷”这一层含义。而仅仅是作为调整列顺序,以命中前缀索引的作用。我们将在**[数据模型前缀索引](data-model.html#前缀索引)**详细介绍前缀索引,以及如何使用ROLLUP改变前缀索引,以获得更好的查询效率。
因为 Duplicate 模型没有聚合的语意。所以该模型中的 ROLLUP,已经失去了“上卷”这一层含义。而仅仅是作为调整列顺序,以命中前缀索引的作用。我们将在[前缀索引](./index/prefix-index.html)详细介绍前缀索引,以及如何使用ROLLUP改变前缀索引,以获得更好的查询效率。
## ROLLUP 调整前缀索引
@ -187,7 +187,7 @@ mysql> SELECT * FROM table where age=20 and message LIKE "%error%";
### 索引
前面的[数据模型](data-model.html)中已经介绍过 Doris 的前缀索引,即 Doris 会把 Base/Rollup 表中的前 36 个字节(有 varchar 类型则可能导致前缀索引不满 36 个字节,varchar 会截断前缀索引,并且最多使用 varchar 的 20 个字节)在底层存储引擎单独生成一份排序的稀疏索引数据(数据也是排序的,用索引定位,然后在数据中做二分查找),然后在查询的时候会根据查询中的条件来匹配每个 Base/Rollup 的前缀索引,并且选择出匹配前缀索引最长的一个 Base/Rollup。
前面的[前缀索引](./index/prefix-index.html)中已经介绍过 Doris 的前缀索引,即 Doris 会把 Base/Rollup 表中的前 36 个字节(有 varchar 类型则可能导致前缀索引不满 36 个字节,varchar 会截断前缀索引,并且最多使用 varchar 的 20 个字节)在底层存储引擎单独生成一份排序的稀疏索引数据(数据也是排序的,用索引定位,然后在数据中做二分查找),然后在查询的时候会根据查询中的条件来匹配每个 Base/Rollup 的前缀索引,并且选择出匹配前缀索引最长的一个 Base/Rollup。
```text
-----> 从左到右匹配

View File

@ -34,7 +34,7 @@ under the License.
## 原理介绍
创建和删除本质上是一个 schema change 的作业,具体细节可以参照 [Schema Change](../../advanced/schema-change.html)。
创建和删除本质上是一个 schema change 的作业,具体细节可以参照 [Schema Change](../../advanced/alter-table/schema-change.html)。
## 语法

View File

@ -26,13 +26,42 @@ under the License.
## SHOW-FILE
### Name
SHOW FILE
### Description
该语句用于展示一个 database 内创建的文件
语法:
```sql
SHOW FILE [FROM database];
```
说明:
```text
FileId: 文件ID,全局唯一
DbName: 所属数据库名称
Catalog: 自定义分类
FileName: 文件名
FileSize: 文件大小,单位字节
MD5: 文件的 MD5
```
### Example
1. 查看数据库 my_database 中已上传的文件
```sql
SHOW FILE FROM my_database;
```
### Keywords
SHOW, USER
SHOW, FILE
### Best Practice