This is an automated email from the ASF dual-hosted git repository.
morningman pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/doris-website.git
The following commit(s) were added to refs/heads/master by this push:
new 29d640b3ee6 [opt] fix before poc doc (#3492)
29d640b3ee6 is described below
commit 29d640b3ee6e10dac6c8b1596cdbde889520bed9
Author: Mingyu Chen (Rayner) <[email protected]>
AuthorDate: Tue Mar 24 23:55:53 2026 -0700
[opt] fix before poc doc (#3492)
---
.../current/gettingStarted/before-you-start-the-poc.md | 2 +-
.../version-3.x/gettingStarted/before-you-start-the-poc.md | 2 +-
.../version-4.x/gettingStarted/before-you-start-the-poc.md | 2 +-
3 files changed, 3 insertions(+), 3 deletions(-)
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/gettingStarted/before-you-start-the-poc.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/gettingStarted/before-you-start-the-poc.md
index c92d96fd54e..1e40fe39f60 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/gettingStarted/before-you-start-the-poc.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/gettingStarted/before-you-start-the-poc.md
@@ -109,7 +109,7 @@ DISTRIBUTED BY HASH(site_id) BUCKETS 10;
选择合适的导入方式并遵循以下最佳实践,可以有效避免常见的性能问题:
-- **批量数据不要用 `INSERT INTO VALUES`。**请使用 [Stream
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
+- **批量数据不要用 `INSERT INTO VALUES`**。请使用 [Stream
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
- **优先在客户端合并写入。**高频小批次导入导致版本堆积。如不可行,使用 [Group
Commit](../data-operate/import/group-commit-manual)。
- **将大型导入拆分为小批次。**长时间运行的导入失败后必须从头重试。使用 [INSERT INTO SELECT 配合 S3
TVF](../data-operate/import/streaming-job/streaming-job-tvf) 实现增量导入。
- **Random 分桶的 Duplicate Key 表启用 `load_to_single_tablet`**,减少写放大。
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/gettingStarted/before-you-start-the-poc.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/gettingStarted/before-you-start-the-poc.md
index ea78de33273..6b79675abc4 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/gettingStarted/before-you-start-the-poc.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/gettingStarted/before-you-start-the-poc.md
@@ -109,7 +109,7 @@ DISTRIBUTED BY HASH(site_id) BUCKETS 10;
选择合适的导入方式并遵循以下最佳实践,可以有效避免常见的性能问题:
-- **批量数据不要用 `INSERT INTO VALUES`。**请使用 [Stream
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
+- **批量数据不要用 `INSERT INTO VALUES`**。请使用 [Stream
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
- **优先在客户端合并写入。**高频小批次导入导致版本堆积。如不可行,使用 [Group
Commit](../data-operate/import/group-commit-manual)。
- **将大型导入拆分为小批次。**长时间运行的导入失败后必须从头重试。使用 [INSERT INTO SELECT 配合 S3
TVF](../data-operate/import/import-way/insert-into-manual.md) 实现增量导入。
- **Random 分桶的 Duplicate Key 表启用 `load_to_single_tablet`**,减少写放大。
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/gettingStarted/before-you-start-the-poc.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/gettingStarted/before-you-start-the-poc.md
index c92d96fd54e..1e40fe39f60 100644
---
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/gettingStarted/before-you-start-the-poc.md
+++
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/gettingStarted/before-you-start-the-poc.md
@@ -109,7 +109,7 @@ DISTRIBUTED BY HASH(site_id) BUCKETS 10;
选择合适的导入方式并遵循以下最佳实践,可以有效避免常见的性能问题:
-- **批量数据不要用 `INSERT INTO VALUES`。**请使用 [Stream
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
+- **批量数据不要用 `INSERT INTO VALUES`**。请使用 [Stream
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
- **优先在客户端合并写入。**高频小批次导入导致版本堆积。如不可行,使用 [Group
Commit](../data-operate/import/group-commit-manual)。
- **将大型导入拆分为小批次。**长时间运行的导入失败后必须从头重试。使用 [INSERT INTO SELECT 配合 S3
TVF](../data-operate/import/streaming-job/streaming-job-tvf) 实现增量导入。
- **Random 分桶的 Duplicate Key 表启用 `load_to_single_tablet`**,减少写放大。
---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]