morningman commented on code in PR #28098:
URL: https://github.com/apache/doris/pull/28098#discussion_r1418581374


##########
docs/zh-CN/docs/ecosystem/spark-doris-connector.md:
##########
@@ -266,7 +266,8 @@ kafkaSource.selectExpr("CAST(value as STRING)")
 | doris.write.fields               | --                | 
指定写入Doris表的字段或者字段顺序,多列之间使用逗号分隔。<br />默认写入时要按照Doris表字段顺序写入全部字段。                  
                                                                                
                                                                                
                        |
 | sink.batch.size                  | 10000             | 单次写BE的最大行数            
                                                                                
                                                                                
                                                                                
  |
 | sink.max-retries                 | 1                 | 写BE失败之后的重试次数          
                                                                                
                                                                                
                                                                                
  |
-| sink.properties.*                | --                | Stream Load 
的导入参数。<br/>例如:<br/>指定列分隔符:`'sink.properties.column_separator' = ','`、 
指定写入数据格式:`'sink.properties.format' = 'json'` 
[更多参数详情](https://doris.apache.org/zh-CN/docs/dev/data-operate/import/import-way/stream-load-manual#%E5%88%9B%E5%BB%BA%E5%AF%BC%E5%85%A5)
 |
+| sink.properties.format           | csv               | Stream Load 
的数据格式。<br/>共支持3种格式:csv,json,arrow(1.4.0版本开始支持)<br/> 
[更多参数详情](https://doris.apache.org/zh-CN/docs/dev/data-operate/import/import-way/stream-load-manual#%E5%88%9B%E5%BB%BA%E5%AF%BC%E5%85%A5)
 |

Review Comment:
   ```suggestion
   | sink.properties.format           | csv               | Stream Load 
的数据格式。<br/>共支持3种格式:csv,json,arrow(2.1.0版本开始支持)<br/> 
[更多参数详情](https://doris.apache.org/zh-CN/docs/dev/data-operate/import/import-way/stream-load-manual#%E5%88%9B%E5%BB%BA%E5%AF%BC%E5%85%A5)
 |
   ```



##########
docs/zh-CN/docs/ecosystem/spark-doris-connector.md:
##########
@@ -266,7 +266,8 @@ kafkaSource.selectExpr("CAST(value as STRING)")
 | doris.write.fields               | --                | 
指定写入Doris表的字段或者字段顺序,多列之间使用逗号分隔。<br />默认写入时要按照Doris表字段顺序写入全部字段。                  
                                                                                
                                                                                
                        |
 | sink.batch.size                  | 10000             | 单次写BE的最大行数            
                                                                                
                                                                                
                                                                                
  |
 | sink.max-retries                 | 1                 | 写BE失败之后的重试次数          
                                                                                
                                                                                
                                                                                
  |
-| sink.properties.*                | --                | Stream Load 
的导入参数。<br/>例如:<br/>指定列分隔符:`'sink.properties.column_separator' = ','`、 
指定写入数据格式:`'sink.properties.format' = 'json'` 
[更多参数详情](https://doris.apache.org/zh-CN/docs/dev/data-operate/import/import-way/stream-load-manual#%E5%88%9B%E5%BB%BA%E5%AF%BC%E5%85%A5)
 |
+| sink.properties.format           | csv               | Stream Load 
的数据格式。<br/>共支持3种格式:csv,json,arrow(1.4.0版本开始支持)<br/> 
[更多参数详情](https://doris.apache.org/zh-CN/docs/dev/data-operate/import/import-way/stream-load-manual#%E5%88%9B%E5%BB%BA%E5%AF%BC%E5%85%A5)
 |

Review Comment:
   ```suggestion
   | sink.properties.format           | csv               | Stream Load 
的数据格式。<br/>共支持3种格式:csv,json,arrow(2.1.0版本开始支持)<br/> 
[更多参数详情](https://doris.apache.org/zh-CN/docs/dev/data-operate/import/import-way/stream-load-manual#%E5%88%9B%E5%BB%BA%E5%AF%BC%E5%85%A5)
 |
   ```



##########
docs/zh-CN/docs/data-operate/import/import-way/stream-load-manual.md:
##########
@@ -154,8 +154,11 @@ Stream Load 由于使用的是 HTTP 协议,所以所有导入任务有关的
 
 - format
 
-  指定导入数据格式,支持 `csv` 和 `json`,默认是 `csv`
-  <version since="1.2"> 支持 `csv_with_names` 
(csv文件行首过滤)、`csv_with_names_and_types`(csv文件前两行过滤)、`parquet`、`orc`</version>
+  指定导入数据格式,支持 `csv`、 `json` 和 `arrow` ,默认是 `csv`。
+
+  <version since="1.2"> 支持 `csv_with_names` 
(csv文件行首过滤)、`csv_with_names_and_types`(csv文件前两行过滤)、`parquet`、`orc`。</version>
+
+  <version since="2.0.4"> 支持 `arrow`格式。</version>

Review Comment:
   ```suggestion
     <version since="2.1.0"> 支持 `arrow`格式。</version>
   ```



##########
docs/zh-CN/docs/data-operate/import/import-way/stream-load-manual.md:
##########
@@ -154,8 +154,11 @@ Stream Load 由于使用的是 HTTP 协议,所以所有导入任务有关的
 
 - format
 
-  指定导入数据格式,支持 `csv` 和 `json`,默认是 `csv`
-  <version since="1.2"> 支持 `csv_with_names` 
(csv文件行首过滤)、`csv_with_names_and_types`(csv文件前两行过滤)、`parquet`、`orc`</version>
+  指定导入数据格式,支持 `csv`、 `json` 和 `arrow` ,默认是 `csv`。
+
+  <version since="1.2"> 支持 `csv_with_names` 
(csv文件行首过滤)、`csv_with_names_and_types`(csv文件前两行过滤)、`parquet`、`orc`。</version>
+
+  <version since="2.0.4"> 支持 `arrow`格式。</version>

Review Comment:
   ```suggestion
     <version since="2.1.0"> 支持 `arrow`格式。</version>
   ```



-- 
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

To unsubscribe, e-mail: commits-unsubscr...@doris.apache.org

For queries about this service, please contact Infrastructure at:
us...@infra.apache.org


---------------------------------------------------------------------
To unsubscribe, e-mail: commits-unsubscr...@doris.apache.org
For additional commands, e-mail: commits-h...@doris.apache.org

Reply via email to