提交 8c13e7a7 编写于 作者: journey2018's avatar journey2018

sql kerberos task update doc

上级 1f971957
...@@ -215,11 +215,12 @@ ...@@ -215,11 +215,12 @@
注意:如果开启了**kerberos**,则需要填写 **Principal** 注意:如果开启了**kerberos**,则需要填写 **Principal**
<p align="center"> <p align="center">
<img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_edit2.png" width="60%" /> <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_kerberos.png" width="60%" />
</p> </p>
#### 创建、编辑Spark数据源 #### 创建、编辑Spark数据源
<p align="center"> <p align="center">
...@@ -236,6 +237,14 @@ ...@@ -236,6 +237,14 @@
- 数据库名:输入连接Spark的数据库名称 - 数据库名:输入连接Spark的数据库名称
- Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写 - Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写
注意:如果开启了**kerberos**,则需要填写 **Principal**
<p align="center">
<img src="https://analysys.github.io/easyscheduler_docs_cn/images/sparksql_kerberos.png" width="60%" />
</p>
### 上传资源 ### 上传资源
- 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项: - 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册