|
|
|
@ -215,11 +215,12 @@
|
|
|
|
|
|
|
|
|
|
注意:如果开启了**kerberos**,则需要填写 **Principal** |
|
|
|
|
<p align="center"> |
|
|
|
|
<img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_edit2.png" width="60%" /> |
|
|
|
|
<img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_kerberos.png" width="60%" /> |
|
|
|
|
</p> |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
#### 创建、编辑Spark数据源 |
|
|
|
|
|
|
|
|
|
<p align="center"> |
|
|
|
@ -236,6 +237,14 @@
|
|
|
|
|
- 数据库名:输入连接Spark的数据库名称 |
|
|
|
|
- Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
注意:如果开启了**kerberos**,则需要填写 **Principal** |
|
|
|
|
|
|
|
|
|
<p align="center"> |
|
|
|
|
<img src="https://analysys.github.io/easyscheduler_docs_cn/images/sparksql_kerberos.png" width="60%" /> |
|
|
|
|
</p> |
|
|
|
|
|
|
|
|
|
### 上传资源 |
|
|
|
|
- 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项: |
|
|
|
|
|
|
|
|
|