1. 总述 需求背景 用户希望在写代码时,能够定义一些公共变量然后执行的时候进行替换,比如用户每天都会批量跑同一段sql,需要指定上一天的分区时间,如果基于sql去写会比较复杂如果系统提供一个run_date的变量将会非常方便使用。
使用都是直接在代码中使用通过
## 代码中定义,在任务代码前进行指定
sql类型定义方式:
--@set f=20.1
python/Shell类型定义如下:
#@set f=20.1
注意:只支持一行定义一个变量
{varName表达式},如${f*2}
## restful
{
"executionContent":{"code":"select \"${f-1}\";","runType":"sql"},
"params":{
"variable":{f:"20.1"},
"configuration":{
"runtime":{
"linkis.openlookeng.url":"http://127.0.0.1:9090"
}
}
},
"source":{"scriptPath":"file:///mnt/bdp/hadoop/1.sql"},
"labels":{
"engineType":"spark-2.4.3",
"userCreator":"hadoop-IDE"
}
}
## java SDK
JobSubmitAction.builder
.addExecuteCode(code)
.setStartupParams(startupMap)
.setUser(user)//submit user
.addExecuteUser(user)//execute user
.setLabels(labels)
.setVariableMap(varMap)//setVar
.build
如何成为社区贡献者
1 ► 官方文档贡献。发现文档的不足、优化文档,持续更新文档等方式参与社区贡献。通过文档贡献,让开发者熟悉如何提交PR和真正参与到社区的建设。参考攻略:保姆级教程:如何成为Apache Linkis文档贡献者
2 ► 代码贡献。我们梳理了社区中简单并且容易入门的的任务,非常适合新人做代码贡献。请查阅新手任务列表:https://github.com/apache/incubator-linkis/issues/1161
3 ► 内容贡献:发布WeDataSphere开源组件相关的内容,包括但不限于安装部署教程、使用经验、案例实践等,形式不限,请投稿给小助手。例如:
4 ► 社区答疑:积极在社区中进行答疑、分享技术、帮助开发者解决问题等;
5 ► 其他:积极参与社区活动、成为社区志愿者、帮助社区宣传、为社区发展提供有效建议等;
本文分享自微信公众号 - WeDataSphere(gh_273e85fce73b)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。
|