Closed lordk911 closed 3 years ago
尝试一: 在workflow上拖拽一个spark sql 控件到画布上,双击进去,写一个SQL,保存。 切换到workflow页签,点击指定,报错,到dss/dss-flow-execution-entrance/logs 查看日志发现:errCode: 90101 json解析失败,将DSSJSONFlow的JSON打印出来,发现时不完整的json。
尝试二: 在workflow上拖拽一个spark sql 控件到画布上,双击进去,写一个SQL,保存。 关掉SQL编辑页签,再从workflow页面上双击spark sql 控件 进入编辑界面,发现SQL不是之前写的,并且不是完整的SQL。
新建一个工作流:flow005 dss_flow_version 表会产生一条记录,json_path对应着resource_id:722c9ad6-be8d-4dab-982f-4685ad1b2425 查看linkis_resources_version表,resource_id:722c9ad6-be8d-4dab-982f-4685ad1b2425 对应的文件的起始位置不对
这个文件里面已经有内容了,不应该从1开始。 打开工作流,随便做一下编辑,保存,产生新的版本,起始位置是在上一个版本的结束位置上+1,显然也是不对的:
DSS0.9.1, linkis0.9.4 基于HDP3.1.4( hadoop 3.1 , hive 3.0 , spark2.3) 编译,可以在scriptis里写sparksql脚本及执行。 创建工作流并在上面拖拽了sparksql 控件,写了SQL脚本后,保存工作流。关闭后再打开,工作流显示空白页。
要怎么去调试这个问题呢?