apache / linkis

Apache Linkis builds a computation middleware layer to facilitate connection, governance and orchestration between the upper applications and the underlying data engines.
https://linkis.apache.org/
Apache License 2.0
3.32k stars 1.17k forks source link

workflow content was gone after save workflow on dss 工作流保存后再打开没有任何内容 #707

Closed lordk911 closed 3 years ago

lordk911 commented 3 years ago

DSS0.9.1, linkis0.9.4 基于HDP3.1.4( hadoop 3.1 , hive 3.0 , spark2.3) 编译,可以在scriptis里写sparksql脚本及执行。 创建工作流并在上面拖拽了sparksql 控件,写了SQL脚本后,保存工作流。关闭后再打开,工作流显示空白页。

要怎么去调试这个问题呢?

lordk911 commented 3 years ago

尝试一: 在workflow上拖拽一个spark sql 控件到画布上,双击进去,写一个SQL,保存。 切换到workflow页签,点击指定,报错,到dss/dss-flow-execution-entrance/logs 查看日志发现:errCode: 90101 json解析失败,将DSSJSONFlow的JSON打印出来,发现时不完整的json。

尝试二: 在workflow上拖拽一个spark sql 控件到画布上,双击进去,写一个SQL,保存。 关掉SQL编辑页签,再从workflow页面上双击spark sql 控件 进入编辑界面,发现SQL不是之前写的,并且不是完整的SQL。

lordk911 commented 3 years ago

新建一个工作流:flow005 dss_flow_version 表会产生一条记录,json_path对应着resource_id:722c9ad6-be8d-4dab-982f-4685ad1b2425 查看linkis_resources_version表,resource_id:722c9ad6-be8d-4dab-982f-4685ad1b2425 对应的文件的起始位置不对

image

这个文件里面已经有内容了,不应该从1开始。 打开工作流,随便做一下编辑,保存,产生新的版本,起始位置是在上一个版本的结束位置上+1,显然也是不对的:

image

peacewong commented 3 years ago

Hello, you can refer to DSS QA Question 7, or you can upgrade Linkis > 0.9.4