Closed YuanCao1996 closed 5 months ago
使用了这个400个数据的一个子集35个个体 跑的很顺利 但是增加样本量到400程序自动自杀
估计是snakemake使用内存太大了。您试试增加内存配给试试?
另外,加上--dry-run
参数试一下,看看是不是一样报错?
还可以用/usr/bin/time
监测一下运行内存占用
我们现在的服务器内存是1T,请问需要加到多少呢?
还想请问一下,他们牦牛那篇文章的数据量大概算了多久呢?我们这边选取了30个样本,已经算了快半个月了,才算到结果文件的第6和第7步结果
1T应该是够的,但是这个程序被杀的原因我也不清楚。
牦牛的我用了10个节点,服务器内存每个是190G,用时大概一周。如果单个节点的话肯定很长。 另外,您有没有监测一下cpu占用?程序是不是还在跑?
有监测过,程序不在运行的,这个问题我们还在调查,感谢您的解答
This issue is stale because it has been open for 30 days with no activity.
This issue was closed because it has been inactive for 14 days since being marked as stale.
郑博士,您好
我在跑snakemake的时候 400个个体的重测序数据往构建好的pangenome上面mapping 跑一天左右,程序还在building dag of jobs 程序自动自杀 这是什么原因导致呢?
其中,服务器的cpu是充足的 使用-j 60 80 是可以的