Closed jorondo1 closed 11 months ago
effectivement bizarre. Va essayer de checker ca aujourd'hui
jai lance un test avec tes fastq direct sur le serveur et ca passe.
########################################################################################################################
##### BIN_REFINEMENT PIPELINE FINISHED SUCCESSFULLY! #####
########################################################################################################################
real 34m43.365s
user 152m21.476s
sys 8m38.135s
adding sample name to bin filename
copying results to /home/def-ilafores/analysis/boreal_moss/coassembly/jfl/ with throttling
metawrap assembly pipeline done
Voici les commandes:
cd /net/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly
bash /home/def-ilafores/programs/ILL_pipelines/scripts/fastq_to_bins.metawrap.sh -o /home/def-ilafores/analysis/boreal_moss/coassembly/jfl/ -tmp /fast/def-ilafores/temp -t 48 -m 200G -s Brown_AA -fq1 /home/def-ilafores/analysis/boreal_moss/cat_reads/Brown_AA_1.fastq -fq2 /home/def-ilafores/analysis/boreal_moss/cat_reads/Brown_AA_2.fastq --metaspades --megahit --metabat2 --maxbin2 --concoct --run-checkm --refinement_min_compl 50 --refinement_max_cont 10
je suspecte que tu bust la memoire.... peux-tu reessayer en utilisant 48 threads et 251G ram pour les echantillons qui plante?
gen ton script sbatch de slurm avec ces options:
bash /home/def-ilafores/programs/ILL_pipelines/generateslurm_assembly_bin_refinement.metawrap.sh --slurm_threads 48 --slurm_mem 251G
si c pas assez: bash /home/def-ilafores/programs/ILL_pipelines/generateslurm_assembly_bin_refinement.metawrap.sh --slurm_threads 48 --slurm_mem 500G
update:
je viens de reessayer un autre sample en local sur ip34 et ca passe
J'attend toujours que la tache tourne sur le fat node a 500G ram
je pense aussi que c'était un bust de mémoire, je pensais que c'était correct je mettre
#SBATCH --time=24:00:00
#SBATCH --mem=500G
#SBATCH -n 48
dans mon slurm script header
As-tu testé? Ça fonctionne?
ca fonctionne en local et selon le log, cette job a passe /net/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/logs/assembly_bin_refinement-1646098_1.slurm.out
faudrait que je relance pour m'en assurer, ca pris trop de temps avant d'etre lance cette job et perdu le focus avec le temps.
pas beaucoup de noeud 500G, dans ce cas quasiment mieux de lance direct sur ip34 avec par exemple 124 thread et 500G ram. Tu pourrais lance 3 jobs en parralele et ca laisserait 500G et 24 threads pour les autres users du serveur
en local jai lance ces 2 commande et ca l'a passe:
## issues 60
bash /home/def-ilafores/programs/ILL_pipelines/scripts/fastq_to_bins.metawrap.sh \
-o /home/def-ilafores/analysis/boreal_moss/coassembly/jfl/ \
-tmp /fast/def-ilafores/temp \
-t 48 -m 200G \
-s Brown_AA \
-fq1 /home/def-ilafores/analysis/boreal_moss/cat_reads/Brown_AA_1.fastq \
-fq2 /home/def-ilafores/analysis/boreal_moss/cat_reads/Brown_AA_2.fastq \
--metaspades --megahit \
--metabat2 --maxbin2 --concoct --run-checkm \
--refinement_min_compl 50 --refinement_max_cont 10
bash /home/def-ilafores/programs/ILL_pipelines/scripts/fastq_to_bins.metawrap.sh \
-o /home/def-ilafores/analysis/boreal_moss/coassembly/jfl/ \
-tmp /fast/def-ilafores/temp \
-t 24 -m 200G \
-s Brown_AB \
-fq1 /home/def-ilafores/analysis/boreal_moss/cat_reads/Brown_AB_1.fastq \
-fq2 /home/def-ilafores/analysis/boreal_moss/cat_reads/Brown_AB_2.fastq \
--metaspades --megahit \
--metabat2 --maxbin2 --concoct --run-checkm \
--refinement_min_compl 50 --refinement_max_cont 10
j'essaie ça live, mais je pense avoir un problème de permissions. Pour mon premier essai j'ai l'erreur
cp: cannot create regular file '/fast/def-ilafores/temp/Brown_AB_1.fastq': Permission denied
et pour mon deuxième (avec Brown_AA), la copie des fastq fonctionne, mais j'ai l'erreur
cp: cannot create regular file '/fast/def-ilafores/temp/metawrap.1.3.sif': Permission denied
as-tu fait ton newgrp avant?
les perm pour ce repertoire sont:
drwxrwxr-x 5 jflucier def-ilafores 12 Sep 7 11:49 temp
je vois ces permissions là oui. Si j'ai fait newgrp et qu'ensuite j'ouvre une session tmux est-ce que je dois normalement le refaire ?
mais non même en le refaisant j'ai l'erreur avec le metawrap sif
aussi, est-ce qu'il risque d'avoir un problème si je pars trois samples en parallèle comme tu me suggèrais plus haut, si le pipeline recopie le metawrap.sif à chaque itération dans le dossier /fast/def-ilafores/temp ?
ouin faudrait le partir avec 3 temps differents
c quoi exactement la commande que tu pars et a partir de quel repertoire?
je vais debug ca directement en me loggant comme toi.
celle que tu m'as suggérée en haut:
sample=Brown_AB
bash /home/def-ilafores/programs/ILL_pipelines/scripts/fastq_to_bins.metawrap.sh \
-o /home/def-ilafores/analysis/boreal_moss/coassembly \
-tmp /fast/def-ilafores/temp \
-t 124 -m 500G \
-s ${sample} \
-fq1 /home/def-ilafores/analysis/boreal_moss/cat_reads/${sample}_1.fastq \
-fq2 /home/def-ilafores/analysis/boreal_moss/cat_reads/${sample}_2.fastq \
--metaspades --megahit \
--metabat2 --maxbin2 --concoct --run-checkm \
--refinement_min_compl 50 --refinement_max_cont 10
deja a 124 thread ca peut pas fonctionne... ca passait avec 200G ram
je test ca et te reviens
je comprend pas trop ce qui se passe...
je viens de lance sous ton nom et ca passe:
Thu 07 Sep 2023 03:31:15 PM EDT --> [ CCSUDO - ronj2303 ]
[ronj2303@ip34-rockylinux8 ~]$ newgrp def-ilafores
Thu 07 Sep 2023 03:31:26 PM EDT --> [ CCSUDO - ronj2303 ]
[ronj2303@ip34-rockylinux8 ~]$ cd /home/def-ilafores/analysis/boreal_moss/assembly
Thu 07 Sep 2023 03:31:34 PM EDT --> [ CCSUDO - ronj2303 ]
[ronj2303@ip34-rockylinux8 assembly]$ sample=Brown_AB
Thu 07 Sep 2023 03:31:42 PM EDT --> [ CCSUDO - ronj2303 ]
[ronj2303@ip34-rockylinux8 assembly]$ bash /home/def-ilafores/programs/ILL_pipelines/scripts/fastq_to_bi
ns.metawrap.sh \
> -o /home/def-ilafores/analysis/boreal_moss/coassembly \
> -tmp /fast/def-ilafores/temp \
> -t 24 -m 200G \
> -s ${sample} \
> -fq1 /home/def-ilafores/analysis/boreal_moss/cat_reads/${sample}_1.fastq \
> -fq2 /home/def-ilafores/analysis/boreal_moss/cat_reads/${sample}_2.fastq \
> --metaspades --megahit \
> --metabat2 --maxbin2 --concoct --run-checkm \
> --refinement_min_compl 50 --refinement_max_cont 10
## Sample name: Brown_AB
## Results wil be stored to this path: /home/def-ilafores/analysis/boreal_moss/coassembly
# Will use the following assembly programs: --metaspades --megahit
# Will use the following binning programs: --metabat2 --maxbin2 --concoct --run-checkm
analysing sample Brown_AB with metawrap
fastq1 path: /home/def-ilafores/analysis/boreal_moss/cat_reads/Brown_AB_1.fastq
fastq2 path: /home/def-ilafores/analysis/boreal_moss/cat_reads/Brown_AB_2.fastq
Assembly options: --metaspades --megahit
Binning options: --metabat2 --maxbin2 --concoct --run-checkm
Minimum completion percent: 50
Maximum contamination percent: 10
Threads: 24
....
------------------------------------------------------------------------------------------------------------------------
----- Looks like there is a index of the assembly already. Skipping... -----
------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------
----- skipping aligning Brown_AB_paired_sorted reads to assembly because -----
----- /out/binning//work_files/Brown_AB_paired_sorted.bam already exists. -----
------------------------------------------------------------------------------------------------------------------------
########################################################################################################################
##### RUNNING METABAT2 #####
########################################################################################################################
------------------------------------------------------------------------------------------------------------------------
----- making contig depth file... -----
------------------------------------------------------------------------------------------------------------------------
Output depth matrix to /out/binning//work_files/metabat_depth.txt
Output matrix to /out/binning//work_files/metabat_depth.txt
Opening 1 bams
Consolidating headers
Processing bam files
....
je te fais signe quand ca termine
ca fonctionne en local et selon le log, cette job a passe /net/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/logs/assembly_bin_refinement-1646098_1.slurm.out
faudrait que je relance pour m'en assurer, ca pris trop de temps avant d'etre lance cette job et perdu le focus avec le temps.
pas beaucoup de noeud 500G, dans ce cas quasiment mieux de lance direct sur ip34 avec par exemple 124 thread et 500G ram. Tu pourrais lance 3 jobs en parralele et ca laisserait 500G et 24 threads pour les autres users du serveur
j'y allais à 124 parce que c'est ce que t'avais écrit ici ! sûrement une faute de frappe. Donc on a 96 threads total sur ip34 si je comprends bien, d'où ta suggestion d'en partir 3 à 24 chaque.
La commande a l'air à fonctionner maintenant.
la commande suivante a passe avec succes: ` |18:31:00|jflucier@ip34-rockylinux8:[assembly]> bash /home/def-ilafores/programs/ILL_pipelines/scripts/fastq_to_bins.metawrap.sh -o /home/def-ilafores/analysis/boreal_moss/coassembly -tmp /fast/def-ilafores/temp -t 24 -m 200G -s ${sample} -fq1 /home/def-ilafores/analysis/boreal_moss/cat_reads/${sample}_1.fastq -fq2 /home/def-ilafores/analysis/boreal_moss/cat_reads/${sample}_2.fastq --metaspades --megahit --metabat2 --maxbin2 --concoct --run-checkm --refinement_min_compl 50 --refinement_max_cont 10
`
jai tourne ca sous ton nom. Je crois que ce bug est regle. Reouvre le ticket si c pas le cas.
moi aussi ça fonctionne bien j'en ai plusieurs de complétés. Est-ce que ça devrait fonctionner sur les noeuds finalement avec mes coassembly??
je l'essayerais. Je vois pas pk ca fonctionnerait pas.
reouvre ce ticket si ca plante tks
Un problème persiste, tous mes arrays partent en mode throttle, aucun ne décolle. Voir job 1674185
Ma commande était : sbatch --array=12-16,24-33,43-50 /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/assembly_bin_refinement.metawrap.slurm.sh (en lien avec l'autre issue que je viens d'ouvrir, j,ai modifié ce script à la main)
voir les logs: /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/logs/assembly_binrefinement-1674185*.slurm.out
jai deleter le contenu de /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/.throttle/ et ca semble avoir debugger.
possible que tu aie fait un scancel avant avec des jobs de parti?
va essayer de rendre ca plus solide
oui j'avais cancel des jobs. J'ai encore du trouble sur les noeuds avec Maxbin, j'ai aucune job qui termine. Il a de la misère à trouver certaines dépendancesn pour MAxbin, des fois c'est Bowtie des fois Fracgenscan, voir : tail -n 20 coassembly/logs/assembly_bin_refinement-1674257_2*.slurm.out
jai rendu le truc plus solide en faisant du error trapping donc ca devrais en parti regle le bug du dossier .throttle
je vais checker ce bug de dep sous peu
je viens de faire mini patch et relance les failed jobs:
sbatch --array=23-29 $PWD/assembly_bin_refinement.metawrap.slurm.sh
en esperant que ca passe. C bizarre comme bug, c comme si il y as un probleme de concurrence.
Je fais maintenant un cd dans le $tmp avant les call singularity. On verra!
ca l'air d'avoir tout passe sans erreur.
Il restement seulement la job 23 qui a pas temriner encore. Voir les logs:
tail /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/logs/assembly_bin_refinement-1674607_*.slurm.out
Close ce ticket si tu vois que c ok stp
la job 23 viens de termine
j'ai encore du trouble ici: coassembly/logs/assembly_bin_refinement-1677108_42.slurm.out coassembly/logs/assembly_bin_refinement-1677108_32.slurm.out coassembly/logs/assembly_bin_refinement-1677108_31.slurm.out
Cannot run Bowtie2. Please indicate the file directory in 'setting' file.
Ça vient de ce qui qui roule sur les noeuds en ce moment:
sbatch --array=11-16,23,29-34,36,41-50 /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/assembly_bin_refinement.metawrap.slurm.sh
je ne vois pas les 23-29 que tu as fait? 23 (Brown_Z) semble s'être rendu, mais pas l'array 26 par exemple...
aucun de ces jobs n'a fonctionné... :( Est-ce qu'il faut que je regénère mon script depuis ton patch ?
Il y a des echantillons sans bin, c'est popur ca que tu as pas de resultat .Check le log
|08:01:30|jflucier@ip34-rockylinux8:[coassembly]> less /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/logs/assembly_bin_refinement-1674607_26.slurm.out
....
************************************************************************************************************************
***** Warning: /out/bin_refinement/ already exists. Attempting to clean. *****
************************************************************************************************************************
rm: cannot remove '/out/bin_refinement//binsA': No such file or directory
rm: cannot remove '/out/bin_refinement//binsB': No such file or directory
rm: cannot remove '/out/bin_refinement//binsC': No such file or directory
rm: cannot remove '/out/bin_refinement//binsAB': No such file or directory
rm: cannot remove '/out/bin_refinement//binsBC': No such file or directory
rm: cannot remove '/out/bin_refinement//binsAC': No such file or directory
rm: cannot remove '/out/bin_refinement//binsABC': No such file or directory
rm: cannot remove '/out/bin_refinement//bin.*': No such file or directory
Skipping /out/binning/metabat2_bins//bin.5.fa because the bin size is not between 50kb and 20Mb
Skipping /out/binning/metabat2_bins//bin.6.fa because the bin size is not between 50kb and 20Mb
Skipping /out/binning/metabat2_bins//bin.unbinned.fa because the bin size is not between 50kb and 20Mb
------------------------------------------------------------------------------------------------------------------------
----- there are 4 bins in binsA -----
------------------------------------------------------------------------------------------------------------------------
Skipping /out/binning/maxbin2_bins//bin.0.fa because the bin size is not between 50kb and 20Mb
Skipping /out/binning/maxbin2_bins//bin.1.fa because the bin size is not between 50kb and 20Mb
------------------------------------------------------------------------------------------------------------------------
----- there are 0 bins in binsB -----
------------------------------------------------------------------------------------------------------------------------
************************************************************************************************************************
***** Please provide valid input. Exiting... *****
************************************************************************************************************************
real 0m1.424s
user 0m0.135s
sys 0m0.164s
++ __error_handing__ 1
++ local last_status_code=1
++ rm -f /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly//.throttle/throttle.start.Green_AC.txt
++ rm -f /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly//.throttle/throttle.end.Green_AC.txt
++ exit 1
done metawrap pipeline on Green_AC
aucun de ces jobs n'a fonctionné... :( Est-ce qu'il faut que je regénère mon script depuis ton patch ?
jai patcher le code donc si la job etait deja en train d'exec tu as pas la derniere version du code qui roulait
Oui j'avais lancé ça après la patch mais je n'avais pas regénéré mon script avec la commande slurm. J'ai 0/25 échantillons qui ont fonctionnés sur cette job, je sais que la majorité d'entre eux produisent des bins ça ne devrait pas planter. Ça dit Maxbin did not produce a single bin mais c'est parce qu'il plante en essayant de run FragGeneScan ou Bowtie2 dans toutes les jobs
voir grep 'Please indicate the file directory' /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/logs/*1677108*
tout ça a été le 16 septembre 2 jours après la pathch
on a pas le meme resultat sai c moi out oi qui lance....
meme job par moi ca passe: /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/logs/assembly_bin_refinement-1674607_23.slurm.out
par toi: /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/logs/assembly_bin_refinement-1677108_23.slurm.out: Cannot run Bowtie2. Please indicate the file directory in 'setting' file.
on doit se parler avec share screen.
Ça persiste:
/nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/test_reads/test_assembly/logs/assembly_bin_refinement-1677615_1.slurm.out
Launch avec
sbatch --array=1 /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/test_reads/assembly_bin_refinement.metawrap.slurm.sh
jai lance ca sous mon user:
sbatch --array=1 /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/test_reads/assembly_bin_refinement.metawrap.slurm.sh
ca donne ceci:
tail -f /nfs3_ib/nfs-ip34/home/def-ilafores/analysis/boreal_moss/test_reads/test_assembly/logs/assembly_bin_refinement-1677652_1.slurm.out
tout passe.... ca resemble a un bug de config sous ton compte. Je vais relancer sous ton user....
quand meme lon l'exec malgre la reduction des fastq
ouais c'est lourd l'assemblage... c'est vraiment weird comme bogue! tiens-moi au courant, je vais éventuellement co-assembler du stock provid aussi donc aussi bien régler ça
bon finalement ca fonctionne, tu peux partir tes jobs!
J'ai carrement modifier le code perl run_maxbin2.pl pour que ca fonctionne. J'ai enleve la fonction qui check si les soft sont bien installe. Ca regle tout les bugs.
Salut! Voir la fin de ce log, as-tu une idée comment fixer ça? /net/nfs-ip34/home/def-ilafores/analysis/boreal_moss/coassembly/logs/assembly_bin_refinement-1181891_1.slurm.out
c'est étrange parce que j'ai certain assembly qui fonctionnent, mais plusieurs ne fonctionnent pas.
Mon script:
ps je tweak les allocations slurm parce que j'ai concaténé des samples ensemble pour augmenter la quualité des assemblages.