Open B1tstorm opened 1 year ago
Es muss bei start passieren, sonst kann es zu konflikten kommen und das ml backend friert ein und schließt das laden in den RAM nicht ab.
Der folgende Befehl löst das Laden des Models aus:
curl "http://localhost:8080/api/ml?project=1" -H 'Authorization: Token 69a8773df8ff091cee17271e24af196818623a75'
Es muss bei start passieren, sonst kann es zu konflikten kommen und das ml backend friert ein und schließt das laden in den RAM nicht ab.