PaddlePaddle / Paddle

PArallel Distributed Deep LEarning: Machine Learning Framework from Industrial Practice (『飞桨』核心框架,深度学习&机器学习高性能单机、分布式训练和跨平台部署)
http://www.paddlepaddle.org/
Apache License 2.0
22.14k stars 5.56k forks source link

本地CPU训练,trainner_count与内存、速度的关系 #8046

Closed fseasy closed 6 years ago

fseasy commented 6 years ago

文档对于trainer_count的介绍不多,只在 本地训练与预测 里说这个是本地多线程的参数,可以理解这个就是训练线程数吗?

能否估算这个参数对内存(CPU训练下)的影响吗,我现在用4个count,占14G;1个count,用10G;

另外,我并没有发现count=4的速度相比count=1的有什么提升……

luotao1 commented 6 years ago

请问您是用哪个版本(0.11.0/develop),v1/v2,openblas/mkl?

fseasy commented 6 years ago

sorry, 用的是 v2; 至于openblas 还是 mkl,这个没有注意;应该是openblas, MKL应该是需要额外装一些东西的吧,我直接用pip装的(CentOs4.3 )

luotao1 commented 6 years ago

MKL也不需要额外装。paddle version看下版本把。

fseasy commented 6 years ago
PaddlePaddle 0.10.0, compiled with
    with_avx: ON
    with_gpu: OFF
    with_mkl: OFF
    with_mkldnn: OFF
    with_double: OFF
    with_python: ON
    with_rdma: OFF
    with_timer: OFF

哇,原来有这个功能……

luotao1 commented 6 years ago

可以升级到最新develop版本,会自动设置最优的openblas环境变量。 如果不升级的话,可参考https://github.com/PaddlePaddle/Paddle/issues/7218#issuecomment-355572079

fseasy commented 6 years ago

好的,非常感谢~