Created by: qianledan
分布训练是否要求每个node的gpu数量型号要一致?我有4台一台双K80,一台一块K80,一台p100,1台1080ti,可否允许分布训练? 另外,如果有多台trainer,其中一台用gpu,一台用cpu,是否也可以执行分布训练?