config.yml 1.9 KB
Newer Older
T
TeslaZhao 已提交
1 2
#worker_num, 最大并发数。当build_dag_each_worker=True时, 框架会创建worker_num个进程,每个进程内构建grpcSever和DAG
##当build_dag_each_worker=False时,框架会设置主线程grpc线程池的max_workers=worker_num
3
worker_num: 10
T
TeslaZhao 已提交
4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

#http端口, rpc_port和http_port不允许同时为空。当rpc_port可用且http_port为空时,不自动生成http_port
http_port: 18080
rpc_port: 9993

dag:
    #op资源类型, True, 为线程模型;False,为进程模型
    is_thread_op: False
op:
    imagenet:
        #并发数,is_thread_op=True时,为线程并发;否则为进程并发
        concurrency: 1

        #当op配置没有server_endpoints时,从local_service_conf读取本地服务配置
        local_service_conf:

            #uci模型路径
            model_config: serving_server/

            #计算硬件类型: 空缺时由devices决定(CPU/GPU),0=cpu, 1=gpu, 2=tensorRT, 3=arm cpu, 4=kunlun xpu
24
            device_type: 2
T
TeslaZhao 已提交
25 26 27 28 29 30 31 32

            #计算硬件ID,当devices为""或不写时为CPU预测;当devices为"0", "0,1,2"时为GPU预测,表示使用的GPU卡
            devices: "0" # "0,1"

            #client类型,包括brpc, grpc和local_predictor.local_predictor不启动Serving服务,进程内预测
            client_type: local_predictor

            #Fetch结果列表,以client_config中fetch_var的alias_name为准
33
            fetch_list: ["save_infer_model/scale_0.tmp_0"]
T
TeslaZhao 已提交
34 35 36 37

            #precsion, 预测精度,降低预测精度可提升预测速度
            #GPU 支持: "fp32"(default), "fp16", "int8";
            #CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8"
38
            precision: "int8" 
T
TeslaZhao 已提交
39

40 41
            #开启 TensorRT calibration, 量化模型要设置 use_calib: False, 非量化模型离线生成int8需要开启 use_calib: True
            use_calib: False
T
TeslaZhao 已提交
42 43 44

            #开启 ir_optim
            ir_optim: True