Created by: Wangweilai1
目前使用Server V1.1模型,测试速度过慢在2080TI上,之后GPU服务器端会考虑加速吗?另外,目前占用显存过高,将识别模型的batch_size调低也很高,所以如果能降低显存?