Skip to content

  • 体验新版
    • 正在加载...
  • 登录
  • PaddlePaddle
  • PaddleSeg
  • Issue
  • #142

P
PaddleSeg
  • 项目概览

PaddlePaddle / PaddleSeg

通知 289
Star 8
Fork 1
  • 代码
    • 文件
    • 提交
    • 分支
    • Tags
    • 贡献者
    • 分支图
    • Diff
  • Issue 53
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 3
  • Wiki 0
    • Wiki
  • 分析
    • 仓库
    • DevOps
  • 项目成员
  • Pages
P
PaddleSeg
  • 项目概览
    • 项目概览
    • 详情
    • 发布
  • 仓库
    • 仓库
    • 文件
    • 提交
    • 分支
    • 标签
    • 贡献者
    • 分支图
    • 比较
  • Issue 53
    • Issue 53
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 3
    • 合并请求 3
  • Pages
  • 分析
    • 分析
    • 仓库分析
    • DevOps
  • Wiki 0
    • Wiki
  • 成员
    • 成员
  • 收起侧边栏
  • 动态
  • 分支图
  • 创建新Issue
  • 提交
  • Issue看板
已关闭
开放中
Opened 12月 31, 2019 by saxon_zh@saxon_zhGuest

我使用工业表盘分割模型显卡是单块1080Ti显卡,推理速度只有两秒一张

Created by: siyangbing

W1231 10:56:15.739400 3785 device_context.cc:235] Please NOTE: device: 0, CUDA Capability: 61, Driver API Version: 10.1, Runtime API Version: 10.0 W1231 10:56:15.741755 3785 device_context.cc:243] device: 0, cuDNN Version: 7.3. W1231 10:56:15.741771 3785 device_context.cc:269] WARNING: device: 0. The installed Paddle is compiled with CUDNN 7.4, but CUDNN version in your machine is 7.3, which may cause serious incompatible bug. Please recompile or reinstall Paddle with compatible CUDNN version. W1231 10:56:16.498123 3785 naive_executor.cc:43] The NaiveExecutor can not work properly if the cmake flag ON_INFER is not set. W1231 10:56:16.498152 3785 naive_executor.cc:45] Unlike the training phase, all the scopes and variables will be reused to save the allocation overhead. W1231 10:56:16.498155 3785 naive_executor.cc:48] Please re-compile the inference library by setting the cmake flag ON_INFER=ON if you are running Paddle Inference

W1231 10:56:27.539149 3785 naive_executor.cc:43] The NaiveExecutor can not work properly if the cmake flag ON_INFER is not set. W1231 10:56:27.539177 3785 naive_executor.cc:45] Unlike the training phase, all the scopes and variables will be reused to save the allocation overhead. W1231 10:56:27.539180 3785 naive_executor.cc:48] Please re-compile the inference library by setting the cmake flag ON_INFER=ON if you are running Paddle Inference

指派人
分配到
无
里程碑
无
分配里程碑
工时统计
无
截止日期
无
标识: paddlepaddle/PaddleSeg#142
渝ICP备2023009037号

京公网安备11010502055752号

网络110报警服务 Powered by GitLab CE v13.7
开源知识
Git 入门 Pro Git 电子书 在线学 Git
Markdown 基础入门 IT 技术知识开源图谱
帮助
使用手册 反馈建议 博客
《GitCode 隐私声明》 《GitCode 服务条款》 关于GitCode
Powered by GitLab CE v13.7