You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Paddle/paddle/fluid/inference/api/demo_ci/windows_inference.md

1.3 KiB

windows inference

本文介绍windows inference目前只提供了静态编译编译出paddle_fluid.lib包含了除openblas.dll之外的所有第三方依赖库。

  1. 下载最新的paddle_fluid.lib和openblas.dll并把它们放在同一个目录下。

  2. 准备预训练好的模型文件例如models中的模型可以将模型用safe_inference_model接口保存下来。将模型文件放到该目录下

  3. 进入Paddle/paddle/fluid/inference/api/demo_ci目录新建build目录然后使用cmake生成vs2015的solution文件。 其中PADDLE_LIB是前面的paddle_fluid.lib对应文件夹, CUDA_LIB指定为x64格式下的cuda系统库目录文件夹。

 cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=ON -DWITH_MKL=OFF -DWITH_STATIC_LIB=ON -DCMAKE_BUILD_TYPE=Release -DDEMO_NAME=inference_icnet -DPADDLE_LIB=D:\to_the_paddle_fluid.lib -DCUDA_LIB=D:\tools\v8.0\lib\x64

然后用vs2015打开对应的项目文件注意使用静态链接 "/MT"生成对应的exe。将openblas.dll放到exe所在目录。

  1. 该exe即为项目生成文件可绑定运行。

FAQ

  1. cmake需要您手动下载并添加到系统路径里
  2. 路径中的不要包含空格例如发现CUDA_LIB路径是Program Files(x86)可能会出错。可以将CUDA拷贝到一个新位置。