tensorflow1.4 c++编译以及API使用

方法简要梳理如下:

  1. 安装bazel,然后使用bazel编译tensorflow源码,产生我们需要的库文件。
  2. 在python环境下,使用tensorflow训练一个深度神经网络,本文以mnist为例。将训练好的模型和参数冻结在一个pb文件中。
  3. 在C++环境下,调用pb文件,对图片进行预测。最终结果如下图所示,程序成功识别到图片中的数字为1,且概率为0.95。
深度学习部署-调用c++进行前向处理

具体程序参考项目:

https://github.com/zhangcliff/tensorflow-c-mnist.git

1.安装bazel

[plain] view plain copy
  1. echo "deb [arch=amd64] http://storage.googleapis.com/bazel-apt stable jdk1.8" | sudo tee /etc/apt/sources.list.d/bazel.list  
[plain] view plain copy
  1. curl https://bazel.build/bazel-release.pub.gpg | sudo apt-key add -  
[plain] view plain copy
  1. sudo apt-get update  
[plain] view plain copy
  1. sudo apt-get install bazel  

2.tensorflow的下载。

本博文使用的tensorflow版本为1.4,其他版本的c++编译可能会有一些不一样。

[plain] view plain copy
  1. git clone https://github.com/tensorflow/tensorflow.git  

3.tensorflow的c++编译。

3.1 进入tensorflow文件夹中,首先进行项目配置。

[plain] view plain copy
  1. ./configure  

下面我贴出在我的机器上各选项的选择:值得注意的是,如果我们要使用cuda和cudnn的话,一定要搞清楚自己机器上使用的cuda和cudnn的版本(尤其是cudnn),例如我使用的是cuda8.0和cudnn6.0.21。

深度学习部署-调用c++进行前向处理

深度学习部署-调用c++进行前向处理

深度学习部署-调用c++进行前向处理

深度学习部署-调用c++进行前向处理

3.2 使用bazel命令进行编译。编译的时间比较长,我在i3-4150cpu上编译了一个小时左右的时间。

[plain] view plain copy
  1. bazel build --config=opt --config=cuda //tensorflow:libtensorflow_cc.so  

如果没有显卡则使用如下命令进行编译

[plain] view plain copy
  1. bazel build --config=opt //tensorflow:libtensorflow_cc.so  

编译完成后,在bazel-bin/tensorflow中会生成两个我们需要的库文件:libtensorflow_cc.so 和 libtensorflow_framework.so。

在后面我们用C++调用tensorflow时需要链接这两个库文件。


4. 使用tensorflow C++ api调用图模型(.pb文件)。

tensorflow 编译好之后,我们使用tensorflow c++ api调用一个已经冻结的图模型(.pb文件)

具体程序参考项目:

https://github.com/zhangcliff/tensorflow-c-mnist.git

4.1 在python环境下生成一个图模型(.pb文件)

对于tensorflow,在Python环境下的使用是最方便的,tensorflow的python api也是最多最全面的。因此我们在python环境下,训练了一个深度神经网络模型,并将模型和参数都冻结在一个pb文件中。为后面使用C++ API调用这个pb文件做好准备。我们以经典的mnist为例。

数据处理与模型的训练,这里就不多说了(默认读者对python环境下tensorflow的使用已经比较熟悉)。这里要说的是pb文件的生成,使用一下代码:

[python] view plain copy
  1. from tensorflow.python.framework.graph_util import convert_variables_to_constants  
  2. graph = convert_variables_to_constants(sess, sess.graph_def, ["softmax"])  
  3. tf.train.write_graph(graph,'models','model.pb',as_text=False)  
其中,convert_variables_to_constants()函数将参数变量冻结在图模型中,其中第三个参数为网络输出tensor的名字(name)。因为我的网络输出是这样定义的:y_conv = tf.nn.softmax(logits,name='softmax'),所以我的第三个参数设置为['softmax']。

write_graph()函数生成.pb文件,第二个参数为生成pb文件的文件夹,第三个参数为pb文件的名字。

将上面三行代码加入到你的模型训练的python脚步中,最后便可以得到我们需要的pb文件。


4.2 c++环境下调用pb文件。

第一步,加载模型

[cpp] view plain copy
  1. Session* session;  
  2. Status status = NewSession(SessionOptions(), &session);//创建新会话Session  
  3.   
  4.   
  5. string model_path="model.pb";  
  6. GraphDef graphdef; //Graph Definition for current model  
  7.   
  8.   
  9. Status status_load = ReadBinaryProto(Env::Default(), model_path, &graphdef); //从pb文件中读取图模型;  
  10. if (!status_load.ok()) {  
  11.     std::cout << "ERROR: Loading model failed..." << model_path << std::endl;  
  12.     std::cout << status_load.ToString() << "\n";  
  13.     return -1;  
  14. }  
  15. Status status_create = session->Create(graphdef); //将模型导入会话Session中;  
  16. if (!status_create.ok()) {  
  17.     std::cout << "ERROR: Creating graph in session failed..." << status_create.ToString() << std::endl;  
  18.     return -1;  
  19. }  
  20. cout << "Session successfully created."<< endl;  

第二步,使用tensorflow API读取图片。

这里定义了两个函数用于从jpg文件中读取图片:

[cpp] view plain copy
  1. Status ReadTensorFromImageFile(const string& file_name, const int input_height,  
  2.                                const int input_width, const float input_mean,  
  3.                                const float input_std,  
  4.                                std::vector<Tensor>* out_tensors)  
[cpp] view plain copy
  1. static Status ReadEntireFile(tensorflow::Env* env, const string& filename,  
  2.                              Tensor* output)  
ReadEntireFile()函数读取文件内容,并将其赋值给其第三个输入参数 Tensor* output,但是这个tensor并不能直接输入给刚才我们加载的模型,需要经过一定的预处理。

在ReadTensorFromImageFile()函数,建立一个会话session,在会话中对读取到的tensor进行预处理,例如,对tensor进行解码( DecodeJpeg),resize,归一化等等。


第三步,运行模型

[cpp] view plain copy
  1. const Tensor& resized_tensor = resized_tensors[0];  
  2. vector<tensorflow::Tensor> outputs;  
  3. string output_node = "softmax";  
  4. Status status_run = session->Run({{"inputs", resized_tensor}}, {output_node}, {}, &outputs);  
resized_tensors的类型是std::vector<Tensor>,是一个vector容器。其在程序中,是ReadTensorFromImageFile()函数的最后一个输入参数,对读取到的图片tensor进行预处理后便保存在这个容器中。

模型预测时使用的函数为session->Run({{"inputs", resized_tensor}}, {output_node}, {}, &outputs)。

值得注意的是,"inputs"是图模型输入tensor的名字(name),变量output_node保存的是图模型输出tensor的名字(name)。这两个名字(name)一定要与保存的图模型(.pb)文件中的名字一致,否则会报错。最后得到的输出tensor保存在容器outputs中。

如果你有一个pb文件,可是不知道它的输入输出tensor的名字,我们可以在python环境中使用API加载这个模型,然后将模型中的所有operation打印出来,第一项便是输入tensor,最后一项便是输出tensor。

[python] view plain copy
  1. print(sess.graph.get_operations())  
  2. print(sess.graph.get_operations()[0])  
  3. print(sess.graph.get_operations()[1])  
第四步,从模型输出tensor中获得各类别的概率。

[cpp] view plain copy
  1. Tensor t = outputs[0];                   // Fetch the first tensor  
  2. auto tmap = t.tensor<float, 2>();        // Tensor Shape: [batch_size, target_class_num]  
  3. int output_dim = t.shape().dim_size(1);  // Get the target_class_num from 1st dimension  
  4.   
  5. // Argmax: Get Final Prediction Label and Probability  
  6. int output_class_id = -1;  
  7. double output_prob = 0.0;  
  8. for (int j = 0; j < output_dim; j++)   
  9. {  
  10.       std::cout << "Class " << j << " prob:" << tmap(0, j) << "," << std::endl;  
  11.       if (tmap(0, j) >= output_prob) {  
  12.             output_class_id = j;  
  13.             output_prob = tmap(0, j);  
  14.          }  
  15. }  
  16. std::cout << "Final class id: " << output_class_id << std::endl;  
  17. std::cout << "Final class prob: " << output_prob << std::endl;  

4.3 使用cmake进行编译

本例我们建立一个cmake工程,再通过make生成一个可执行文件。首先我们建立一个文件夹取名tensorflow_mnist,在该文件夹下创建子文件夹lib,将刚才编译tensorflow 时产生的两个库文件(libtensorflow_cc.so,libtensorflow_framework.so)放入其中。调用pb文件进行预测的C++文件,取名为tf.cpp,放在tensorflow_mnist目录下。文件结构如下图所示。


下面给出我的CMakeLists.txt的文件内容

[plain] view plain copy
  1. cmake_minimum_required (VERSION 2.8.8)  
  2. project (tf_example)  
  3. set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -g -std=c++11 -W")  
  4.   
  5. link_directories(./lib)  
  6. include_directories(  
  7.    /home/zwx/tensorflow  
  8.    /home/zwx/tensorflow/bazel-genfiles  
  9.    /home/zwx/tensorflow/tensorflow/contrib/makefile/downloads/nsync/public  
  10.    /usr/local/include/eigen3  
  11.    /home/zwx/tensorflow/bazel-bin/tensorflow  
  12.    /home/zwx/tensorflow/tensorflow/contrib/makefile/gen/protobuf/include  
  13.    )   
  14. add_executable(tf_test  tf.cpp)   
  15. target_link_libraries(tf_test tensorflow_cc tensorflow_framework)  
最后进入build文件夹,对该工程进行编译:
[plain] view plain copy
  1. cd build  
  2. cmake ..  
  3. make  

不过,在make 这一步很大几率会报错,我将我碰到的几个问题和解决方法写在这里,仅供参考。


问题一: protobuf版本不对

深度学习部署-调用c++进行前向处理

解决方法:安装正确版本的protobuf。在ubuntu16.04,tensorflow1.4下,应该安装protobuf-3.4.0。

问题二:nsync_cv.h文件缺失

深度学习部署-调用c++进行前向处理

正常情况下,该文件应该在路径tensorflow/tensorflow/contrib/makefile/downloads/nsync/public里。如果出现这个问题,很可能是tensorflow/tensorflow/contrib/makefile/下没有downloads文件夹,可能是编译的时候网络不好,没有下载这个文件夹。

解决方法: 进入 tensorflow/tensorflow/contrib/makefile/ 文件夹下,找到脚步。然后回到tensorflow文件夹下,执行该脚本。

[plain] view plain copy
  1. ./tensorflow/contrib/makefile/download_dependencies.sh  

下载完毕后,便会有downloads文件夹,缺失的文件便会包含在其中。


问题三:

深度学习部署-调用c++进行前向处理

解决方法:这个问题的造成原因和问题二是一样的,查看下载好的downloads文件夹,发现其中有一个文件夹为eigen,进入eigen文件夹执行以下命令。

[plain] view plain copy
  1. mkdir build  
  2. cd build  
  3. cmake ..  
  4. make  
  5. sudo make install  
安装完毕后,在usr/local/include目录下会出现eigen3文件夹。


4.4 运行可执行程序

make成功后,在build目录下会出现一个可执行文件tf_test。将一张28*28的数字图片也放在build路径下,文件名为digit.jpg,最后执行tf_test文件。

深度学习部署-调用c++进行前向处理

[plain] view plain copy
  1. ./tf_test digit.jpg  
结果如下图所示:

深度学习部署-调用c++进行前向处理

从中我们可以看到该c++程序识别到digit.jpg图片为数字一,为1的概率为0.95。


总结:这篇博文主要介绍了如何从源码编译tensorflow c++ API,并且使用c++ API调用一个在python环境下已经训练好并冻结参数的模型文件(.pb文件),最终生成一个可执行文件tf_test。通过运行该文件,我们成功识别了手写体数字。

具体脚本参考项目:

https://github.com/zhangcliff/tensorflow-c-mnist.git

url:https://blog.csdn.net/zwx1995zwx/article/details/79064064

方法简要梳理如下:

  1. 安装bazel,然后使用bazel编译tensorflow源码,产生我们需要的库文件。
  2. 在python环境下,使用tensorflow训练一个深度神经网络,本文以mnist为例。将训练好的模型和参数冻结在一个pb文件中。
  3. 在C++环境下,调用pb文件,对图片进行预测。最终结果如下图所示,程序成功识别到图片中的数字为1,且概率为0.95。
深度学习部署-调用c++进行前向处理

具体程序参考项目:

https://github.com/zhangcliff/tensorflow-c-mnist.git

1.安装bazel

[plain] view plain copy
  1. echo "deb [arch=amd64] http://storage.googleapis.com/bazel-apt stable jdk1.8" | sudo tee /etc/apt/sources.list.d/bazel.list  
[plain] view plain copy
  1. curl https://bazel.build/bazel-release.pub.gpg | sudo apt-key add -  
[plain] view plain copy
  1. sudo apt-get update  
[plain] view plain copy
  1. sudo apt-get install bazel  

2.tensorflow的下载。

本博文使用的tensorflow版本为1.4,其他版本的c++编译可能会有一些不一样。

[plain] view plain copy
  1. git clone https://github.com/tensorflow/tensorflow.git  

3.tensorflow的c++编译。

3.1 进入tensorflow文件夹中,首先进行项目配置。

[plain] view plain copy
  1. ./configure  

下面我贴出在我的机器上各选项的选择:值得注意的是,如果我们要使用cuda和cudnn的话,一定要搞清楚自己机器上使用的cuda和cudnn的版本(尤其是cudnn),例如我使用的是cuda8.0和cudnn6.0.21。

深度学习部署-调用c++进行前向处理

深度学习部署-调用c++进行前向处理

深度学习部署-调用c++进行前向处理

深度学习部署-调用c++进行前向处理

3.2 使用bazel命令进行编译。编译的时间比较长,我在i3-4150cpu上编译了一个小时左右的时间。

[plain] view plain copy
  1. bazel build --config=opt --config=cuda //tensorflow:libtensorflow_cc.so  

如果没有显卡则使用如下命令进行编译

[plain] view plain copy
  1. bazel build --config=opt //tensorflow:libtensorflow_cc.so  

编译完成后,在bazel-bin/tensorflow中会生成两个我们需要的库文件:libtensorflow_cc.so 和 libtensorflow_framework.so。

在后面我们用C++调用tensorflow时需要链接这两个库文件。


4. 使用tensorflow C++ api调用图模型(.pb文件)。

tensorflow 编译好之后,我们使用tensorflow c++ api调用一个已经冻结的图模型(.pb文件)

具体程序参考项目:

https://github.com/zhangcliff/tensorflow-c-mnist.git

4.1 在python环境下生成一个图模型(.pb文件)

对于tensorflow,在Python环境下的使用是最方便的,tensorflow的python api也是最多最全面的。因此我们在python环境下,训练了一个深度神经网络模型,并将模型和参数都冻结在一个pb文件中。为后面使用C++ API调用这个pb文件做好准备。我们以经典的mnist为例。

数据处理与模型的训练,这里就不多说了(默认读者对python环境下tensorflow的使用已经比较熟悉)。这里要说的是pb文件的生成,使用一下代码:

[python] view plain copy
  1. from tensorflow.python.framework.graph_util import convert_variables_to_constants  
  2. graph = convert_variables_to_constants(sess, sess.graph_def, ["softmax"])  
  3. tf.train.write_graph(graph,'models','model.pb',as_text=False)  
其中,convert_variables_to_constants()函数将参数变量冻结在图模型中,其中第三个参数为网络输出tensor的名字(name)。因为我的网络输出是这样定义的:y_conv = tf.nn.softmax(logits,name='softmax'),所以我的第三个参数设置为['softmax']。

write_graph()函数生成.pb文件,第二个参数为生成pb文件的文件夹,第三个参数为pb文件的名字。

将上面三行代码加入到你的模型训练的python脚步中,最后便可以得到我们需要的pb文件。


4.2 c++环境下调用pb文件。

第一步,加载模型

[cpp] view plain copy
  1. Session* session;  
  2. Status status = NewSession(SessionOptions(), &session);//创建新会话Session  
  3.   
  4.   
  5. string model_path="model.pb";  
  6. GraphDef graphdef; //Graph Definition for current model  
  7.   
  8.   
  9. Status status_load = ReadBinaryProto(Env::Default(), model_path, &graphdef); //从pb文件中读取图模型;  
  10. if (!status_load.ok()) {  
  11.     std::cout << "ERROR: Loading model failed..." << model_path << std::endl;  
  12.     std::cout << status_load.ToString() << "\n";  
  13.     return -1;  
  14. }  
  15. Status status_create = session->Create(graphdef); //将模型导入会话Session中;  
  16. if (!status_create.ok()) {  
  17.     std::cout << "ERROR: Creating graph in session failed..." << status_create.ToString() << std::endl;  
  18.     return -1;  
  19. }  
  20. cout << "Session successfully created."<< endl;  

第二步,使用tensorflow API读取图片。

这里定义了两个函数用于从jpg文件中读取图片:

[cpp] view plain copy
  1. Status ReadTensorFromImageFile(const string& file_name, const int input_height,  
  2.                                const int input_width, const float input_mean,  
  3.                                const float input_std,  
  4.                                std::vector<Tensor>* out_tensors)  
[cpp] view plain copy
  1. static Status ReadEntireFile(tensorflow::Env* env, const string& filename,  
  2.                              Tensor* output)  
ReadEntireFile()函数读取文件内容,并将其赋值给其第三个输入参数 Tensor* output,但是这个tensor并不能直接输入给刚才我们加载的模型,需要经过一定的预处理。

在ReadTensorFromImageFile()函数,建立一个会话session,在会话中对读取到的tensor进行预处理,例如,对tensor进行解码( DecodeJpeg),resize,归一化等等。


第三步,运行模型

[cpp] view plain copy
  1. const Tensor& resized_tensor = resized_tensors[0];  
  2. vector<tensorflow::Tensor> outputs;  
  3. string output_node = "softmax";  
  4. Status status_run = session->Run({{"inputs", resized_tensor}}, {output_node}, {}, &outputs);  
resized_tensors的类型是std::vector<Tensor>,是一个vector容器。其在程序中,是ReadTensorFromImageFile()函数的最后一个输入参数,对读取到的图片tensor进行预处理后便保存在这个容器中。

模型预测时使用的函数为session->Run({{"inputs", resized_tensor}}, {output_node}, {}, &outputs)。

值得注意的是,"inputs"是图模型输入tensor的名字(name),变量output_node保存的是图模型输出tensor的名字(name)。这两个名字(name)一定要与保存的图模型(.pb)文件中的名字一致,否则会报错。最后得到的输出tensor保存在容器outputs中。

如果你有一个pb文件,可是不知道它的输入输出tensor的名字,我们可以在python环境中使用API加载这个模型,然后将模型中的所有operation打印出来,第一项便是输入tensor,最后一项便是输出tensor。

[python] view plain copy
  1. print(sess.graph.get_operations())  
  2. print(sess.graph.get_operations()[0])  
  3. print(sess.graph.get_operations()[1])  
第四步,从模型输出tensor中获得各类别的概率。

[cpp] view plain copy
  1. Tensor t = outputs[0];                   // Fetch the first tensor  
  2. auto tmap = t.tensor<float, 2>();        // Tensor Shape: [batch_size, target_class_num]  
  3. int output_dim = t.shape().dim_size(1);  // Get the target_class_num from 1st dimension  
  4.   
  5. // Argmax: Get Final Prediction Label and Probability  
  6. int output_class_id = -1;  
  7. double output_prob = 0.0;  
  8. for (int j = 0; j < output_dim; j++)   
  9. {  
  10.       std::cout << "Class " << j << " prob:" << tmap(0, j) << "," << std::endl;  
  11.       if (tmap(0, j) >= output_prob) {  
  12.             output_class_id = j;  
  13.             output_prob = tmap(0, j);  
  14.          }  
  15. }  
  16. std::cout << "Final class id: " << output_class_id << std::endl;  
  17. std::cout << "Final class prob: " << output_prob << std::endl;  

4.3 使用cmake进行编译

本例我们建立一个cmake工程,再通过make生成一个可执行文件。首先我们建立一个文件夹取名tensorflow_mnist,在该文件夹下创建子文件夹lib,将刚才编译tensorflow 时产生的两个库文件(libtensorflow_cc.so,libtensorflow_framework.so)放入其中。调用pb文件进行预测的C++文件,取名为tf.cpp,放在tensorflow_mnist目录下。文件结构如下图所示。


下面给出我的CMakeLists.txt的文件内容

[plain] view plain copy
  1. cmake_minimum_required (VERSION 2.8.8)  
  2. project (tf_example)  
  3. set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -g -std=c++11 -W")  
  4.   
  5. link_directories(./lib)  
  6. include_directories(  
  7.    /home/zwx/tensorflow  
  8.    /home/zwx/tensorflow/bazel-genfiles  
  9.    /home/zwx/tensorflow/tensorflow/contrib/makefile/downloads/nsync/public  
  10.    /usr/local/include/eigen3  
  11.    /home/zwx/tensorflow/bazel-bin/tensorflow  
  12.    /home/zwx/tensorflow/tensorflow/contrib/makefile/gen/protobuf/include  
  13.    )   
  14. add_executable(tf_test  tf.cpp)   
  15. target_link_libraries(tf_test tensorflow_cc tensorflow_framework)  
最后进入build文件夹,对该工程进行编译:
[plain] view plain copy
  1. cd build  
  2. cmake ..  
  3. make  

不过,在make 这一步很大几率会报错,我将我碰到的几个问题和解决方法写在这里,仅供参考。


问题一: protobuf版本不对

深度学习部署-调用c++进行前向处理

解决方法:安装正确版本的protobuf。在ubuntu16.04,tensorflow1.4下,应该安装protobuf-3.4.0。

问题二:nsync_cv.h文件缺失

深度学习部署-调用c++进行前向处理

正常情况下,该文件应该在路径tensorflow/tensorflow/contrib/makefile/downloads/nsync/public里。如果出现这个问题,很可能是tensorflow/tensorflow/contrib/makefile/下没有downloads文件夹,可能是编译的时候网络不好,没有下载这个文件夹。

解决方法: 进入 tensorflow/tensorflow/contrib/makefile/ 文件夹下,找到脚步。然后回到tensorflow文件夹下,执行该脚本。

[plain] view plain copy
  1. ./tensorflow/contrib/makefile/download_dependencies.sh  

下载完毕后,便会有downloads文件夹,缺失的文件便会包含在其中。


问题三:

深度学习部署-调用c++进行前向处理

解决方法:这个问题的造成原因和问题二是一样的,查看下载好的downloads文件夹,发现其中有一个文件夹为eigen,进入eigen文件夹执行以下命令。

[plain] view plain copy
  1. mkdir build  
  2. cd build  
  3. cmake ..  
  4. make  
  5. sudo make install  
安装完毕后,在usr/local/include目录下会出现eigen3文件夹。


4.4 运行可执行程序

make成功后,在build目录下会出现一个可执行文件tf_test。将一张28*28的数字图片也放在build路径下,文件名为digit.jpg,最后执行tf_test文件。

深度学习部署-调用c++进行前向处理

[plain] view plain copy
  1. ./tf_test digit.jpg  
结果如下图所示:

深度学习部署-调用c++进行前向处理

从中我们可以看到该c++程序识别到digit.jpg图片为数字一,为1的概率为0.95。


总结:这篇博文主要介绍了如何从源码编译tensorflow c++ API,并且使用c++ API调用一个在python环境下已经训练好并冻结参数的模型文件(.pb文件),最终生成一个可执行文件tf_test。通过运行该文件,我们成功识别了手写体数字。

具体脚本参考项目:

https://github.com/zhangcliff/tensorflow-c-mnist.git

url:https://blog.csdn.net/zwx1995zwx/article/details/79064064

相关文章:

  • 2021-10-23
  • 2021-09-18
  • 2021-09-28
  • 2021-09-06
  • 2021-09-07
  • 2021-12-24
  • 2021-04-11
  • 2022-12-23
猜你喜欢
  • 2021-09-14
  • 2021-08-17
  • 2021-11-23
  • 2021-05-31
  • 2021-08-23
  • 2021-12-05
相关资源
相似解决方案