1、生成inference,
示例:
paddlex --export_inference --model_dir=xxxxxxxxxxxxxxx/best_model --save_dir=./inference_model/mobilenetv3_large_ssld_class_13
2、Windows下没有paddle_lite_opt,需要使用python脚本
示例:
# 引用Paddlelite预测库
from paddlelite.lite import *
# 1. 创建opt实例
opt=Opt()
# 2. 指定输入模型地址
#opt.set_model_dir(r"xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx\inference_model")
opt.set_model_file(r"xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx\inference_model\__model__")
opt.set_param_file(r"xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx\inference_model\__params__")
# 3. 指定转化类型: arm、x86、opencl、xpu、npu
opt.set_valid_places("arm")
# 4. 指定模型转化类型: naive_buffer、protobuf
opt.set_model_type("naive_buffer")
# 4. 输出模型地址
opt.set_optimize_out("mobilenetv1_opt")
# 5. 执行模型优化
opt.run()
注意不能使用set_model_dir方式,不然会报