|
板凳
楼主 |
发表于 2023-2-27 11:45:08
|
只看该作者
本帖最后由 hjh2008 于 2023-2-27 11:48 编辑
不是模型,是流程会更简便。如果咱们RK的NPU芯片都支持onnxruntime,那我们用量化感知训练后的模型转成onnx模型后直接就可以用RK芯片进行推理了。理论上是不是可以不用rknn-toolkit了?
因为我们的软件是要用户自己微调模型的,而且目前to C的软件很多都是Windows系统。如果可以不用rknn-toolkit,那用户就不用另外准备Ubuntu系统和配置相关的环境来转换模型,可以大大简化我们软件的使用难度,便于我们软件的推广和提高用户的效率。
不过如果没那么快支持onnxruntime,希望能提供onnx转rknn模型的windows下C++接口简化版的toolkit或动态库,可以不用量化和仿真功能,这样也会对简化我们的使用流程帮助很大,这样我们整个流程就可以用C++来实现了(我们模型训练也是用C++的),特别是很多产品化的项目肯定会很喜欢。毕竟很多商业应用都是用C++开发的。 |
|