Toybrick

RK的NPU会继续支持onnxruntime吗?

hjh2008

注册会员

积分
64
楼主
发表于 2023-2-24 13:38:49    查看: 1812|回复: 4 | [复制链接]    打印 | 只看该作者
在onnxruntime官网上看到RK的NPU支持onnxruntime,但目前好像只支持RV1808,请问RK会继续支持onnxruntime吗?会的话大概什么时候会更新onnxruntime的支持?


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

jefferyzhang

版主

积分
12983
沙发
发表于 2023-2-25 12:46:32 | 只看该作者
请问您有什么模型非要用onnx么
回复

使用道具 举报

hjh2008

注册会员

积分
64
板凳
 楼主| 发表于 2023-2-27 11:45:08 | 只看该作者
本帖最后由 hjh2008 于 2023-2-27 11:48 编辑
jefferyzhang 发表于 2023-2-25 12:46
请问您有什么模型非要用onnx么

不是模型,是流程会更简便。如果咱们RK的NPU芯片都支持onnxruntime,那我们用量化感知训练后的模型转成onnx模型后直接就可以用RK芯片进行推理了。理论上是不是可以不用rknn-toolkit了?
因为我们的软件是要用户自己微调模型的,而且目前to C的软件很多都是Windows系统。如果可以不用rknn-toolkit,那用户就不用另外准备Ubuntu系统和配置相关的环境来转换模型,可以大大简化我们软件的使用难度,便于我们软件的推广和提高用户的效率。
不过如果没那么快支持onnxruntime,希望能提供onnx转rknn模型的windows下C++接口简化版的toolkit或动态库,可以不用量化和仿真功能,这样也会对简化我们的使用流程帮助很大,这样我们整个流程就可以用C++来实现了(我们模型训练也是用C++的),特别是很多产品化的项目肯定会很喜欢。毕竟很多商业应用都是用C++开发的。
回复

使用道具 举报

jefferyzhang

版主

积分
12983
地板
发表于 2023-2-27 12:03:01 | 只看该作者
hjh2008 发表于 2023-2-27 11:45
不是模型,是流程会更简便。如果咱们RK的NPU芯片都支持onnxruntime,那我们用量化感知训练后的模型转成onn ...

异构计算不可能频繁与CPU交互
回复

使用道具 举报

hjh2008

注册会员

积分
64
5#
 楼主| 发表于 2023-2-27 13:45:03 | 只看该作者
jefferyzhang 发表于 2023-2-27 12:03
异构计算不可能频繁与CPU交互

上面说的应该不涉及到异构计算,推理还是在RK芯片上。现在onnx转rknn模型要用到rknn-toolkit,由于rknn-toolkit需要ubuntu,python和大量的库。我们希望有一种简化版的onnx转rknn模型并编译的工具(windows、C++接口),不需要类似rknn-toolkit量化和仿真的功能。量化我们可以用其它方法,仿真我们可以直接在板子运行。这是我们目前的需求。
目前我们了解到的可以不使用rknn-toolkit的方法有两种,一种是paddle的fastdeploy,但它也是python的;还有另外一种就是onnxruntime,但目前只支持RV1808,还不支持其它型号芯片。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表