Toybrick

3399pro 的 rknn toolkit load_onnx读取失败

Hhhhlnlnlnh

注册会员

积分
79
楼主
发表于 2019-5-10 17:30:05    查看: 9208|回复: 3 | [复制链接]    打印 | 只看该作者
测试过weight.onnx是可以正常运行的,但使用rknn.load_onnx(model='./weight.onnx')后报出如下错误,这个错误不知道是由于模型不支持转换造成还是别的配置原因造成的??我是用rknn-toolkit-0.9.9在3399pro板子上测试的,而且配置环境后在64位ubuntu上也是这个问题,希望能有人帮忙解答下

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

jefferyzhang

版主

积分
13578
沙发
发表于 2019-5-10 17:50:06 | 只看该作者
看你取的名字貌似只有weights没有op,
确认下模型是完整操作+权重么?还是只有权重?
回复

使用道具 举报

Hhhhlnlnlnh

注册会员

积分
79
板凳
 楼主| 发表于 2019-5-10 18:08:27 | 只看该作者
我的onnx是pyTorch转过来的,pyTorch保存的时候是权重和模型结构分开保存,转化后的onnx好像也是权重。那我是不是要在保存pyTorch模型的时候就要采用权重和op同时保存的方式 后面转化rknn才能成功?
回复

使用道具 举报

yaowei

中级会员

积分
375
地板
发表于 2019-5-10 20:48:03 | 只看该作者
请问楼主weight.onnx怎么测试的?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表