Toybrick

InstanceNormalization算子怎么转成npu算子

11111qq

注册会员

积分
94
楼主
发表于 11 小时前    查看: 39|回复: 0 | [复制链接]    打印 | 只看该作者
我有个模型在转成rknn模型的时候,推理性能比较低,查看onnx模型结构和rknn推理时的性能报告发现,模型里有算子是在CPU上运行的,导致推理慢,应该是InstanceNormalization算子不支持在npu上计算。我尝试将InstanceNormalization算子进行分解或替换都解决不了。有办法能修改模型提升推理性能吗?
一般遇到这种模型中的CPU算子,想要提升性能的话,是用什么办法呢
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表