|
本帖最后由 protossw512 于 2019-7-25 07:35 编辑
rknn-toolkit version: 1.0.0
我们使用官方的deeplab进行quantize-aware training后,转换成了tflite(具体操作请见:https://github.com/tensorflow/models/blob/master/research/deeplab/g3doc/quantize.md)然后使用rknn直接把tflite模型转成了rknn模型,发现输出结果和tflite的非常不一致,精确度下降了不少,不知道开发部门有没办法排除一下这个bug?上面的链接里面有提供quantized模型下载,可用于测试。tflite本身的转换工具也是有一些更新的近期。或者可以考虑在硬件上原生支持tflite的op,也是很好的选择,考虑到tflite在大厂的工程中应用非常广泛。
现在这个是我们项目非常大的一个block。
另外真心希望rknn的lib能够开源,哪怕部分开源,比如可以让我们手动port层的设定和模型,以及量化参数,这样哪怕模型转换工具出现了错误,也可能够进行手动修正(比如输入长宽比不一同的图片,在deeplab的网络上还是有错误无法转换,因为concat那层的shape读取长和宽的顺序不同),目前模型转换工具一旦出错,就彻底没办法用了。
硬件虽然很好但是只是存在于纸面,软件bug太多在上面开发的应用没法落地,将会是产品推广最大的阻碍。
|
|