@Frank 你好,请问贵司有测试过LSTM在VIM3 NPU的运行情况吗?
我试了h5 tflite onnx都无法进行量化,不知道这边是否有关于LSTM的模型让我验证一下?
@Frank 不支持的层我都换掉了 现在就是单纯的LSTM层,文档写的onnx tflite keras tf都支持这个,但是keras量化时问题出在了full connect层,onnx问题出现在了reshape层。pb 和tflite存在高版本到低版本问题
1 Like
我也是类似的问题,不断出现。觉得最近两周的生命都浪费再了猜测如何能“鸟枪法成功”。
这两天看了 GitHub - OAID/Tengine: Tengine is a lite, high performance, modular inference engine for embedded device
觉得可能是很好的解决方案和支持
为什么有释放模型的需求?一个模型加载完了后在任务周期内不应该被释放才对
一般任务都是多模型的,但模型再多也没有需要反复释放再初始化的动机吧?
限制是指存储吗?只遇到 C308X 这种贴了 256M 或 512M 的配置有问题。