VIM3能否在Android系统中使用NPU对神经模型进行加速

请问VIM3能否在Android系统中使用它的NPU来加速神经模型的运行,如果可以的话那大概的流程是怎么样的?我看到其中多数的文档似乎只适用与Linux系统。
我阅读了如何使用Npu jni以及khadas_android_npu_app后在Android系统上尝试运行,但在调用libkhadas_npu_jni.so库的方法时发生了异常,我在其他帖子中发现这可能是固件版本的问题,请问我要如何查看固件版本呢?
以及NPU预编译demo使用说明中的方法是否仅适用于Linux或64-bit的系统,如果我想在Android 32-bit的系统上运行,是否有什么方法?
我在Ubuntu16.04上按照KSNN使用说明中,运行Inception V3时,发生错误:
OSError: ./libs/libnn_inceptionv3.so: cannot open shared object file: No such file or directory
我尝试的一些方法试图解决但仍然没用,能否给我提供一些解决思路呢?
我根据AML_NN_SDK提供的内容尝试运行模型,但发生错误: couldn’t find “libaml_nnapi.so”。查看了一下,发现文件夹libs中并没有libaml_nnapi.so,准确来说是armeabi-v7a和armeabi中没有这个so文件,是否意味着它无法在32-bit系统下运行,或是我遗漏了什么?
以下是我VIM3版的一些信息:
Android Pie
Galcore version 6.4.2.1.258160
可能我的问题没有什么水平,但任何的方法或是思路对我都很重要,望不吝赐教,谢谢。

@mukanyun 我回答关于ubuntu系统的一些问题.

请使用20.04的最新的固件,并且应该在vim3上面运行,而不是在你的PC上运行。

好的 我会尝试一下这么做 感谢你的回答 :grinning:

目前android 还没有做这方面的支持

我阅读了如何使用Npu jni以及khadas_android_npu_app后在Android系统上尝试运行,但在调用libkhadas_npu_jni.so库的方法时发生了异常,我在其他帖子中发现这可能是固件版本的问题,请问我要如何查看固件版本呢?
固件版本可以去More settings > Device Preference>About 中查看

我根据AML_NN_SDK 提供的内容尝试运行模型,但发生错误: couldn’t find “libaml_nnapi.so”。查看了一下,发现文件夹libs中并没有libaml_nnapi.so,准确来说是armeabi-v7a和armeabi中没有这个so文件,是否意味着它无法在32-bit系统下运行,或是我遗漏了什么?
目前释放的android 固件不支持NN 模式运行,只支持khadas_android_npu_app jni 方式运行

感谢你的回答,解决了我最近遇到的疑惑 :grinning:

@jasonl
请问一下aml_npu_sdk中《Android&Linux编译集成指导(0.2).pdf》里在3.2.2 编译环境中提到的sdk包介绍,这个sdk包是哪一个文件,我在aml_npu_sdk中以及一些其他文件里并没有找到conversion_scripts_nbg_unify这个文件夹。

conversion_scripts_nbg_unify 是模型转换工具中脚本生成的,你可以参考
模型转换运行用户指南(0.8).pdf 文档