V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
XinLake
V2EX  ›  程序员

Android OpenCV DNN Objects Detection

  •  
  •   XinLake · 2018-03-11 18:09:48 +08:00 · 1910 次点击
    这是一个创建于 2455 天前的主题,其中的信息可能已经有所发展或是发生改变。
    10 条回复    2018-03-12 23:38:50 +08:00
    YRodT
        1
    YRodT  
       2018-03-11 18:35:28 +08:00 via Android
    一张图运算时间多少呢?
    XinLake
        2
    XinLake  
    OP
       2018-03-11 19:52:55 +08:00 via Android
    @YRodT
    没计算这个,大概 5 帧,1920x960 分辨率,一帧计算时间 200ms 以内吧,小米 6,没适配 GPU 计算。
    clavichord93
        3
    clavichord93  
       2018-03-11 20:51:21 +08:00 via iPhone
    @XinLake 这么大分辨率还算挺快的啊
    clavichord93
        4
    clavichord93  
       2018-03-11 20:52:13 +08:00 via iPhone
    @XinLake 模型是自己训得还是预训练好的啊
    XinLake
        5
    XinLake  
    OP
       2018-03-11 21:48:02 +08:00 via Android
    @clavichord93
    OpenCV 的 DNN 不支持模型训练,只能通过深度学习框架软件训练模型,然后导入 OpenCV 使用。要识别什么训练什么就行
    XinLake
        6
    XinLake  
    OP
       2018-03-11 22:01:37 +08:00 via Android
    这种(浮点)计算密集型应用,全部方在 CPU 上跑其实是不合理的,实际使用要适配 GPU 计算加速才正常。
    不过这技术理论算法,神经网络模型那些都在发展。
    Da11as
        7
    Da11as  
       2018-03-12 10:00:33 +08:00 via Android
    请问楼主的模型大小多少呢
    XinLake
        8
    XinLake  
    OP
       2018-03-12 11:27:43 +08:00
    @Da11as
    模型文件 22M,
    APK 34M,OpenCV 库有 10+M
    tempdban
        9
    tempdban  
       2018-03-12 14:15:35 +08:00
    @XinLake 按我以前的理解,浮点性能看你是不是有 FPU 加 neon 指令集,并且编译链应该用 arm7-hf ?
    XinLake
        10
    XinLake  
    OP
       2018-03-12 23:38:50 +08:00
    @tempdban
    现在先进多了,也有标准的软件库 OpenCL/CUDA 给 APP 提供硬件计算接口,都是一些 API 调用,但是走那些 API 就会调用硬件 CPU 的 vfp neon 等单元、GPU、DSP 来计算,计算速度不是一个级别的,同时也需要标准化设计。

    适配硬件计算加速后才能评估效能,做效率优化。

    现在都是 armv8-64 了
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2857 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 12:30 · PVG 20:30 · LAX 04:30 · JFK 07:30
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.