博客
关于我
【研究生】TensorFlow Lite发布重大更新!支持移动GPU、推断速度提升4-6倍
阅读量:309 次
发布时间:2019-03-03

本文共 588 字,大约阅读时间需要 1 分钟。

TensorFlow Lite的最新版本引入了对移动设备GPU的支持,这一功能显著提升了模型推断效率,为移动应用开发者带来了更强大的性能保障。

在资源受限的移动设备上运行复杂机器学习模型往往面临性能瓶颈。TensorFlow Lite通过量化优化模型以提升性能,但这通常需要牺牲模型精度。而使用GPU加速的浮点模型则避免了这种权衡,既保留了高精度又获得了更快的推断速度。

在Pixel 3和S9等旗舰设备上,GPU加速使人脸轮廓检测速度提升了4倍,而在iPhone 7上则达到了6倍的提升。对于实时视频处理任务,如YouTube Stories中的视频分割模型,速度提高了5-10倍。

这种改进尤其在处理复杂模型时更加明显,如深度估计模型的速度提升了10倍。相比之下,对于较小模型的使用,GPU加速的优势相对较低,且可能带来额外的内存传输延迟。

在实际应用中,安卓开发者可以通过将TensorFlow Lite的AAR文件替换为带有GPU支持的版本,并在Java初始化代码中添加相应的GPU代理配置。iOS开发者则需要下载对应的TensorFlow Lite二进制文件,并在模型创建后调用GPU代理。

当前GPU支持仅适用于特定操作,如ADD、CONV_2D等,未来版本将扩展更多操作和性能。完整开源版本计划于2019年晚些时候发布。

文章链接提供了详细的使用教程及更多信息。

转载地址:http://hsbm.baihongyu.com/

你可能感兴趣的文章
OpenMCU(二):GD32E23xx FreeRTOS移植
查看>>
OpenMMLab | S4模型详解:应对长序列建模的有效方法
查看>>
OpenMMLab | 【全网首发】Llama 3 微调项目实践与教程(XTuner 版)
查看>>
OpenMMLab | 面向多样应用需求,书生·浦语2.5开源超轻量、高性能多种参数版本
查看>>
OpenMV入门教程(非常详细)从零基础入门到精通,看完这一篇就够了
查看>>
OpenObserve云原生可观测平台本地Docker部署与远程访问实战教程
查看>>
OpenPPL PPQ量化(4):计算图的切分和调度 源码剖析
查看>>
OpenPPL PPQ量化(5):执行引擎 源码剖析
查看>>
openpyxl 模块的使用
查看>>
Openresty框架入门详解
查看>>
OpenResty(1):openresty介绍
查看>>
OpenResty(2):OpenResty开发环境搭建
查看>>
openshift搭建Istio企业级实战
查看>>
Openstack 之 网络设置静态IP地址
查看>>
OpenStack 综合服务详解
查看>>
OpenStack 网络服务Neutron详解
查看>>
Openstack 网络管理企业级实战
查看>>
Openstack(两控制节点+四计算节点)-1
查看>>
openstack--memecache
查看>>
openstack-keystone安装权限报错问题
查看>>