博客
关于我
【研究生】TensorFlow Lite发布重大更新!支持移动GPU、推断速度提升4-6倍
阅读量:309 次
发布时间:2019-03-03

本文共 588 字,大约阅读时间需要 1 分钟。

TensorFlow Lite的最新版本引入了对移动设备GPU的支持,这一功能显著提升了模型推断效率,为移动应用开发者带来了更强大的性能保障。

在资源受限的移动设备上运行复杂机器学习模型往往面临性能瓶颈。TensorFlow Lite通过量化优化模型以提升性能,但这通常需要牺牲模型精度。而使用GPU加速的浮点模型则避免了这种权衡,既保留了高精度又获得了更快的推断速度。

在Pixel 3和S9等旗舰设备上,GPU加速使人脸轮廓检测速度提升了4倍,而在iPhone 7上则达到了6倍的提升。对于实时视频处理任务,如YouTube Stories中的视频分割模型,速度提高了5-10倍。

这种改进尤其在处理复杂模型时更加明显,如深度估计模型的速度提升了10倍。相比之下,对于较小模型的使用,GPU加速的优势相对较低,且可能带来额外的内存传输延迟。

在实际应用中,安卓开发者可以通过将TensorFlow Lite的AAR文件替换为带有GPU支持的版本,并在Java初始化代码中添加相应的GPU代理配置。iOS开发者则需要下载对应的TensorFlow Lite二进制文件,并在模型创建后调用GPU代理。

当前GPU支持仅适用于特定操作,如ADD、CONV_2D等,未来版本将扩展更多操作和性能。完整开源版本计划于2019年晚些时候发布。

文章链接提供了详细的使用教程及更多信息。

转载地址:http://hsbm.baihongyu.com/

你可能感兴趣的文章
openstack下service和endpoint
查看>>
Openstack企业级云计算实战第二、三期培训即将开始
查看>>
OpenStack创建虚拟机实例实战
查看>>
OpenStack安装部署实战
查看>>
OpenStack实践系列⑨云硬盘服务Cinder
查看>>
OpenStack架构
查看>>
OpenStack版本升级与故障排查实战
查看>>
Openstack的HA解决方案【替换原有的dashboard】
查看>>
OpenStack的基本概念与架构详解
查看>>
Openstack的视频学习
查看>>
OpenStack自动化安装部署实战(附OpenStack实验环境)
查看>>
openstack虚拟机迁移live-migration中libvirt配置
查看>>
OpenStack项目管理实战
查看>>
OpenStreetMap初探(一)——了解OpenStreetMap
查看>>
openSUSE 13.1 Milestone 2 发布
查看>>
openSUSE推出独立 GUI 包管理工具:YQPkg,简化了整个软件包管理流程
查看>>
OpenVP共用账号 一个账号多台电脑登录
查看>>
OpenVSwtich(OVS)Vlan间路由实战 附实验环境
查看>>
Openwrt LuCI模块练习详细步骤
查看>>
openwrt_git_pull命令提示merger冲突时如何解决?
查看>>