今天,Face公司更新了其流行的人工智能软件框架Py Torch,以支持新功能,从而可以将更无缝的人工智能模型部署到移动设备上。
Py Torch被开发者用来研究和构建软件应用的人工智能模型,然后这些应用由于与领先的公共云平台集成而直接投入生产。Py Torch最初是由Face book的AI研究团队构建的,作为Python的功能性机器学习库。
它主要用于深度学习,这是机器学习的一个分支,试图模仿人脑的功能。它在语言翻译、图像和语音识别等领域取得了重大突破。
【资料图】
在移动设备上运行机器学习的能力非常重要,因为应用程序可以显著受益于更低的延迟。如果应用程序可以自己处理数据,而不需要将数据发送到云中,那么它终究会让一切运行得更加顺畅。
这是Face book在最新发布的Py Torch中试图解决的问题,支持从Python到iOS、安卓的“端到端工作流”。Face的Py Torch团队在一篇博文中表示,这仍然是一个实验性的功能,在移动中央处理器和图形处理单元上提高机器学习模型的性能还有很多工作要做。
第二个实验特性旨在构建机器学习应用程序时,更有效地利用服务器和设备上的计算资源。增加了对“八位模型量化”的支持,以提高推理过程中的性能,即当经过训练的机器学习模型得出结论或进行预测时。量化是指以降低的精度执行计算和存储的技术。
Py Torch团队写道:“为了支持在服务器和边缘设备上进行更有效的部署,Py Torch 1.3现在支持使用熟悉的热切模式PythonAPI进行8位模型量化。
Py Torch还获得了一个名为Captum的新工具,该工具旨在帮助开发人员更好地理解为什么他们的机器学习模型会得出某些结论。
Py Torch Group写道:“Captum提供了最先进的工具来理解特定神经元和层的重要性,并影响模型的预测。" Captum的算法包括积分梯度、电导、平滑梯度、VAR梯度和深度增强."
其他更新包括发布探测器2目标探测库,以帮助计算机视觉研究。此外,Face book还宣布启动一个名为CrypTen的新的基于社区的研究项目,该项目将探索隐私和安全技术的实现,例如安全多方计算、可信执行环境和Py Torch设备上计算。
最后,Face book表示,Py Torch现在支持GoogleCloud的张量处理单元,可以更快地开发和训练机器学习模型:“当组装成一台名为Cloud TPU Pods的多轨ML超级计算机时,这些TPU可以在几分钟或几小时内完成ML工作负载;在其他系统中,这种工作负载过去需要几天或几周的时间。
星座研究公司分析师霍尔格穆勒(Holger Mueller)对硅谷表示,今天的更新显示,Face book在Py Torch及相关服务方面取得了扎实的进展。
穆勒说:“但关键问题是,Py Torch和TensorFlow在谷歌的差距有多大?”两者都是移动目标,采用开发者将提供答案。