【CNMO新闻】2018年在拉斯维加斯召开的发明会议上,亚马逊揭开了SageMaker Neo的面纱,这一功能使开发人员能够培训机器学习模型并将其部署在云端或本地,但因为Neo是一个封闭源,所以仅AWS客户可享用此功能。
AWS
亚马逊于近日宣布它将在Apache软件许可下发布Neo的底层代码作为开源Neo-AI,并在GitHub上的存储库中免费提供。亚马逊表示,这一步将有助于其在各硬件平台上引入独立创新,惠及范围从第三方处理器供应商和设备制造商到深度学习从业者。
AWS深度学习高级产品经理Sukwon Kim和工程负责人Vin Sharma在博客文章中写道,“通常,很难为多个硬件平台优化机器学习模型,因为开发人员需要为每个平台的硬件和软件配置手动调整模型,尤其对于边缘设备而言,往往会受到计算能力和存储的限制。开源Neo-AI消除了调整机器学习模型在多个平台上部署所需的时间和精力”。
除了来自英特尔、英伟达和Arm的辅助平台之外,Neo-AI与一系列机器学习框架相得益彰,包括谷歌的TensorFlow、MXNet、Facebook的PyTorch、ONNX和XGBoost。除了优化模型以“原始速度的两倍”执行且精度“无损失”之外,它还有助于将其转换为通用格式。
亚马逊称,使用自定义机器学习编译器,是与华盛顿大学的TVM和Treelite合作基于对传统编译器技术的几十年研究。亚马逊本着合作的精神表示,开源Neo-AI项目将主要由Arm、英特尔、高通、赛灵思、Cadence等公司提供支持。
亚马逊表示,处理器供应商可以将自定义代码集成到编译器中以提高模型性能,设备制造商可以为特定的软件和硬件配置定制Neo-AI运行,而该运行已部署在ADLINK、联想、Leopard Imaging、松下等设备上。
英特尔人工智能产品部总经理Naveen Rao 谈道:“英特尔人工智能的愿景是看到研究人员、数据科学家、开发人员和组织从深度学习中获取真正的价值。为了从AI中获取价值,我们必须确保深度学习模型可以像在边缘设备上一样轻松地部署在数据中心和云端中。英特尔很高兴通过和开源Neo-AI合作来扩展其开始的nGraph计划。”