英特尔在 Flink Forward 上展示分布式模型推理平台

Flink Forward 全球虚拟会议 2020 将于下个月拉开帷幕,届时 Flink 社区将探讨流处理和 Apache Flink 的未来。此次会议免费参加,时间为 2020 年 10 月 21 日至 22 日。另外,组织者还将于 10 月 19 日至 20 日举办六场由讲师指导的实践培训课程,内容涵盖了 Apache Flink 的多个方面,具体包括:

  • Flink 开发(2 天)
  • SQL 开发(2 天)
  • 运行时和操作(1 天)
  • 有状态函数(1 天)
  • 调优和故障排除(简介和高级,各 1 天)

我们有幸能够展示英特尔团队如何在 Intel Analytics Zoo 内的 Cluster Serving 服务中利用 Apache Flink。请仔细阅读我们的 Flink Forward 会议,并了解集群服务:在 Analytics Zoo 中使用 Apache Flink 进行分布式模型推理,时间为 2020 年 10 月 21 日。如果您尚未注册,请务必在 10 月 1 日之前完成注册,确保您的席位,并准备好聆听来自不同行业、公司规模和地点的公司代表就最新技术发展和 Flink 用例进行的一些有趣演讲!

集群服务:在 Analytics Zoo 中使用 Apache Flink 进行分布式模型推理

随着深度学习项目从实验发展到生产阶段,部署深度学习模型以进行大规模实时分布式推理的需求日益增长。尽管有许多可用工具可用于不同任务,如模型优化、模型服务、集群调度、集群管理等,但深度学习工程师和科学家仍然面临部署和管理分布式推理工作流程的挑战性过程,这些工作流程可以扩展到以直观和透明的方式实现大型集群。

在我们的会议中,我们将讨论以下内容:我们将介绍成功交付模型服务的两个主要领域,即大数据与机器学习的结合。一旦模型训练完成,为模型提供直观的服务成为构建机器学习管道的关键任务。在模型服务场景中,我们关注两个主要基准,即延迟和吞吐量。为满足机器学习管道中对极低延迟模型服务的需求,我们开发了 Cluster Serving:Intel Analytics Zoo 内的自动分布式服务解决方案。Cluster Serving 利用 Flink 的流处理运行时及其低延迟的连续处理引擎。此外,为满足高吞吐量需求,Cluster Serving 在 Flink 的统一数据处理引擎中实现了批处理。此外,集群服务还支持多种深度学习模型,包括 TensorFlow、PyTorch、Caffe、BigDL 和 OpenVINO。我们的模型服务解决方案提供了简单的发布-订阅(pub/sub)API,允许用户使用简单的 Python 或 HTTP API 轻松将推理请求发送到输入队列。

在我们的会议中,我们将介绍集群服务及其架构设计给 Flink Forward 的观众,并讨论将深度学习模型部署和管理到分布式、大数据和统一数据处理引擎中的底层设计模式和权衡。我们还将展示一些已经采用 Cluster Serving 来开发和部署分布式推理工作流程的用户实际用例、经验和示例。

您将在我们的会议中学到:

  • Cluster Serving 在 Apache Flink 的实现设计及其核心特性
  • 并行化昂贵操作
  • 使用消息队列等数据管道作为并行源
  • 最大限度地减少机器学习管道中的数据传输

关注公众号“大模型全栈程序员”回复“大数据面试”获取800页左右大数据面试宝典 ,回复“大数据”获取多本大数据电子书

关注公众号“大模型全栈程序员”回复“小程序”获取1000个小程序打包源码。更多免费资源在http://www.gitweixin.com/?p=2627