GTC 大会火热进行中!别错过 NVIDIA CEO 黄仁勋的最新发布,以及 AI 和加速计算的必听会议。
数据中心/云端/边缘

如何构建边缘解决方案:成功的常见问题和资源

学习新技术有时会让人感到害怕。这个 NVIDIA 边缘计算网络研讨会系列 旨在介绍边缘计算的基础知识,以便所有与会者都能理解与此技术相关的关键概念。

NVIDIA 最近主持了网络研讨会, 边缘计算 201 :如何构建边缘解决方案 ,探索构建生产边缘人工智能部署所需的组件。在演示期间,与会者被问及各种投票问题,涉及他们对边缘计算的知识、他们面临的最大挑战以及他们构建解决方案的方法。

您可以在下面看到这些投票问题的结果分解,以及一些答案和关键资源,它们将帮助您完成边缘之旅。

您的边缘计算之旅处于哪个阶段?

超过一半( 55% )的受访者表示,他们仍处于边缘计算旅程的学习阶段。本系列的前两次网络研讨会 – 边缘计算 101 :边缘简介边缘计算 201 :如何构建边缘解决方案 – 是专门为那些刚刚开始学习边缘计算和边缘人工智能的人设计的。

学习边缘计算基础知识的另一个资源是 在边缘部署 AI 的首要考虑因素 本参考指南包括在构建任何边缘计算部署时需要考虑的所有技术和决策点。

此外, 25% 的受访者表示,他们正在研究适合他们的边缘计算用例。到目前为止,当今最成熟的边缘计算用例是 计算机视觉 或视觉 AI 。由于计算机视觉用例需要高带宽和低延迟,因此它们是边缘计算必须提供的理想用例。

让我们用人工智能构建更智能、更安全的空间 深入研究计算机视觉用例,并引导您了解与使这些用例成功相关的许多技术。

在设计边缘计算解决方案时,您最大的挑战是什么?

对于这个民调问题,受访者在几个不同的答案中的比例更为平均。在下面的每个小节中,您都可以阅读更多关于受众成员在开始边缘计算时所遇到的挑战的信息,以及一些有帮助的资源。

不确定需要什么组件

尽管每个用例和环境都有独特的特定需求,但几乎每个边缘部署都将包括三个组件:

  1. 可以跨多个环境部署和管理的应用程序
  2. 提供正确的计算和网络以实现所需用例的基础架构
  3. 保护知识产权和关键数据的安全工具

当然,还需要考虑其他因素,但专注于这三个组成部分为组织提供了在边缘开始人工智能所需的东西。

典型的边缘部署是这样的:

Diagram of an edge deployment workflow
图 1 。典型的边缘部署工作流

要了解更多信息,请参阅 边缘计算 201 :如何构建边缘解决方案 它涵盖了构建边缘解决方案的所有考虑因素、所需的组件以及如何确保这些组件协同工作以创建无缝工作流。

实施挑战

理解实现边缘计算解决方案所涉及的步骤是确保构建的第一个解决方案是一个全面解决方案的好方法,这将有助于消除维护或扩展时的未来难题。

这种理解也将有助于消除无法预见的挑战。实施任何边缘人工智能解决方案的五个主要步骤是:

  1. 确定要解决的用例或挑战
  2. 确定存在哪些数据和应用程序需求
  3. 评估现有的边缘基础设施以及必须添加哪些部分
  4. 测试溶液,然后按比例推出
  5. 与其他小组分享成功,以推广其他用例
Diagram showing the five steps to get started with an edge AI project: identify the use case for the edge, determine data requirements, analyze capabilities, roll out edge solutions, and celebrate success
图 2.实施边缘人工智能项目的五个步骤

要了解有关如何实现边缘计算解决方案的更多信息,请参阅 开始使用 Edge AI 的步骤 ,其中概述了最佳做法和一路上要避免的陷阱。

跨多个站点扩展

跨多个(有时数千个)站点扩展解决方案是与边缘计算相关的最重要但极具挑战性的任务之一。一些组织试图手动构建解决方案以帮助管理部署,但发现扩展这些解决方案所需的资源是不可持续的。

其他组织试图重新调整数据中心工具的用途,以在边缘管理其应用程序,但要做到这一点,需要自定义脚本和自动化,以使这些解决方案适应新的环境。随着基础设施占地面积的增加和新工作负载的增加,这些定制变得难以支持。

基于 Kubernetes 的解决方案可以帮助跨多个边缘位置部署、管理和扩展应用程序。这些是专门为边缘环境构建的工具,可以随企业支持包一起提供。例如 红帽 OpenShift , 坦珠 NVIDIA Fleet Command .

Fleet Command 专为人工智能设计。它是交钥匙、安全的,可以在几分钟内扩展到数千台设备。小心 简化边缘的人工智能管理 演示以了解更多信息。

针对边缘用例优化应用程序

边缘计算应用程序最重要的方面是灵活性和性能。应用程序需要能够在许多不同的环境中运行,并且需要具有足够的可移植性,以便于跨分布式位置进行管理。

此外,组织需要可以依赖的应用程序。应用程序需要在有时网络连接可能不稳定的极端位置保持性能,例如海洋中央的石油钻机。

为了满足这两个要求,许多组织已经转向云原生技术,以确保其应用程序具有所需的灵活性和性能水平。通过使应用程序云成为本地应用程序,组织可以帮助确保应用程序为边缘部署做好准备。

要了解更多信息,请参阅 让应用程序为本机云做好准备 .

证明解决方案成本的合理性

证明任何技术的成本都可以归结为理解成本变量和证明投资回报率。对于边缘计算解决方案,有三个主要成本变量:

  1. 基础设施成本
  2. 申请费用
  3. 管理成本

证明部署的 ROI 将因用例而异,并且每个组织的 ROI 也不同。通常, ROI 在很大程度上取决于部署在边缘的 AI 应用程序的价值。

了解更多与边缘部署相关的成本,包括: 构建边缘战略:成本因素 .

保护边缘环境

边缘计算环境具有独特的安全考虑。这是因为他们不能依赖数据中心的城堡和护城河安全体系结构。例如,数据和设备的物理安全是在边缘部署人工智能时必须考虑的因素。此外,如果存在从边缘设备到组织中心网络的连接,则确保两个设备之间的加密流量至关重要。

最好的方法是找到从云到边缘提供分层安全的解决方案,提供多种安全协议以确保知识产权和关键数据始终受到保护。

要了解有关如何保护边缘环境的更多信息,请参阅 边缘计算:安全架构师的考虑 .

您是否计划在边缘部署容器化应用程序?

本文讨论了云原生技术 边缘计算 201 网络研讨会是确保部署在边缘的应用程序灵活且性能可靠的一种方式。 54% 的受访者表示,他们计划在边缘部署集装箱化应用程序,而 38% 的人表示不确定。

组织需要灵活的边缘应用程序,因为他们部署到的边缘位置可能有不同的需求。例如,并不是所有的杂货店都一样大。一些较大的杂货店可能需要高功率,部署了十几个摄像头,而较小的杂货店仅部署了一到两个摄像头,功率要求可能非常有限。

尽管存在这些差异,但组织需要能够跨这两个环境部署相同的应用程序,并确信应用程序可以轻松适应。

云原生技术允许这种灵活性,同时提供了关键的可靠性:如果出现问题,应用程序将重新旋转,如果系统出现故障,工作负载将迁移。

了解有关如何在边缘环境中使用云原生技术的更多信息,包括: Edge AI 的未来是云原生的 .

您是否考虑过如何在边缘管理应用程序和系统?

当被问及他们是否考虑过如何在边缘管理应用程序和系统时, 52% 的受访者表示他们正在构建自己的解决方案, 24% 的人从合作伙伴那里购买解决方案。 24% 的人表示他们没有考虑管理解决方案。

对于处于边缘的人工智能来说,管理解决方案是一个关键工具。位置的规模和距离使得手动管理所有位置对于生产部署非常困难。当应用程序需要更新或新的安全补丁时,即使是管理少量位置也会变得更加繁琐。

本文题为“跨多个站点扩展”的部分(如上)概述了手动解决方案难以扩展的原因。它们通常对 PoC 或实验性部署非常有用,但对于任何生产环境,管理工具都可以省去许多麻烦。

NVIDIA Fleet Command 是一个用于容器编排的托管平台,可简化边缘系统和 AI 应用程序的供应和部署。它利用云的规模和弹性简化了分布式计算环境的管理,将每个站点变成了一个安全、智能的位置。

要了解 Fleet Command 如何帮助管理边缘部署的更多信息,请观看 简化边缘的人工智能管理 演示.

展望未来

边缘计算是一个新的但经过验证的概念,适用于特定用例。了解这项技术的基础知识可以帮助许多组织加速工作负载,从而实现盈利。

虽然边缘计算 101 和边缘计算 201 网络研讨会侧重于设计和构建边缘解决方案, 边缘计算 301 :维护和优化部署 深入了解对边缘部署进行日常管理所需的内容。注册以继续您的边缘计算学习之旅。

 

Tags