include figures in use case doc

Change-Id: Ie0d9027d1366e54ffa4cee0523b73e67533a826d
This commit is contained in:
qihuiz93 2023-10-13 15:54:56 +08:00 committed by Qihui Zhao
parent 6841133016
commit 257f792c69

View File

@ -91,8 +91,6 @@ Jianchao Guo (AsiaInfo), Jian Xu (China Mobile), Jie Nie (China Mobile), Jintao
![算力网络技术图谱(摘自中国移动《算力网络白皮书》)](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/3.%E5%9B%BE-CFN-Technology-Topo.png)
算力网络技术图谱(摘自中国移动《算力网络白皮书》)
(如想了解更多图谱中具体的技术领域,可参见中国移动《算力网络白皮书》、《算力网络技术白皮书》)
  上图是中国移动提出的算力网络技术图谱,其中罗列了相关技术研究领域,并将各领域归类到不同层级。图中,算网基础设施层中的算力基础设施和网络基础设施中涉及到的技术领域与云计算和网络发展相关技术领域并无显著区别,进而说明算力网络在底层基础技术上并不是全新的技术领域,而是基于已有技术领域的演进。此外,算网基础设施层中的算网一体部分是算力和网络融合关键,也是算力网络实现任务式交互服务模式的最核心保障技术,此部分可基于算网进行创新。图中的编排管理层和服务运营层将会产生大量商业模式、服务模式、管理模式的创新,是未来算力网络服务商商业竞争力的体现。
@ -110,7 +108,7 @@ Jianchao Guo (AsiaInfo), Jian Xu (China Mobile), Jie Nie (China Mobile), Jintao
| 场景描述 | 随着全社会全行业数字化转型的不断变革云上办公变得越来越普遍。云上办公具有资源随选方便快捷移动性强等特点受到大中型企业的青睐。云桌面是一种具体的实现方式。通过集中管理企业员工所需要的办公计算资源采用规模化数字化的手段可以减少企业IT运营和成本支出提高生产效率。由于企业有遍布全国乃至全球的分支机构既有对算力的要求也有对网络的要求。因此此场景可以认为是算力网络的一个典型场景。|
| 当前解决方案及Gap分析 | 传统云桌面解决方案通常根据员工所在地理位置静态分配一个云桌面不考虑网络状态和员工移动到另一个地方是否还能得到跟本地一致体验。企业整体IT资源利用率也无法达到最优。|
| 算力网络需求推导 | **基于算网融合下的VDI云桌面需求** <br> 1. 用户使用云桌面时根据云桌面的用途对时延和带宽有不同的要求。例如办公类的云桌面一般要求时延小于30ms带宽2M左右。如果是仿真设计类的云桌面则时延更低带宽要更高。因此VDI场景需要算力网络在选择VDI资源池的时候能根据用户的云桌面类型计算出合适时延和带宽的网络路径。要求算力网络具有网络调度能力。 <br> 2. 另外根据云桌面类型的不同,其要求的计算/存储资源也会有所不同。例如设计仿真类的云桌面需要带GPU、需要若干CPU核及若干内存等等。因此VDI场景还需要算力网络在选择VDI资源池的时候能根据云桌面类型匹配合适的硬件形态和容量。要求算力网络具有计算调度能力。 <br> 3. 用户可能随时出差或外派需要算力网络能根据用户新的位置调整云桌面资源执行云桌面迁移或备份保证用户一致性体验。企业整体IT资源利用率达到最优。|
| 参考实现与流程 | 此场景下需要VDI管理系统(下文称VDI Center)和算网大脑联动。系统示意图: <br> ![40fbb42a65ecc0808a36c33fcefe071c.png](en-resource://database/637:1) <br> 具体工作流程: <br> 1. 企业在不同地理位置部署云桌面服务器资源池。可以自建私有云数据中心也可以使用公有云服务。VDI Center为一个集中的VDI云桌面管理系统。VDI Center向算网大脑报告所有计算资源信息。算网大脑同时维护企业上网接入POP点网PE和IT资源中心POP点(云PE)信息。 <br> 2. 用户需要申请云桌面携带网络SLA要求、计算资源要求向VDI Center提出申请。 <br> 3. VDI Center向算网大脑请求合适的资源池并计算从用户分支站点到资源池的网络路径满足SLA要求。算网大脑返回资源池信息并预留建立路径。 <br> 4. VDI Center拿到最优的资源池信息后通过该资源池的云管平台申请计算资源。并将计算资源的信息返回用户。 <br> 5. 用户通过之前建立的路径访问云桌面。 <br> 6. 用户出差到其他区域,发起云桌面迁移请求。 <br> 7. VDI Center重新向算网大脑请求新的合适的资源池。算网大脑重新优化资源池并建立新路径。返回VDI Center。 <br> 8. VDI Center发现新的资源池发起虚机迁移过程。 <br> 9. 用户通过新路径访问新的云桌面。|
| 参考实现与流程 | 此场景下需要VDI管理系统(下文称VDI Center)和算网大脑联动。系统示意图: <br> ![VDI示意图](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.1%E5%9B%BE-VDI.png) <br> 具体工作流程: <br> 1. 企业在不同地理位置部署云桌面服务器资源池。可以自建私有云数据中心也可以使用公有云服务。VDI Center为一个集中的VDI云桌面管理系统。VDI Center向算网大脑报告所有计算资源信息。算网大脑同时维护企业上网接入POP点网PE和IT资源中心POP点(云PE)信息。 <br> 2. 用户需要申请云桌面携带网络SLA要求、计算资源要求向VDI Center提出申请。 <br> 3. VDI Center向算网大脑请求合适的资源池并计算从用户分支站点到资源池的网络路径满足SLA要求。算网大脑返回资源池信息并预留建立路径。 <br> 4. VDI Center拿到最优的资源池信息后通过该资源池的云管平台申请计算资源。并将计算资源的信息返回用户。 <br> 5. 用户通过之前建立的路径访问云桌面。 <br> 6. 用户出差到其他区域,发起云桌面迁移请求。 <br> 7. VDI Center重新向算网大脑请求新的合适的资源池。算网大脑重新优化资源池并建立新路径。返回VDI Center。 <br> 8. VDI Center发现新的资源池发起虚机迁移过程。 <br> 9. 用户通过新路径访问新的云桌面。|
| 技术发展及开源工作建议 | 建议增加对算力网络编排管理层中算网大脑的研究: <br> 1. 综合计算信息和网络信息有一套多目标优化的调度算法。VDI场景只需要维护IaaS底层资源信息不关心PaaS/SaaS类算力服务信息。 <br> 2. 能够管理多种不同形态的资源,并建立统一的度量衡。|
@ -121,7 +119,7 @@ Jianchao Guo (AsiaInfo), Jian Xu (China Mobile), Jie Nie (China Mobile), Jintao
|------------------------|-----------------|
| 贡献者 | 中国移动美研所-潘伟森 |
| 应用名称 | 基于AI的算力网络流量控制与算力匹配 |
| 场景描述 | 1. 算力网络集成了分布于不同地理位置的分布式和泛在化的计算能力,其来源包括了各种计算设备如云计算节点、边缘计算节点、终端设备、网络设备等, 在算力网络环境中的计算任务量大、类型多样包括数据分析、AI推理、图形渲染等各类计算任务在这种情况下传统的流量控制策略可能无法有效处理任务的多样性和量级可能导致计算资源的浪费、计算任务的延迟、服务质量下降等问题。为了解决这些问题可以采用基于AI的流量控制与算力匹配通过收集大量的网络流量数据、设备状态数据和任务需求数据使用深度学习算法训练AI模型。模型能够学习到网络流量和计算任务的模式预测未来的流量变化和任务需求以及设备的计算能力并根据这些信息实时调整流量控制策略与算力匹配策略。 <br> 2. 在AI的帮助下运营商能够更有效地管理流量和算力减少网络拥堵提高计算资源的利用率降低计算任务的延迟提高服务质量。例如在预测到大量的数据分析任务将要到来时AI系统可以提前调整网络配置优先将计算资源分配给这些任务以满足需求。在预测到计算设备的能力不足以处理即将到来的任务时AI系统可以提前调整流量控制策略将部分任务重定向到其他设备以防止拥堵。 <br> 3. 基于AI的算力网络流量控制与算力匹配将大规模的算力网络带来了显著的性能提升使得运营商能够更好地管理计算资源满足各类计算任务的需求。 <br> ![b52f581a35a07f441712602e000bb771.png](en-resource://database/639:1)|
| 场景描述 | 1. 算力网络集成了分布于不同地理位置的分布式和泛在化的计算能力,其来源包括了各种计算设备如云计算节点、边缘计算节点、终端设备、网络设备等, 在算力网络环境中的计算任务量大、类型多样包括数据分析、AI推理、图形渲染等各类计算任务在这种情况下传统的流量控制策略可能无法有效处理任务的多样性和量级可能导致计算资源的浪费、计算任务的延迟、服务质量下降等问题。为了解决这些问题可以采用基于AI的流量控制与算力匹配通过收集大量的网络流量数据、设备状态数据和任务需求数据使用深度学习算法训练AI模型。模型能够学习到网络流量和计算任务的模式预测未来的流量变化和任务需求以及设备的计算能力并根据这些信息实时调整流量控制策略与算力匹配策略。 <br> 2. 在AI的帮助下运营商能够更有效地管理流量和算力减少网络拥堵提高计算资源的利用率降低计算任务的延迟提高服务质量。例如在预测到大量的数据分析任务将要到来时AI系统可以提前调整网络配置优先将计算资源分配给这些任务以满足需求。在预测到计算设备的能力不足以处理即将到来的任务时AI系统可以提前调整流量控制策略将部分任务重定向到其他设备以防止拥堵。 <br> 3. 基于AI的算力网络流量控制与算力匹配将大规模的算力网络带来了显著的性能提升使得运营商能够更好地管理计算资源满足各类计算任务的需求。 <br> ![AI流量协同示意图](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.2%E5%9B%BE-AI-workload.png)|
| 当前解决方案及Gap分析 | 基于AI的算力网络流量控制与算力匹配通过人工智能技术可以实时监测算力网络状态动态预测网络流量需求自动优化算力网络资源分配和负载均衡。还能通过深度学习算法不断学习和改进自己的流量控制策略使其更加适应复杂和多变的网络环境。 <br> Gap分析 <br> 1. 动态性与自适应性传统的流量控制方法往往较为静态难以适应未来算力网络环境的快速变化。而基于AI的流量控制与算力匹配则具有很强的动态性和自适应性可以根据实时的网络状态和预测的流量需求动态调整流量控制策略和算力分配策略。 <br> 2. 学习与改进传统的流量控制方法往往缺乏自我学习和改进的能力。而基于AI的流量控制与算力匹配则可以通过深度学习算法不断学习和改进自己的流量控制与算力匹配策略使其更加适应复杂和多变的网络环境。 <br> 3. 对未来技术的适应性随着算力网络及相关应用的快速发展未来的算力网络环境和流量需求可能会更加复杂和多变。因此基于AI的流量控制与算力引导对于未来算力网络和相关应用具有更好的适应性和前瞻性。|
| 算力网络需求推导 | 在算力网络中,流量控制和算力合理的匹配对于确保高效运行和资源优化至关重要。这需要一种能够实时、动态地调整流量控制策略和算力匹配的系统。基于人工智能的流量控制和算力匹配有望满足这种需求。以下是具体的需求推导过程: <br> 1. 高效率的资源利用在大规模、分布式的算力网络中资源的使用效率直接影响到整个网络的运行效率和成本。通过AI技术能够更精准地预测和调度流量使得资源得到更合理、更高效的利用。 <br> 2. 动态调整和优化网络流量和任务需求可能会随时间、应用和用户行为发生变化这就需要流量控制策略能够实时响应这些变化。AI技术可以通过实时学习和预测实现动态调整和优化流量控制策略并合理的匹配到最优的算力。 <br> 3. 负载均衡在面对流量突发变化或任务需求变化时保持网络负载均衡至关重要。AI技术可以通过实时监控和预测网络状态动态调整流量和任务分布保持负载均衡。 <br> 4. 服务质量保证在保证服务质量方面AI技术可以根据预测的网络状态和任务需求优先满足重要任务和服务的需求从而提高服务质量。 <br> 5. 自动化管理通过自动学习和更新规则AI技术可以减轻算力网络管理的工作负担实现更高程度的自动化管理。 <br> 因此引入基于AI的流量控制和算力引导不仅可以提高算力网络的运行效率和服务质量还可以实现更高程度的自动化管理这是符合算力网络发展需求的。|
| 参考实现与流程 | 1. 数据收集收集算力网络中的历史数据如各节点的算力利用率、任务执行时间、网络延迟等以此作为训练AI模型的数据基础。 <br> 2. 数据预处理:对收集到的数据进行预处理,包括数据清洗、格式转换、特征提取等。 <br> 3. 模型选择训练根据算力网络的特点和需求选择合适的AI模型如深度学习模型、强化学习模型等进行训练。训练的目标是让AI模型学会如何在各种条件下进行最优的流量控制和算力分配。 <br> 4、模型测试与优化在模拟环境或实际环境中测试训练好的AI模型根据测试结果进行模型的调整和优化。 <br> 5、模型部署优化好的AI模型部署到算力网络中根据实时网络状态和任务需求进行流量控制和算力引导。 <br> 6、 实时调整:模型在部署后需要根据实时收集到的网络状态和任务需求数据进行动态调整和优化。 <br> 7、模型更新根据网络运行情况和模型性能定期对模型进行更新和优化。 <br> 8、持续监测和调整在模型部署后需持续监测网络状态和任务执行情况根据需要对AI模型进行调整并周期性地重新训练模型以应对网络环境的变化。 |
@ -135,9 +133,9 @@ Jianchao Guo (AsiaInfo), Jian Xu (China Mobile), Jie Nie (China Mobile), Jintao
| 贡献者 | 浪潮-耿晓巧 |
| 应用名称 |面向视频应用的算网一体调度|
| 场景描述 | 基于轨道交通等智能视频场景,以客户业务为中心,构建算网一体的任务式服务调度能力,感知并解析用户对时延、成本等的业务需求,进行计算、存储等资源的协同调度和分配,并实现调度策略的动态优化,实现向客户提供按需、灵活、智能的算力网络服务,同时广泛适配各类行业应用场景,赋能视频业务智能转型。 |
| 当前解决方案及Gap分析 | 1算网资源异构、泛在业务复杂且性能要求较高传统解决方案中网、云、业务存在协同壁垒无法满足各类场景调度需求。 <br> 2业务高峰期数据传输量大、网络负载高导致高时延影响视频业务服务质量对视频调度方案的优化提出了更高的要求与挑战。 <br> ![7da06981e10879ec6e78d15221b09f1f.png](en-resource://database/641:1) <br> 3、视频业务智能化不足未形成全流程自动化监管与预警处置闭环。|
| 当前解决方案及Gap分析 | 1算网资源异构、泛在业务复杂且性能要求较高传统解决方案中网、云、业务存在协同壁垒无法满足各类场景调度需求。 <br> 2业务高峰期数据传输量大、网络负载高导致高时延影响视频业务服务质量对视频调度方案的优化提出了更高的要求与挑战。 <br> ![终端摄像头与网络协同示意图](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.3%E5%9B%BE-%E8%A7%86%E9%A2%91%E7%BD%91%E7%BB%9C%E5%9B%BE.png) <br> 3、视频业务智能化不足未形成全流程自动化监管与预警处置闭环。|
| 算力网络需求推导 | 1.基于对资源状态和业务需求的感知度量,结合优化算法,在不同时间段和不同站点进行算力资源的优化调度和分配,构建面向行业应用的算网调度协同技术体系。 <br> 2面向各类视频用户提供任务式服务最优路径、最近距离、最低成本及AI智能视频服务。 |
| 参考实现与流程 | ![0cea882e4584861dfa43428d6c577f8c.png](en-resource://database/643:1) <br> 1感知、采集、分析底层算力资源、网络资源和存储资源以及感知用户业务类型和对时延、传输数据量、上传流量等的需求。 <br> 2面向用户对时延、成本等的业务需求结合系统整体建模、业务规则分析、优化策略求解以及系统模块对接等提供分时潮汐调度、跨区域调度和智能编排调度等能力。 <br> 3实时评估当前调度策略是否能够满足用户业务需求将相关指标反馈给智能调度模块智能调度模块基于此对调度策略进行动态优化调整。 <br> 4将视频处理、AI推理、数据处理等处理任务灵活下发到相关计算资源中提供视频数据自动备份、AI训练、AI视频实时推理等智能视频作业服务。 |
| 参考实现与流程 | ![算力网络一体化调度示意图](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.3%E5%9B%BE-%E7%AE%97%E5%8A%9B%E7%BD%91%E7%BB%9C%E4%B8%80%E4%BD%93%E5%8C%96%E8%B0%83%E5%BA%A6.png) <br> 1感知、采集、分析底层算力资源、网络资源和存储资源以及感知用户业务类型和对时延、传输数据量、上传流量等的需求。 <br> 2面向用户对时延、成本等的业务需求结合系统整体建模、业务规则分析、优化策略求解以及系统模块对接等提供分时潮汐调度、跨区域调度和智能编排调度等能力。 <br> 3实时评估当前调度策略是否能够满足用户业务需求将相关指标反馈给智能调度模块智能调度模块基于此对调度策略进行动态优化调整。 <br> 4将视频处理、AI推理、数据处理等处理任务灵活下发到相关计算资源中提供视频数据自动备份、AI训练、AI视频实时推理等智能视频作业服务。 |
| 技术发展及开源工作建议 | 1.将AI智能视频能力与算力网络相结合满足行业场景多样化需求。 <br> 2.建议展开算网资源度量相关研究,为算力网络提供统一资源模板。|
## 4.4 基于多方安全计算的借贷风险评估
@ -146,10 +144,10 @@ Jianchao Guo (AsiaInfo), Jian Xu (China Mobile), Jie Nie (China Mobile), Jintao
|------------------------|-------|
| 贡献者 | 亚信-郭建超 |
| 应用名称 | 隐私计算 |
| 场景描述 |当个人/企业向银行进行贷款申请时,银行需评估借贷风险,排查用户多头借贷及超额借贷的风险。通过搭建的隐私计算平台,运用隐私查询、多方联合统计,联合多家银行,在贷前对用户各银行的借贷总额进行联合统计。银行收到联合统计结果后,决定是否向用户发放贷款。 <br> 在该场景下,隐匿查询服务和多方联合统计服务与算力网络高度相关: <br> 1. 隐匿查询服务通过隐私计算查询方可隐藏被查询对象关键词或客户ID信息数据提供方提供匹配的查询结果却无法获知具体对应哪个查询对象能杜绝数据缓存、数据泄漏、数据贩卖的可能性。 <br> 2. 多方联合统计服务:通过隐私计算,可使多个非互信主体在数据相互保密的前提下进行高效数据融合计算,达到“数据可用不可见”,最终实现数据的所有权和数据使用权相互分离。 <br> ![aa4215fc3e6b3f8dadbec272c809fb3f.png](en-resource://database/645:1)|
| 场景描述 |当个人/企业向银行进行贷款申请时,银行需评估借贷风险,排查用户多头借贷及超额借贷的风险。通过搭建的隐私计算平台,运用隐私查询、多方联合统计,联合多家银行,在贷前对用户各银行的借贷总额进行联合统计。银行收到联合统计结果后,决定是否向用户发放贷款。 <br> 在该场景下,隐匿查询服务和多方联合统计服务与算力网络高度相关: <br> 1. 隐匿查询服务通过隐私计算查询方可隐藏被查询对象关键词或客户ID信息数据提供方提供匹配的查询结果却无法获知具体对应哪个查询对象能杜绝数据缓存、数据泄漏、数据贩卖的可能性。 <br> 2. 多方联合统计服务:通过隐私计算,可使多个非互信主体在数据相互保密的前提下进行高效数据融合计算,达到“数据可用不可见”,最终实现数据的所有权和数据使用权相互分离。 <br> ![隐私计算场景示意图](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.4%E5%9B%BE-%E9%9A%90%E7%A7%81%E8%AE%A1%E7%AE%97-1.png)|
| 当前解决方案及Gap分析 | |
| 算力网络需求推导 | “不解决算力和通信问题,隐私计算的大规模应用将无从谈起”,隐私计算技术对算力要求和依赖度很高,面对越来越多的数据,分布式模型需要大量通信网络支撑,对于算力,需要按照服务的全场景情况对算力进行快速智能分配及实时调度。 <br> 1. 计算密集型:采用大量密文计算,加密后的数据计算将会产生大量的算力开销,单次模型训练与迭代的耗时将会呈现指数级增长。 <br> 2. 网络密集型:隐私计算模型分布多个计算方,应用往往需要频繁通信以交换中间结果,加之以密态来传递中间结果。 <br> 3. 存储密集型:数据计算过程和结果对存储有大量的存储需求,需要及时提供存储能力。 除了资源维度上的要求,该场景对于算网融合调度也提出了更高的要求。该场景的部署采用 “联盟端+管理端”的方式,采用分布式密文计算架构,进行云及本地部署,同时可灵活投入硬件与计算资源,快速实施部署和升级。在该场景中,隐匿查询服务和多方联合统计服务涉及到多地算力节点的协同计算、节点之间数据密文以及加密算法的协同,需要算力网络具备算力和网络的协同调度能力,满足网络传输需求的同时,综合考虑传输时延、计算节点的任务执行时延,杜绝算力短板引发的“木桶效应”。同时,需要算力网络具备动态的资源调度能力,能够实时满足业务调度的需求。 <br> ![c0bef2dca3cf234c788ede6b770e8857.png](en-resource://database/647:1)|
| 参考实现与流程 | ![906c68f1ef1458c9b80afa3ffb5a1dc2.png](en-resource://database/649:1) <br> 1. 银行方发起联合模型训练方案业务请求; <br> 2. 算网运营交易中心向算网大脑提出业务请求; <br> 3. 算网大脑分析业务请求(可能包含位置、资源需求等) 查询可用节点及路径(专线/专网),回复算网运营中心可选方案; <br> 4. 算网运营中心答复资源需求方方案及价格信息; <br> 5. 资源需求方答复确认方案; <br> 6. 算网运营中心将选择的方案发松给算网大脑; <br> 7. 算网大脑进行方案自验证(基于数字孪生技术或其它仿真技术); <br> 8. 向算网运营交易中心答复方案自验证情况(算力、网络、资源等信息确认) ; <br> 9.算网运营中心确认方案; <br> 10. 算网大脑向算网基础设施层发起资源开通和路径(网络)建立请求; <br> 11. 算网基础回复资源开通和路径建立; <br> 12. 业务开通回复; <br> 13. 算网运营交易中心答复资源需求方业务开通,资源需求方进行模型训练及部署后的模型推理等.|
| 算力网络需求推导 | “不解决算力和通信问题,隐私计算的大规模应用将无从谈起”,隐私计算技术对算力要求和依赖度很高,面对越来越多的数据,分布式模型需要大量通信网络支撑,对于算力,需要按照服务的全场景情况对算力进行快速智能分配及实时调度。 <br> 1. 计算密集型:采用大量密文计算,加密后的数据计算将会产生大量的算力开销,单次模型训练与迭代的耗时将会呈现指数级增长。 <br> 2. 网络密集型:隐私计算模型分布多个计算方,应用往往需要频繁通信以交换中间结果,加之以密态来传递中间结果。 <br> 3. 存储密集型:数据计算过程和结果对存储有大量的存储需求,需要及时提供存储能力。 除了资源维度上的要求,该场景对于算网融合调度也提出了更高的要求。该场景的部署采用 “联盟端+管理端”的方式,采用分布式密文计算架构,进行云及本地部署,同时可灵活投入硬件与计算资源,快速实施部署和升级。在该场景中,隐匿查询服务和多方联合统计服务涉及到多地算力节点的协同计算、节点之间数据密文以及加密算法的协同,需要算力网络具备算力和网络的协同调度能力,满足网络传输需求的同时,综合考虑传输时延、计算节点的任务执行时延,杜绝算力短板引发的“木桶效应”。同时,需要算力网络具备动态的资源调度能力,能够实时满足业务调度的需求。 <br> ![隐私计算协同示意图](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.4%E5%9B%BE-%E9%9A%90%E7%A7%81%E8%AE%A1%E7%AE%97-2.png)|
| 参考实现与流程 | ![隐私计算与算力网络协同流程图](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.4%E5%9B%BE-%E9%9A%90%E7%A7%81%E8%AE%A1%E7%AE%97-3.png) <br> 1. 银行方发起联合模型训练方案业务请求; <br> 2. 算网运营交易中心向算网大脑提出业务请求; <br> 3. 算网大脑分析业务请求(可能包含位置、资源需求等) 查询可用节点及路径(专线/专网),回复算网运营中心可选方案; <br> 4. 算网运营中心答复资源需求方方案及价格信息; <br> 5. 资源需求方答复确认方案; <br> 6. 算网运营中心将选择的方案发松给算网大脑; <br> 7. 算网大脑进行方案自验证(基于数字孪生技术或其它仿真技术); <br> 8. 向算网运营交易中心答复方案自验证情况(算力、网络、资源等信息确认) ; <br> 9.算网运营中心确认方案; <br> 10. 算网大脑向算网基础设施层发起资源开通和路径(网络)建立请求; <br> 11. 算网基础回复资源开通和路径建立; <br> 12. 业务开通回复; <br> 13. 算网运营交易中心答复资源需求方业务开通,资源需求方进行模型训练及部署后的模型推理等.|
| 技术发展及开源工作建议 | |
## 4.5 基于算力网络的AI应用跨架构部署迁移
@ -159,9 +157,9 @@ Jianchao Guo (AsiaInfo), Jian Xu (China Mobile), Jie Nie (China Mobile), Jintao
| 贡献者 | 中国移动研究院-赵奇慧 |
| 应用名称 | / |
| 场景描述 | 用户在向算力网络申请AI服务时以人脸识别业务AI推理类为例将提供应用名称、待处理的数据集信息如图片传输接口、图片数量、图片大小、倾向的检测地点、处理速率、成本约束等由算力网络自行根据用户需求选择合适的算力集群部署人脸识别业务、完成配置并提供服务。 <br> 由于算力网络将来源各异、类型各异的算力构成一张统一的网络凡符合用户SLA需求具体承载该人脸识别业务并提供计算的底层算力可以有多种选择可为英伟达GPU、Intel CPU、华为NPU、寒武纪MLU、海光DCU及众多其他智算芯片中的任意一种或多种组合。因此AI应用在算力网络中的多种异构异厂商智算芯片上部署、运行、迁移是算力网络的典型应用场景之一。此场景与云计算智算应用跨架构迁移场景类似。 <br> 除用户向算力网络申请AI服务外上述场景也适合用户在算力网络中部署自研AI应用。 |
| 当前解决方案及Gap分析 | AI应用也即AI服务的运行一般需要“AI框架+工具链+硬件”支撑,其中: AI框架指PaddlePaddle、Pytorch、TensorFlow等硬件指各设备商的智算芯片工具链是各设备商围绕各自智算芯片构建的系列软件包含但不限于IDE、编译器、运行时、驱动等。目前用户在模型、应用研发设计阶段就需要选择编程语言、框架模型、指定硬件后端并进行一体编译链接。如需实现AI应用在算力网络中的任意算力后端上运行则需要针对不同的智算芯片、使用各芯片匹配的开发工具链等开发出多个版本并完成编译然后依托芯片匹配的运行时完成部署。整体开发难度大、软件维护成本高。 <br> ![e3a1d309eb6036f2d480a79607078a5b.png](en-resource://database/651:0) |
| 算力网络需求推导 | 1. 为简化用户开发和部署AI应用的难度算力网络需协同AI框架、芯片及相关工具链形成支持AI应用跨架构部署运行的软件栈面向用户屏蔽底层硬件差异支持用户AI应用的一次开发、随处部署。 <br> ![0275b109e33ee600f74c674935ef016b.png](en-resource://database/653:0) <br> 2. 算力网络需理解用户描述性SLA等需求支持将其转换成可被云网基础设施理解的资源、网络、存储等需求并支持形成符合用户SLA需求的多种资源组合方案。 <br> 3. 算力网络需依据统一标准对底层异构异厂商硬件进行度量以支持算力网络针对用户描述性SLA需求计算出不同的资源组合方案。 <br> 4. 算力网络需支持监控整个算力网络状态,并根据上述计算得出的资源组合完成资源调度、应用部署等。 |
| 参考实现与流程 | 本部分仅针对AI应用跨架构部署迁移设计的一种解决方案也可存在其他实现与流程。 <br> media/e5b93df9e68f7e398d2e18cc27f3c368.png) <br> 具体工作流程: <br> Pre1. 编排管理层已纳管底层算力资源池,并实时监控池内资源情况。 <br> Pre2. 算力服务商根据底层算力资源池内的资源类型准备跨架构基础镜像并在编排管理层的中央基础镜像仓库中注册该镜像。跨架构基础镜像中至少包含跨架构runtime。该跨架构runtime可对上层业务提供统一的算力资源抽象从而屏蔽底层硬件差异对下可对接不同AI芯片的runtime或driver或指令集将应用的算力抽象调用转译成芯片对应工具链的API调用或指令集调用以便最终完成计算任务。 <br> 1. 算力网络为AI应用开发者即用户提供灵活可装载的本地跨架构开发环境包含跨架构IDE编译器、SDK等、跨架构环境模拟器根据用户本地底层硬件类型灵活适配对应用模拟统一抽象的算力资源以便完成应用调试<br> 2. 用户完成AI应用开发后通过跨架构开发环境生成可跨架构执行的业务可执行文件并上载到算力网络编排管理层的跨架构业务可执行文件库中。 <br> 3. 用户向算力网络提出AI应用部署描述性SLA需求编排管理层接收SLA请求。 <br> 4. 编排管理层根据多类资源统一监控数据解析SLA需求转化成算网基础设施层可理解的资源需求该资源需求可存在多种资源组合在用户选择具体组合方案后触发业务部署。 <br> 5. 业务部署过程首先完成AI应用镜像及部署文件的生成。对于镜像将结合用户选择的底层资源类型从中央基础镜像仓库中拉取对应的跨架构基础镜像并自动与待部署AI应用的跨架构可执行文件打包生成完整的跨架构业务镜像并将该完整业务镜像下发到底层资源池内的镜像仓库中。对于部署文件将根据底层环境类型裸机环境、容器环境、虚机环境、解析的资源需求、镜像位置、业务配置等信息/文件生成自动部署文件可为脚本、Helm Chart、Heat模板等<br> 6. 基础设施层资源池内的编排管理组件根据部署文件、镜像等内容部署AI应用。 <br> 7. 若AI应用需迁移到其他芯片资源池CPU、FPGA、ASIC等将重复4、5、6三个步骤。 |
| 当前解决方案及Gap分析 | AI应用也即AI服务的运行一般需要“AI框架+工具链+硬件”支撑,其中: AI框架指PaddlePaddle、Pytorch、TensorFlow等硬件指各设备商的智算芯片工具链是各设备商围绕各自智算芯片构建的系列软件包含但不限于IDE、编译器、运行时、驱动等。目前用户在模型、应用研发设计阶段就需要选择编程语言、框架模型、指定硬件后端并进行一体编译链接。如需实现AI应用在算力网络中的任意算力后端上运行则需要针对不同的智算芯片、使用各芯片匹配的开发工具链等开发出多个版本并完成编译然后依托芯片匹配的运行时完成部署。整体开发难度大、软件维护成本高。 <br> ![智算生态壁垒示意图](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.5%E5%9B%BE-%E5%8A%A0%E9%80%9F%E7%A1%AC%E4%BB%B6%E7%94%9F%E6%80%81%E5%A3%81%E5%9E%92.png) |
| 算力网络需求推导 | 1. 为简化用户开发和部署AI应用的难度算力网络需协同AI框架、芯片及相关工具链形成支持AI应用跨架构部署运行的软件栈面向用户屏蔽底层硬件差异支持用户AI应用的一次开发、随处部署。 <br> ![算力原生逻辑方案](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.5%E5%9B%BE-%E7%AE%97%E5%8A%9B%E5%8E%9F%E7%94%9F%E9%80%BB%E8%BE%91%E6%96%B9%E6%A1%88.png) <br> 2. 算力网络需理解用户描述性SLA等需求支持将其转换成可被云网基础设施理解的资源、网络、存储等需求并支持形成符合用户SLA需求的多种资源组合方案。 <br> 3. 算力网络需依据统一标准对底层异构异厂商硬件进行度量以支持算力网络针对用户描述性SLA需求计算出不同的资源组合方案。 <br> 4. 算力网络需支持监控整个算力网络状态,并根据上述计算得出的资源组合完成资源调度、应用部署等。 |
| 参考实现与流程 | 本部分仅针对AI应用跨架构部署迁移设计的一种解决方案也可存在其他实现与流程。 <br> ![应用跨架构部署流程图](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.5-%E8%B7%A8%E6%9E%B6%E6%9E%84%E5%B7%A5%E4%BD%9C%E6%B5%81%E7%A8%8B.png) <br> 具体工作流程: <br> Pre1. 编排管理层已纳管底层算力资源池,并实时监控池内资源情况。 <br> Pre2. 算力服务商根据底层算力资源池内的资源类型准备跨架构基础镜像并在编排管理层的中央基础镜像仓库中注册该镜像。跨架构基础镜像中至少包含跨架构runtime。该跨架构runtime可对上层业务提供统一的算力资源抽象从而屏蔽底层硬件差异对下可对接不同AI芯片的runtime或driver或指令集将应用的算力抽象调用转译成芯片对应工具链的API调用或指令集调用以便最终完成计算任务。 <br> 1. 算力网络为AI应用开发者即用户提供灵活可装载的本地跨架构开发环境包含跨架构IDE编译器、SDK等、跨架构环境模拟器根据用户本地底层硬件类型灵活适配对应用模拟统一抽象的算力资源以便完成应用调试<br> 2. 用户完成AI应用开发后通过跨架构开发环境生成可跨架构执行的业务可执行文件并上载到算力网络编排管理层的跨架构业务可执行文件库中。 <br> 3. 用户向算力网络提出AI应用部署描述性SLA需求编排管理层接收SLA请求。 <br> 4. 编排管理层根据多类资源统一监控数据解析SLA需求转化成算网基础设施层可理解的资源需求该资源需求可存在多种资源组合在用户选择具体组合方案后触发业务部署。 <br> 5. 业务部署过程首先完成AI应用镜像及部署文件的生成。对于镜像将结合用户选择的底层资源类型从中央基础镜像仓库中拉取对应的跨架构基础镜像并自动与待部署AI应用的跨架构可执行文件打包生成完整的跨架构业务镜像并将该完整业务镜像下发到底层资源池内的镜像仓库中。对于部署文件将根据底层环境类型裸机环境、容器环境、虚机环境、解析的资源需求、镜像位置、业务配置等信息/文件生成自动部署文件可为脚本、Helm Chart、Heat模板等<br> 6. 基础设施层资源池内的编排管理组件根据部署文件、镜像等内容部署AI应用。 <br> 7. 若AI应用需迁移到其他芯片资源池CPU、FPGA、ASIC等将重复4、5、6三个步骤。 |
| 技术发展及开源工作建议 |1. 建议增强AI应用跨架构部署迁移方案的研究可依托CFN WG-算力原生子工作组探索参考实现。当前业界现存的阿里HALO+ODLA、Intel的 DPC++ 与LevelZero等开源方案可作为该解决方案探索的基础。 <br> 2. 建议展开算网度量的研究,以便为算力网络提供统一资源模板。 <br> 3. 建议挖掘用户描述性SLA需求并研究该需求向具体资源需求转化的方式详细可参见PaaS、SaaS、FaaS等服务模式。 |
## 4.6 算力网络裸金属管理
@ -171,9 +169,9 @@ Jianchao Guo (AsiaInfo), Jian Xu (China Mobile), Jie Nie (China Mobile), Jintao
| 贡献者 | 中国移动研究院-王锦涛、中国移动研究院-赵奇慧 |
| 应用名称 | / |
| 场景描述 | 根据2.3节,算力网络提供资源型服务模式,支持用户直接向算力网络申请裸机、虚机、容器等资源。部分用户也因性能、安全、业务虚拟化/容器化改造难度等方面的考虑,更倾向于使用裸金属服务。传统裸金属服务资源难以灵活配置、客户需要定向适配各类驱动、发放和管理流程冗长,无论是客户体验还是管理运维手段,较虚拟化服务有较大差距。因此如何实现算力网络服务商灵活管理和运维多样基础设施、并简化用户使用裸金属是算力网络数据中心的重要需求。该场景也适用于云计算及云网融合领域。 |
| 当前解决方案及Gap分析 | 对算力网络服务商而言在传统的裸机发放流程中在Inpection阶段需要手动配置网络在provisioning和tenant阶段需要多次网络切换、节点安装和重启操作整体流程复杂冗长与虚拟机发放流程差异较大。对于用户而言网卡数量和存储规格固定无法满足不同用户的差异化网卡及存储需求此外裸金属网卡驱动及存储客户端等均对用户可见需要用户进行定向适配进一步增加用户使用裸金属难度同时块存储网络暴露在客户操作系统也存在安全风险。 <br> ![5f58238a45128353488d01aaf073d11f.png](en-resource://database/655:0)|
| 当前解决方案及Gap分析 | 对算力网络服务商而言在传统的裸机发放流程中在Inpection阶段需要手动配置网络在provisioning和tenant阶段需要多次网络切换、节点安装和重启操作整体流程复杂冗长与虚拟机发放流程差异较大。对于用户而言网卡数量和存储规格固定无法满足不同用户的差异化网卡及存储需求此外裸金属网卡驱动及存储客户端等均对用户可见需要用户进行定向适配进一步增加用户使用裸金属难度同时块存储网络暴露在客户操作系统也存在安全风险。 <br> ![传统裸机管理方案](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.6%E5%9B%BE-%E4%BC%A0%E7%BB%9F%E8%A3%B8%E6%9C%BA%E7%AE%A1%E7%90%86%E6%96%B9%E6%A1%88.png)|
| 算力网络需求推导 | 算力网络实现与虚拟机类似的便捷裸金属管理及发放和管理: <br> 1. 裸金属服务器全自动化发放,通过控制台自助申请,无需人工介入,即可完成自动化镜像安装、网络配置、云盘挂载等功能; <br> 2. 完全兼容虚拟化平台云盘系统,使用云盘启动,免操作系统安装,进行云硬盘的挂载和卸载,满足弹性存储的要求,同时兼容虚拟机镜像系统; <br> 3. 兼容虚拟机VPC网络实现裸金属服务器和虚拟机网络互通支持自定义网络实现裸金属服务器之间互通实现灵活组网。 |
| 参考实现与流程 | ![fc02d882ae9ed7ab4d059e04ba7e8457.png](en-resource://database/657:0) <br> 在裸金属服务器配置DPU卡裸金属实例的网络端口和磁盘设备全部由DPU提供。DPU上运行了云平台的管理、网络和存储相关的组件管理模块负责裸金属实例生命周期的管理网络模块负责裸金属虚拟网口的实现和网络流量的转发存储模块负责裸金属云盘的实现和存储网络协议栈的终结。在DPU场景下裸金属的发放和管理流程如下 <br> 1. 通过云平台API或UI界面选择裸金属规格创建裸金属实例 <br> 2. 云平台conductor组件初始化裸金属实例化流程调用DPU上运行的管理模块完成裸金属实例的配置 <br> 3. 云平台创建虚拟网口在DPU上实现虚拟网口后端的初始化裸金属在启动之后通过标准virtio驱动扫描到网口设备同时将网口信息同步给SDN控制器SDN控制器将流表下发到裸金属节点DPU上的vSwitch上实现裸金属与其他实例的网络互通 <br> 4. 云平台创建云盘设备通过iSCSI等存储网络协议栈在DPU上对接远端块存储系统将远端卷设备抽象为标准SPDK bdev块设备并通过NVMe/virtio-blk等后端提供给裸金属实例作为磁盘设备。|
| 参考实现与流程 | ![DPU裸机管理方案](https://opendev.org/cfn/use-case-and-architecture/src/branch/master/figures/4.6%E5%9B%BE-DPU%E8%A3%B8%E6%9C%BA%E7%AE%A1%E7%90%86%E6%96%B9%E6%A1%88.png) <br> 在裸金属服务器配置DPU卡裸金属实例的网络端口和磁盘设备全部由DPU提供。DPU上运行了云平台的管理、网络和存储相关的组件管理模块负责裸金属实例生命周期的管理网络模块负责裸金属虚拟网口的实现和网络流量的转发存储模块负责裸金属云盘的实现和存储网络协议栈的终结。在DPU场景下裸金属的发放和管理流程如下 <br> 1. 通过云平台API或UI界面选择裸金属规格创建裸金属实例 <br> 2. 云平台conductor组件初始化裸金属实例化流程调用DPU上运行的管理模块完成裸金属实例的配置 <br> 3. 云平台创建虚拟网口在DPU上实现虚拟网口后端的初始化裸金属在启动之后通过标准virtio驱动扫描到网口设备同时将网口信息同步给SDN控制器SDN控制器将流表下发到裸金属节点DPU上的vSwitch上实现裸金属与其他实例的网络互通 <br> 4. 云平台创建云盘设备通过iSCSI等存储网络协议栈在DPU上对接远端块存储系统将远端卷设备抽象为标准SPDK bdev块设备并通过NVMe/virtio-blk等后端提供给裸金属实例作为磁盘设备。|
| 技术发展及开源工作建议 |1. 增强云平台管理组件在DPU上的部署和与DPU OS中相关驱动对接方案的研究以便不同云厂商可以更高效的将相关软件组件部署到不同厂商的DPU上 <br> 2. 探索存储模块中NVMe-oF存储网络协议栈的应用研究以提供更高性能云盘服务|
# 5. Next Step