add contributors info annd update use cases with more details
Change-Id: I42497f1519cc7989b5835914c5fa3d3b77b373cc
This commit is contained in:
parent
1aef69f4f3
commit
7b7597ba0a
@ -1,16 +1,25 @@
|
||||
# **CFN Overview & Use Case Exploration**
|
||||
sion# **CFN Overview & Use Case Exploration**
|
||||
|
||||
|
||||
* * *
|
||||
Versions:
|
||||
|
||||
| Version | Date |
|
||||
| --- | --- |
|
||||
| 0.5 | June, 2023 |
|
||||
| 1.0 | November, 2023 |
|
||||
* * *
|
||||
Contributors:
|
||||
Jianchao Guo (AsiaInfo), Jian Xu (China Mobile), Jie Nie (China Mobile), Jintao Wang (China Mobile), Lei Huang (China Mobile), Qihui Zhao (China Mobile), Weiguo Hu (99Cloud), Weisen Pan (China Mobile), Xiaoqiao Geng (Inspur), Yong Chen (Nokia), Yongfeng Nie (Huawei), Zhihua Fu (H3C)
|
||||
* * *
|
||||
|
||||
# 1. Introduction
|
||||
|
||||
  近年来,在政策牵引、技术创新和需求导向的多重驱动下,数字经济发展速度之快、辐射范围之广、影响程度之深前所未有,正在成为重组全球要素资源、重塑全球经济结构、改变全球竞争格局的关键力量。在数字经济时代,全球数据总量和算力规模继续呈现高速增长态势,2021年,全球计算设备算力总规模达到615EFlops,增速达到44%,其中基础算力规模为369EFlops,智能算力规模为232EFlops,超算算力规模为14EFlops;2030年,人类将迎来YB数据时代,全球算力规模达到6ZFlops,平均年增速达到65%,其中,基础算力达到3.3ZFlops,平均年增速达27%;智能算力达到52.5ZFlops,平均年增速超过80%;超算算力达到0.2ZFlops,平均年增速超过34%。与此同时,AI、元宇宙等新型领域的崛起,更加推动了全球算力规模的快速增长,驱动计算技术与产品的多元创新,带动产业格局的重构重塑。算力作为数字经济时代新的生产力,其重要性被提升到了新的高度,成为支撑数字经济发展的坚实基础、全球经济发展的重要引擎,对推动科技进步、行业数字化转型以及经济社会发展发挥重要作用。
|
||||
|
||||
而随着算力的持续快速发展,也面临着应用多元化、供需不平衡等一系列挑战,而无处不达的网络,为算力的分层分布和算力间的深度协同奠定了基础。在此背景下,算力网络应运而生,算力网络就是把分散部署的泛在算力,与无处不在的全域网络资源进行互联,使应用能按需、实时调用不同地域的计算资源,通过最佳的资源分配方案实现资源的最优使用,为千行百业提供像“自来水”一样即取即用、触手可达的算力服务。未来,算力网络会像今天的电网、通信网和高铁网一样,成为数智化时代的新型基础设施,为为全球数字经济发展提供强劲动力。
|
||||
  而随着算力的持续快速发展,也面临着应用多元化、供需不平衡等一系列挑战,而无处不达的网络,为算力的分层分布和算力间的深度协同奠定了基础。在此背景下,算力网络应运而生,算力网络就是把分散部署的泛在算力,与无处不在的全域网络资源进行互联,使应用能按需、实时调用不同地域的计算资源,通过最佳的资源分配方案实现资源的最优使用,为千行百业提供像“自来水”一样即取即用、触手可达的算力服务。未来,算力网络会像今天的电网、通信网和高铁网一样,成为数智化时代的新型基础设施,为为全球数字经济发展提供强劲动力。
|
||||
|
||||
本文将从用户角度解读算力网络概念、梳理当前业界算力网络的进展、分析算力网络的主要应用场景,并提出构建算力网络存在的问题与挑战,从而针对如何进一步推动算力网络的加速成熟,以及实现算力网络社会级服务的最终愿景提出建议。
|
||||
|
||||
*(贡献-浪潮-耿晓巧)*
|
||||
|
||||
*(修订-20230509-移动-赵奇慧)*
|
||||
  本文将从用户角度解读算力网络概念、梳理当前业界算力网络的进展、分析算力网络的主要应用场景,并提出构建算力网络存在的问题与挑战,从而针对如何进一步推动算力网络的加速成熟,以及实现算力网络社会级服务的最终愿景提出建议。
|
||||
|
||||
# 2. What is computing force network from user perspective
|
||||
|
||||
@ -26,9 +35,6 @@
|
||||
|
||||
  从技术角度看,算力网络并不是某项单点技术的创新,它是在现有的孤立的计算、存储、网络、安全等基础设施之上,通过对资源进行纳管、整合、调配、重优化等一系列措施实现算力即服务(CaaS,Computing as a Service)。它更多的是理念创新、商业模式创新、生态创新。类似SDN概念出现的时候,也是对网络的一个理念创新,而并没有大的网络技术的革命。它与云计算的终极目标类似,将在当前云计算简单地以CPU数量、GPU数量、网络带宽、存储容量等为单位的资源式交互服务模式之上,向任务式交互服务模式演进,进一步向用户屏蔽后端算力及网络的复杂度。因此,算力网络更多是计算和网络的融合,打破以前两者的壁垒,让用户不用关心提供算力服务的具体硬件形态、物理位置等,而更聚焦于任务执行本身。算力网络虽然名称上以网络结尾,但其实在内涵上是以计算为中心的。
|
||||
|
||||
*(贡献-移动-赵奇慧,贡献-华三-付志华,贡献-九州云-胡卫国,贡献-浪潮-耿晓巧)*
|
||||
|
||||
*(修订-20230515-移动-赵奇慧)*
|
||||
|
||||
## 2.2 Capability type of computing force network
|
||||
|
||||
@ -50,9 +56,6 @@
|
||||
|
||||
  当前,因技术、安全等各方面因素,算力网络将优先考虑协同来源于超算中心、智算中心、公有云、边缘云的算力,其他算力可逐步纳入。
|
||||
|
||||
*(贡献-九州云-胡卫国,贡献-移动-赵奇慧)*
|
||||
|
||||
*(修订-20230515-移动-赵奇慧)*
|
||||
|
||||
## 2.3 Service pattern of computing force network
|
||||
|
||||
@ -70,9 +73,6 @@
|
||||
|
||||
  应用型服务是指对用户来说,看到的是一个具有具体功能的应用服务,用户可通过API访问应用服务,无需关注系统、软件、部署位置等细节,仅提交应用需求即可。例如一个由算力服务商提供的图像渲染应用、AI推理应用(基于已经训练好的AI模型) 、隐私计算应用等。这些应用可由算力网络服务商根据用户需求(如业务名称、SLA、可靠性、安全、成本等需求)自主灵活部署到多个算力中心,部署好后向算力网络管控平台注册算力应用的信息、能力大小等,定期上报应用状态更新。算力网络需要感知到这些应用的位置和状态。然后生成访问这些应用的路由策略并向网络中的路由节点下发。路由节点收到访问应用的报文后根据下发的路由策略进行转发。这些策略往往需要综合考虑应用的算力状态和网络状态,以此做出最优决策。当然,应用的感知和路由策略生成也可以由网络节点自行完成。通过分布式的通告和扩散,算力网络边缘节点也可以完成策略的生成。
|
||||
|
||||
*(贡献-华三-付志华,贡献-华为-聂永丰)*
|
||||
|
||||
*(修订-20230515-移动-赵奇慧)*
|
||||
|
||||
## 2.4 Computing force network VS Integrated cloud and network
|
||||
|
||||
@ -84,9 +84,6 @@
|
||||
- **区别2:网络是基础,但与算力的协同方式不同。** 对于云网融合而言,算力和网络分工界面比较简单,通过一个网关就可以由算关联到网。而对于算力网络,算力和网络可能多点、多次交互,从算力服务商的角度来看算网应具备结构化特征。以应用型服务为例,①用户向算力网络提出应用的SLA、可靠性、安全性需求;②算力网络将负责将此类描述性需求转变为显性结构化需求,对应的,高质量SLA需要泛在算力结合确定性网络组成特定结构,高可靠需要位置相关的特定冗余结构,高安全可能需要使用虚拟网络隔离等结构;③最后算力网络应当按照结构化的、完整的需求进行资源发现、编排和调度。
|
||||
- **区别3:算力和网络边界不同。** 算力网络中的算力逐步走出云传统上的封闭边界,与网络广泛附着,因此从贯通云、网的端到端网络视角,相当于在网内也有算力的存在。
|
||||
|
||||
*(贡献-诺基亚-陈勇,贡献-九州云-胡卫国)*
|
||||
|
||||
*(修订-20230516-移动-赵奇慧)*
|
||||
|
||||
# 3. Related study area of computing force network
|
||||
|
||||
@ -102,8 +99,6 @@
|
||||
|
||||
  本文暂不涉及图中技术领域实现过程中的总体软件架构、技术选型等,相关内容后续将在本工作组的多个子工作组中展开讨论。
|
||||
|
||||
*(贡献-移动-赵奇慧)*
|
||||
|
||||
# 4. Use Cases
|
||||
|
||||
## 4.1 基于算网融合的VDI云桌面
|
||||
@ -118,76 +113,74 @@
|
||||
| 参考实现与流程 | 此场景下需要VDI管理系统(下文称VDI Center)和算网大脑联动。系统示意图: <br>  <br> 具体工作流程: <br> 1. 企业在不同地理位置部署云桌面服务器资源池。可以自建私有云数据中心,也可以使用公有云服务。VDI Center为一个集中的VDI云桌面管理系统。VDI Center向算网大脑报告所有计算资源信息。算网大脑同时维护企业上网接入POP点(网PE)和IT资源中心POP点(云PE)信息。 <br> 2. 用户需要申请云桌面,携带网络SLA要求、计算资源要求向VDI Center提出申请。 <br> 3. VDI Center向算网大脑请求合适的资源池,并计算从用户分支站点到资源池的网络路径,满足SLA要求。算网大脑返回资源池信息,并预留建立路径。 <br> 4. VDI Center拿到最优的资源池信息后,通过该资源池的云管平台申请计算资源。并将计算资源的信息返回用户。 <br> 5. 用户通过之前建立的路径访问云桌面。 <br> 6. 用户出差到其他区域,发起云桌面迁移请求。 <br> 7. VDI Center重新向算网大脑请求新的合适的资源池。算网大脑重新优化资源池,并建立新路径。返回VDI Center。 <br> 8. VDI Center发现新的资源池,发起虚机迁移过程。 <br> 9. 用户通过新路径访问新的云桌面。|
|
||||
| 技术发展及开源工作建议 | 建议增加对算力网络编排管理层中算网大脑的研究: <br> 1. 综合计算信息和网络信息,有一套多目标优化的调度算法。(VDI场景只需要维护IaaS底层资源信息,不关心PaaS/SaaS类算力服务信息。) <br> 2. 能够管理多种不同形态的资源,并建立统一的度量衡。|
|
||||
|
||||
## 4.2 AI as a Service/AI即服务
|
||||
|
||||
|<div style="width: 100pt"> 场景名称 </div> | AI as a Service/AI即服务 |
|
||||
|------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
||||
| 贡献者 | 中国移动美研所-潘伟森 |
|
||||
| 应用名称 | AI用于算力网络中数据管理 用于分布式学习和推理 AI增强网络运营 |
|
||||
| 场景描述 | 将AI作为算力网络的本地服务对外提供,算力网络本身可以使用AI来进行资源调度、网络运营和管理。此外也可以作为公开的网络功能向最终用户提供AI服务。该用例旨在将分布式的智能代理进行有效的连接,以便在各类业务中能够大规模的部署AI,实时AI需要高容量和低延时的分布式传输技术,包括大量的AI智能代理之间的数据和模型参数的交换。算力网络中的AI服务不仅能够支撑AI模型的开发、训练和推理,同时也可以作为公开的网络功能向最终用户提供AI服务。 |
|
||||
| 当前解决方案及Gap分析 | 不同于传统的软件即服务,AI作为算力网络中的重要能力和服务,不仅要实现基本的能力需要,而且对网络的处理能力要求特别高,并且支持并行处理; 传统的网络AI仅是辅助能力,算力网络内生AI,让AI真正成为网络的的内生资源,建立完善的AI基础能力,提供从底层算法释放到顶层应用能力的全栈能力。 |
|
||||
| 算力网络需求推导 | 算力网络将实现网络与算力紧密融合,让算力成为随时随地可以使用的社会级服务,对于算力网络来说网络一体化是必然的发展趋势,而AI需要算力资源且算力规模巨大,因此从人工智能的特性来说,它需要建立在集约化和网络化的算力网络上;另一方面AI也能为算力网络中的数据管理、网络运营和算力调度提供帮助,此外AI即服务也可以为各类垂直领域的应用提供服务。 |
|
||||
| 参考实现与流程 | 待后续补充…… |
|
||||
| 技术发展及开源工作建议 | 将人工智能的算法模型嵌入到算力网络中,完成模型的训练、生成和部署,并对外提供AI服务 推进算力网络中引入联邦学习等新型的具有隐私保护的分布式人工智能架构,能进一步提高算力网络性能。 |
|
||||
| 其他类似应用 | N/A |
|
||||
|
||||
## 4.2 基于AI的算力网络流量控制与算力匹配
|
||||
|
||||
|<div style="width: 100pt"> 场景名称 </div> | AI as a Service/AI即服务 |
|
||||
|------------------------|-----------------|
|
||||
| 贡献者 | 中国移动美研所-潘伟森 |
|
||||
| 应用名称 | 基于AI的算力网络流量控制与算力匹配 |
|
||||
| 场景描述 | 1. 算力网络集成了分布于不同地理位置的分布式和泛在化的计算能力,其来源包括了各种计算设备如云计算节点、边缘计算节点、终端设备、网络设备等, 在算力网络环境中的计算任务量大、类型多样,包括数据分析、AI推理、图形渲染等各类计算任务,在这种情况下,传统的流量控制策略可能无法有效处理任务的多样性和量级,可能导致计算资源的浪费、计算任务的延迟、服务质量下降等问题。为了解决这些问题,可以采用基于AI的流量控制与算力匹配,通过收集大量的网络流量数据、设备状态数据和任务需求数据,使用深度学习算法训练AI模型。模型能够学习到网络流量和计算任务的模式,预测未来的流量变化和任务需求,以及设备的计算能力,并根据这些信息实时调整流量控制策略与算力匹配策略。 <br> 2. 在AI的帮助下,运营商能够更有效地管理流量和算力,减少网络拥堵,提高计算资源的利用率,降低计算任务的延迟,提高服务质量。例如,在预测到大量的数据分析任务将要到来时,AI系统可以提前调整网络配置,优先将计算资源分配给这些任务,以满足需求。在预测到计算设备的能力不足以处理即将到来的任务时,AI系统可以提前调整流量控制策略,将部分任务重定向到其他设备,以防止拥堵。 <br> 3. 基于AI的算力网络流量控制与算力匹配将大规模的算力网络带来了显著的性能提升,使得运营商能够更好地管理计算资源,满足各类计算任务的需求。 <br> |
|
||||
| 当前解决方案及Gap分析 | 基于AI的算力网络流量控制与算力匹配通过人工智能技术,可以实时监测算力网络状态,动态预测网络流量需求,自动优化算力网络资源分配和负载均衡。还能通过深度学习算法,不断学习和改进自己的流量控制策略,使其更加适应复杂和多变的网络环境。 <br> Gap分析: <br> 1. 动态性与自适应性:传统的流量控制方法往往较为静态,难以适应未来算力网络环境的快速变化。而基于AI的流量控制与算力匹配则具有很强的动态性和自适应性,可以根据实时的网络状态和预测的流量需求,动态调整流量控制策略和算力分配策略。 <br> 2. 学习与改进:传统的流量控制方法往往缺乏自我学习和改进的能力。而基于AI的流量控制与算力匹配则可以通过深度学习算法,不断学习和改进自己的流量控制与算力匹配策略,使其更加适应复杂和多变的网络环境。 <br> 3. 对未来技术的适应性:随着算力网络及相关应用的快速发展,未来的算力网络环境和流量需求可能会更加复杂和多变。因此,基于AI的流量控制与算力引导对于未来算力网络和相关应用具有更好的适应性和前瞻性。|
|
||||
| 算力网络需求推导 | 在算力网络中,流量控制和算力合理的匹配对于确保高效运行和资源优化至关重要。这需要一种能够实时、动态地调整流量控制策略和算力匹配的系统。基于人工智能的流量控制和算力匹配有望满足这种需求。以下是具体的需求推导过程: <br> 1. 高效率的资源利用:在大规模、分布式的算力网络中,资源的使用效率直接影响到整个网络的运行效率和成本。通过AI技术,能够更精准地预测和调度流量,使得资源得到更合理、更高效的利用。 <br> 2. 动态调整和优化:网络流量和任务需求可能会随时间、应用和用户行为发生变化,这就需要流量控制策略能够实时响应这些变化。AI技术可以通过实时学习和预测,实现动态调整和优化流量控制策略,并合理的匹配到最优的算力。 <br> 3. 负载均衡:在面对流量突发变化或任务需求变化时,保持网络负载均衡至关重要。AI技术可以通过实时监控和预测网络状态,动态调整流量和任务分布,保持负载均衡。 <br> 4. 服务质量保证:在保证服务质量方面,AI技术可以根据预测的网络状态和任务需求,优先满足重要任务和服务的需求,从而提高服务质量。 <br> 5. 自动化管理:通过自动学习和更新规则,AI技术可以减轻算力网络管理的工作负担,实现更高程度的自动化管理。 <br> 因此,引入基于AI的流量控制和算力引导,不仅可以提高算力网络的运行效率和服务质量,还可以实现更高程度的自动化管理,这是符合算力网络发展需求的。|
|
||||
| 参考实现与流程 | 1. 数据收集:收集算力网络中的历史数据,如各节点的算力利用率、任务执行时间、网络延迟等,以此作为训练AI模型的数据基础。 <br> 2. 数据预处理:对收集到的数据进行预处理,包括数据清洗、格式转换、特征提取等。 <br> 3. 模型选择训练:根据算力网络的特点和需求,选择合适的AI模型(如深度学习模型、强化学习模型等)进行训练。训练的目标是让AI模型学会如何在各种条件下进行最优的流量控制和算力分配。 <br> 4、模型测试与优化:在模拟环境或实际环境中测试训练好的AI模型,根据测试结果进行模型的调整和优化。 <br> 5、模型部署:优化好的AI模型部署到算力网络中,根据实时网络状态和任务需求进行流量控制和算力引导。 <br> 6、 实时调整:模型在部署后需要根据实时收集到的网络状态和任务需求数据进行动态调整和优化。 <br> 7、模型更新:根据网络运行情况和模型性能,定期对模型进行更新和优化。 <br> 8、持续监测和调整:在模型部署后,需持续监测网络状态和任务执行情况,根据需要对AI模型进行调整,并周期性地重新训练模型以应对网络环境的变化。 |
|
||||
| 技术发展及开源工作建议 | 1. 在技术发展上,一是考虑集成多个AI模型:不同的AI模型可能在处理不同类型的任务或应对不同网络状态时效果更佳,可以考虑集成多个AI模型,通过集成学习方法优化整体性能;二是自适应算法的开发:随着网络环境的变化,需要实时调整AI模型的参数以应对这些变化。这就需要开发更为智能和自适应的算法,以便在没有人工干预的情况下自我优化。 <br> 2. 在开源工作方面:一是公开和共享算力网络的历史数据,让更多的研究者可以基于这些数据进行模型的训练和测试。同时,也可以共享已经训练好的AI模型,以供其他人使用和优化;二是建立标准和规范:为了确保不同开源项目的协同和互操作,需要建立一套通用的标准和规范,这包括但不限于数据格式、API设计、模型训练和测试的方法等。 |
|
||||
|
||||
|
||||
## 4.3 算力网络视频调度
|
||||
|
||||
|<div style="width: 100pt"> 场景名称 </div> | 算力网络视频调度 |
|
||||
|------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
||||
| 贡献者 | 浪潮-耿晓巧 |
|
||||
| 应用名称 | VR+视频调度 |
|
||||
| 场景描述 | 结合VR视频交互等技术,通过视频平台与算力网络的互联互通,实现云边协同式视频服务,实现随时随地远程监控、智能监管 |
|
||||
| 当前解决方案及Gap分析 | 从VR视频平台提取视频流,经过转码、AI识别、推流等视频任务处理,满足用户通过手机APP观看直播和大屏展示、市监局进行市场监管等业务场景 |
|
||||
| 算力网络需求推导 | 需提供云边协同调度 |
|
||||
| 参考实现与流程 | |
|
||||
| 技术发展及开源工作建议 | |
|
||||
| 其他类似应用 | N/A |
|
||||
|<div style="width: 100pt"> 场景名称 </div> | 算力网络视频调度 |
|
||||
|------------------------|-----------------------------------------|
|
||||
| 贡献者 | 浪潮-耿晓巧 |
|
||||
| 应用名称 |面向视频应用的算网一体调度|
|
||||
| 场景描述 | 基于轨道交通等智能视频场景,以客户业务为中心,构建算网一体的任务式服务调度能力,感知并解析用户对时延、成本等的业务需求,进行计算、存储等资源的协同调度和分配,并实现调度策略的动态优化,实现向客户提供按需、灵活、智能的算力网络服务,同时广泛适配各类行业应用场景,赋能视频业务智能转型。 |
|
||||
| 当前解决方案及Gap分析 | 1.算网资源异构、泛在,业务复杂且性能要求较高,传统解决方案中网、云、业务存在协同壁垒,无法满足各类场景调度需求。 <br> 2.业务高峰期数据传输量大、网络负载高,导致高时延,影响视频业务服务质量,对视频调度方案的优化提出了更高的要求与挑战。 <br>  <br> 3、视频业务智能化不足,未形成全流程自动化监管与预警处置闭环。|
|
||||
| 算力网络需求推导 | 1.基于对资源状态和业务需求的感知度量,结合优化算法,在不同时间段和不同站点进行算力资源的优化调度和分配,构建面向行业应用的算网调度协同技术体系。 <br> 2.面向各类视频用户提供任务式服务(最优路径、最近距离、最低成本),及AI智能视频服务。 |
|
||||
| 参考实现与流程 |  <br> 1.感知、采集、分析底层算力资源、网络资源和存储资源,以及感知用户业务类型,和对时延、传输数据量、上传流量等的需求。 <br> 2.面向用户对时延、成本等的业务需求,结合系统整体建模、业务规则分析、优化策略求解以及系统模块对接等,提供分时潮汐调度、跨区域调度和智能编排调度等能力。 <br> 3.实时评估当前调度策略是否能够满足用户业务需求,将相关指标反馈给智能调度模块,智能调度模块基于此对调度策略进行动态优化调整。 <br> 4.将视频处理、AI推理、数据处理等处理任务灵活下发到相关计算资源中,提供视频数据自动备份、AI训练、AI视频实时推理等智能视频作业服务。 |
|
||||
| 技术发展及开源工作建议 | 1.将AI智能视频能力与算力网络相结合,满足行业场景多样化需求。 <br> 2.建议展开算网资源度量相关研究,为算力网络提供统一资源模板。|
|
||||
|
||||
## 4.4 基于多方安全计算的借贷风险评估
|
||||
|
||||
|<div style="width: 100pt"> 场景名称 </div> | 基于多方安全计算的借贷风险评估 |
|
||||
|------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
||||
| 贡献者 | 亚信-郭建超 |
|
||||
| 应用名称 | 隐私计算 |
|
||||
| 场景描述 | 当个人/企业向银行进行贷款申请时,银行需评估借贷风险,排查用户多头借贷及超额借贷的风险。通过搭建的隐私计算平台,运用隐私查询、多方联合统计,联合多家银行,在贷前对用户各银行的借贷总额进行联合统计。银行收到联合统计结果后,决定是否向用户发放贷款。 在该场景下,隐匿查询服务和多方联合统计服务与算力网络高度相关: 隐匿查询服务:通过隐私计算,查询方可隐藏被查询对象关键词或客户ID信息,数据提供方提供匹配的查询结果却无法获知具体对应哪个查询对象,能杜绝数据缓存、数据泄漏、数据贩卖的可能性。 多方联合统计服务:通过隐私计算,可**使多个非互信主体在数据相互保密的前提下进行高效数据融合计算**,达到“数据可用不可见”,最终实现数据的所有权和数据使用权相互分离。  |
|
||||
| 当前解决方案及Gap分析 | |
|
||||
| 算力网络需求推导 | “不解决算力和通信问题,隐私计算的大规模应用将无从谈起”,隐私计算技术对算力要求和依赖度很高,面对越来越多的数据,分布式模型需要大量通信网络支撑,对于算力,需要按照服务的全场景情况对算力进行快速智能分配及实时调度。 计算密集型:采用大量密文计算,加密后的数据计算将会产生大量的算力开销,单次模型训练与迭代的耗时将会呈现指数级增长。 网络密集型:隐私计算模型分布多个计算方,应用往往需要频繁通信以交换中间结果,加之以密态来传递中间结果。 存储密集型:数据计算过程和结果对存储有大量的存储需求,需要及时提供存储能力。 除了资源维度上的要求,该场景对于算网融合调度也提出了更高的要求。该场景的部署采用 “联盟端+管理端”的方式,采用分布式密文计算架构,进行云及本地部署,同时可灵活投入硬件与计算资源,快速实施部署和升级。在该场景中,隐匿查询服务和多方联合统计服务涉及到多地算力节点的协同计算、节点之间数据密文以及加密算法的协同,需要算力网络具备算力和网络的协同调度能力,满足网络传输需求的同时,综合考虑传输时延、计算节点的任务执行时延,杜绝算力短板引发的“木桶效应”。同时,需要算力网络具备动态的资源调度能力,能够实时满足业务调度的需求。  |
|
||||
| 参考实现与流程 |  1a:用户意图分析请求 1b:用户意图分析回复 2:业务方案请求 3a:可用节点及路径(专线/专网)查询请求 3b:可用节点及路径查询回复(topN节点+路径组合) 4:业务方案回复(多个方案)与确认 5:业务开通请求与镜像包(或下载地址)发送 6a:路径二次查询(带选中的组合方案) 6b:路径二次查询回复(选中的节点+详细路径) 7a:开通过程拓扑孪生展示请求 7b:开通过程拓扑孪生展示回复 8:算力资源开通与应用部署请求(含镜像包或下载地址) 9a:算力调度与应用部署请求 9b:算力调度与应用部署回复 10:算力资源开通与应用部署回复 11:网络路径建立请求 12a:网络调度请求 12b:网络调度回复 13:网络路径建立回复 14:业务开通回复 15:业务体验,可查看基于模型的效果等 16a:业务拓扑孪生展示请求 16b:业务拓扑孪生展示回复 |
|
||||
| 技术发展及开源工作建议 | |
|
||||
| 其他类似应用 | N/A |
|
||||
|<div style="width: 100pt"> 场景名称 </div> | 基于多方安全计算的借贷风险评估 |
|
||||
|------------------------|-------|
|
||||
| 贡献者 | 亚信-郭建超 |
|
||||
| 应用名称 | 隐私计算 |
|
||||
| 场景描述 |当个人/企业向银行进行贷款申请时,银行需评估借贷风险,排查用户多头借贷及超额借贷的风险。通过搭建的隐私计算平台,运用隐私查询、多方联合统计,联合多家银行,在贷前对用户各银行的借贷总额进行联合统计。银行收到联合统计结果后,决定是否向用户发放贷款。 <br> 在该场景下,隐匿查询服务和多方联合统计服务与算力网络高度相关: <br> 1. 隐匿查询服务:通过隐私计算,查询方可隐藏被查询对象关键词或客户ID信息,数据提供方提供匹配的查询结果却无法获知具体对应哪个查询对象,能杜绝数据缓存、数据泄漏、数据贩卖的可能性。 <br> 2. 多方联合统计服务:通过隐私计算,可使多个非互信主体在数据相互保密的前提下进行高效数据融合计算,达到“数据可用不可见”,最终实现数据的所有权和数据使用权相互分离。 <br> |
|
||||
| 当前解决方案及Gap分析 | |
|
||||
| 算力网络需求推导 | “不解决算力和通信问题,隐私计算的大规模应用将无从谈起”,隐私计算技术对算力要求和依赖度很高,面对越来越多的数据,分布式模型需要大量通信网络支撑,对于算力,需要按照服务的全场景情况对算力进行快速智能分配及实时调度。 <br> 1. 计算密集型:采用大量密文计算,加密后的数据计算将会产生大量的算力开销,单次模型训练与迭代的耗时将会呈现指数级增长。 <br> 2. 网络密集型:隐私计算模型分布多个计算方,应用往往需要频繁通信以交换中间结果,加之以密态来传递中间结果。 <br> 3. 存储密集型:数据计算过程和结果对存储有大量的存储需求,需要及时提供存储能力。 除了资源维度上的要求,该场景对于算网融合调度也提出了更高的要求。该场景的部署采用 “联盟端+管理端”的方式,采用分布式密文计算架构,进行云及本地部署,同时可灵活投入硬件与计算资源,快速实施部署和升级。在该场景中,隐匿查询服务和多方联合统计服务涉及到多地算力节点的协同计算、节点之间数据密文以及加密算法的协同,需要算力网络具备算力和网络的协同调度能力,满足网络传输需求的同时,综合考虑传输时延、计算节点的任务执行时延,杜绝算力短板引发的“木桶效应”。同时,需要算力网络具备动态的资源调度能力,能够实时满足业务调度的需求。 <br> |
|
||||
| 参考实现与流程 |  <br> 1. 银行方发起联合模型训练方案业务请求; <br> 2. 算网运营交易中心向算网大脑提出业务请求; <br> 3. 算网大脑分析业务请求(可能包含位置、资源需求等) 查询可用节点及路径(专线/专网),回复算网运营中心可选方案; <br> 4. 算网运营中心答复资源需求方方案及价格信息; <br> 5. 资源需求方答复确认方案; <br> 6. 算网运营中心将选择的方案发松给算网大脑; <br> 7. 算网大脑进行方案自验证(基于数字孪生技术或其它仿真技术); <br> 8. 向算网运营交易中心答复方案自验证情况(算力、网络、资源等信息确认) ; <br> 9.算网运营中心确认方案; <br> 10. 算网大脑向算网基础设施层发起资源开通和路径(网络)建立请求; <br> 11. 算网基础回复资源开通和路径建立; <br> 12. 业务开通回复; <br> 13. 算网运营交易中心答复资源需求方业务开通,资源需求方进行模型训练及部署后的模型推理等.|
|
||||
| 技术发展及开源工作建议 | |
|
||||
|
||||
## 4.5 基于算力网络的AI应用跨架构部署迁移
|
||||
|
||||
|<div style="width: 100pt"> 场景名称 </div> | 基于算力网络的AI应用灵活部署迁移 |
|
||||
|------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
||||
| 贡献者 | 中国移动研究院-赵奇慧 |
|
||||
| 应用名称 | / |
|
||||
| 场景描述 | 用户在向算力网络申请AI服务时,以人脸识别业务(AI推理类)为例,将提供应用名称、待处理的数据集信息(如图片传输接口、图片数量、图片大小)、倾向的检测地点、处理速率、成本约束等,由算力网络自行根据用户需求选择合适的算力集群部署人脸识别业务、完成配置并提供服务。 由于算力网络将来源各异、类型各异的算力构成一张统一的网络,凡符合用户SLA需求,具体承载该人脸识别业务并提供计算的底层算力可以有多种选择,可为英伟达GPU、Intel CPU、华为NPU、寒武纪MLU、海光DCU及众多其他智算芯片中的任意一种或多种组合。因此,AI应用在算力网络中的多种异构异厂商智算芯片上部署、运行、迁移,是算力网络的典型应用场景之一。此场景与云计算智算应用跨架构迁移场景类似。 除用户向算力网络申请AI服务外,上述场景也适合用户在算力网络中部署自研AI应用。 |
|
||||
| 当前解决方案及Gap分析 | AI应用(也即AI服务)的运行一般需要“AI框架+工具链+硬件”支撑,其中: AI框架指PaddlePaddle、Pytorch、TensorFlow等;硬件指各设备商的智算芯片;工具链是各设备商围绕各自智算芯片构建的系列软件,包含但不限于IDE、编译器、运行时、驱动等。目前,用户在模型、应用研发设计阶段就需要选择编程语言、框架模型、指定硬件后端并进行一体编译链接。如需实现AI应用在算力网络中的任意算力后端上运行,则需要针对不同的智算芯片、使用各芯片匹配的开发工具链等开发出多个版本并完成编译,然后依托芯片匹配的运行时完成部署。整体开发难度大、软件维护成本高。  |
|
||||
| 算力网络需求推导 | 1. 为简化用户开发和部署AI应用的难度,算力网络需协同AI框架、芯片及相关工具链形成支持AI应用跨架构部署运行的软件栈,面向用户屏蔽底层硬件差异,支持用户AI应用的一次开发、随处部署。 2. 算力网络需理解用户描述性SLA等需求,支持将其转换成可被云网基础设施理解的资源、网络、存储等需求,并支持形成符合用户SLA需求的多种资源组合方案。 3. 算力网络需依据统一标准对底层异构异厂商硬件进行度量,以支持算力网络针对用户描述性SLA需求计算出不同的资源组合方案。 4. 算力网络需支持监控整个算力网络状态,并根据上述计算得出的资源组合完成资源调度、应用部署等。 |
|
||||
| 参考实现与流程 | 本部分仅针对AI应用跨架构部署迁移设计的一种解决方案,也可存在其他实现与流程。  具体工作流程: Pre1. 编排管理层已纳管底层算力资源池,并实时监控池内资源情况。Pre2. 算力服务商根据底层算力资源池内的资源类型准备跨架构基础镜像,并在编排管理层的中央基础镜像仓库中注册该镜像。跨架构基础镜像中至少包含跨架构runtime。该跨架构runtime可对上层业务提供统一的算力资源抽象,从而屏蔽底层硬件差异;对下可对接不同AI芯片的runtime或driver或指令集,将应用的算力抽象调用转译成芯片对应工具链的API调用或指令集调用,以便最终完成计算任务。 算力网络为AI应用开发者(即用户)提供灵活可装载的本地跨架构开发环境,包含跨架构IDE(编译器、SDK等)、跨架构环境模拟器(根据用户本地底层硬件类型灵活适配,对应用模拟统一抽象的算力资源,以便完成应用调试)。 用户完成AI应用开发后,通过跨架构开发环境生成可跨架构执行的业务可执行文件,并上载到算力网络编排管理层的跨架构业务可执行文件库中。 用户向算力网络提出AI应用部署描述性SLA需求,编排管理层接收SLA请求。 编排管理层根据多类资源统一监控数据解析SLA需求,转化成算网基础设施层可理解的资源需求,该资源需求可存在多种资源组合,在用户选择具体组合方案后,触发业务部署。 业务部署过程首先完成AI应用镜像及部署文件的生成。对于镜像,将结合用户选择的底层资源类型从中央基础镜像仓库中拉取对应的跨架构基础镜像,并自动与待部署AI应用的跨架构可执行文件打包,生成完整的跨架构业务镜像,并将该完整业务镜像下发到底层资源池内的镜像仓库中。对于部署文件,将根据底层环境类型(裸机环境、容器环境、虚机环境)、解析的资源需求、镜像位置、业务配置等信息/文件生成自动部署文件(可为脚本、Helm Chart、Heat模板等)。 基础设施层资源池内的编排管理组件根据部署文件、镜像等内容部署AI应用。 若AI应用需迁移到其他芯片资源池(CPU、FPGA、ASIC等)中,将重复4、5、6三个步骤。 |
|
||||
| 技术发展及开源工作建议 | 建议增强AI应用跨架构部署迁移方案的研究,可依托CFN WG-算力原生子工作组探索参考实现。当前业界现存的阿里HALO+ODLA、Intel的 DPC++ 与LevelZero等开源方案可作为该解决方案探索的基础。 建议展开算网度量的研究,以便为算力网络提供统一资源模板。 建议挖掘用户描述性SLA需求,并研究该需求向具体资源需求转化的方式,详细可参见PaaS、SaaS、FaaS等服务模式。 |
|
||||
| 其他类似应用 | N/A |
|
||||
|<div style="width: 100pt"> 场景名称 </div> | 基于算力网络的AI应用灵活部署迁移 |
|
||||
|------------------------|-------------------------------------------------------|
|
||||
| 贡献者 | 中国移动研究院-赵奇慧 |
|
||||
| 应用名称 | / |
|
||||
| 场景描述 | 用户在向算力网络申请AI服务时,以人脸识别业务(AI推理类)为例,将提供应用名称、待处理的数据集信息(如图片传输接口、图片数量、图片大小)、倾向的检测地点、处理速率、成本约束等,由算力网络自行根据用户需求选择合适的算力集群部署人脸识别业务、完成配置并提供服务。 <br> 由于算力网络将来源各异、类型各异的算力构成一张统一的网络,凡符合用户SLA需求,具体承载该人脸识别业务并提供计算的底层算力可以有多种选择,可为英伟达GPU、Intel CPU、华为NPU、寒武纪MLU、海光DCU及众多其他智算芯片中的任意一种或多种组合。因此,AI应用在算力网络中的多种异构异厂商智算芯片上部署、运行、迁移,是算力网络的典型应用场景之一。此场景与云计算智算应用跨架构迁移场景类似。 <br> 除用户向算力网络申请AI服务外,上述场景也适合用户在算力网络中部署自研AI应用。 |
|
||||
| 当前解决方案及Gap分析 | AI应用(也即AI服务)的运行一般需要“AI框架+工具链+硬件”支撑,其中: AI框架指PaddlePaddle、Pytorch、TensorFlow等;硬件指各设备商的智算芯片;工具链是各设备商围绕各自智算芯片构建的系列软件,包含但不限于IDE、编译器、运行时、驱动等。目前,用户在模型、应用研发设计阶段就需要选择编程语言、框架模型、指定硬件后端并进行一体编译链接。如需实现AI应用在算力网络中的任意算力后端上运行,则需要针对不同的智算芯片、使用各芯片匹配的开发工具链等开发出多个版本并完成编译,然后依托芯片匹配的运行时完成部署。整体开发难度大、软件维护成本高。 <br>  |
|
||||
| 算力网络需求推导 | 1. 为简化用户开发和部署AI应用的难度,算力网络需协同AI框架、芯片及相关工具链形成支持AI应用跨架构部署运行的软件栈,面向用户屏蔽底层硬件差异,支持用户AI应用的一次开发、随处部署。 <br>  <br> 2. 算力网络需理解用户描述性SLA等需求,支持将其转换成可被云网基础设施理解的资源、网络、存储等需求,并支持形成符合用户SLA需求的多种资源组合方案。 <br> 3. 算力网络需依据统一标准对底层异构异厂商硬件进行度量,以支持算力网络针对用户描述性SLA需求计算出不同的资源组合方案。 <br> 4. 算力网络需支持监控整个算力网络状态,并根据上述计算得出的资源组合完成资源调度、应用部署等。 |
|
||||
| 参考实现与流程 | 本部分仅针对AI应用跨架构部署迁移设计的一种解决方案,也可存在其他实现与流程。 <br> media/e5b93df9e68f7e398d2e18cc27f3c368.png) <br> 具体工作流程: <br> Pre1. 编排管理层已纳管底层算力资源池,并实时监控池内资源情况。 <br> Pre2. 算力服务商根据底层算力资源池内的资源类型准备跨架构基础镜像,并在编排管理层的中央基础镜像仓库中注册该镜像。跨架构基础镜像中至少包含跨架构runtime。该跨架构runtime可对上层业务提供统一的算力资源抽象,从而屏蔽底层硬件差异;对下可对接不同AI芯片的runtime或driver或指令集,将应用的算力抽象调用转译成芯片对应工具链的API调用或指令集调用,以便最终完成计算任务。 <br> 1. 算力网络为AI应用开发者(即用户)提供灵活可装载的本地跨架构开发环境,包含跨架构IDE(编译器、SDK等)、跨架构环境模拟器(根据用户本地底层硬件类型灵活适配,对应用模拟统一抽象的算力资源,以便完成应用调试)。 <br> 2. 用户完成AI应用开发后,通过跨架构开发环境生成可跨架构执行的业务可执行文件,并上载到算力网络编排管理层的跨架构业务可执行文件库中。 <br> 3. 用户向算力网络提出AI应用部署描述性SLA需求,编排管理层接收SLA请求。 <br> 4. 编排管理层根据多类资源统一监控数据解析SLA需求,转化成算网基础设施层可理解的资源需求,该资源需求可存在多种资源组合,在用户选择具体组合方案后,触发业务部署。 <br> 5. 业务部署过程首先完成AI应用镜像及部署文件的生成。对于镜像,将结合用户选择的底层资源类型从中央基础镜像仓库中拉取对应的跨架构基础镜像,并自动与待部署AI应用的跨架构可执行文件打包,生成完整的跨架构业务镜像,并将该完整业务镜像下发到底层资源池内的镜像仓库中。对于部署文件,将根据底层环境类型(裸机环境、容器环境、虚机环境)、解析的资源需求、镜像位置、业务配置等信息/文件生成自动部署文件(可为脚本、Helm Chart、Heat模板等)。 <br> 6. 基础设施层资源池内的编排管理组件根据部署文件、镜像等内容部署AI应用。 <br> 7. 若AI应用需迁移到其他芯片资源池(CPU、FPGA、ASIC等)中,将重复4、5、6三个步骤。 |
|
||||
| 技术发展及开源工作建议 |1. 建议增强AI应用跨架构部署迁移方案的研究,可依托CFN WG-算力原生子工作组探索参考实现。当前业界现存的阿里HALO+ODLA、Intel的 DPC++ 与LevelZero等开源方案可作为该解决方案探索的基础。 <br> 2. 建议展开算网度量的研究,以便为算力网络提供统一资源模板。 <br> 3. 建议挖掘用户描述性SLA需求,并研究该需求向具体资源需求转化的方式,详细可参见PaaS、SaaS、FaaS等服务模式。 |
|
||||
|
||||
## 4.6 算力网络裸金属管理
|
||||
|
||||
|<div style="width: 100pt"> 场景名称 </div> | 算力网络裸金属管理 |
|
||||
|------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
||||
| 贡献者 | 中国移动研究院-王锦涛、中国移动研究院-赵奇慧 |
|
||||
| 应用名称 | / |
|
||||
| 场景描述 | 根据2.3节,算力网络提供资源型服务模式,支持用户直接向算力网络申请裸机、虚机、容器等资源。部分用户也因性能、安全、业务虚拟化/容器化改造难度等方面的考虑,更倾向于使用裸金属服务。传统裸金属服务资源难以灵活配置、客户需要定向适配各类驱动、发放和管理流程冗长,无论是客户体验还是管理运维手段,较虚拟化服务有较大差距。因此如何实现算力网络服务商灵活管理和运维多样基础设施、并简化用户使用裸金属是算力网络数据中心的重要需求。该场景也适用于云计算及云网融合领域。 |
|
||||
| 当前解决方案及Gap分析 | 传统裸金属方案基于Ironic实现。对算力网络服务商而言,在裸机发放流程中,在Inpection阶段需要手动配置网络,在provisioning和tenant阶段需要多次网络切换、节点安装和重启操作,整体流程复杂冗长,与虚拟机发放流程差异较大。对于用户而言,网卡数量和存储规格固定,无法满足不同用户的差异化网卡及存储需求;此外裸金属网卡驱动及存储客户端等均对用户可见,需要用户进行定向适配,进一步增加用户使用裸金属难度。  |
|
||||
| 算力网络需求推导 | 算力网络实现与虚拟机类似的便捷裸金属管理及发放功能。 |
|
||||
| 参考实现与流程 | 补充完善中 |
|
||||
| 技术发展及开源工作建议 | |
|
||||
| 其他类似应用 | |
|
||||
|<div style="width: 100pt"> 场景名称 </div> | 算力网络裸金属管理 |
|
||||
|------------------------|--------------------------------------------|
|
||||
| 贡献者 | 中国移动研究院-王锦涛、中国移动研究院-赵奇慧 |
|
||||
| 应用名称 | / |
|
||||
| 场景描述 | 根据2.3节,算力网络提供资源型服务模式,支持用户直接向算力网络申请裸机、虚机、容器等资源。部分用户也因性能、安全、业务虚拟化/容器化改造难度等方面的考虑,更倾向于使用裸金属服务。传统裸金属服务资源难以灵活配置、客户需要定向适配各类驱动、发放和管理流程冗长,无论是客户体验还是管理运维手段,较虚拟化服务有较大差距。因此如何实现算力网络服务商灵活管理和运维多样基础设施、并简化用户使用裸金属是算力网络数据中心的重要需求。该场景也适用于云计算及云网融合领域。 |
|
||||
| 当前解决方案及Gap分析 | 对算力网络服务商而言,在传统的裸机发放流程中,在Inpection阶段需要手动配置网络,在provisioning和tenant阶段需要多次网络切换、节点安装和重启操作,整体流程复杂冗长,与虚拟机发放流程差异较大。对于用户而言,网卡数量和存储规格固定,无法满足不同用户的差异化网卡及存储需求;此外裸金属网卡驱动及存储客户端等均对用户可见,需要用户进行定向适配,进一步增加用户使用裸金属难度,同时块存储网络暴露在客户操作系统也存在安全风险。 <br> |
|
||||
| 算力网络需求推导 | 算力网络实现与虚拟机类似的便捷裸金属管理及发放和管理: <br> 1. 裸金属服务器全自动化发放,通过控制台自助申请,无需人工介入,即可完成自动化镜像安装、网络配置、云盘挂载等功能; <br> 2. 完全兼容虚拟化平台云盘系统,使用云盘启动,免操作系统安装,进行云硬盘的挂载和卸载,满足弹性存储的要求,同时兼容虚拟机镜像系统; <br> 3. 兼容虚拟机VPC网络,实现裸金属服务器和虚拟机网络互通,支持自定义网络实现裸金属服务器之间互通,实现灵活组网。 |
|
||||
| 参考实现与流程 |  <br> 在裸金属服务器配置DPU卡,裸金属实例的网络端口和磁盘设备全部由DPU提供。DPU上运行了云平台的管理、网络和存储相关的组件,管理模块负责裸金属实例生命周期的管理,网络模块负责裸金属虚拟网口的实现和网络流量的转发,存储模块负责裸金属云盘的实现和存储网络协议栈的终结。在DPU场景下,裸金属的发放和管理流程如下: <br> 1. 通过云平台API或UI界面选择裸金属规格,创建裸金属实例; <br> 2. 云平台conductor组件初始化裸金属实例化流程,调用DPU上运行的管理模块,完成裸金属实例的配置; <br> 3. 云平台创建虚拟网口,在DPU上实现虚拟网口后端的初始化,裸金属在启动之后通过标准virtio驱动扫描到网口设备;同时将网口信息同步给SDN控制器,SDN控制器将流表下发到裸金属节点DPU上的vSwitch上,实现裸金属与其他实例的网络互通; <br> 4. 云平台创建云盘设备,通过iSCSI等存储网络协议栈在DPU上对接远端块存储系统,将远端卷设备抽象为标准SPDK bdev块设备,并通过NVMe/virtio-blk等后端提供给裸金属实例作为磁盘设备。|
|
||||
| 技术发展及开源工作建议 |1. 增强云平台管理组件在DPU上的部署和与DPU OS中相关驱动对接方案的研究,以便不同云厂商可以更高效的将相关软件组件部署到不同厂商的DPU上; <br> 2. 探索存储模块中NVMe-oF存储网络协议栈的应用研究,以提供更高性能云盘服务|
|
||||
|
||||
# 5. Next Step
|
||||
|
||||
  本文分析了算力网络的热门定义、主要能力类型、服务模式、技术领域、应用场景等。为进一步细化算力网络实现,像业界提供更为具象的算力网络参考,后续我们计划依托CFN WG-需求与架构子工作组进一步完成应用场景分类,选择重点应用场景梳理算力网络基础功能架构,并与CFN WG其他子工作组协同形成特定场景解决方案。
|
||||
|
||||
# Events about CFN
|
||||
# 6. Events about CFN
|
||||
|
||||
**算力网络相关标准组织动态**
|
||||
|
||||
@ -231,11 +224,8 @@
|
||||
- 2022年11月,中国移动发布《面向智算的算力原生白皮书》,面向智算领域生态竖井问题提出算力原生理念,并系统性从算力原生的定义内涵、技术架构、演进路径、关键技术等方面进行了阐述,以便解决大规模、泛在多样的异构计算资源生态隔离问题,并实现应用跨架构无感迁移执行。
|
||||
- 2022年12月,中国移动发布《算网大脑白皮书》,将算网大脑定位为整个算力网络体系的“智能中枢”,是算力网络编排管理层的核心,是算网共生发展的关键系统。中国移动提出以达成算网大脑“多样算力可泛在部署、极致网络可智能调度、算网资源可全局优化、算网能力可一体供给”为愿景,分阶段构筑融数注智的算网大脑,构建完整的算网大脑生态体系。
|
||||
|
||||
*(贡献-中兴-王长金,贡献-浪潮-耿晓巧,贡献-移动-赵奇慧)*
|
||||
|
||||
*(修订-20230518-移动-赵奇慧)*
|
||||
|
||||
# 参考文献
|
||||
# 7. 参考文献
|
||||
|
||||
1. 《中国算力发展指数白皮书》
|
||||
2. 《中国算力发展指数白皮书2022年》
|
||||
|
Loading…
x
Reference in New Issue
Block a user