一、 算力的前世今生:从人类智慧到数字革命
算力,这个在当今科技领域频繁出现的词汇,就像一颗璀璨的星星,照亮了我们的数字世界。在科技相关的领域,算力总是备受瞩目。那它到底是什么呢?
从最基础的层面来讲,算力就是计算能力(Computing Power),是一种对信息数据进行处理并输出目标结果的神奇能力。
其实,我们人类自身就是天然的“算力载体”。我们的一生都在进行着无数的计算,大脑就是我们最强大的算力引擎。
想想看,在日常生活中,我们常常通过口算、心算来处理简单的问题,这就是我们最原始的算力表现。不过,这种无工具的计算方式在面对复杂问题时就显得力不从心了。
于是,人类开始借助外力来提升算力。
远古时期,草绳和石头成为了我们最早的计算工具,虽然简单粗糙,但却开启了人类算力提升的征程。
随着文明的进步,算筹和算盘等更为精巧实用的工具出现了,它们极大地拓展了人类的计算能力。
时间来到 20 世纪 40 年代,这是一个具有里程碑意义的时代。
1946 年 2 月,世界上第一台数字式电子计算机 ENIAC 的诞生
宛如一道划破黑夜的闪电,宣告人类算力正式踏入了数字电子时代。
此后,半导体技术的发展如同春风化雨,催生了芯片时代的到来,芯片逐渐成为算力的核心承载者。
1958年.webp)
在云计算出现之前,人类一直被单点式计算的算力瓶颈所困扰,即使尝试过网格计算等分布式计算架构,仍然无法满足日益增长的计算需求。
而云计算则是分布式计算的一次伟大创新,它就像一个超级管家,将大量零散的算力资源进行整合打包,汇聚成一个虚拟且可无限扩展的“算力资源池”。
在这个资源池中,CPU、内存、硬盘、GPU 等计算资源相互协作。
当用户有算力需求时,资源池会根据需求动态分配资源,用户只需按需付费即可。
与用户自建机房和自行运维相比,云计算的性价比优势十分显著。

随着算力云化,数据中心成为了算力的主要承载地,人类的算力规模也因此实现了新的飞跃。
二、算力的多彩世界:分类与应用
如今,云计算和数据中心蓬勃发展,这背后是信息化和数字化进程的不断深入,它们激发了全社会对算力的强烈需求。
这些需求就像五颜六色的丝线,编织成了算力应用的绚丽画卷,涵盖了消费、行业和城市治理等各个领域。
面对如此多样化的需求和应用场景,算力也有着丰富的分类。
其中,最主要的是通用算力和专用算力。这两类算力的区别,很大程度上源于负责输出算力的芯片类型。
通用芯片,比如 x86 架构的 CPU 处理器芯片,就像一位全能选手,能够处理各种各样的算力任务,灵活性极高,但它也有缺点,那就是功耗相对较高。
而专用芯片则像是专业领域的精英,主要包括 FPGA 和 ASIC。

最初,人们使用 PC(x86 通用芯片)进行挖矿,但随着挖矿难度的增加,PC 的算力逐渐无法满足需求,于是人们开始使用显卡(GPU)挖矿。
然而,随着时间推移,显卡挖矿的能耗问题凸显,挖到的币值甚至无法弥补电费支出。这时,FPGA 和 ASIC 集群阵列就成为了新的选择。
在数据中心里,算力任务有着明确的划分,包括基础通用计算和 HPC 高性能计算。HPC 高性能计算又可以细分为三类:
(一)科学计算类
这是一个充满神秘和挑战的领域,涵盖了物理化学、气象环保、生命科学、石油勘探、天文探测等。这些专业科研领域就像数据的“黑洞”,产生的数据量极其庞大。
以油气勘探为例,这就像是给地表做一次超级 CT,一个项目所产生的原始数据往往超过 100TB,甚至可能超过 1 个 PB。
如此海量的数据,需要像大海般浩瀚的算力来支撑,才能从中挖掘出有价值的信息。
(二)工程计算类
包括计算机辅助工程、计算机辅助制造、电子设计自动化、电磁仿真等。这些领域的计算任务就像复杂精密的机械齿轮,相互咬合,推动着工程技术的不断进步,对算力的要求也非常高。
(三)智能计算类
也就是当前全社会瞩目的人工智能(AI)计算领域,涵盖了机器学习、深度学习、数据分析等。
AI 无疑是算力领域的“大胃王”,它对算力的需求极为庞大。这是因为在人工智能计算中,涉及大量矩阵或向量的乘法和加法运算,专用性很强,CPU 在处理这类任务时显得有些力不从心。
在实际应用中,GPU 和专用芯片成为了 AI 算力的主力军。
尤其是 GPU,虽然它原本是图形处理器,但它的 GPU 核(逻辑运算单元)数量远远超过 CPU,这种独特的结构使得它能够将同样的指令流并行发送到众多核心上,并采用不同的输入数据执行,从而高效地完成图形处理或大数据处理中的海量简单操作。
因此,GPU 在处理计算密集型、高度并行化的计算任务(如 AI 计算)方面具有天然的优势。
近年来,为了满足人工智能计算的旺盛需求,国家建设了许多智算中心,专门用于智能计算。
此外,还有超算中心,里面放置着像“天河一号”这样的超级计算机,它们承担着大规模科学计算和工程计算的重任。

而我们日常所见的数据中心,大多属于云计算数据中心,这里的计算任务比较复杂,既有基础通用计算,也有高性能计算,还存在大量异构计算。随着高性能计算需求的不断增长,专用计算芯片的比例也在逐步提高,像前几年开始流行的 TPU、NPU 和 DPU 等专用芯片就是很好的例子。

而且,“算力卸载”这个概念也逐渐走进人们的视野,它并不是真正删除算力,而是将虚拟化、数据转发、压缩存储、加密解密等计算任务从 CPU 转移到 NPU、DPU 等芯片上,以此减轻 CPU 的算力负担。除了上述常见的算力类型,科学界还涌现出了前沿算力的概念,如量子计算、光子计算等,它们就像遥远夜空中闪烁的新星,充满了无限的潜力,值得我们持续关注。
三、算力的度量衡:衡量标准与发展趋势
算力作为一种“能力”,就像物体的重量、长度一样,需要有相应的衡量指标和基准单位。大家比较熟悉的可能是 FLOPS、TFLOPS 等,但实际上,衡量算力大小的指标还有很多,比如 MIPS、DMIPS、OPS 等。

MFLOPS、GFLOPS、TFLOPS、PFLOPS 等都是 FLOPS 的不同量级,就像货币有元、角、分一样,不同量级适用于不同规模的算力描述。

而且,浮点数还有 FP16、FP32、FP64 等不同规格。不同的算力载体之间,算力的差异堪称天壤之别。

从发展趋势来看,智能计算和超级计算的算力增长速度如火箭般飙升,远远超过了通用算力。据 GIV 的数据统计,到 2030 年,通用计算算力(FP32)预计将增长 10 倍,达到 3.3 ZFLOPS,而 AI 智算算力(FP16)则将增长 500 倍,达到 105 ZFLOPS。这种巨大的差距,预示着未来算力领域的格局将发生深刻变化。
四、算力的现状与未来:机遇与挑战并存
早在 1961 年,“人工智能之父”约翰·麦卡锡提出了 Utility Computing(效用计算)的设想,他希望计算能像电话系统一样,成为一种公共事业。如今,这个美好的设想已经成为现实。在数字浪潮的席卷下,算力已经成为像水、电一样不可或缺的公共基础资源,而数据中心和通信网络则成为了重要的公共基础设施。这是 IT 和通信行业历经半个多世纪艰苦奋斗所取得的辉煌成果。对于整个人类社会而言,算力早已超越了技术范畴,它上升到了经济学和哲学的高度,成为数字经济时代的核心生产力,是全社会数智化转型的基石。我们的日常生活、企业的运转、政府部门的运作,都与算力紧密相连。在国家安全、国防建设、基础学科研究等关键领域,算力更是如同空气般重要,海量的算力需求是保障这些领域正常运行的关键。算力的强弱,直接决定了数字经济的发展速度和社会智能的发展高度。据 IDC、浪潮信息、清华大学全球产业研究院联合发布的数据显示,计算力指数每提高 1 点,数字经济和 GDP 将分别增长 3.5% 和 1.8%

全球各国的算力规模与经济发展水平呈现出明显的正相关关系,算力规模越大,经济发展水平越高。


特别是在芯片等算力核心技术方面,我国与发达国家之间还存在较大差距,一些关键的“卡脖子”技术尚未突破,这严重威胁到我国的算力安全,进而对国家安全产生影响。

