
● 最开始的计算机每台只能执行一个计算任务,随着多核心多线程的 CPU 出现,单个计算机可以执行多个计算任务。
● 随着大型网站的业务增加,单服务器模式很难进行扩容,又增加硬件成本。面向服务的架构出现,由多台服务器组成。由服务注册者、服务提供者和服务消费者,三者组成。
● 但是随着业务增加和服务器增加,SOA 模式下,点对点服务可维护性和可拓展性难度增加。类似微机原理中,总线模式出现,来协调各个服务单元。服务总线通过类似集线器的架构将所有系统连接在一起。这个组件被称为 ESB(企业服务总线)。作为一个中间角色,来翻译协调各个不同格式或者标准的服务协议。
● 随后基于应用程序编程接口(API)的 REST 模型通信,以其简洁、可组合性更高的特性,脱颖而出。各个服务以 REST 形式对外输出接口。当客户端通过 RESTful API 提出请求时,它会将资源状态表述传递给请求者或终端。该信息或表述通过 HTTP 以下列某种格式传输:JSON(Javascript 对象表示法)、HTML、XLT、Python、PHP 或纯文本。JSON 是最常用的编程语言,尽管它的名字英文原意为“JavaScript 对象表示法”,但它适用于各种语言,并且人和机器都能读。
● 虚拟机、容器技术,以及谷歌的三篇论文:
2003 年,GFS: The Google File System
2004 年,MapReduce: Simplified Data Processing on Large Clusters
2006 年,Bigtable: A Distributed Storage System for Structured Data
分别是分布式文件系统、分布式计算、分布式数据库,拉开了分布式系统的帷幕。 Hadoop 对谷歌论文的复现,更快更容易上手的 Spark,满足实时计算的 Flink。
● 但是以往都是分布式系统,并不是完全意义上的 Peer to peer 系统。在 Web3 领域,完全颠覆以往的软件架构。分布式系统的一致性,防欺诈攻击,防粉尘交易攻击等等一系列问题,都给去中心化计算框架带来挑战。
● 将以太坊为代表的智能合约公链,可以抽象理解为去中心化的计算框架,只不过 EVM 是有限指令集的虚拟机,无法做 Web2 需要的通用计算。而且链上资源也是极其昂贵。尽管如此,以太坊也是突破了点对点计算框架的瓶颈,点对点通信、计算结果全网一致性和数据一致性等等问题。
读者在上面了解了分布式计算的历史,但还是会存在很多困惑,我来替读者列出大家可能存在的潜在疑问,如下:
从业务需求出发,为什么去中心化计算网络很重要?整体市场规模有多大?现在处于什么阶段,未来还有多少空间?哪些机会值得关注?怎么去赚钱?
在以太坊最初的愿景中,是要成为世界的计算机。在 2017 年,ICO 大爆发之后,大家发现还是主要以资产发行为主。但是到了 2020 年,Defi summer 出现,大量 Dapp 开始涌现。链上数据爆炸,面对越来越多复杂的业务场景,EVM 越来越显得无力。需要链下拓展的形式,来实现 EVM 无法实现的功能。诸如像预言机等等角色,都是某种程度上的去中心化计算。
我们再以拓展思路去思考,现在 Dapp 高速增长,数据量也在爆炸式增长,这些数据的价值都需要更加复杂的算法来去计算,挖掘其商业价值。数据的价值由计算来体现和产生。这些都是大部分智能合约平台无法去实现的。
现在 Dapp 开发已经过去当初只需要完成 0 到 1 的过程,现在需要更加强大的底层设施,来支撑它完成更加复杂的业务场景。整个 Web3 已经从开发玩具应用阶段过去,未来需要面对更加复杂的逻辑和业务场景。
如何估算市场规模呢?通过 Web2 领域的分布式计算业务规模来估算?乘上 web3 市场的渗透率?把目前市面上相应融资项目的估值相加吗?
我们不能将 Web2 的分布式计算市场规模照搬到 Web3,理由是:1,Web2 领域的分布式计算满足了大部分需求,Web3 领域的去中心化计算是差异化满足市场需求。如果照搬,是有悖于市场客观背景环境。2,Web3 领域的去中心化计算,未来成长出的市场业务范围是全球化的。所以我们需要更加严谨得去估算市场规模。
对于 Web3 领域潜在赛道整体规模预算通过以下几点出发来进行计算:
2017 年到现在,很多团队都在尝试去中心化计算方向上发展,但是都尝试失败,后面会具体解释失败的原因。探索路径由最初类似外星人探索计划的项目,后来发展到模仿传统云计算的模式,再到 Web3 原生模式的探索。
当前整个赛道的现状,处于在学术层面已经验证 0 到 1 的突破,一些大型项目在工程实践上,有了较大的进展。例如当前的 zkRollup 和 zkEVM 实现上,都是刚刚发布产品的阶段。
未来还有很大空间,理由如下:1,还需提升验证计算的高效性。2,还需要补充丰富更多指令集。3,真正不同业务场景的优化。4,以往用智能合约无法实现的业务场景,可以通过去中心化计算实现。
我们通过一个具体案例来解释,完全去中心化的游戏。目前大部分 Gamefi 需要一个中心化服务做为后端,其后端作用在于管理玩家的状态数据和一些业务逻辑,其应用前端在于用户交互逻辑和事件触发后传递到后端。当前市面上还没有完整的解决方案,可以支撑 Gamefi 的业务场景。但是可被验证的去中心化计算协议出现,后端替换为 zkvm。可以真正实现去中心化的游戏。前端将用户事件逻辑,发送到 zkvm 执行相关业务逻辑,被验证后,在去中心化数据库记录状态。
当然这只是提出的一个应用场景,而 Web2 有很多业务场景需要计算的能力。

目前以太坊有如下问题 :
有团队尝试采用,被 Web2 广泛采用的云计算模式。用户支付一定费用,按照计算资源使用时间来计算费用。采取这样模式,其根本原因是因为其无法验证计算任务是否被正确执行,只能通过可检测的时间参数或者其他可控的参数。
最终这个模式没有广泛应用,没有考虑人性的因素。大量资源被用于挖矿,以谋取最大利益。导致真正可被利用的资源较少。这是博弈系统内,各个角色谋求利益最大化的结果。
最终呈现的结果,和最开始的初衷完全背离。

而 TrueBit 则利用博弈体系,达到全局最优解,来保障下发的计算任务是被正确执行。
https://www.aicoin.com/article/256862.html
我们快速这种计算框架的核心要点:
1.角色:问题解决者、挑战者和法官
2.问题解决者需要质押资金,才可以参与领取计算任务
3.挑战者作为赏金猎人,需要重复验证问题解决者的计算结果,和自己本地的是否一致
4.挑战者会去抽取与两者计算状态一致的最近时间的计算任务,如果出现分歧点,提交分歧点的默克树 hash 值
5.最后法官评判是否挑战成功
但是这个模式存在以下几点缺陷:
1.挑战者可以晚时间提交,只需要完成提交任务就行。这样导致结果是,缺少及时性。
所以如何实现,既保证计算过程可被验证,又能保障验证的及时性。
例如 zkEVM 的实现,每个区块时间,需要提交可被验证的 zkProof。这个 zkProof 包含逻辑计算业务代码生成的字节码,再由字节码执行生成电路代码。这样实现了计算业务逻辑是被正确执行,而且通过较短和固定时间来保障验证的及时性。
虽然 zkEVM 只是针对智能合约执行的场景,本质还是在计算业务框架下面。如果我们将 EVM 逻辑顺延到其他通用类型的虚拟机,例如 WASM 虚拟机,或者更加通用的 LLVM 高性能虚拟机。当然在具体落实到工程实践上会有诸多挑战,却给我们更多的探索空间。
在假定条件下,有足够高性能的零知识证明加速硬件和足够被优化的零知识证明算法,通用计算场景可以得到充分发展。大量 Web2 场景下的计算业务,都可以被零知识证明通用虚拟机进行复现。就如前文所提到可赚钱的业务方向。
我们回看一下零知识证明算法历史发展演进的路线
1)无需 trusted setup 的 short NIZK
2)基于 Pedersen commitment 构建
3)支持 proof aggregation
4)Prover time 为:O ( N ⋅ log ( N ) ) O(N\cdot \log(N))O(N⋅log(N)),约 30 秒
5)Verifier time 为:O ( N ) O(N)O(N),约 1 秒
6)proof size 为:O ( log ( N ) ) O(\log(N))O(log(N)),约 1.3KB
7)基于的安全假设为:discrete log
Bulletproofs 适用的场景为:
1)range proofs(仅需约 600 字节)
2)inner product proofs
3)MPC 协议中的 intermediary checks
4)aggregated and distributed (with many private inputs) proofs
9. Halo2 主要特点为:
1)无需 trusted setup,将 accumulation scheme 与 PLONKish arithmetization 高效结合。
2)基于 IPA commitment scheme。
3)繁荣的开发者生态。
4)Prover time 为:O ( N ∗ log N ) O(N*\log N)O(N∗logN)。
5)Verifier time 为:O ( 1 ) > O(1)>O(1)>Groth16。
6)Proof size 为:O ( log N ) O(\log N)O(logN)。
7)基于的安全假设为:discrete log。
Halo2 适于的场景有:
1)任意可验证计算
2)递归 proof composition
3)基于 lookup-based Sinsemilla function 的 circuit-optimized hashing
Halo2 不适于的场景为:
1)除非替换使用 KZG 版本的 Halo2,否则在以太坊上验证开销大。
10. Plonky2 主要特点为:
1)无需 trusted setup,将 FRI 与 PLONK 结合。
2)针对具有 SIMD 的处理器进行了优化,并采用了 64 byte Goldilocks fields。
3)Prover time 为:O ( log N ) O(\log N)O(logN)。
4)Verifier time 为:O ( log N ) O(\log N)O(logN)。
5)Proof size 为:O ( N ∗ log N ) O(N*\log N)O(N∗logN)。
6)基于的安全假设为:collision-resistant hash function。
Plonky2 适于的场景有:
1)任意可验证计算。
2)递归 proof composition。
3)使用自定义 gate 进行电路优化。
Plonky2 不适于的场景为:
1)受限于其 non-native arithmetic,不适于包含椭圆曲线运算的 statements。
目前 Halo2 成为 zkvm 采用的主流算法,支持递归证明,支持验证任意类型的计算。为零知识证明类型虚拟机做通用计算场景,奠定了基础。
既然零知识证明在学术层面突飞猛进,具体落地到实际开发时候,目前进展是怎样的呢?
我们从多个层面去观察:
● 编程语言:目前有专门的编程语言,帮助开发者不需要深入了解电路代码如何设计,这样就可以降低开发门槛。当然也有支持将 Solidity 转译成电路代码。开发者友好程度越来越高。
● 虚拟机:目前有多种实现的 zkvm,第一种是自行设计的编程语言,通过自己的编译器编译成电路代码,最后生成 zkproof。第二种是支持 solidity 编程语言,通过 LLVM 编译成目标字节码,最后转译成电路代码和 zkproof。第三种是真正意义的 EVM 等效兼容,最终将字节码的执行操作,转译成电路代码和 zkproof。目前是 zkvm 的终局之战吗?并没有,不管是拓展到智能合约编程之外的通用计算场景,还是不同方案的 zkvm 针对自身底层指令集的补齐和优化,都还是 1 到 N 的阶段。任重而道远,大量工程上的工作需要去优化和实现。各家在学术层到工程实现上实现了落地,谁能最终成为王者,杀出一条血路。不仅需要在性能提升有大幅进展,还要能吸引大量开发者进入生态。时间点是十分重要的前提要素,先行推向市场,吸引资金沉淀,生态内自发涌现的应用,都是成功的要素。
● 周边配套工具设施:编辑器插件支持、单元测试插件、Debug 调试工具等等,帮助开发者更加高效的开发零知识证明应用。
● 零知识证明加速的基础设施:因为整个零知识证明算法中,FFT 和 MSM 占用了大量运算时间,可以 GPU/FPGA 等并行计算设备来并行执行,达到压缩时间开销的效果。
● 不同编程语言实现:例如采用更加高效或者性能表现更好的编程语言:Rust。
● 明星项目涌现:zkSync、Starkware 等等优质项目,相继宣布其正式产品发布的时间。说明了,零知识证明和去中心化计算结合不再是停留在理论层面,在工程实践上逐渐成熟。
前面我们讲到,关于这块市场容量、目前行业发展情况、在技术上的实际进展,但是没有存在一点挑战吗?
我们对整个 zkProof 生成的流程进行拆解:

在逻辑电路编译数值化 r1cs 的阶段,里面 80% 的运算量在 NTT 和 MSM 等计算业务上。另外对逻辑电路不同层级进行 hash 算法,随着层级越多,Hash 算法时间开销线性增加。当然现在行业内提出时间开销减少 200 倍的 GKR 算法。
但是 NTT 和 MSM 计算时间开销,还是居高不下。如果希望给用户减少等待时间,提升使用体验效果,必须要在数学实现上、软件架构优化、GPU/FPGA/ASIC 等等层面进行加速。
下图为各个 zkSnark 家族算法的证明生成时间和验证时间的测试:






既然我们可以看到缺陷和挑战,同时也意味着其中深藏着机会:
1.设计针对特定 zkSnark 算法加速或者通用 zkSnark 算法加速的芯片。相比其他类型的加密算法,zkSnark 产生较多临时文件,对于设备的内存和显存存在要求。芯片创业项目,同时也面临大量资金投入,还不一定能保障最后可以流片成功。但是一旦成功,其技术壁垒和 IP 保护都将是护城河。芯片项目创业,必须要足够议价能力的渠道,拿到最低成本。以及在整体品控上做到保障。
2.显卡加速的 Saas 服务,利用显卡做加速,是支出代价小于 ASIC 设计,而且开发周期也较短。但是软件创新上,在长周期上最终会被硬件加速所淘汰。
目前和一些 zkRollup 项目接触,最终发现还是大内存和大显存显卡比较适合他们用于软件加速。例如在 Filecoin 挖矿中,大量闲置的数据封装机成为了现在热门 zkRollup 项目的目标设备。在 Filecoin 挖矿中,在 C2 阶段,需要将生成的电路代码文件,生成并缓存在内存中。如果业务代码逻辑十分复杂,其对应生成的电路代码规模也会非常大,最终呈现形式就是体积大的临时文件,特别涉及对电路代码进行 Hash 运算,需要 AMD CPU 指令来加速。因为直接 CPU 和内存之间高速交换,效率非常高。这里面还需要涉及到 NVME 的固态硬盘,都会是对 zkSnark 运算起到加速作用。以上我们对可能存在加速实现的可能性进行探讨,发现对资源要求还是非常高的。
在未来,如果想大规模普及 zkSnark 应用,通过不同层面优化,势在必行。
我们观察到所有 zkRollup Layer2 需要将 zkProof 传递到 layer1 进行验证和存储,因为 ETH 链上资源十分昂贵,如果大规模普及后,需要为 ETH 支付大量 Gas。最终由用户承担这个成本,和技术发展的初衷。
所以很多 zkp 项目提出,数据有效层、利用递归证明压缩提交的 zkProof,这些都是为了降低 Gas cost。
当前大部分 zkvm 面向智能合约编程的平台,如果要更加通用的计算场景,对 zkvm 底层指令集有大量的补齐工作。例如 zkvm 虚拟机底层支持 libc 指令,支持矩阵运算的指令,等等其他更加复杂的计算指令。
因为智能合约平台更多面向资产进行编程,如果我们希望更多真实业务场景可以接入到 Web3,零知识证明和去中心化计算的结合带来了契机。我们相应零知识证明将会成为主流赛道,不再是细分领域的技术。
Huobi Blockchain Application Research Institute (referred to as “Huobi Research Institute”) was established in April 2016. Since March 2018, it has been committed to comprehensively expanding the research and exploration of various fields of blockchain. As the research object, the research goal is to accelerate the research and development of blockchain technology, promote the application of the blockchain industry, and promote the ecological optimization of the blockchain industry. The main research content includes industry trends, technology paths, application innovations in the blockchain field, Model exploration, etc. Based on the principles of public welfare, rigor and innovation, Huobi Research Institute will carry out extensive and in-depth cooperation with governments, enterprises, universities and other institutions through various forms to build a research platform covering the complete industrial chain of the blockchain. Industry professionals provide a solid theoretical basis and trend judgments to promote the healthy and sustainable development of the entire blockchain industry.
Contact us:
Website:http://research.huobi.com
Email:research@huobi.com
Twitter:https://twitter.com/Huobi_Research
Telegram:https://t.me/HuobiResearchOfficial
Medium:https://medium.com/huobi-research
X Research DAO is a community-based research DAO backed by Huobi Research. It aims at being one of the most valuable decentralized blockchain-analysis insitituions in the world. X research DAO focuses on analysing web3 projects, early stage public-chains, gamefis and NFTs.
X Research DAO welcomes all web3 enthusiasts, let’s build the best research DAO and learn together!
Join us:
Website:https://www.xresearchdao.xyz
Twitter:https://twitter.com/XResearchDao
Telegramm:https://t.me/xresearchdao
Discord:https://discord.gg/S52jJT9NSp
Youtube:https://www.youtube.com/channel/UCHBeMdxOnoU6zo3mbVd1MKg/featured
Notion:https://bit.ly/3AjGNlq
Mirror:https://mirror.xyz/0x9045237C0248AA32A758635f9E5d8A47f1460702/
1. The author of this report and his organization do not have any relationship that affects the objectivity, independence, and fairness of the report with other third parties involved in this report.
2. The information and data cited in this report are from compliance channels. The sources of the information and data are considered reliable by the author, and necessary verifications have been made for their authenticity, accuracy and completeness, but the author makes no guarantee for their authenticity, accuracy or completeness.
3. The content of the report is for reference only, and the facts and opinions in the report do not constitute business, investment and other related recommendations. The author does not assume any responsibility for the losses caused by the use of the contents of this report, unless clearly stipulated by laws and regulations. Readers should not only make business and investment decisions based on this report, nor should they lose their ability to make independent judgments based on this report.
4. The information, opinions and inferences contained in this report only reflect the judgments of the researchers on the date of finalizing this report. In the future, based on industry changes and data and information updates, there is the possibility of updates of opinions and judgments.
5. The copyright of this report is only owned by X Research DAO. If you need to quote the content of this report, please indicate the source. If you need a large amount of references, please inform in advance (see “About X Research DAO” for contact information) and use it within the allowed scope. Under no circumstances shall this report be quoted, deleted or modified contrary to the original intent.

深度剖析下个万亿赛道 — 零知识证明和分布式计算结合 was originally published in Huobi Research on Medium, where people are continuing the conversation by highlighting and responding to this story.
【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
