转发原文标题《NHR:坎昆升级之后,以太坊前路在何方?(Ethereum特别篇)》
距离坎昆升级(Dencun)已过去 2 个月时间。然而,作为以“改善 Gas 费用”为重点而实施的重大升级,这一里程碑似乎成了“里程悲”。表面上,主网 Gas 的确在升级落地后持续下降,最大降幅超 70%,但这一现象背后的原因却是以太坊生态的整体低迷以及差强人意的市场表现。
一方面,ETH 长线走势明显弱于 BTC,尽管二者波动率趋于一致,但该现象在历史上升周期中未曾出现。ETH 汇率与市占率暂处低位、以太坊 ETF 前景未明,这些因素也反映市场对其缺乏足够的信心与兴趣。另一方面,“山寨季”的预期落空则引起投资者对山寨币种丧失信心。L2 代币自坎昆升级后一个月内便从高点暴跌逾 60%,其中市场规模居于龙头地位的 ARB 更是成了“扶不起的阿斗”,价格一度跌回熊市低位附近,而且前期涨幅亦未达到作为头部项目应有的预期。反观 Solana、Ton 等新生态则凭借 Meme 之魔力迎来逆风增长。显然,受宏观环境影响,这仍然只是“表面现象”。但从内在结果来看,坎昆升级似乎也没有对 L2 生态起到实质性的利好。数据显示,L2 生态 TVL 总量在升级后最高仅增长 3% 左右 (03.13 - 04.09),此后 TVL 随市场暴跌而骤降 20%,尽管相比代币跌幅要小,但仍然回落至升级前的水平,意味着本次升级带来的积极预期几乎已被抹去。不过一些好的现象是:1)DeFi 等链上活动的日交易量一直保持平稳(下图以 Arbitrum 为例);2)Base、Linea 等网络受 MEME 热度推动则出现 TVL 短暂上升,这至少表明生态还没有完全“灭绝”。
数据来源:DeFiLlama
另一方面,不同 L2 网络在交互体验上(主要在于交易成本)仍然存在明显差距。
头部生态具有较大成本优势,交易费用已稳定在 $0.01 左右,而中小型生态(尤其是一些 zkRollup)大约比前者高出 10 倍左右(非优先交易约 5 - 7 倍),这是头部生态在坎昆升级前的平均水平。下图为 4 月份的一段时间对 L2 交易费用的不完全统计。
数据来源:L2Fee(截至 Apr. 18)
至少在目前,我们看到 EIP-4844 对交易费用的改善效果并不显著且相对有限,或也是增长趋于疲软的原因之一。
显然,费用问题作为以太坊的长期弊病是不可能一次性解决的,因为整体成本还取决于其他层面:
1)L2 层面的问题i)Calldata 交易类型(下图蓝色部分)在所有 L2 的运营支出中仍占据较大比例,主要是由于一些运营商(大部分为 zkRollup)仍在使用该结算方式,导致费用定价出现偏差。这是因为有些项目方尚未在技术上及时跟进,但这种情况不会长期持续下去;
数据来源:L2BEAT(截至 Apr. 18)
ii)计算成本(上图粉红色部分)占据了 zkEVM 运营支出的一大部分,同时因为 TPS 通常较低、协议层费用的存在、以及对固有利润的需求,使得用户需要支付更高的手续费。L1 结算费用的确已经显著降低,但该部分实际由用户承担;
因此,L2 开发者的利润模型几乎没有因 EIP-4844 而受到影响。因为 EVM Gas 的基础费用由开发者/运营商根据当时需求决定。假设 Rollup 的收入预期相同但业务量和计算花销不一,那么它们就会对用户实施不同的 Gas 定价并导致差距。
一个简单的费用传导图 ↓
iii)虽然 zkEVM 的 Gas 花销通常是更高的,但是属于 OP Stack 的 Base 也曾出现 Gas 飙升的情况,费用甚至一度超过 1 美元。该情况是由于 Meme 投机活动引起的网络拥堵以及区块资源分配短暂失衡。这反映出一些 L2 网络在应对极端状况时的负载能力有限,如果这种情况经常间歇性地出现,对用户来说同样是不可接受的。
因此,网络状态是影响 L2 交易成本的不可忽视的因素。“机器过冷”或者“机器过热”都会对“油耗”产生影响,而由于头部生态的网络状态较为平稳,它们也表现得更加“省油”。
2)L1 层面的问题
对于以太坊主网而言,尽管每个区块目前可产出约 3 个 Blob 数据块,理论上可增加近 400KB 空间以及最高 300 - 1500 TPS ——但潜在问题是:或许仍然不够用。因为 Blob 的独特性,可以预见其不仅被 L2 逐渐采用,也会被来自主网的其他数据需求所采用,其中包括大量低价值/高频率交易(例如 blobscription),它们对数据可用性的要求通常不高,但是与一般交易采取相同的 Gas 定价标准。这可能导致不必要的空间占用。
类似情况在 L2 生态已有所体现。Paradigm 的研究指出 Base 长期存在过多垃圾数据,从而对该网络造成长期的数据存储负担。这些负担或将通过 Gas 定价间接传导至用户身上。
数据来源:Paradigm
在短期的动态过程中,持续增长的资源消耗型活动也会削弱 L1 的有效负载能力。因为此类活动可能在短期内大幅占据 Blob 空间,意味着 L1 提供给 L2 使用的实际 TPS 呈线性降低。
此外,以太坊共识层的长期负担同样值得注意。因为 Blob 容量约为主区块的 10 倍,但生成并处理更大的数据量也要求更高的计算能力,因此验证者需具备的硬件要求也会越来越高,那么生产成本是否会通过 Gas 定价来转嫁给用户?
综上所述,一个显而易见的结论是:以太坊似乎已进入瓶颈期,虽然数据可用性和用户成本有所改善,但仍然无法跟上日益增长的数据需求。深入思考,以太坊的瓶颈是什么?
一个人陷入瓶颈期往往是由于个人能力还不足以达到自身所期望的目标。类似于人,以太坊的瓶颈则是生态系统规模与自身承载能力的不匹配,这就好比一台塞满乘客和杂物的汽车,如果发动机功率有限,不仅跑得不快,还要耗费更多燃料。高成本主要用于维护共识系统的可持续性,这对以太坊至关重要且不可或缺。但是当这种影响间接传导至用户层面时,就会成为 Web3 迈向大规模采用的关键阻碍。
当然,最简单暴力的解决方法就是把 ETH 价格砸下来,费用自然会降低。我们很想,但开发者肯定不允许…
在行情下挫与生态活动低迷期间,主网及 L2 交易费用“显著改善”(截至 May. 12)相比之下,新一代 PoS 链得益于底层技术的更新可通过提升扩容能力以解决成本问题。比如 Solana、Aptos、Sui 专注于并行处理以提高吞吐量,Cosmos 区块链则主打模块化 (Celestia) 以拓展生态维度,或者利用高度可编程性以打造专精化的高性能应用链 (Sei) 。以太坊尽管具备通用优势和用户基础,但底层扩容能力仍是自身发展最大痛点之一。
在市场层面上,各大公链派系对用户流量的竞争变得越发内卷。比特币生态增长迅猛,Solana 凭借 Meme 延续新一轮增长势头,Sui、Ton 等新生派系也具备极大的网络效应势能。然而,以太坊似乎因高成本及扩容难而趋向饱和的低增长阶段,坎昆升级过后,“投资吸引力”有所下降,还能带来多少“生态红利”也不由得让人质疑。所以,没有任何办法了?只能看着 ETH 暴跌?我们很想,但开发者肯定不允许…坎昆升级固然不是“特效药”,“长线疗法”往往才能有效解决“病症”。对以太坊而言,扩容仍然是最重要的发展主线,其中便包括以 Danksharding 为目标的长期扩容工程。
前瞻未来,Danksharding 能否助以太坊突破困局?
形象地说,若要使一个方块的容量增长实现最大化,那么它的三条基线(长宽高)必须同时增加。由于以太坊需要迎合庞大的数据需求,它必须要做到这一点。因此 Danksharding 就是这样一个“立体化”的扩容方案。Danksharding 的核心是“分片”技术,尽管分片并不是一个新颖的概念(最早由 Jiaping Wang 教授于 2019 年提出),但其扩展性并不亚于其他主流技术。主流方案着重于精细化的底层设计,但是并行计算在验证与确认时间方面并无优势,而 Tendermint + Optimistic Process 虽然保证了时间效率,但是隐含较高安全风险且不利于去中心化,这也是它们通常搭载于应用链的原因。作为通用链,以太坊通常要进行多方面的权衡,而分片所体现的综合优势是:
异步共识组:通过拆分区块和验证者子集以实现“并行化”共识层,大幅提高验证效率和扩展性;
随机轮换机制:消除验证者组合关联性,确保去中心化;
分片:基于密码学和概率论数据置信水平以满足通用化的底层安全定义及强隐私性。因此一个扩展性、去中心化、安全性三者兼具的最佳权衡方案是最适合以太坊的。Blob 数据块的出现可以表明 EIP-4844 是以太坊实施分片的第一步(但异步验证尚未实现)。Danksharding 则基于原有概念进行了一些改进来使得扩容更具“立体化”,主要是由“拆分”改为“扩增”,将 Blob 数量增加至多达 64 个并实行交叉验证。其设计的“立体化”在于通过对 Blob 的横向扩增以促进二层/三层生态对 Blob 的采用,从而也提高了纵向层面的扩展。
那么普通用户最为关心的交易费用能否因 Danksharding 而降低?——对 L2 用户而言,它们的确已经在享受超低的主网结算费用,对 L1 用户而言,充足的主网空间能使得 Gas 波动趋于温和,正常情况下,每个区块的平均 Gas 也会相应降低。
然而并没有什么技术是完美无缺的。首先是分片的技术难度极大,尽管 Danksharding 已经通过最适化改进来降低了这项工程的难度,但依然需要数年时间才能完成,并且要求区块链本身需达到较高的硬性条件,比如足够大的数据处理量,而且对整个系统的动态协调性要求也非常高。
其次,由于 Blob 的属性是限期保存、过期删除,它的数据可用性限制依旧不可避免。若要确保 Danksharding 中海量 Blob 数据的有效性,对数据实行“抽样检查”就是必要的,因此基于数学置信水平(可信度)的数据可用性采样 (DAS) 将会被引入以太坊。一方面,DAS 可以降低节点储存数据时的负担,同时又能确保历史数据的“正确概率”或者“有效程度”,但另一方面,它也要求包括轻节点在内的所有节点都必须进行采样以提高整体安全性,意味着对所有生态参与者的整体门槛的提高。此外,主网流量的增长也代表着全局负载的提高,网络每秒或需处理最多 600KB 的数据,那么大约 30 分钟就会处理多达 1GB 的数据。这意味着验证者的软硬件性能、通讯速率、资源分配能力都必须具备更高要求,或将对生态成本构成新的挑战。因此以太坊从 Dencun 到 Danksharding 会一直面临巨大的压力,而且 L1 费用的递减也并不意味着 L2 费用的结构性改善(因为 L2 本身潜在的拥堵问题),但开发者仍将致力于推出一些附加更新来强化生态系统的灵活性,比如:1)Verkle Trees:基于默克尔树和椭圆曲线而改进的数据结构,将原数据运用特征向量生成为可快速验证的简单哈希,减少信息冗余和储存负担(此项改进有望在未来的大阪升级 (Osaka) 后实现);
2)KZG:以太坊中更经济高效的共识层协调策略,验证者可快速验证藉由可信设置随机数生成的 Blob 数据有效性而无需检查完整数据,相当于“一种内置于 L1 的零知识证明”;3)智能合约账户 (EIP-3074):该提案有望在布拉格 (Pectra) 升级推出,旨在改进账户抽象类技术并提高量子计算抗性,特点是赋予用户数项新的钱包功能,包括批量交易、资产恢复、使用非 ETH 代币支付 Gas 等等,这意味着你能用稳定币支付 Gas 而不用担心价格下跌?或者用山寨币支付 Gas 的同时享受币价上涨?——是的,请。最后,还有一些问题/建议留待我们思考,比如:技术层面上:- DAS 一方面拥有密码学的保护,同时针对 zk-STARK 的研究表明满足约束的随机采样的实际分布理论上是高度密集的。那么它是否值得被其他卷叠网络采用?- 探索 EVM 链实现并行计算的前景;- 关于验证器组合关联性的分析方法与惩罚机制;- 诸如 Celestia (TIA) DA Layer 这样的基础设施能否成为一种新颖的以太坊卷叠链外 DA 解决方案?费用层面上:- 对 Gas 实施多维定价(由 Vitalik Buterin 提出),而不再受制于单一的线性因子;- 代币价格上涨平衡于基础费用的基准设定以调控生态总成本生态层面上:- 社交、游戏、DePIN、电子竞技、生成式 AI 等领域能否成为生态增长的 X 因素?- 适量加入以下配料 ↓ ,以水调和…
. . .
总结:以太坊的未来取决于社区的成长
长期以来,L2 必须依赖 L1 进行扩展,当 L1 遇到瓶颈,就会制约生态整体发展。坎昆升级意味着 L1 与 L2 之间协作关系的变化,因此以太坊的成长可以归因为“社会关系”的转变:L1 需要反过来为 L2 解决问题,主动为 L2 创造更多有利发展条件,逐步实现生产关系的效率最大化及其扩张。然而,区块链终究只是一台机器,机器固然会有缺陷、会有寿命、也有会上限,因此驾驭这台机器的人(即代表社区)才是关键。而这个历经 10 年发展的社区仍然拥有一种优秀的特质,积极寻求自我改变,以求将这台机器锻造得更强大,只不过这一历程的确是漫长而艰辛的。那么以太坊最终会成功吗?也许这要看我们如何看待一个区块链的“成功”:百倍涨幅?十万级吞吐量?十亿级用户群?这往往是很难定义的。但至少我们可以预见,以太坊仍然具有“成长性”,意味着它仍有或多或少的增长空间。藉由我们的 ALL-ON-LINE™ 算法,资产隐含价值与某种形式的数据深度存在很大关联,而基于以太坊构建的 NEM 拥有所有区块链中规模最大的链上采用离散数据栈,通过拟定链上采用和链下需求,简单的算法模型预测的 ETH 估值水平如下:
注:以上为长线预期值,仅供参考
至于市场方面,本文并不能给出什么切实建议。对待所谓的“成长型资产”,投资者能做的只有给它们还有自己多点信心和时间。当然,究竟是“未来可期”还是“纯属垃圾”,也只有时间才能给出答案。但如果您认为它们是彻头彻尾的“垃圾币”,请考虑最后几点建议:
转发原文标题《NHR:坎昆升级之后,以太坊前路在何方?(Ethereum特别篇)》
距离坎昆升级(Dencun)已过去 2 个月时间。然而,作为以“改善 Gas 费用”为重点而实施的重大升级,这一里程碑似乎成了“里程悲”。表面上,主网 Gas 的确在升级落地后持续下降,最大降幅超 70%,但这一现象背后的原因却是以太坊生态的整体低迷以及差强人意的市场表现。
一方面,ETH 长线走势明显弱于 BTC,尽管二者波动率趋于一致,但该现象在历史上升周期中未曾出现。ETH 汇率与市占率暂处低位、以太坊 ETF 前景未明,这些因素也反映市场对其缺乏足够的信心与兴趣。另一方面,“山寨季”的预期落空则引起投资者对山寨币种丧失信心。L2 代币自坎昆升级后一个月内便从高点暴跌逾 60%,其中市场规模居于龙头地位的 ARB 更是成了“扶不起的阿斗”,价格一度跌回熊市低位附近,而且前期涨幅亦未达到作为头部项目应有的预期。反观 Solana、Ton 等新生态则凭借 Meme 之魔力迎来逆风增长。显然,受宏观环境影响,这仍然只是“表面现象”。但从内在结果来看,坎昆升级似乎也没有对 L2 生态起到实质性的利好。数据显示,L2 生态 TVL 总量在升级后最高仅增长 3% 左右 (03.13 - 04.09),此后 TVL 随市场暴跌而骤降 20%,尽管相比代币跌幅要小,但仍然回落至升级前的水平,意味着本次升级带来的积极预期几乎已被抹去。不过一些好的现象是:1)DeFi 等链上活动的日交易量一直保持平稳(下图以 Arbitrum 为例);2)Base、Linea 等网络受 MEME 热度推动则出现 TVL 短暂上升,这至少表明生态还没有完全“灭绝”。
数据来源:DeFiLlama
另一方面,不同 L2 网络在交互体验上(主要在于交易成本)仍然存在明显差距。
头部生态具有较大成本优势,交易费用已稳定在 $0.01 左右,而中小型生态(尤其是一些 zkRollup)大约比前者高出 10 倍左右(非优先交易约 5 - 7 倍),这是头部生态在坎昆升级前的平均水平。下图为 4 月份的一段时间对 L2 交易费用的不完全统计。
数据来源:L2Fee(截至 Apr. 18)
至少在目前,我们看到 EIP-4844 对交易费用的改善效果并不显著且相对有限,或也是增长趋于疲软的原因之一。
显然,费用问题作为以太坊的长期弊病是不可能一次性解决的,因为整体成本还取决于其他层面:
1)L2 层面的问题i)Calldata 交易类型(下图蓝色部分)在所有 L2 的运营支出中仍占据较大比例,主要是由于一些运营商(大部分为 zkRollup)仍在使用该结算方式,导致费用定价出现偏差。这是因为有些项目方尚未在技术上及时跟进,但这种情况不会长期持续下去;
数据来源:L2BEAT(截至 Apr. 18)
ii)计算成本(上图粉红色部分)占据了 zkEVM 运营支出的一大部分,同时因为 TPS 通常较低、协议层费用的存在、以及对固有利润的需求,使得用户需要支付更高的手续费。L1 结算费用的确已经显著降低,但该部分实际由用户承担;
因此,L2 开发者的利润模型几乎没有因 EIP-4844 而受到影响。因为 EVM Gas 的基础费用由开发者/运营商根据当时需求决定。假设 Rollup 的收入预期相同但业务量和计算花销不一,那么它们就会对用户实施不同的 Gas 定价并导致差距。
一个简单的费用传导图 ↓
iii)虽然 zkEVM 的 Gas 花销通常是更高的,但是属于 OP Stack 的 Base 也曾出现 Gas 飙升的情况,费用甚至一度超过 1 美元。该情况是由于 Meme 投机活动引起的网络拥堵以及区块资源分配短暂失衡。这反映出一些 L2 网络在应对极端状况时的负载能力有限,如果这种情况经常间歇性地出现,对用户来说同样是不可接受的。
因此,网络状态是影响 L2 交易成本的不可忽视的因素。“机器过冷”或者“机器过热”都会对“油耗”产生影响,而由于头部生态的网络状态较为平稳,它们也表现得更加“省油”。
2)L1 层面的问题
对于以太坊主网而言,尽管每个区块目前可产出约 3 个 Blob 数据块,理论上可增加近 400KB 空间以及最高 300 - 1500 TPS ——但潜在问题是:或许仍然不够用。因为 Blob 的独特性,可以预见其不仅被 L2 逐渐采用,也会被来自主网的其他数据需求所采用,其中包括大量低价值/高频率交易(例如 blobscription),它们对数据可用性的要求通常不高,但是与一般交易采取相同的 Gas 定价标准。这可能导致不必要的空间占用。
类似情况在 L2 生态已有所体现。Paradigm 的研究指出 Base 长期存在过多垃圾数据,从而对该网络造成长期的数据存储负担。这些负担或将通过 Gas 定价间接传导至用户身上。
数据来源:Paradigm
在短期的动态过程中,持续增长的资源消耗型活动也会削弱 L1 的有效负载能力。因为此类活动可能在短期内大幅占据 Blob 空间,意味着 L1 提供给 L2 使用的实际 TPS 呈线性降低。
此外,以太坊共识层的长期负担同样值得注意。因为 Blob 容量约为主区块的 10 倍,但生成并处理更大的数据量也要求更高的计算能力,因此验证者需具备的硬件要求也会越来越高,那么生产成本是否会通过 Gas 定价来转嫁给用户?
综上所述,一个显而易见的结论是:以太坊似乎已进入瓶颈期,虽然数据可用性和用户成本有所改善,但仍然无法跟上日益增长的数据需求。深入思考,以太坊的瓶颈是什么?
一个人陷入瓶颈期往往是由于个人能力还不足以达到自身所期望的目标。类似于人,以太坊的瓶颈则是生态系统规模与自身承载能力的不匹配,这就好比一台塞满乘客和杂物的汽车,如果发动机功率有限,不仅跑得不快,还要耗费更多燃料。高成本主要用于维护共识系统的可持续性,这对以太坊至关重要且不可或缺。但是当这种影响间接传导至用户层面时,就会成为 Web3 迈向大规模采用的关键阻碍。
当然,最简单暴力的解决方法就是把 ETH 价格砸下来,费用自然会降低。我们很想,但开发者肯定不允许…
在行情下挫与生态活动低迷期间,主网及 L2 交易费用“显著改善”(截至 May. 12)相比之下,新一代 PoS 链得益于底层技术的更新可通过提升扩容能力以解决成本问题。比如 Solana、Aptos、Sui 专注于并行处理以提高吞吐量,Cosmos 区块链则主打模块化 (Celestia) 以拓展生态维度,或者利用高度可编程性以打造专精化的高性能应用链 (Sei) 。以太坊尽管具备通用优势和用户基础,但底层扩容能力仍是自身发展最大痛点之一。
在市场层面上,各大公链派系对用户流量的竞争变得越发内卷。比特币生态增长迅猛,Solana 凭借 Meme 延续新一轮增长势头,Sui、Ton 等新生派系也具备极大的网络效应势能。然而,以太坊似乎因高成本及扩容难而趋向饱和的低增长阶段,坎昆升级过后,“投资吸引力”有所下降,还能带来多少“生态红利”也不由得让人质疑。所以,没有任何办法了?只能看着 ETH 暴跌?我们很想,但开发者肯定不允许…坎昆升级固然不是“特效药”,“长线疗法”往往才能有效解决“病症”。对以太坊而言,扩容仍然是最重要的发展主线,其中便包括以 Danksharding 为目标的长期扩容工程。
前瞻未来,Danksharding 能否助以太坊突破困局?
形象地说,若要使一个方块的容量增长实现最大化,那么它的三条基线(长宽高)必须同时增加。由于以太坊需要迎合庞大的数据需求,它必须要做到这一点。因此 Danksharding 就是这样一个“立体化”的扩容方案。Danksharding 的核心是“分片”技术,尽管分片并不是一个新颖的概念(最早由 Jiaping Wang 教授于 2019 年提出),但其扩展性并不亚于其他主流技术。主流方案着重于精细化的底层设计,但是并行计算在验证与确认时间方面并无优势,而 Tendermint + Optimistic Process 虽然保证了时间效率,但是隐含较高安全风险且不利于去中心化,这也是它们通常搭载于应用链的原因。作为通用链,以太坊通常要进行多方面的权衡,而分片所体现的综合优势是:
异步共识组:通过拆分区块和验证者子集以实现“并行化”共识层,大幅提高验证效率和扩展性;
随机轮换机制:消除验证者组合关联性,确保去中心化;
分片:基于密码学和概率论数据置信水平以满足通用化的底层安全定义及强隐私性。因此一个扩展性、去中心化、安全性三者兼具的最佳权衡方案是最适合以太坊的。Blob 数据块的出现可以表明 EIP-4844 是以太坊实施分片的第一步(但异步验证尚未实现)。Danksharding 则基于原有概念进行了一些改进来使得扩容更具“立体化”,主要是由“拆分”改为“扩增”,将 Blob 数量增加至多达 64 个并实行交叉验证。其设计的“立体化”在于通过对 Blob 的横向扩增以促进二层/三层生态对 Blob 的采用,从而也提高了纵向层面的扩展。
那么普通用户最为关心的交易费用能否因 Danksharding 而降低?——对 L2 用户而言,它们的确已经在享受超低的主网结算费用,对 L1 用户而言,充足的主网空间能使得 Gas 波动趋于温和,正常情况下,每个区块的平均 Gas 也会相应降低。
然而并没有什么技术是完美无缺的。首先是分片的技术难度极大,尽管 Danksharding 已经通过最适化改进来降低了这项工程的难度,但依然需要数年时间才能完成,并且要求区块链本身需达到较高的硬性条件,比如足够大的数据处理量,而且对整个系统的动态协调性要求也非常高。
其次,由于 Blob 的属性是限期保存、过期删除,它的数据可用性限制依旧不可避免。若要确保 Danksharding 中海量 Blob 数据的有效性,对数据实行“抽样检查”就是必要的,因此基于数学置信水平(可信度)的数据可用性采样 (DAS) 将会被引入以太坊。一方面,DAS 可以降低节点储存数据时的负担,同时又能确保历史数据的“正确概率”或者“有效程度”,但另一方面,它也要求包括轻节点在内的所有节点都必须进行采样以提高整体安全性,意味着对所有生态参与者的整体门槛的提高。此外,主网流量的增长也代表着全局负载的提高,网络每秒或需处理最多 600KB 的数据,那么大约 30 分钟就会处理多达 1GB 的数据。这意味着验证者的软硬件性能、通讯速率、资源分配能力都必须具备更高要求,或将对生态成本构成新的挑战。因此以太坊从 Dencun 到 Danksharding 会一直面临巨大的压力,而且 L1 费用的递减也并不意味着 L2 费用的结构性改善(因为 L2 本身潜在的拥堵问题),但开发者仍将致力于推出一些附加更新来强化生态系统的灵活性,比如:1)Verkle Trees:基于默克尔树和椭圆曲线而改进的数据结构,将原数据运用特征向量生成为可快速验证的简单哈希,减少信息冗余和储存负担(此项改进有望在未来的大阪升级 (Osaka) 后实现);
2)KZG:以太坊中更经济高效的共识层协调策略,验证者可快速验证藉由可信设置随机数生成的 Blob 数据有效性而无需检查完整数据,相当于“一种内置于 L1 的零知识证明”;3)智能合约账户 (EIP-3074):该提案有望在布拉格 (Pectra) 升级推出,旨在改进账户抽象类技术并提高量子计算抗性,特点是赋予用户数项新的钱包功能,包括批量交易、资产恢复、使用非 ETH 代币支付 Gas 等等,这意味着你能用稳定币支付 Gas 而不用担心价格下跌?或者用山寨币支付 Gas 的同时享受币价上涨?——是的,请。最后,还有一些问题/建议留待我们思考,比如:技术层面上:- DAS 一方面拥有密码学的保护,同时针对 zk-STARK 的研究表明满足约束的随机采样的实际分布理论上是高度密集的。那么它是否值得被其他卷叠网络采用?- 探索 EVM 链实现并行计算的前景;- 关于验证器组合关联性的分析方法与惩罚机制;- 诸如 Celestia (TIA) DA Layer 这样的基础设施能否成为一种新颖的以太坊卷叠链外 DA 解决方案?费用层面上:- 对 Gas 实施多维定价(由 Vitalik Buterin 提出),而不再受制于单一的线性因子;- 代币价格上涨平衡于基础费用的基准设定以调控生态总成本生态层面上:- 社交、游戏、DePIN、电子竞技、生成式 AI 等领域能否成为生态增长的 X 因素?- 适量加入以下配料 ↓ ,以水调和…
. . .
总结:以太坊的未来取决于社区的成长
长期以来,L2 必须依赖 L1 进行扩展,当 L1 遇到瓶颈,就会制约生态整体发展。坎昆升级意味着 L1 与 L2 之间协作关系的变化,因此以太坊的成长可以归因为“社会关系”的转变:L1 需要反过来为 L2 解决问题,主动为 L2 创造更多有利发展条件,逐步实现生产关系的效率最大化及其扩张。然而,区块链终究只是一台机器,机器固然会有缺陷、会有寿命、也有会上限,因此驾驭这台机器的人(即代表社区)才是关键。而这个历经 10 年发展的社区仍然拥有一种优秀的特质,积极寻求自我改变,以求将这台机器锻造得更强大,只不过这一历程的确是漫长而艰辛的。那么以太坊最终会成功吗?也许这要看我们如何看待一个区块链的“成功”:百倍涨幅?十万级吞吐量?十亿级用户群?这往往是很难定义的。但至少我们可以预见,以太坊仍然具有“成长性”,意味着它仍有或多或少的增长空间。藉由我们的 ALL-ON-LINE™ 算法,资产隐含价值与某种形式的数据深度存在很大关联,而基于以太坊构建的 NEM 拥有所有区块链中规模最大的链上采用离散数据栈,通过拟定链上采用和链下需求,简单的算法模型预测的 ETH 估值水平如下:
注:以上为长线预期值,仅供参考
至于市场方面,本文并不能给出什么切实建议。对待所谓的“成长型资产”,投资者能做的只有给它们还有自己多点信心和时间。当然,究竟是“未来可期”还是“纯属垃圾”,也只有时间才能给出答案。但如果您认为它们是彻头彻尾的“垃圾币”,请考虑最后几点建议: