以太坊 2.0 升级百利而无一害吗?这里有一些不同的看法。
以太坊 2.0 是假高潮,其需求和解决方案都有基本的逻辑错误,不但会彻底的失败,而且会给整个加密社区带来更坏的影响。
数据扩容是伪需求
「扩容」这个执念,为加密世界带来了 2014 年的以太坊,2017 年的 BCH,2018 年的 EOS,2019 年的 Polkadot 和 Cosmos,2020 年的 DeFi,2021 年的「以太坊 2.0」。
「以太坊 2.0」是典型的「数据扩容」,其假设是「数据拥堵」,但这里并不是真正意义上的拥堵,而是支付过路费高的车辆被优先放行了。实际上作为价值网络,比特币和以太坊从来没有真正拥堵过,其处理的价值规模反而一直在上升。
价值扩容的代表是「以太坊 1.0」和「DeFi」,通过允许发行更多的资产,处理更多的交易类型达到了价值扩容的目的,也分别在 2017 年和 2020 年两度带领加密社区走出低谷。
为了一个错误的「数据拥堵假设」而设计的「以太坊 2.0」只是空中楼阁。
去中心化是唯一的优势
「不可能三角」将「去中心化」从必选项变成了可选项,这个错误的说法误导了非常多的团队。
去中心化的目的不是为了对抗监管,而是为了对抗人性,我们需要一个 7*24 小时的无人值守的信任机器,不以任何群体的意志为转移。
PoS 共识各项技术指标都看起来不错,但是目前无法做到真正的去中心化,其区块生产工具是代币,而代币随着帕累托效应一定会出现二八定律,资产的分布二八定律并不可怕,生产工具的二八定律不才是真正的可怕。同时,整个网络的运营者的身份都暴露在中心化世界里,遇到大规模打击时生存概率为零。
PoW 矿工是逐利的,不关心系统的死活和币价高低,他们有钱赚就来,没钱就走,这才是系统真正忠实的维护者,他们只认同一个规则行事。代币持有者则不同,他们有各种判断指标和标准,无法拥有统一的意志。
PoS 的探索应该交给其他创新型的社区,而不应拿一个承载了近千亿美金的价值生态来冒险。
核心技术问题遇到瓶颈
以太坊 2.0 的核心技术难题是分片技术,而近期以太坊基金会最近的更新的路线图已经讲的很明确:
暂时不再强调 Phase 2 的重要性,Phase 1 致力于实现数据分片(shard data),供 rollup 使用;
信标链将具备执行功能,即 Eth1-Eth2 合并之后,信标链区块将直接包含交易;
Phase 0 实现后的三大工作:轻客户端支持、数据分片、合并,将并行推进,任一模块只要准备好了就推出。
我猜大多数人是无法完全理解这三句话,就简单给大家翻译一下:
以太坊 2.0 的可用版本我们做不出来是因为「二次方分片」做不出来,我们觉得还是先把分片技术最简单的那部分搞搞明白,给社区的 Layer 2 方案使用
目前上线的以太坊 2.0 版本无法扩展
你们在 2020 年 12 月 1 日看到的「以太坊 2.0」是一个除了「staking」以外啥也不能干的版本,我们每一项工作都在推进,我们啥时候能做出来你们啥时候用。
换句话说:以太坊 2.0 真正可用永远都还需要三年的原因是因为分片这个「可控核聚变技术」。
「二次方分片」是以太坊对自己分片技术的描述,这样的技术方案逻辑上可以设计,但是在实际的工程化时遇到了非常棘手的问题,导致迟迟无法做到真正的分片,因此即使现在 2.0 主网上线,其性能与 1.0 没有本质的区别。
「Layer 2」的成果显著
从 ZK Rollup 到 Optimistc Rollup,我们今天已经看到了大量成熟的二层网络方案,大家熟知的 Synthetix,Uniswap 等 DeFi 项目都已经开始在二层网络部署。可以预见的是,Layer 2 最起码可以将以太坊扩容 10 倍。
唯一诟病的是不同 Rollup 之间的可组合性,已经有开发团队在解决这些问题,换句话说,在「可组合性」这件事上,「以太坊 2.0」目前和「Layer 2」都遇到了难题,好在「Layer 2」间的可组合性问题相对好解决,只是开发时间的问题,不会像「以太坊 2.0」一样需要长期的技术攻坚。
Layer 2 的可组合性的发展怎么解决?
以太坊是金融系统而不是软件
以太坊社区和整个加密社区的有识之士都有对 2.0 提出过质疑,但市场的高涨情绪很快掩盖了这些声音。随着底层协议的话语权开始集中,以太坊基金会的观点和做法几乎无人质疑。
当我们用软件思维来看待价值网络时,我们关注的是一些列不切实际的技术指标,当我们用经济制度的思维看待价值网络时,我们看待问题的方式又不一样。底层协议的升级意味着各种定义和概念的转换,只是开发者这一个角色无法真正解决问题。
重申下本文的观点:ETH2.0 是假高潮,其需求和解决方案都有基本的逻辑错误,不但会彻底的失败,而且会给整个加密社区带来更坏的影响。
原文标题:《「以太坊 2.0」只是假高潮》撰文:孤矢,EOS 原力创始人