首页 / Layer2 / 如何构建更好的Layer 2?听听以太坊生态圈资深从业者怎么说

如何构建更好的Layer 2?听听以太坊生态圈资深从业者怎么说

标题:如何建设更好的 Layer 2?听听以太坊生态资深从业者怎么说

免责声明:本文旨在传达更多市场信息,不构成任何投资建议。文章仅代表作者观点,不代表火星财经官方立场。

小编:记得关注哦

来源:imToken

原标题:如何构建更好的Layer 2?听听以太坊生态圈资深从业者怎么说

Celer、Loopring、imToken 和Amby Labs 讨论了以太坊Layer 2 的新开发和设计理念。

组织:沙漏时间

社区关于以太坊扩容的讨论正在如火如荼地进行,多种解决方案正在开发中,预计今年将全部上线主网。在整个以太坊Layer 2 解决方案爆发前夕,imToken 联合ETHPlanet、EthFans、ECN、上海前沿技术研讨会、HiBlock 等众多优秀以太坊生态社区和公司,共同策划了一系列以以太坊Layer 2 为主题的活动。以太坊扩张。

首场活动于4月23日举办:Rollup——以太坊L2扩容新范式杭州线下见面会。

以下是本次Meetup《如何构建更好的Layer 2》圆桌讨论文字版,由上海前沿技术研讨会-沙漏时间整理。

主持人:

上海区块链前沿技术研讨会创始人兼演讲嘉宾姚翔:

Celer 开发人员- Michael

imToken 产品经理-阿舒

安彼实验室负责人——郭宇

路印协议首席技术官- 史蒂夫

姚翔:很荣幸邀请大家来到这里。一般来说,都会要求大家做自我介绍,但今天我给大家准备了一个问题。在回答问题之前,你可以先自我介绍一下。让我们从Celer 开始。

我先提出我的问题。恭喜Layer2.finance 主网今天上午上线。能否介绍一下你们主网的情况,包括之前的测试比赛,比赛是什么样的,有没有什么样的技术或者产品上的一些问题,或者你们的发现。

迈克尔:大家好,我先自我介绍一下。我是迈克尔。我是一名较早加入Celer 的开发人员。在Celer,我主要致力于以太坊以及所有支持EVM的链的扩展。我们做的第一件事就是状态。 Channel是状态通道的技术。我们在2018年在以太坊主网上推出了通用状态通道,它不仅可以进行转账,还支持链上合约的仲裁功能。

之后我们发现状态通道的使用场景似乎比较有限,进入和退出通道的用户体验也不是很好,所以我们也在寻找其他方向。当时Rollup的技术方向就出来了,然后我们就觉得这可能是一个未来比较有前途的方向。

2019年,我们首次提出了混合Rollup,它结合了侧链和Rollup的安全性。用户可以选择Rollup的安全性或仅侧链的安全性,有点像zkPorter和zkSync。概念。

2020 年DeFi 非常火的时候,我们在思考如何解决Layer 2 的流动性问题。当大家都在思考Layer 2 未来会不会成为一座孤岛时,我们想是否有一个相反的想法,留下暂时处于第1 层的DeFi 协议。我们只是在Layer 2聚合用户操作,但所有Liquidity仍然在Layer 1,所有资金仍然在Layer 1原始协议中,至少在短期甚至中期是这样。而且从另一个角度来看,Layer 2不可避免地会在安全性上做出一些牺牲。即使不牺牲安全性,资金利用和资金可用性也会出现一些问题。所以也许对于最大数额的资金来说,他们还是会更愿意将资金保留在Layer1协议中,所以我们会向后兼容他们。这就是Layer2.finance的由来。

事实上,当时就有像StarkWare这样的人提出了类似的概念。我们几乎通过不同的途径达到了同一个目标。我们是第一个将产品上线的项目。

我们两周前上线了测试网,并举办了一些活动供大家体验。其实数据还是不错的。 10多天内,超过1900名用户总共进行了约40万次二层转账。具体能节省多少gas我没有计算过,但是稍微算一下就可以知道我们为用户节省了很多gas。我们部署了大约二十个模拟的DeFi 协议,然后大家不断地将资产输入到协议中,然后退出协议。总共发生了超过400,000 次第2 层传输。

刚才姚翔问有什么问题吗?我们发现以太坊的Ropsten测试网络确实不好用。它是唯一的PoW测试网络,但是出块非常不稳定,经常给你80多个块的响应。卷。所以我们遇到了回滚问题,但是协议在遇到回滚之后正确的处理了,即Layer 2的Rollup链暂时停止了。我们的CTO花了一天的时间重放了Layer1上的所有通话数据,然后在Layer2上重新生成了通话数据以确保其安全性。我们是第一个这样做的项目。

这也是我们认为在Layer1上保留Layer2数据的可用性非常重要的原因之一。由于Layer2可能存在各种问题,因此如果Layer1具有确定性历史记录,则可以随时重放并在Layer2上恢复此状态。我们确实做到了,而且也是一件非常有趣的事情。

今天早上,我们正式在以太坊主网上线。我们将Layer2.finance的第一个版本称为v0.1,因为实际上很多设计还没有完全定型。现在我们只是想让大家免费体验一下。

我们首次兼容这三种DeFi:Compound、AAVE 和Curve。都是非常保守的策略,都是稳定币,所以收益不会太高。可能是稳定币一般年化利率的10%左右。大家有兴趣可以去体验一下。前500名会有一些奖励,我们会将您的充值费用支付给Layer2。我们的充值并不算太贵,是类似于Uniswap交易所的手续费。一旦进入第2 层,您就可以零费用在协议之间进出。

该产品目前仅支持MetaMask桌面端,后续将会针对手机端进行适配,并尽快登陆各大钱包,让大家在手机上也能体验到Layer2.Finance。除了等待时间会受到Optimistic Rollup 等待时间的限制外,其他体验还是不错的。现阶段手续费为零,但未来手续费应该还是很低的。下次重大更新后,我们会将其与Celer代币的经济模型结合起来,包括一些流动性挖矿活动,欢迎大家届时体验。

姚翔:谢谢Michael,欢迎大家体验Celer的产品。我还听到一个非常有趣的观点。事实上,Ropsten 测试网络的不稳定性实际上帮助Celer 进行了边界条件下的测试。

接下来想问阿树:最近看到imToken集成了zkSync。我想知道您在整合过程中是否遇到过任何挑战。如果其他钱包想要集成zkSync,您有什么建议?

阿树:谢谢姚老师。我先自我介绍一下:我目前主要负责imToken钱包的产品。我叫阿舒。正如姚总刚才提到的,我们在2017年或者2018年就已经开始关注以太坊的扩容工作了,但是为什么我们才开始做集成以及相关的实施工作呢?这是因为过去几年的以太坊扩容计划是一个不断演变的过程。从最早的像Celer这样的状态通道,或者像OmiseGo、Plasma这样的,到现在的Rollup方案,已经取得了比较大的进步,那么Rollup方案应该是我们整个社区目前认为最可行和可实施的方案。

另外,大家也能切实感受到去年DeFi 的发展。正如常武先生刚才所说,整个开发使以太坊网络变得拥堵,使得转账和DeFi 操作对于普通用户来说非常昂贵。然而,这件事实际上与imToken的愿景相冲突。我们希望钱包能够服务更多的用户,迎合以太坊的普惠金融愿景。

现阶段这些网络只能服务数万美元甚至更多的高净值用户,因此我们开始关注以太坊扩容计划。该解决方案实际上有很多技术选择。我们现在看到的主流是零知识证明和乐观证明。这里我们可能有几个选择标准。首先是它有社区共识,即Rollup。二是经过了时间和社会实践的验证。

我们可以看到像zkSync 这样的解决方案。首先,它已经在主网上运行了很长时间。其次,其与Gitcoin的合作也得到了实践的验证。最近以Gitcoin为例,其85%的捐赠交易都是通过zkSync完成的。第三,除了工程能力外,zkSync团队还拥有强大的产品能力。他们提供了非常完整的SDK供开发者集成。集成zkSync后,短时间内我们发现这个方案受到了有转账需求的用户的青睐。 imToken集成zkSync半个月后,数据显示整个zkSync网络上近51%的转账来自imToken,所以短期内解决了我们的问题之一。

其次,我们更期待zkSync Alex刚才提到的内容。他们将在5月份提供NFT、swap等功能,这将继续拓展imToken在Layer 2的使用场景。当然,我们期待更多的解决方案,我们可以以更开放的方式进行适配。目前,zkSync 是在原生级别集成的。其次,其实目前主流的Layer2都会以DApp的形式出现,无论是Loopring、Celer、Hermez等,这些Layer2解决方案都可以通过imToken的浏览器访问。

还有一个问题就是姚老师问的技术难点是什么。其实对于钱包来说,这并不是一个工程问题,更多的是外围依赖遇到的挑战。比如目前二层的主流做法是当前节点都是单节点,所以我们看到只要二层方案的服务宕机了,整个网络就会变得不可转移。这对于一个实际有数千万用户使用的钱包来说是比较难以接受的一点。当然,我们看到社区(节点运营)会向PoS方向发展。

第二件事其实就是二层网络最重要的就是资金的流动。我们目前遇到的问题是什么。用户的充值成本非常高。它缺少两方面的支持,一是交易所的支持,二是OTC厂商的支持。目前,我们在交易所领域还没有看到任何新的进展,但在OTC厂商领域,几家海外服务商应该会在5月份或者今年年底提供相应的二层充值服务。这就是我们目前用作钱包的东西。遇到了一些外设依赖性挑战。

最后老师提到一个问题:对于想做Layer 2的peer钱包有什么建议?对于钱包来说,最关键的问题是私钥。目前所有的Layer2解决方案都有明显的痛点。 Layer2的签名密钥一般是通过个人签名生成的。人们在使用DApp时经常会遇到个人符号。它会给你一条短信让你离开。签名,但是文本签名实际上非常容易被伪造,所以这是钱包服务商在集成Layer2时应该高度重视的一点。

对此,我们台北的imToken Labs团队将向社区提供Signer的存储解决方案,以减少钓鱼攻击的可能性。第二件事是,钱包无法决定未来在这么多的Layer 2 解决方案中谁会获胜。对于钱包来说,应该尽可能减少主观性。我们尽力在Layer 2 解决方案中找到他们的范式之一,尽可能支持这些早期的Layer 2 解决方案,让市场做出选择。谢谢姚老师。

姚翔:谢谢阿树,听起来Layer2的整合不仅需要钱包的努力,还需要很多生态小众的合作。下面请教一下郭老师。郭老师在零知识证明领域的研究已经非常深入,也非常前沿。最近,我们多次听到递归零知识证明这个词,也看到以太坊基金会和Mina 基金会发布了一项关于是否可以使用EVM 来高效验证一种名为pickles 的零知识证明技术的资助。我想问郭老师的是,如果递归零知识证明能够在EVM中得到高效验证,对我们设计ZK Rollup协议有什么启发吗?

郭宇:我们团队在苏州,大概有六七个人。自2018年初成立以来,我们一直在做智能合约安全和零知识证明底层的非常底层的研究。我们很少直接面对最终用户,但我们与很多项目团队合作,帮助他们解决在底层基础设施中遇到的一些问题。目前我们的工作更多的是科学研究,我们会陆续发布一些最新的研究成果,其中一些成果有望大大提高ZK Rollup的证明和证明大小,可能会提高一到两个数量级。

接下来回答的是姚老师刚才问的问题。我将向您介绍递归零知识证明的简要历史。 Chiesa 和Tromer 是第一个研究递归零知识证明的人。他们在2010年左右提出了一个叫做携带数据证明的概念,同样可以验证整个证明。在证明中,一个证明可以跟随一段数据而传播到各处。这是一个非常前沿的概念。

当然,它需要使用一个非常棘手的技术,那就是它需要找到两条非常罕见的曲线,能够将两条曲线相互嵌入。之前找到的两条曲线的计算速度非常慢并且难以实用。

一个小小的突破可能发生在2018 年,当时Zcash 团队的Sean Bowe 和现在以太坊基金会的科学家Mary Miller 合作撰写了一篇名为Sonic 的文章。他们在这篇文章中发现了一个非常神奇的事情,那就是传统Bulletproof 后端中的一些操作可以被摊销,这意味着如果你有很多证明放在一起,你可以使用更高效的方式。汇总在一起进行验证。这一发现后来被Sean Bowe 用来实现Halo,一种非常新颖的递归零知识证明算法。这种递归零知识证明不再需要找到两条非常罕见且性能较差的曲线。这种递归证明技术可以用在很多地方,只要你能找到两条不需要支持配对的普通曲线即可。这次事件直接打开了递归零知识证明的大门。研究结果非常令人兴奋。它可以让整个区块链上的应用充满各种新的想象。米娜协议也在努力朝这个方向拓展。

由于其传统设计的一些缺陷,以太坊只能通过支持预编译合约来为零知识证明提供有限的支持。但我们现在很高兴看到以太坊2.0实际上正在努力,尤其是今年可能支持的EVM384的改进。它将支持更多的曲线,并且可以非常灵活地支持递归零知识证明。只是基于现在的以太坊1.0来做会比较麻烦。现在Mina基金会和以太坊基金会正在联合征集解决方案,以高效验证EVM中的pickles算法。然而,仔细分析后,我们发现这件事并不是那么容易,是相当困难的,因为这里的核心问题就在椭圆曲线上。有一些非常耗时的操作。目前,如果没有以太坊上预编译合约的支持,基本上还是困难的。可能会有一些效果,但是优化程度非常有限。

我们还是期待以太坊尽快支持EVM384,进而释放递归零知识证明的威力。最后我想说,这对ZK Rollup 意味着什么?

ZK Rollup 现在会面临一个问题。无论是zkPorter还是zkSync,如果在第二层使用相同的状态根来实现可组合性,则需要将状态空间做得非常大,这样才能支持很多DeFi应用。支持更多用户。包括路印协议团队做出的优秀转换方案,可以直接让第一层合约代理第二层资产对第一层进行操作,这需要非常庞大的状态。这个状态会引入一棵巨大的Merkle树。巨大的默克尔树会带来问题,即在其上生成证明会消耗大量的能源和算力。例如,Loopring使用O(1)复杂度算法,PLONK使用O(log n)验证算法。当n很大时,gas消耗会很大。如果我们期望以太坊捕获更大的价值,那么PLONK算法将遇到很大的瓶颈,而StarkWare的算法将更加严重。递归零知识证明彻底打开了另一扇门。 ZK Rollup 希望能更彻底地优化这条路,将整个以太坊上零知识证明验证的Gas 消耗降低到很低的水平。

这是一个我觉得非常令人兴奋的新方向。也希望有兴趣的朋友可以和我们一起探讨这方面的问题,探索未来的想象世界。谢谢大家。

姚翔:谢谢郭宇先生。听起来如果递归零知识证明得到更广泛的应用,那么ZK Rollup就能发挥更大的作用,效率也会大大提高。

麦克风被归还给史蒂夫。史蒂夫刚才发表了演讲。我还观察到Loopring在第一季度取得了很大的进展,比如增加了快速提现功能,包括提高AMM上的gas效率。我想问的是,在这个过程中,在工程上实现零知识证明可以提高多少效率,这里主要的难点是什么?

Steve:事实上,从工程角度来看,整个ZK Rollup系统的构建是相当具有挑战性的。包括我演讲中所说的,我们从2018年下半年就开始尝试这个方向,第一个版本的原型系统实际上是在2019年3月做出的,真正的主网是在2019年底上线的,这是第一个版本。第二个版本于2020年6月、7月上线,历时半年多时间迭代一个大版本。从工程角度来看,每一步的进步都带来了巨大的挑战。

在这里我可以特别说几句话。比如我们2019年底的版本,本质上是一个不太商用的版本,有很多限制。毕竟,我们是第一个尝试这条路的人。比如刚才郭宇提到的,默克尔树不能太大。我们当时实际上限制了Layer 2账户的数量最多为100万个。这也是因为我们的默克尔树的级别不能太高,否则你产生证明的时间成本会非常大。

第一个版本有很多这样的工程权衡,但我们稍后会发现这些权衡应该被删除。这只能从工程角度来完成。比如我们有一篇关于零知识证明生成优化的论文,大概提升了至少一个数量级,生成效率提升了十几倍。之后,我们发现我们可以把Merkle树做得更大,现在它实际上可以处理数亿个账户。

做了这样的事情之后,我们发现我们原本以为通过ZK Rollup生成零知识证明的成本会很高。但相反,现在生成零知识证明的成本其实很低。只需要数据上传和数据上传即可。链上验证的成本比较高。如何进一步降低这一成本?我们其实也做了很多尝试。首先,我们在上传之前压缩了通话数据。我们甚至做了一个压缩算法,然后在EVM中解压。这样,燃气消耗量可以更低。其次,我们所有在第二层的交易都可以保存调用数据。我们逐字节地挖掘它。基本上,我认为我们已经达到了极限。

所以同时正如郭宇所说,我们选择了复杂度为O(1)的ZK-SNARK验证算法。它的验证时间不会随着交易规模的增大而增加,这也是一个很大的好处。我们其实也期待以太坊上最终实现递归零知识证明,可以有效减少验证时间。但大家要记住,它实际上并不能提高整个ZK Rollup系统的TPS,因为整个ZK Rollup最终的TPS限制是由链上数据决定的,最大的TPS瓶颈就卡在这里。除非你放弃链上可用性,否则这是另一种选择。但我们觉得还是需要把数据保留在链上,这样你的资产安全才能得到保障。

姚翔:谢谢Steve,我们也听说路印协议在工程上做了很多努力,包括最后他提到路印协议认为数据的链上可用性非常重要。但同时我也看到了一个趋势,因为我们今天刚刚从Matter Labs那里听说他们发布了zkSync 2.0,它实际上有两个部分,包括ZK Rollup和一个更像Validium的部分;包括StarkWare,还有两个部分:ZK Rollup 和Validium。同时,我也看到像Arbitrum这样的团队也在尝试将零知识证明引入到Optimistic Rollup系统中。

我想问这四位嘉宾,这样的混合设计有没有可能成为未来协议设计的趋势,因为混合本身可能会给用户带来不同的选择。

史蒂夫:这就是我对混合模型的看法。当路印协议从第一个版本开始支持ZK Rollup时,我们的协议本身就支持两种模式,这两种模式实际上对应着数据的可用和不可用。本质上,这是一种权衡。你想要TPS还是安全?这是一个协商和妥协的过程。至于刚才提到的Arbitrum,我们当时甚至讨论过是否可以将Loopring部署在另一个Layer 2上,从而将我们变成Layer 3。

其实你可以想象。我一直提到一个概念,就是在Inception中,梦想的层层叠加,梦想的叠加可以类似于TPS的无限扩展。这也是有可能的。这是我对这种融合的想法之一。

郭宇:首先我想表达一个观点。零知识证明其实是一个非常基础的底层玩意儿,到处都可以用。 ZK Rollup 和Optimistic Rollup 之间的核心区别在于每个人如何处理这个状态空间。和签名验证一样,继续挑战时也可以生成证明,这意味着这样的证明可以在任何地方使用,但我们通常所说的ZK Rollup可能特指处理巨大默克尔树的零知识证明。

所以我觉得所谓的混合解决方案,目前我看到Optimistic Rollup使用了很多零知识证明,而且我相信未来很多组件会逐渐被零知识证明所取代。我还没有看到相反的情况。我只是问是否有必要在ZK Rollup中引入Optimistic Rollup的一些组件,比如基于经济学的挑战窗口方法。我还没看到呢。这是必要的。我认为很多解决方案将逐渐使用大量的零知识证明,因为很快以太坊将支持此类证明的更高级和复杂的应用场景。

我认为所谓的混合解决方案可能是更好的Rollup解决方案,而且我更喜欢使用Rollup这个词。至于是否强调零知识,我想可能没那么重要。无论如何,最终大家都会朝着同一个方向前进。这里的一个核心问题是,基于加密经济学和零知识证明的比例会有些不同,这可能与不同的场景有关。 DeFi 和游戏可能会采取不同的策略。这是我的意见。

阿树:关于混合,当然当我看到ZK Rollup和zkPorter结合的解决方案时,我觉得它实际上不是混合的想法。混合化可能更多的是短期内大家都会看到的事情。 zkSync的Alex在去年8月就已经提到过zkPorter的设计思路。它实际上更像是我们现在在以太坊2.0 分片中看到的一个想法,那么我的观点是什么?支持,而且这只是一个短暂的时期。未来他们肯定会找到自己的范式,就像郭宇老师提到的Rollup范式一样,他们会根据自己的需求做出不同的应用。

Michael:我的观点和Ashu的不同。我认为混合解决方案将是一个长期解决方案,提供不同级别的安全性。就像Celer曾经提出过,侧链和Rollup其实是可以混合的。与Matic 上的一些应用程序一样,它的安全性只是一个侧链要求,它的用户并不特别关心游戏必须具有数据可用性或保留整个完整的历史记录,所以我个人认为它会在未来受到关注。更多样化的混合解决方案。

从Layer 2的角度来看,还有一个问题没有得到很好的解决,比如Optimistic Rollup。谁将提交这个区块?其实现在也没有什么好的解决办法。现在大多数项目都使用集中式方法。去提交吧

我个人认为在这个问题上使用PoW 算法来确定区块生产者是可以的,但可能比Stake 更好。甚至未来的某一天,我想我们会看到第二层的算力会大于第一层的算力。这是我有一天突然想到的,就是如果大家都提交数据可用性来进行挖矿的话,这件事就用一个我认为PoW也是一个可行的思路来解决。未来的设计空间还是很大的,我们不能说一定会往哪个方向发展,还是需要一定的时间去观察和实践。当项目在主网上线时,可能会出现一两次这样的安全事件,才能得出更好的结论。

前几天,Arbitrum 的Ed Felton 和Matter Labs 的Alex 在Clubhouse 上推特,我也加入了进来。从安全角度来看,你不能说zkPorter 或Validium 拥有主网的安全性。这件事要打一个大大的问号。举个例子,假设我在zkPorter(译者注:一个交易网站)上玩BitMEX,然后我的仓位被强平了。我告诉阿瑟·海耶斯立即停止。

把数据可用性的插头拔了,我这个爆仓到底发生了没有?我这个钱到底是丢了还是没有呢?
如果从 zkPorter 的角度来说,一旦这样他把链暂停以后,那么赚到我的钱的人是提不走钱的。对他来说这个钱是不是丢了,这个钱是不是和被盗了是一样的,我个人觉得是一样的,但可能 Alex 他们是有不同的意见。我想不同的应用可能会选择不同的扩容方式,需要非常高的安全性的 BitMEX 这种应用,最好的方式当然是得采用 ZK Rollup 才会比较好,但是它的 TPS 可能就只能降到几千的水平了,这也是我觉得是没有办法的一个事情。
所以说未来设计空间还是非常大的,然后我觉得大家会逐渐地去发现一个各自的需求和各自最适合的扩容方式吧,这是我的观点。
姚翔:好的,谢谢 Michael。在 Michael 的表达里我也听到一个词,就是现在的 Rollup 的验证者也好或者叫排序者也好,更多还是一个中心化的角色。我们也知道现在在 Layer1 上我们讨论一个问题叫 MEV (译者注:矿工可提取价值)。这个问题非常严重,如果能解决 MEV,对系统的可扩展性也是很有帮助的。那么在 Layer2 上面,如果说我们想要解决这个问题,它是不是面临更大的挑战,尤其在怎么打包和排序这个问题没有解决的基础上,我想听听大家的看法。尤其作为一个 Layer2 的设计者,你们对 MEV 这个问题怎么看的?你们有没有一个比较好的解决方案。
Michael:我觉得是非常好的一个问题。MEV 我觉得是 Layer2 在超前于 Layer1 在做的事情,就是尝试在 Layer2 先把这个问题解决了。我觉得这个同样没有定论,它有不同的解决方法,我看到过的有比较极端的就是 Proof of Burn (销毁证明)。比如说你要去提交一个 Rollup 区块,你要烧掉一部分代币,这样你是基本上不太可能去作恶的。
包括对于交易顺序的打包问题,如果你没有按照顺序来打包,比如说它规定必须是按交易费从高到低打包,你没有按照这个顺序打包,你也会被罚没资产,会有这样的一个惩罚性的设计。这是一个极端。
另外一个极端可能会相对乐观一些,就是说通过 PoS 的出块机制最简单,甚至跑一个 PoA 的轮流出块也是可以的,只要它可验证。只要你定一套规则,其实以太坊现在最大问题就是 Layer1 的交易排序是没有规则的,这个东西不在共识里面,我觉得这属于设计上的一个缺陷,或者说一个没有考虑周全的地方。
如果 Layer2 就可以把交易排序的方式写到规则里面,然后无论这个规则是强是弱,它是惩罚性的还是奖励性的,我觉得都是可以的。
阿树:有许多人在讨论说 MEV 到底是正义还是怎么样,这个是好事还是坏事。站在我们或者用户的角度来看,MEV 不管好坏,其实是一套激励机制,甚至通过竞争提高网络资金效率。但它也带来负面影响,用户在区块链网络上做交易是会受损的。
因为我们的区块链上的交易是一个资金池的形式,无论是做兑换还是借贷都是一个资金池的形式,这会存在滑点,所以就很容易形成现在常见的所谓三明治夹击的问题。
反过来我们更在意的是怎么解决用户受到的损害。有两个点,一个点是刚才 Michael 说的交易排序问题,当这个交易排序没有主观性的时候,它是平等公平的时候,是可能会被解决的。第二个是从 DeFi 协议设计的角度,我们怎么去设计 DeFi 方案,使它可以减少滑点,避免用户受损。
作为一个钱包方看待这个问题的时候,我们就看到几个点。譬如 DEX 采用 PMM 方案,用户的交易并不是直接上链,而是通过将签名提交到中继器,中继器进行订单上链。这个应该是目前能看到的比较理想的方式,可以保证用户没有滑点的受损。
相比 Uniswap,可能它 10 笔交易里面至少有三四笔是会失败的,PMM 这种机制的话基本能保证到 90% 以上的一个成功率,这是一块。
除了 DeFi 上的设计的话,我们也能看到整个社区也在这块上去想办法,一个是排序的公平性,然后还有一个比较有意思的想法就是 KeeperDAO。
大家想法是什么?MEV 的价值我们是可以拿来去再次分配的,而不是说只有矿池和套利者之间的一个利益,我们跟 MEV 的一个获利者去聊的时候,甚至提出说我们 MEV 的一个利润能否提供出来给到所有的用户。
举个例子,可能钱包里面有个按钮,你点一下就能参与 MEV 套利。MEV 现在有一个主流的解决方案是 Flashbots,它的做法是让套利者零成本竞价,这个方案有一定可行性,让社区去竞争,而不是只有套利者跟矿池之间的一个利益分配。所以我的看法是优先从 DeFi 协议上去解决这个问题,这远比从交易排序上去解决更快。如果要解决 MEV 的公平性,我们可以从分配角度去考虑。
姚翔:所以我们需要每一个 DeFi 协议设计者都要先去学习一下什么是 MEV,怎么在协议设计层面减少它的影响。
郭宇:我非常赞同阿树老师说的观点,就是我们可能很难从一层的共识协议来解决这个问题,可能真的需要额外的一个类似 DAO 或者是有治理的这种方式来分配利润。但是我想说的是,MEV 本身其实不是个问题,它是个现象,真正的问题是什么,是 front running,就是抢先交易。MEV 里面分成几大类,一部分来自很多交易机器人,现在我们都把以太坊称为黑暗森林,这里面有很多的机器人,每天非常忙碌。但其中一部分是非常善意的机器人,正因为有这些机器人存在,所以 Uniswap 的价格能够跟中心化交易所良好地同步。
每当用户有一笔兑换交易的时候,都会有机器人跟在用户后面把这个池子重新拉平,拉到跟中心化交易所一样,所以这些机器人实际上是为生态在贡献自己的能量,但是它从中也获取了目前来看还是比较大的利益,我觉得也是应得的。就是它为了生态的发展,包括像借贷协议的清算者,借贷协议就是需要有清算,当今年资产价格暴跌的时候,会有大量的机器人出动,而正是因为有大量的机器人,借贷协议才不会出现系统性坏账。
为了金融生态的稳定性,就需要这些机器人,需要 MEV 给它们提供动力,让它们来维护整个系统。但是这里面有些是恶意的,是非常有问题的,就是抢先交易,这会造成用户以最大的滑点买到想要的资产。很多事情他都可以抢先交易,包括三明治是很多用户讨厌的,imToken 应该是这个很大的受害者。
我觉得三明治就是很大的问题,现在社区似乎有着不好的风气,就是大家在讨论 MEV 问题的时候,过度关注了 MEV 的分配,而没有想办法说我们怎么去禁止抢先交易的出现。目前抢先交易没有好只有坏,正因为他们的出现,让很多用户体验不好。用户发一笔交易想完成一件事情,对不起,你发现的这个机会被别人的机器人抢去了,你就会失败,你额外消耗了手续费还没有成功。我觉得抢先交易是百害无一利,大量 MEV 的收益来源于抢先交易,我觉得社区要关注这些,区分哪些是好,哪些是坏的,让不好的现象被曝光,对好的那些 MEV,可以用 KeeperDAO 或者是 Flashbots 之类的方式把这个东西进行分配。
Steve:前面几位嘉宾的观点都很好,很明确。MEV 在一层上的确挺严重的,我估计大家只要跟 Uniswap 交互,应该多多少少都有体验。在二层本身,其实目前这个阶段,我认为对现在已经上线的这些二层项目还不存在这个问题,是因为大家的中继节点,当前阶段基本上都是中心化的方式实现。中心化的实现一定会按时间排序的方式设计,严格的按时间排序,否则用户一定会用脚投票。你在自己的 Rollup 里面经常去抢跑用户的话,用户一看就明白了,自然就用脚投票退出你这个 Rollup,我们不在你这玩。这样本质上是一种从经济博弈的角度来解决这个问题。
如果 Layer2 上面,后续大家把中继器改造变成去中心化的方式,肯定也会面临这个问题。但要想从共识机制上去解决,我觉得也不太可能。可能真的只能从协议层靠经济模型的博弈角度来彻底解决这个问题。这是我的看法。
姚翔:好,Steve 提到现在可能各个 Rollup 的信誉还是吸引用户的很重要的一个方面。

上一篇
下一篇

为您推荐

手机访问
手机扫一扫打开网站

手机扫一扫打开网站

返回顶部