Binance Square

W-BEN

image
Verifizierter Creator
热爱生活,专注币安!币安超级返佣邀请码:BEN8888 X:@wangbsoon
GAIN Halter
GAIN Halter
Hochfrequenz-Trader
2 Jahre
1.0K+ Following
59.8K+ Follower
35.8K+ Like gegeben
3.0K+ Geteilt
Inhalte
PINNED
--
Übersetzen
为何Dusk坚持做一条独立的隐私Layer 1公链而不去蹭以太坊的流量?最近我一直在反思一个问题:在Optimism和Arbitrum这些Layer 2大行其道的今天,为什么还有头铁的项目方坚持要去从零开始做一条Layer 1?研究Dusk Network的代码库越深,我越觉得这不仅仅是一种技术洁癖,而是一种对现有区块链扩容方案的根本性否定,特别是在涉及隐私合规这个极其敏感的领域。我看空那些仅仅把ZK(零知识证明)当作压缩工具的项目,而看好像Dusk这样把ZK作为底层信仰的架构。 很多人问我,Dusk既然用的是ZK技术,为什么不直接做一个以太坊的Rollup?这样还能蹭上ETH的安全性。这是个好问题,但如果你真的去跑过Dusk的节点,你就会发现两者的根本区别。Layer 2虽然好,但它受限于以太坊主网的数据可用性(DA)和EVM(以太坊虚拟机)的陈旧架构。EVM设计之初根本没考虑过隐私计算,要想在EVM上跑复杂的零知识电路,不仅Gas费贵得离谱,而且效率极低。Dusk选择自建Layer 1,最核心的原因就是为了部署它的Piecrust虚拟机。 这个Piecrust VM是我近期研究的重点。它基于WASM,这意味着如果你是一个Rust开发者,你会感到非常亲切。但我真正想吹爆的是它的“零拷贝”(Zero-copy)内存架构。在传统的EVM里,合约调用之间传递数据需要不断地复制内存,这在普通的代币转账里无所谓,但在生成ZK证明这种计算密集型任务里,内存复制就是性能杀手。Piecrust直接通过内存映射让合约之间共享数据,我在本地环境做压力测试时,能明显感觉到在处理复杂逻辑时,它的响应速度比我之前测试过的zkSync节点要快上一截。当然,这种快也是有代价的,由于架构太新,配套的调试工具简直是灾难。我在写一个简单的隐私借贷合约Demo时,编译器报错的信息模糊得让我怀疑人生,甚至有一瞬间想砸键盘。这种开发者体验的缺失,是Dusk目前最大的硬伤,比技术本身的难度更劝退人。 拿它跟Aleo做个对比会更直观。Aleo也是主打隐私的L1,而且融资额巨大,声量很高。Aleo采用的是“链下执行,链上验证”的模式,这确实极大地提高了扩展性。但Dusk走了一条略显不同的路,它更强调“合规性隐私”。Aleo的隐私是绝对的,像极了早期的互联网密码朋克精神;而Dusk在协议层预留了审计接口。对于极客来说,Aleo更酷;但对于我想把它推销给传统金融机构的朋友来说,Dusk才是唯一能上谈判桌的方案。因为没有一家银行敢用一条无法审计的链,这是死线。 在研究Dusk的XSC(机密安全合约)标准时,我发现他们解决了一个长期困扰证券代币化的痛点:股息分发。在以太坊上,你要给一万个代币持有者发分红,Gas费能让你破产,而且你还得知道这以前个地址分别属于谁。Dusk利用零知识证明,可以让持有者在不暴露身份、不暴露持仓数量的情况下,证明自己有权领取多少分红。这个逻辑跑通之后,我仿佛看到了DeFi和CeFi融合的曙光。但我必须泼盆冷水,目前的测试网在处理这种大规模并发证明时,CPU的负载会瞬间飙升,我的MacBook风扇转得像直升机一样。这说明目前的优化还不够,如果主网上了,普通家用电脑能不能跑得动全节点,我是持怀疑态度的。 还有一个容易被忽略的技术细节是Plonk证明系统的可升级性。之前的Zcash用的是Groth16,每次升级都得搞个仪式,麻烦得要死。Dusk用的Plonk不需要这个,只要SRS(通用参考串)生成一次就行。这意味着如果未来监管政策变了,或者密码学有了新突破,Dusk可以无缝升级它的隐私协议。这种灵活性在快速变化的监管环境中是至关重要的护城河。 但是,我也看到了一些让人不安的迹象。项目方的开发进度经常跳票,虽然GitHub上依然活跃,但这种长周期的开发正在消耗社区的信心。我看过太多技术牛逼但死于交付的项目。Dusk现在的处境很像早期的Cardano,学术气息太重,工程落地太慢。而且,他们似乎对市场营销不太感冒,推特上的互动常常是干巴巴的技术更新,缺乏那种能点燃散户fomo情绪的叙事。在这个注意力经济的时代,过于低调可能是一种慢性自杀。 竞品方面,Mina Protocol也是个强劲的对手。Mina的递归证明做得非常极致,轻量化是它的杀手锏。相比之下,Dusk显得有点“重”。但这种重是为了承载复杂的商业逻辑。Mina更像是一个纯粹的支付和验证层,而Dusk想做一个全能的金融计算平台。如果让我下注,短期内Mina这种轻量级选手更容易铺开,但长期看,如果RWA真的爆发,需要处理复杂的资产确权和合规交易,Dusk的架构承载力会更强。 总的来说,Dusk是一条在孤独中前行的链。它拒绝了Layer 2的诱惑,坚持做独立的主权链,这既是它的骄傲,也是它的风险所在。它必须建立自己的安全边界,建立自己的验证者网络,建立自己的生态。这是一场豪赌。如果成了,它就是合规隐私金融的奠基者;如果输了,它可能只是密码学历史上一个精致的实验品。作为一个技术信仰者,我希望它能赢,但作为一个理性的观察者,我手里的筹码还不敢全部押上去。 $DUSK {future}(DUSKUSDT) #Dusk @Dusk_Foundation

为何Dusk坚持做一条独立的隐私Layer 1公链而不去蹭以太坊的流量?

最近我一直在反思一个问题:在Optimism和Arbitrum这些Layer 2大行其道的今天,为什么还有头铁的项目方坚持要去从零开始做一条Layer 1?研究Dusk Network的代码库越深,我越觉得这不仅仅是一种技术洁癖,而是一种对现有区块链扩容方案的根本性否定,特别是在涉及隐私合规这个极其敏感的领域。我看空那些仅仅把ZK(零知识证明)当作压缩工具的项目,而看好像Dusk这样把ZK作为底层信仰的架构。
很多人问我,Dusk既然用的是ZK技术,为什么不直接做一个以太坊的Rollup?这样还能蹭上ETH的安全性。这是个好问题,但如果你真的去跑过Dusk的节点,你就会发现两者的根本区别。Layer 2虽然好,但它受限于以太坊主网的数据可用性(DA)和EVM(以太坊虚拟机)的陈旧架构。EVM设计之初根本没考虑过隐私计算,要想在EVM上跑复杂的零知识电路,不仅Gas费贵得离谱,而且效率极低。Dusk选择自建Layer 1,最核心的原因就是为了部署它的Piecrust虚拟机。
这个Piecrust VM是我近期研究的重点。它基于WASM,这意味着如果你是一个Rust开发者,你会感到非常亲切。但我真正想吹爆的是它的“零拷贝”(Zero-copy)内存架构。在传统的EVM里,合约调用之间传递数据需要不断地复制内存,这在普通的代币转账里无所谓,但在生成ZK证明这种计算密集型任务里,内存复制就是性能杀手。Piecrust直接通过内存映射让合约之间共享数据,我在本地环境做压力测试时,能明显感觉到在处理复杂逻辑时,它的响应速度比我之前测试过的zkSync节点要快上一截。当然,这种快也是有代价的,由于架构太新,配套的调试工具简直是灾难。我在写一个简单的隐私借贷合约Demo时,编译器报错的信息模糊得让我怀疑人生,甚至有一瞬间想砸键盘。这种开发者体验的缺失,是Dusk目前最大的硬伤,比技术本身的难度更劝退人。
拿它跟Aleo做个对比会更直观。Aleo也是主打隐私的L1,而且融资额巨大,声量很高。Aleo采用的是“链下执行,链上验证”的模式,这确实极大地提高了扩展性。但Dusk走了一条略显不同的路,它更强调“合规性隐私”。Aleo的隐私是绝对的,像极了早期的互联网密码朋克精神;而Dusk在协议层预留了审计接口。对于极客来说,Aleo更酷;但对于我想把它推销给传统金融机构的朋友来说,Dusk才是唯一能上谈判桌的方案。因为没有一家银行敢用一条无法审计的链,这是死线。
在研究Dusk的XSC(机密安全合约)标准时,我发现他们解决了一个长期困扰证券代币化的痛点:股息分发。在以太坊上,你要给一万个代币持有者发分红,Gas费能让你破产,而且你还得知道这以前个地址分别属于谁。Dusk利用零知识证明,可以让持有者在不暴露身份、不暴露持仓数量的情况下,证明自己有权领取多少分红。这个逻辑跑通之后,我仿佛看到了DeFi和CeFi融合的曙光。但我必须泼盆冷水,目前的测试网在处理这种大规模并发证明时,CPU的负载会瞬间飙升,我的MacBook风扇转得像直升机一样。这说明目前的优化还不够,如果主网上了,普通家用电脑能不能跑得动全节点,我是持怀疑态度的。
还有一个容易被忽略的技术细节是Plonk证明系统的可升级性。之前的Zcash用的是Groth16,每次升级都得搞个仪式,麻烦得要死。Dusk用的Plonk不需要这个,只要SRS(通用参考串)生成一次就行。这意味着如果未来监管政策变了,或者密码学有了新突破,Dusk可以无缝升级它的隐私协议。这种灵活性在快速变化的监管环境中是至关重要的护城河。
但是,我也看到了一些让人不安的迹象。项目方的开发进度经常跳票,虽然GitHub上依然活跃,但这种长周期的开发正在消耗社区的信心。我看过太多技术牛逼但死于交付的项目。Dusk现在的处境很像早期的Cardano,学术气息太重,工程落地太慢。而且,他们似乎对市场营销不太感冒,推特上的互动常常是干巴巴的技术更新,缺乏那种能点燃散户fomo情绪的叙事。在这个注意力经济的时代,过于低调可能是一种慢性自杀。
竞品方面,Mina Protocol也是个强劲的对手。Mina的递归证明做得非常极致,轻量化是它的杀手锏。相比之下,Dusk显得有点“重”。但这种重是为了承载复杂的商业逻辑。Mina更像是一个纯粹的支付和验证层,而Dusk想做一个全能的金融计算平台。如果让我下注,短期内Mina这种轻量级选手更容易铺开,但长期看,如果RWA真的爆发,需要处理复杂的资产确权和合规交易,Dusk的架构承载力会更强。
总的来说,Dusk是一条在孤独中前行的链。它拒绝了Layer 2的诱惑,坚持做独立的主权链,这既是它的骄傲,也是它的风险所在。它必须建立自己的安全边界,建立自己的验证者网络,建立自己的生态。这是一场豪赌。如果成了,它就是合规隐私金融的奠基者;如果输了,它可能只是密码学历史上一个精致的实验品。作为一个技术信仰者,我希望它能赢,但作为一个理性的观察者,我手里的筹码还不敢全部押上去。
$DUSK
#Dusk @Dusk_Foundation
PINNED
Original ansehen
Wenn Web3-Projekte anfangen, 'wirklich Geld zu verdienen' – die Einkommensgeheimnisse von $KGEN entschlüsselnIn letzter Zeit weht im Krypto-Raum ein Wind der 'echten Einnahmen', viele Projekte werden in Frage gestellt, ob sie nur Geschichten erzählen können. Unter den vielen Shitcoins, die auf Erzählungen basieren, taucht plötzlich der Name $KGEN auf, und das aus einem einfachen Grund – es verdient tatsächlich Geld, und die Zahlen sind nicht klein. Jährliche Einnahmen von $80M+, diese Zahl hat viele erfahrene Investoren überrascht. Man muss wissen, dass die meisten DeFi-Protokolle nicht einmal jährliche Einnahmen von mehreren Millionen Dollar aufrechterhalten können, geschweige denn ein kontinuierliches Wachstum. Was macht KGeN so besonders? Ich habe etwas Zeit damit verbracht, die Produktlogik zu studieren, und festgestellt, dass dieses Projekt in seinem Geschäftsmodell tatsächlich einige neue Ansätze verfolgt.

Wenn Web3-Projekte anfangen, 'wirklich Geld zu verdienen' – die Einkommensgeheimnisse von $KGEN entschlüsseln

In letzter Zeit weht im Krypto-Raum ein Wind der 'echten Einnahmen', viele Projekte werden in Frage gestellt, ob sie nur Geschichten erzählen können. Unter den vielen Shitcoins, die auf Erzählungen basieren, taucht plötzlich der Name $KGEN auf, und das aus einem einfachen Grund – es verdient tatsächlich Geld, und die Zahlen sind nicht klein.
Jährliche Einnahmen von $80M+, diese Zahl hat viele erfahrene Investoren überrascht. Man muss wissen, dass die meisten DeFi-Protokolle nicht einmal jährliche Einnahmen von mehreren Millionen Dollar aufrechterhalten können, geschweige denn ein kontinuierliches Wachstum. Was macht KGeN so besonders? Ich habe etwas Zeit damit verbracht, die Produktlogik zu studieren, und festgestellt, dass dieses Projekt in seinem Geschäftsmodell tatsächlich einige neue Ansätze verfolgt.
Übersetzen
不仅仅是借贷,我看懂了Lista DAO在这个DeFi周期的野心很多人看DeFi项目只看TVL,其实这是个误区,真正的阿尔法往往藏在协议的可组合性里。最近在研究Lista DAO的时候,我发现大家好像都只盯着它那个借贷功能看,什么抵押BNB借稳定币之类的,这太初级了。真正的骚操作其实是结合现在的生息资产(Yield Bearing Assets)来玩“一鱼多吃”,把Lista当成一个杠杆层来用,这才是高阶玩家的打开方式。 咱们拿现在火得一塌糊涂的Ethena(USDe)举例。USDe本身就自带很高的原生收益,如果你只是持有USDe,那你只能吃到这一层收益。但是,如果你把USDe或者它的衍生品(比如PT-USDe,如果你在Pendle上玩过的话)拿到Lista DAO来做抵押,事情就变得有意思了。Lista是支持这些生息资产作为抵押品的,这意味着什么?意味着你的本金在Ethena那边吃着一份利息,同时作为抵押品在Lista这边释放出了流动性。 具体的玩法是这样的:我手里有一笔USDe,直接存进Lista作为抵押物。系统给我的LTV虽然比不上ETH这种原生资产,但也足够用了。抵押进去之后,我借出USD1。注意,这时候我的借贷成本极低,依然是那个诱人的1%左右。借出来的USD1我并没有拿去消费,而是转手换成USDT,再次存进币安的Earn里吃那个20%的收益。你看,这一套组合拳下来,我的收益来源变成了三份:第一是USDe本身的原生收益(可能在10%-30%浮动),第二是Lista DAO可能给到的借贷激励或者治理代币空投(如果有的话),第三是借出来的钱在交易所跑出来的20%稳定币收益。这哪里是理财,简直就是套娃式的资金收割机。 这种玩法在asUSDF上也是同理。很多玩LSD(流动性如质押)的人手里攒了一堆asUSDF,平时除了质押奖励啥也没有,流动性还锁死了。通过Lista DAO把这些资产盘活,贷出USD1来做流动性挖矿或者直接套利,等于是在不卖出资产的前提下强行加了一层安全的杠杆。这其实解决了DeFi里一个最大的痛点:高收益资产通常流动性差,流动性好的资产通常收益低。Lista在这个环节里扮演的角色,就是一个极低成本的流动性释放器。 不过在实操过程中我也发现了一些产品设计上的小瑕疵。比如在处理PT-USDe这种带到期日的资产时,用户自己得长个心眼,别等到PT过期了还没还款,那中间的折价和滑点可能会吃掉你一部分利润。而且Lista的前端在展示这些复杂策略的综合APY时,稍微显得有点保守,没把这层套娃收益算进去,导致很多小白一看面板觉得平平无奇就划走了,实属可惜。这可能也是项目方比较低调务实的地方,不搞那些虚假的数字营销。 对比Aave或者Venus这种老牌借贷协议,Lista的优势非常明显,就是它对新型资产的接纳速度和那个杀手级的低利率。Venus虽然大,但那是大户的游乐场,费率模型由于资金利用率的问题经常波动,而且对Ethena这种新资产的LTV给得很吝啬。Lista显然是想通过差异化竞争,先把这部分追求极致资金效率的Degen用户圈进来。 现在的DeFi早已不是那个随便冲个土狗就能百倍的时代了,现在的收益都是算出来的,是抠出来的。Lista DAO提供的这个USD1借贷工具,本质上是给了我们一把铲子,让我们能在现有的资产大山上再挖出一层金矿。这种低成本的资金如果利用好了,年化收益翻个倍都不是问题。我现在的策略就是把所有能抵押的生息资产全部挪到Lista上,只要借贷利率不飙升,这套逻辑就能一直跑下去,直到市场把这个利差抹平为止。 @lista_dao #USD1理财最佳策略ListaDAO $LISTA {spot}(LISTAUSDT)

不仅仅是借贷,我看懂了Lista DAO在这个DeFi周期的野心

很多人看DeFi项目只看TVL,其实这是个误区,真正的阿尔法往往藏在协议的可组合性里。最近在研究Lista DAO的时候,我发现大家好像都只盯着它那个借贷功能看,什么抵押BNB借稳定币之类的,这太初级了。真正的骚操作其实是结合现在的生息资产(Yield Bearing Assets)来玩“一鱼多吃”,把Lista当成一个杠杆层来用,这才是高阶玩家的打开方式。
咱们拿现在火得一塌糊涂的Ethena(USDe)举例。USDe本身就自带很高的原生收益,如果你只是持有USDe,那你只能吃到这一层收益。但是,如果你把USDe或者它的衍生品(比如PT-USDe,如果你在Pendle上玩过的话)拿到Lista DAO来做抵押,事情就变得有意思了。Lista是支持这些生息资产作为抵押品的,这意味着什么?意味着你的本金在Ethena那边吃着一份利息,同时作为抵押品在Lista这边释放出了流动性。
具体的玩法是这样的:我手里有一笔USDe,直接存进Lista作为抵押物。系统给我的LTV虽然比不上ETH这种原生资产,但也足够用了。抵押进去之后,我借出USD1。注意,这时候我的借贷成本极低,依然是那个诱人的1%左右。借出来的USD1我并没有拿去消费,而是转手换成USDT,再次存进币安的Earn里吃那个20%的收益。你看,这一套组合拳下来,我的收益来源变成了三份:第一是USDe本身的原生收益(可能在10%-30%浮动),第二是Lista DAO可能给到的借贷激励或者治理代币空投(如果有的话),第三是借出来的钱在交易所跑出来的20%稳定币收益。这哪里是理财,简直就是套娃式的资金收割机。
这种玩法在asUSDF上也是同理。很多玩LSD(流动性如质押)的人手里攒了一堆asUSDF,平时除了质押奖励啥也没有,流动性还锁死了。通过Lista DAO把这些资产盘活,贷出USD1来做流动性挖矿或者直接套利,等于是在不卖出资产的前提下强行加了一层安全的杠杆。这其实解决了DeFi里一个最大的痛点:高收益资产通常流动性差,流动性好的资产通常收益低。Lista在这个环节里扮演的角色,就是一个极低成本的流动性释放器。
不过在实操过程中我也发现了一些产品设计上的小瑕疵。比如在处理PT-USDe这种带到期日的资产时,用户自己得长个心眼,别等到PT过期了还没还款,那中间的折价和滑点可能会吃掉你一部分利润。而且Lista的前端在展示这些复杂策略的综合APY时,稍微显得有点保守,没把这层套娃收益算进去,导致很多小白一看面板觉得平平无奇就划走了,实属可惜。这可能也是项目方比较低调务实的地方,不搞那些虚假的数字营销。
对比Aave或者Venus这种老牌借贷协议,Lista的优势非常明显,就是它对新型资产的接纳速度和那个杀手级的低利率。Venus虽然大,但那是大户的游乐场,费率模型由于资金利用率的问题经常波动,而且对Ethena这种新资产的LTV给得很吝啬。Lista显然是想通过差异化竞争,先把这部分追求极致资金效率的Degen用户圈进来。
现在的DeFi早已不是那个随便冲个土狗就能百倍的时代了,现在的收益都是算出来的,是抠出来的。Lista DAO提供的这个USD1借贷工具,本质上是给了我们一把铲子,让我们能在现有的资产大山上再挖出一层金矿。这种低成本的资金如果利用好了,年化收益翻个倍都不是问题。我现在的策略就是把所有能抵押的生息资产全部挪到Lista上,只要借贷利率不飙升,这套逻辑就能一直跑下去,直到市场把这个利差抹平为止。
@ListaDAO #USD1理财最佳策略ListaDAO $LISTA
Original ansehen
Wenn AI auf Blockchain trifft: Nach einer tiefen Erfahrung mit dem Vanar-Ökosystem habe ich diese Erkenntnisse entdecktAls ich Ende letzten Jahres begann, mich für den AI-Agenten-Sektor zu interessieren, stieß ich zufällig auf das Vanar-Projekt und war sofort von seinem fünfstufigen Architekturkonzept fasziniert. Im Gegensatz zu den Projekten auf dem Markt, die AI und Blockchain einfach zusammenpuzzeln, hat Vanar von der unteren Ebene an eine Infrastruktur entworfen, die speziell auf AI-Anwendungen ausgerichtet ist. In den letzten Monaten habe ich mehrere ihrer Produkte ausprobiert, einige Aspekte waren wirklich beeindruckend, aber ich bin auch auf einige Fragen gestoßen, die es wert sind, diskutiert zu werden. Lass uns über das Designkonzept des gesamten Technologie-Stacks sprechen. Vanar positioniert sich als eine AI-native Layer 1 Blockchain, und das Wort "nativ" ist eigentlich ziemlich interessant. Es geht nicht nur darum, ein AI-Modul auf einer bestehenden öffentlichen Blockchain hinzuzufügen, sondern von der untersten Ebene der Datenspeicherung über die mittlere Ebene der Inferenz-Engine bis hin zur Anwendungsebene der Automatisierungstools alles um die Anforderungen von AI zu gestalten. Diese Architektur kann man ungefähr so verstehen: ganz unten ist die Vanar Chain selbst, diese modulare L1-Kette, die für hohe Durchsatzraten und kostengünstige Transaktionen verantwortlich ist; darüber kommt die Neutron-Ebene, die speziell für semantisches Gedächtnis und Datenkompression zuständig ist; darüber ist Kayon, das für die logische Inferenz von AI auf der Blockchain verantwortlich ist; dann sorgt Axon für intelligente Automatisierung; und die oberste Ebene sind Flows, die sich auf spezifische Anwendungsfälle wie PayFi und RWA konzentrieren.

Wenn AI auf Blockchain trifft: Nach einer tiefen Erfahrung mit dem Vanar-Ökosystem habe ich diese Erkenntnisse entdeckt

Als ich Ende letzten Jahres begann, mich für den AI-Agenten-Sektor zu interessieren, stieß ich zufällig auf das Vanar-Projekt und war sofort von seinem fünfstufigen Architekturkonzept fasziniert. Im Gegensatz zu den Projekten auf dem Markt, die AI und Blockchain einfach zusammenpuzzeln, hat Vanar von der unteren Ebene an eine Infrastruktur entworfen, die speziell auf AI-Anwendungen ausgerichtet ist. In den letzten Monaten habe ich mehrere ihrer Produkte ausprobiert, einige Aspekte waren wirklich beeindruckend, aber ich bin auch auf einige Fragen gestoßen, die es wert sind, diskutiert zu werden.
Lass uns über das Designkonzept des gesamten Technologie-Stacks sprechen. Vanar positioniert sich als eine AI-native Layer 1 Blockchain, und das Wort "nativ" ist eigentlich ziemlich interessant. Es geht nicht nur darum, ein AI-Modul auf einer bestehenden öffentlichen Blockchain hinzuzufügen, sondern von der untersten Ebene der Datenspeicherung über die mittlere Ebene der Inferenz-Engine bis hin zur Anwendungsebene der Automatisierungstools alles um die Anforderungen von AI zu gestalten. Diese Architektur kann man ungefähr so verstehen: ganz unten ist die Vanar Chain selbst, diese modulare L1-Kette, die für hohe Durchsatzraten und kostengünstige Transaktionen verantwortlich ist; darüber kommt die Neutron-Ebene, die speziell für semantisches Gedächtnis und Datenkompression zuständig ist; darüber ist Kayon, das für die logische Inferenz von AI auf der Blockchain verantwortlich ist; dann sorgt Axon für intelligente Automatisierung; und die oberste Ebene sind Flows, die sich auf spezifische Anwendungsfälle wie PayFi und RWA konzentrieren.
Original ansehen
Die „NullGas“-Revolution im Zahlungsbereich: Nicht nur der Umzugshelfer stabiler Münzen, sondern auch das Bestands-Spiel von Layer1In den letzten Monaten bleibt das leidigste Problem bei On-Chain-Interaktionen das altbekannte Thema – die Gasgebühren. Obwohl der Boom von L2 die Gebühren gesenkt hat, ist für normale Benutzer, die mit USDT einen Kaffee kaufen oder Freunden Geld überweisen möchten, selbst ein Verlust von 0,1 Dollar psychologisch ein Hindernis. Ganz zu schweigen davon, dass man, um ein U zu überweisen, zuerst an die Börse gehen muss, um etwas ETH oder SOL als Treibstoff zu kaufen; diese menschenunwürdige Logik ist einfach der größte Stolperstein auf dem Weg von Web3 zur Massenakzeptanz. Während alle weiterhin hitzig über das Zentralisierungsproblem der Layer 2-Orderer diskutieren, hat eine Layer 1, die sich auf „stabile Münzen“ konzentriert, still und heimlich das Licht der Welt erblickt und versucht, mit dem „NullGas“-Schlagmittel die Zahlungslandschaft neu zu gestalten.

Die „NullGas“-Revolution im Zahlungsbereich: Nicht nur der Umzugshelfer stabiler Münzen, sondern auch das Bestands-Spiel von Layer1

In den letzten Monaten bleibt das leidigste Problem bei On-Chain-Interaktionen das altbekannte Thema – die Gasgebühren. Obwohl der Boom von L2 die Gebühren gesenkt hat, ist für normale Benutzer, die mit USDT einen Kaffee kaufen oder Freunden Geld überweisen möchten, selbst ein Verlust von 0,1 Dollar psychologisch ein Hindernis. Ganz zu schweigen davon, dass man, um ein U zu überweisen, zuerst an die Börse gehen muss, um etwas ETH oder SOL als Treibstoff zu kaufen; diese menschenunwürdige Logik ist einfach der größte Stolperstein auf dem Weg von Web3 zur Massenakzeptanz. Während alle weiterhin hitzig über das Zentralisierungsproblem der Layer 2-Orderer diskutieren, hat eine Layer 1, die sich auf „stabile Münzen“ konzentriert, still und heimlich das Licht der Welt erblickt und versucht, mit dem „NullGas“-Schlagmittel die Zahlungslandschaft neu zu gestalten.
Übersetzen
并不是所有的ZK公链都能吃下合规金融这块蛋糕:从技术架构视角审视Dusk的长期护城河搞区块链研究这么久,最怕听到“下一代以太坊”这种陈词滥调。现在的市场不需要另一个以太坊,需要的是能解决具体问题的特种兵。最近深入剖析了Dusk Network的底层架构,我的第一感觉是:这项目方心挺大,想吃的蛋糕是传统金融那块最硬的骨头。RWA现在是个热词,谁都想蹭,但真正能从底层VM(虚拟机)设计上就为合规金融考虑的,Dusk算是一个极其稀缺的样本。 咱们先抛开那些市场噪音,直接看技术本质。Dusk最让我感兴趣的是它的Piecrust虚拟机。这不是简单的EVM分叉,而是一个基于WASM的定制环境,专门为了零知识证明(ZK)做了优化。我试着去读了一下他们的技术文档,发现这个VM有一个极具野心的特性:它把内存映射用到了极致。什么意思呢?就是智能合约的数据读取速度会非常快,因为它是零拷贝的。这在处理高频金融交易时简直是降维打击。现在的以太坊Layer 2虽然快,但在状态读取和写入上依然有瓶颈,而Piecrust的设计思路显然是为了应对大规模账本更新的。 这就引出了一个核心问题:为什么我们需要一条专门的隐私公链来做RWA?用现成的Polygon或者Solana不行吗?行,但很勉强。我在对比Polygon的ZK方案时发现,Polygon更多是把ZK作为扩容手段,隐私属性是附加的工具(比如Polygon ID)。而Dusk是把ZK作为共识和交易结构的基础。在Dusk上,隐私是默认选项,而不是可选项。这对于机构投资者来说差别巨大。机构不仅仅是想隐藏交易金额,他们甚至想隐藏交易模式。如果你用以太坊,哪怕你把金额混币了,你的交互对象、交互频率依然是公开的,这种元数据泄露在金融战里是致命的。Dusk的架构设计似乎就在堵这个漏洞。 但我必须得吐槽一下,Dusk的开发周期拉得实在是太长了。作为一个长期观察者,这种等待有时候非常煎熬。虽然他们在GitHub上的代码提交频率很高,说明团队确实在干活,没有跑路,但这种“精雕细琢”在币圈这个一天人间一年的环境里,很容易耗尽社区的耐心。我看到社区里时不时有负面情绪,觉得主网遥遥无期,这种情绪是真实的,也是项目方需要直面的挑战。 再来看看它的竞品Secret Network。Secret用的是TEE(可信执行环境)也就是Intel SGX硬件来实现隐私。这种方案落地快,容易兼容,但它有个致命伤:它依赖硬件厂商。Intel如果有后门,或者SGX被侧信道攻击破解(历史上发生过),整个网络的安全基础就没了。Dusk用的是纯密码学方案(ZK),不依赖特定硬件。从第一性原理来看,数学比硬件更值得信任。虽然数学方案的计算开销大,开发难度高,但它的安全性护城河要深得多。这是一个典型的“难而正确”的选择。 在测试Dusk的节点部署时,我发现他们的经济模型设计也有点意思。节点不仅验证交易,还要参与零知识证明的生成。这意味着对节点的硬件要求比普通的PoS链要高一些,主要是CPU要强。这可能会导致节点运营的门槛提升,进而影响去中心化程度。不过反过想,既然是做合规金融,节点稍微专业化一点也未必是坏事。只要不变成完全的中心化服务器,这种基于性能的准入壁垒反而能保证网络的稳定性。 还有一个我非常关注的点是它的XSC标准(Confidential Security Contract)。这东西简直就是为了证券代币量身定做的。它允许发行方在代币里写入规则,比如“该代币只能在欧洲交易时间段转让”或者“持有者必须通过某某级别的KYC”。这些规则是写死的,由网络强制执行。这比在链下搞合规,然后上链同步数据要靠谱得多。现在的很多RWA项目其实是“链下记账,链上确权”,中间有一个巨大的信任黑箱。Dusk试图把这个黑箱也变成透明的代码逻辑(虽然数据是隐私的),这个方向绝对是对的。 不过,我也发现了一些在实际操作中的潜在阻力。合规不仅仅是代码问题,更是法律问题。Dusk的技术确实能支持合规,但各国法律千差万别。欧洲的MiCA法案出来后,Dusk这种欧洲背景的项目肯定是有主场优势的。但如果到了美国,SEC那一套豪无逻辑的监管大棒打下来,Dusk这种强调隐私的公链能不能扛得住,还是个未知数。毕竟,隐私和监管在某种程度上是零和博弈,Dusk试图找到平衡点,但这个平衡点非常脆弱。 另外,从开发者生态来看,Dusk目前的工具链还比较原始。不像以太坊有Hardhat、Foundry这种神级工具,也不像Solana有Anchor。在Dusk上写合约,你得做好当“拓荒者”的准备。遇到bug可能搜不到StackOverflow的答案,得直接去Discord问核心开发者。这对于想快速发币的项目方来说是个劝退项,但对于真正想做复杂金融应用的团队来说,这种门槛反而筛选掉了一批垃圾项目。 我在研究他们的共识机制时,还发现了一个很有意思的细节:Provisioners(供应者)和Block Generators(区块生成者)的分离。这种角色分离的设计是为了防止MEV(最大可提取价值)攻击。在金融链上,抢跑交易是非常恶心的行为。通过这种随机抽签和角色分离,Dusk试图在协议层减少MEV的可能性。这一点虽然不如Flashbots那种市场化解决方案来得直观,但它从根源上尝试解决公平性问题,值得点赞。 总而言之,Dusk给我的感觉像是一个严谨的德国工程师造出来的精密仪器,而不是硅谷那种快速迭代出来的消费电子品。它的每一个齿轮(PLONK、Piecrust、SA共识)都咬合得很紧密。虽然它现在还没法像Solana那样每秒处理几万笔交易,也没有以太坊那么丰富的DApp生态,但在RWA这个垂直赛道,它的专业度和技术深度是具备垄断潜力的。当然,前提是它能顺利跨过主网启动这道坎,并且在合规的迷雾中找到一条不被封杀的出路。对于技术信仰者来说,这是一个值得深入钻研的样本;但对于急功近利的投机者,它可能会让你觉得枯躁乏味。但这正是它的魅力所在,不是吗? $DUSK {future}(DUSKUSDT) #Dusk @Dusk_Foundation

并不是所有的ZK公链都能吃下合规金融这块蛋糕:从技术架构视角审视Dusk的长期护城河

搞区块链研究这么久,最怕听到“下一代以太坊”这种陈词滥调。现在的市场不需要另一个以太坊,需要的是能解决具体问题的特种兵。最近深入剖析了Dusk Network的底层架构,我的第一感觉是:这项目方心挺大,想吃的蛋糕是传统金融那块最硬的骨头。RWA现在是个热词,谁都想蹭,但真正能从底层VM(虚拟机)设计上就为合规金融考虑的,Dusk算是一个极其稀缺的样本。
咱们先抛开那些市场噪音,直接看技术本质。Dusk最让我感兴趣的是它的Piecrust虚拟机。这不是简单的EVM分叉,而是一个基于WASM的定制环境,专门为了零知识证明(ZK)做了优化。我试着去读了一下他们的技术文档,发现这个VM有一个极具野心的特性:它把内存映射用到了极致。什么意思呢?就是智能合约的数据读取速度会非常快,因为它是零拷贝的。这在处理高频金融交易时简直是降维打击。现在的以太坊Layer 2虽然快,但在状态读取和写入上依然有瓶颈,而Piecrust的设计思路显然是为了应对大规模账本更新的。
这就引出了一个核心问题:为什么我们需要一条专门的隐私公链来做RWA?用现成的Polygon或者Solana不行吗?行,但很勉强。我在对比Polygon的ZK方案时发现,Polygon更多是把ZK作为扩容手段,隐私属性是附加的工具(比如Polygon ID)。而Dusk是把ZK作为共识和交易结构的基础。在Dusk上,隐私是默认选项,而不是可选项。这对于机构投资者来说差别巨大。机构不仅仅是想隐藏交易金额,他们甚至想隐藏交易模式。如果你用以太坊,哪怕你把金额混币了,你的交互对象、交互频率依然是公开的,这种元数据泄露在金融战里是致命的。Dusk的架构设计似乎就在堵这个漏洞。
但我必须得吐槽一下,Dusk的开发周期拉得实在是太长了。作为一个长期观察者,这种等待有时候非常煎熬。虽然他们在GitHub上的代码提交频率很高,说明团队确实在干活,没有跑路,但这种“精雕细琢”在币圈这个一天人间一年的环境里,很容易耗尽社区的耐心。我看到社区里时不时有负面情绪,觉得主网遥遥无期,这种情绪是真实的,也是项目方需要直面的挑战。
再来看看它的竞品Secret Network。Secret用的是TEE(可信执行环境)也就是Intel SGX硬件来实现隐私。这种方案落地快,容易兼容,但它有个致命伤:它依赖硬件厂商。Intel如果有后门,或者SGX被侧信道攻击破解(历史上发生过),整个网络的安全基础就没了。Dusk用的是纯密码学方案(ZK),不依赖特定硬件。从第一性原理来看,数学比硬件更值得信任。虽然数学方案的计算开销大,开发难度高,但它的安全性护城河要深得多。这是一个典型的“难而正确”的选择。
在测试Dusk的节点部署时,我发现他们的经济模型设计也有点意思。节点不仅验证交易,还要参与零知识证明的生成。这意味着对节点的硬件要求比普通的PoS链要高一些,主要是CPU要强。这可能会导致节点运营的门槛提升,进而影响去中心化程度。不过反过想,既然是做合规金融,节点稍微专业化一点也未必是坏事。只要不变成完全的中心化服务器,这种基于性能的准入壁垒反而能保证网络的稳定性。
还有一个我非常关注的点是它的XSC标准(Confidential Security Contract)。这东西简直就是为了证券代币量身定做的。它允许发行方在代币里写入规则,比如“该代币只能在欧洲交易时间段转让”或者“持有者必须通过某某级别的KYC”。这些规则是写死的,由网络强制执行。这比在链下搞合规,然后上链同步数据要靠谱得多。现在的很多RWA项目其实是“链下记账,链上确权”,中间有一个巨大的信任黑箱。Dusk试图把这个黑箱也变成透明的代码逻辑(虽然数据是隐私的),这个方向绝对是对的。
不过,我也发现了一些在实际操作中的潜在阻力。合规不仅仅是代码问题,更是法律问题。Dusk的技术确实能支持合规,但各国法律千差万别。欧洲的MiCA法案出来后,Dusk这种欧洲背景的项目肯定是有主场优势的。但如果到了美国,SEC那一套豪无逻辑的监管大棒打下来,Dusk这种强调隐私的公链能不能扛得住,还是个未知数。毕竟,隐私和监管在某种程度上是零和博弈,Dusk试图找到平衡点,但这个平衡点非常脆弱。
另外,从开发者生态来看,Dusk目前的工具链还比较原始。不像以太坊有Hardhat、Foundry这种神级工具,也不像Solana有Anchor。在Dusk上写合约,你得做好当“拓荒者”的准备。遇到bug可能搜不到StackOverflow的答案,得直接去Discord问核心开发者。这对于想快速发币的项目方来说是个劝退项,但对于真正想做复杂金融应用的团队来说,这种门槛反而筛选掉了一批垃圾项目。
我在研究他们的共识机制时,还发现了一个很有意思的细节:Provisioners(供应者)和Block Generators(区块生成者)的分离。这种角色分离的设计是为了防止MEV(最大可提取价值)攻击。在金融链上,抢跑交易是非常恶心的行为。通过这种随机抽签和角色分离,Dusk试图在协议层减少MEV的可能性。这一点虽然不如Flashbots那种市场化解决方案来得直观,但它从根源上尝试解决公平性问题,值得点赞。
总而言之,Dusk给我的感觉像是一个严谨的德国工程师造出来的精密仪器,而不是硅谷那种快速迭代出来的消费电子品。它的每一个齿轮(PLONK、Piecrust、SA共识)都咬合得很紧密。虽然它现在还没法像Solana那样每秒处理几万笔交易,也没有以太坊那么丰富的DApp生态,但在RWA这个垂直赛道,它的专业度和技术深度是具备垄断潜力的。当然,前提是它能顺利跨过主网启动这道坎,并且在合规的迷雾中找到一条不被封杀的出路。对于技术信仰者来说,这是一个值得深入钻研的样本;但对于急功近利的投机者,它可能会让你觉得枯躁乏味。但这正是它的魅力所在,不是吗?
$DUSK
#Dusk @Dusk_Foundation
Original ansehen
Binance erweitert weiterhin sein Produktportfolio und kündigt an, dass Frax (FRAX) in mehreren Bereichen wie Vermögensverwaltung, One-Click-Krypto-Kauf, Margin-Trading und Futures-Trading eingeführt wird. Gleichzeitig ist das Upgrade von THORChain (RUNE) für den 23. Januar um 08:00 Uhr nach Beijing-Zeit geplant, währenddessen werden Einzahlungs- und Abhebungsdienste ausgesetzt, aber der Handel bleibt unbeeinträchtigt. Bitget hat auch neue Kryptowährungen wie ETHGas (GWEI) und Seeker (SKR) im Innovationsbereich eingeführt, was die schnelle Reaktion der Börse auf neue Markttrends zeigt. $BTC {future}(BTCUSDT)
Binance erweitert weiterhin sein Produktportfolio und kündigt an, dass Frax (FRAX) in mehreren Bereichen wie Vermögensverwaltung, One-Click-Krypto-Kauf, Margin-Trading und Futures-Trading eingeführt wird. Gleichzeitig ist das Upgrade von THORChain (RUNE) für den 23. Januar um 08:00 Uhr nach Beijing-Zeit geplant, währenddessen werden Einzahlungs- und Abhebungsdienste ausgesetzt, aber der Handel bleibt unbeeinträchtigt. Bitget hat auch neue Kryptowährungen wie ETHGas (GWEI) und Seeker (SKR) im Innovationsbereich eingeführt, was die schnelle Reaktion der Börse auf neue Markttrends zeigt. $BTC
Original ansehen
In den letzten Tagen haben wir intensiv die USDT-Überweisungen des Plasma-Hauptnetzes getestet, und es fühlt sich tatsächlich nach etwas Bedeutendem an. Das Design mit der nativen Integration des Paymasters hat die Eintrittshürde für Benutzer direkt auf den Boden gesenkt. Im Vergleich zu Tron, das ständig eine Menge TRX verbrennen muss, oder zu den schmerzhaften Interaktionskosten des Ethereum-Hauptnetzes, ist die nahezu kostenlose Erfahrung von Plasma ein echter Game-Changer im Zahlungssektor. Früher, als ich Optimism verwendet habe, waren die Gebühren zwar niedrig, aber ich musste ständig auf meinen ETH-Saldo achten; diese psychische Belastung ist hier völlig verschwunden. Allerdings habe ich beim intensiven Gebrauch auch Probleme festgestellt. Obwohl es als null Gas bezeichnet wird, spürt man bei Hochfrequenzoperationen deutlich, dass die Geschwindigkeitsbeschränkung in Kraft ist; die Knoten-Synchronisierung kann manchmal unerklärlicherweise stocken, ich weiß nicht, ob die Strategie gegen Hexenangriffe zu aggressiv ist. Außerdem ist das Phänomen der lahmen Ökosysteme ziemlich ernst; abgesehen von den wenigen DeFi-Riesen Aave und Pendle, die die Szene stützen, gibt es kaum natives innovatives DApp. Wenn sich dieser Zustand des "Infrastruktur-Wahnsinns, ökologischen Deserts" nicht ändert, wird es schwer sein, wirklich aktive Benutzer zu halten. Schließlich kommen die Leute nicht nur, um ein paar Gebühren zu sparen, sondern auch, um Geld zu verdienen. Der aktuelle Preisverlauf ist auch ziemlich schwer zu verstehen; obwohl die TVL-Daten so stark sind, fällt der Sekundärmarkt kontinuierlich, diese Abweichung lässt einen wirklich frustriert zurück. @Plasma $XPL {future}(XPLUSDT) #plasma
In den letzten Tagen haben wir intensiv die USDT-Überweisungen des Plasma-Hauptnetzes getestet, und es fühlt sich tatsächlich nach etwas Bedeutendem an. Das Design mit der nativen Integration des Paymasters hat die Eintrittshürde für Benutzer direkt auf den Boden gesenkt. Im Vergleich zu Tron, das ständig eine Menge TRX verbrennen muss, oder zu den schmerzhaften Interaktionskosten des Ethereum-Hauptnetzes, ist die nahezu kostenlose Erfahrung von Plasma ein echter Game-Changer im Zahlungssektor. Früher, als ich Optimism verwendet habe, waren die Gebühren zwar niedrig, aber ich musste ständig auf meinen ETH-Saldo achten; diese psychische Belastung ist hier völlig verschwunden.
Allerdings habe ich beim intensiven Gebrauch auch Probleme festgestellt. Obwohl es als null Gas bezeichnet wird, spürt man bei Hochfrequenzoperationen deutlich, dass die Geschwindigkeitsbeschränkung in Kraft ist; die Knoten-Synchronisierung kann manchmal unerklärlicherweise stocken, ich weiß nicht, ob die Strategie gegen Hexenangriffe zu aggressiv ist. Außerdem ist das Phänomen der lahmen Ökosysteme ziemlich ernst; abgesehen von den wenigen DeFi-Riesen Aave und Pendle, die die Szene stützen, gibt es kaum natives innovatives DApp. Wenn sich dieser Zustand des "Infrastruktur-Wahnsinns, ökologischen Deserts" nicht ändert, wird es schwer sein, wirklich aktive Benutzer zu halten. Schließlich kommen die Leute nicht nur, um ein paar Gebühren zu sparen, sondern auch, um Geld zu verdienen. Der aktuelle Preisverlauf ist auch ziemlich schwer zu verstehen; obwohl die TVL-Daten so stark sind, fällt der Sekundärmarkt kontinuierlich, diese Abweichung lässt einen wirklich frustriert zurück.
@Plasma $XPL
#plasma
Übersetzen
隐私与合规的走钢丝艺术:深度复盘Dusk Network在RWA赛道的技术博弈与潜在摩擦最近盯着RWA(现实世界资产)赛道看了很久,贝莱德入场确实把水搅浑了,但也把原本模糊的路径给洗清楚了。大家都在喊资产上链,但鲜少有人真正去抠这背后的技术逻辑——尤其是隐私和合规这对天然的死对头究竟该怎么共存。我看了一圈市面上的Layer 1,Dusk Network引起了我的注意,不是因为它那个听起来有点黄昏感的名子,而是它在ZK(零知识证明)技术栈上的激进选择。 咱们得说实话,现在的RWA项目大部分是在以太坊上套个壳,搞个白名单合约就完事了。这种做法在技术上其实非常偷懒,而且根本解决不了机构进场的真正痛点:数据隐私。摩根大通或者汇丰这种体量的资金,是不可能把自己的交易策略和资金流向暴露在公链浏览器上的,哪怕是匿名的地址也不行,链上分析工具现在太强大了。这就引出了Dusk的核心卖点,它试图在协议层直接解决这个问题。深入研究了他们的技术白皮书和GitHub库,我发现他们用的PLONK证明系统有点意思。相比于老一代的ZK-SNARKs,PLONK的通用参考字符串(SRS)是可以更新的,这意味着不用每次升级都搞一次可信设置仪式,这对于需要频繁适应监管政策变化的金融公链来说,几乎是必须的。 拿着它跟Mina Protocol做个对比非常有意思。Mina主打的是轻量级,号称22kb的区块链,它的技术极简主义确实很性感,但在承载复杂金融逻辑时,Mina的递归证明虽然强,却缺乏针对“合规”特性的原生支持。Dusk虽然重一些,但它把合规逻辑写进了协议层。这就好比Mina是个极致轻便的跑车,而Dusk是一辆装甲运钞车。在DeFi世界里大家喜欢跑车,但在RegDeFi(合规去中心化金融)里,运钞车才是刚需。 我测试了他们的测试网,虽然节点同步速度偶尔会让人抓狂,甚至出现过几次卡顿(不知道是不是为了测试抗压性),但一旦同步完成,交易的隐私保护体验是非常顺滑的。这里有个技术细节很多人忽略了,Dusk并没有把所有东西都加密。它采用了一种混合模型,公共数据和私有数据共存。这一点比Monero那种全盘隐私更符合现实商业逻辑。监管机构需要看的时候,可以通过特定的Viewing Key查看,而竞争对手看不见。这种“可审计的隐私”才是RWA赛道的圣杯。 不过,我也发现了一些隐忧。Dusk自研的Piecrust虚拟机虽然宣称是零知识友好的,而且基于WASM,理论上速度很快。但在实际开发体验上,文档的颗粒度还不够细。习惯了EVM(以太坊虚拟机)的开发者转过来会有很强的摩擦感。我在尝试部署一个简单的资产发行合约时,遇到了一些编译器报错,排查了半天才发现是对ZK电路的约束条件理解有偏差。这意味着Dusk的生态建设门槛比兼容EVM的链要高不少。相比之下,Polygon也在搞ZK,而且Polygon ID的方案直接通过身份层解决合规问题,虽然架构不如Dusk底层的原生集成那么优雅,但Polygon的开发者生态太庞大了,这这种网络效应是Dusk目前最大的短板。 说到竞品,还不得不提Polymesh。Polymesh是专门做证券型代币的,完全许可链,必须KYC才能进。它的合规做得非常死,但也正因为太死板,丧失了DeFi那种乐高积木的灵活性。Dusk处于Polymesh和以太坊中间的那个灰色地带(褒义的灰色)。它允许无许可地部署智能合约,但又能在合约层级强制执行合规标准(XSC标准)。这种设计理念非常超前,甚至有点理想主义。 我在翻阅他们最新的代码提交记录时,看到他们对零知识证明生成的优化做了很多工作,特别是利用Rust语言的特性来压榨硬件性能。这种底层优化是必要的,因为ZK证明的生成通常很吃算力,如果生成证明的时间太长,交易延迟就会高到无法接受。目前来看,Dusk在普通PC上的证明生成速度还算凑合,但如果未来面临每秒几千笔的高频交易,现在的效率还能不能扛得住,我心里是打问号的。 还有一个很有趣的点是他们的共识机制——SA(Succinct Attestation)。这是一种改进的PoS,利用了BLS签名聚合。这意味着验证者的签名可以被压缩得很小,从而减轻网络的通信负担。我看这个设计是为了防止分叉并提供即时的最终性(Finality)。在金融交易里,即时最终性太重要了,你不能让一笔百万美金的转账处于“可能被回滚”的状态。在这方面,Dusk比比特币那种概率性最终性要强得多,甚至比以太坊目前的Gasper机制在理论上也要更适合高频金融。 但是,技术再好,落地才是检验真理的唯一标准。目前RWA赛道雷声大雨点小,很多项目都在画饼。Dusk的Citadel(他们的KYC/AML解决方案)听起来很完美,能不能真正跟传统的银行系统对接顺畅,还需要打个大大的问号。银行的遗留系统是出了名的难搞,接口标准五花八门。如果Dusk只是在链上自嗨,那它永远只能是个小众的极客玩具。 再聊聊代币经济学对安全的影响。作为一条公链,安全完全依赖于节点的质押。如果Dusk的市值上不去,攻击成本就会过低。这是一个先有鸡还是先有蛋的问题。特别是在主网启动初期,如何激励足够多的分散节点加入,防止少数人控制网络,是项目方必须解决的博弈论难题。我看社区里有人抱恕激励不够明确,这确实是个风险点。 总的来说,Dusk选了一条最难的路。既要隐私,又要合规,还要保持公链的去中心化特性。这就像是在走钢丝,左边是监管的深渊,右边是无政府主义的悬崖。它的技术架构在理论上不仅站得住脚,而且非常漂亮,尤其是Piecrust VM的设计思路。但工程实现的复杂度极高,每一行代码的bug都可能导致整个隐私系统的崩塌。相比于那些直接照抄以太坊代码的项目,我对Dusk这种搞原创底层架构的团队是保持敬意的。虽然开发进度有时候慢得让人想骂人,但考虑到他们在攻克的是密码学领域的硬骨头,这种慢或许也是一种负责任的体现。 未来的竞争格局里,Dusk要想突围,必须得有一两个杀手级的RWA应用真正跑通流程,比如某个欧洲的中型银行真的用它发行了债券,并且完成了二级市场的无摩擦交易。只有那样,所有的技术优势才会转化为市场优势。否则,它可能永远只是教科书上一个完美的零知识证明应用案例,而不是改变金融格局的独角兽。我对它保持谨慎乐观,手里的测试节点还会继续跑下去,看看这帮技术狂人究竟能不能把理想照进现实。 $DUSK {spot}(DUSKUSDT) #Dusk @Dusk_Foundation

隐私与合规的走钢丝艺术:深度复盘Dusk Network在RWA赛道的技术博弈与潜在摩擦

最近盯着RWA(现实世界资产)赛道看了很久,贝莱德入场确实把水搅浑了,但也把原本模糊的路径给洗清楚了。大家都在喊资产上链,但鲜少有人真正去抠这背后的技术逻辑——尤其是隐私和合规这对天然的死对头究竟该怎么共存。我看了一圈市面上的Layer 1,Dusk Network引起了我的注意,不是因为它那个听起来有点黄昏感的名子,而是它在ZK(零知识证明)技术栈上的激进选择。
咱们得说实话,现在的RWA项目大部分是在以太坊上套个壳,搞个白名单合约就完事了。这种做法在技术上其实非常偷懒,而且根本解决不了机构进场的真正痛点:数据隐私。摩根大通或者汇丰这种体量的资金,是不可能把自己的交易策略和资金流向暴露在公链浏览器上的,哪怕是匿名的地址也不行,链上分析工具现在太强大了。这就引出了Dusk的核心卖点,它试图在协议层直接解决这个问题。深入研究了他们的技术白皮书和GitHub库,我发现他们用的PLONK证明系统有点意思。相比于老一代的ZK-SNARKs,PLONK的通用参考字符串(SRS)是可以更新的,这意味着不用每次升级都搞一次可信设置仪式,这对于需要频繁适应监管政策变化的金融公链来说,几乎是必须的。
拿着它跟Mina Protocol做个对比非常有意思。Mina主打的是轻量级,号称22kb的区块链,它的技术极简主义确实很性感,但在承载复杂金融逻辑时,Mina的递归证明虽然强,却缺乏针对“合规”特性的原生支持。Dusk虽然重一些,但它把合规逻辑写进了协议层。这就好比Mina是个极致轻便的跑车,而Dusk是一辆装甲运钞车。在DeFi世界里大家喜欢跑车,但在RegDeFi(合规去中心化金融)里,运钞车才是刚需。
我测试了他们的测试网,虽然节点同步速度偶尔会让人抓狂,甚至出现过几次卡顿(不知道是不是为了测试抗压性),但一旦同步完成,交易的隐私保护体验是非常顺滑的。这里有个技术细节很多人忽略了,Dusk并没有把所有东西都加密。它采用了一种混合模型,公共数据和私有数据共存。这一点比Monero那种全盘隐私更符合现实商业逻辑。监管机构需要看的时候,可以通过特定的Viewing Key查看,而竞争对手看不见。这种“可审计的隐私”才是RWA赛道的圣杯。
不过,我也发现了一些隐忧。Dusk自研的Piecrust虚拟机虽然宣称是零知识友好的,而且基于WASM,理论上速度很快。但在实际开发体验上,文档的颗粒度还不够细。习惯了EVM(以太坊虚拟机)的开发者转过来会有很强的摩擦感。我在尝试部署一个简单的资产发行合约时,遇到了一些编译器报错,排查了半天才发现是对ZK电路的约束条件理解有偏差。这意味着Dusk的生态建设门槛比兼容EVM的链要高不少。相比之下,Polygon也在搞ZK,而且Polygon ID的方案直接通过身份层解决合规问题,虽然架构不如Dusk底层的原生集成那么优雅,但Polygon的开发者生态太庞大了,这这种网络效应是Dusk目前最大的短板。
说到竞品,还不得不提Polymesh。Polymesh是专门做证券型代币的,完全许可链,必须KYC才能进。它的合规做得非常死,但也正因为太死板,丧失了DeFi那种乐高积木的灵活性。Dusk处于Polymesh和以太坊中间的那个灰色地带(褒义的灰色)。它允许无许可地部署智能合约,但又能在合约层级强制执行合规标准(XSC标准)。这种设计理念非常超前,甚至有点理想主义。
我在翻阅他们最新的代码提交记录时,看到他们对零知识证明生成的优化做了很多工作,特别是利用Rust语言的特性来压榨硬件性能。这种底层优化是必要的,因为ZK证明的生成通常很吃算力,如果生成证明的时间太长,交易延迟就会高到无法接受。目前来看,Dusk在普通PC上的证明生成速度还算凑合,但如果未来面临每秒几千笔的高频交易,现在的效率还能不能扛得住,我心里是打问号的。
还有一个很有趣的点是他们的共识机制——SA(Succinct Attestation)。这是一种改进的PoS,利用了BLS签名聚合。这意味着验证者的签名可以被压缩得很小,从而减轻网络的通信负担。我看这个设计是为了防止分叉并提供即时的最终性(Finality)。在金融交易里,即时最终性太重要了,你不能让一笔百万美金的转账处于“可能被回滚”的状态。在这方面,Dusk比比特币那种概率性最终性要强得多,甚至比以太坊目前的Gasper机制在理论上也要更适合高频金融。
但是,技术再好,落地才是检验真理的唯一标准。目前RWA赛道雷声大雨点小,很多项目都在画饼。Dusk的Citadel(他们的KYC/AML解决方案)听起来很完美,能不能真正跟传统的银行系统对接顺畅,还需要打个大大的问号。银行的遗留系统是出了名的难搞,接口标准五花八门。如果Dusk只是在链上自嗨,那它永远只能是个小众的极客玩具。
再聊聊代币经济学对安全的影响。作为一条公链,安全完全依赖于节点的质押。如果Dusk的市值上不去,攻击成本就会过低。这是一个先有鸡还是先有蛋的问题。特别是在主网启动初期,如何激励足够多的分散节点加入,防止少数人控制网络,是项目方必须解决的博弈论难题。我看社区里有人抱恕激励不够明确,这确实是个风险点。
总的来说,Dusk选了一条最难的路。既要隐私,又要合规,还要保持公链的去中心化特性。这就像是在走钢丝,左边是监管的深渊,右边是无政府主义的悬崖。它的技术架构在理论上不仅站得住脚,而且非常漂亮,尤其是Piecrust VM的设计思路。但工程实现的复杂度极高,每一行代码的bug都可能导致整个隐私系统的崩塌。相比于那些直接照抄以太坊代码的项目,我对Dusk这种搞原创底层架构的团队是保持敬意的。虽然开发进度有时候慢得让人想骂人,但考虑到他们在攻克的是密码学领域的硬骨头,这种慢或许也是一种负责任的体现。
未来的竞争格局里,Dusk要想突围,必须得有一两个杀手级的RWA应用真正跑通流程,比如某个欧洲的中型银行真的用它发行了债券,并且完成了二级市场的无摩擦交易。只有那样,所有的技术优势才会转化为市场优势。否则,它可能永远只是教科书上一个完美的零知识证明应用案例,而不是改变金融格局的独角兽。我对它保持谨慎乐观,手里的测试节点还会继续跑下去,看看这帮技术狂人究竟能不能把理想照进现实。
$DUSK
#Dusk @Dusk_Foundation
Übersetzen
最近 ZK 赛道简直卷成麻花了。我看很多人在奶 Aleo,毕竟融资额吓人,但其实 Dusk 在这个领域算是个“老兵”了。从技术架构看,Mina 主打的是 22kb 的恒定区块链大小,走的是极致轻量化路线;而 Dusk 显然更侧重于计算和业务逻辑的复杂性处理。 我特别关注了 Dusk 的 PLONK 算法实现。相比于早期的 Groth16,PLONK 不需要每次搞新的可信设置,这对于经常要升级协议的公链来说太重要了。但我发现社区里讨论技术的人还是偏少,大部分人只盯着币价。这其实挺危险的,因为 ZK 技术迭代极快,稍不留神就被降维打击了。 另外,我在用他们的官方钱包时,发现生成零知识证明的过程有点吃 CPU,这也算是 ZK 项目的通病吧。如果是移动端用户,体验可能会打折。Dusk 需要证明自己不仅仅是一个概念验证,而是一个能承载高并发业务的生产环境。比起 Aleo 那种大开大合的算力叙事,Dusk 这种死磕金融合规隐私的,反而可能在政策落地的空窗期找到生存空间,前提是开发进度别再拖了。 $DUSK {future}(DUSKUSDT) #Dusk @Dusk_Foundation
最近 ZK 赛道简直卷成麻花了。我看很多人在奶 Aleo,毕竟融资额吓人,但其实 Dusk 在这个领域算是个“老兵”了。从技术架构看,Mina 主打的是 22kb 的恒定区块链大小,走的是极致轻量化路线;而 Dusk 显然更侧重于计算和业务逻辑的复杂性处理。
我特别关注了 Dusk 的 PLONK 算法实现。相比于早期的 Groth16,PLONK 不需要每次搞新的可信设置,这对于经常要升级协议的公链来说太重要了。但我发现社区里讨论技术的人还是偏少,大部分人只盯着币价。这其实挺危险的,因为 ZK 技术迭代极快,稍不留神就被降维打击了。
另外,我在用他们的官方钱包时,发现生成零知识证明的过程有点吃 CPU,这也算是 ZK 项目的通病吧。如果是移动端用户,体验可能会打折。Dusk 需要证明自己不仅仅是一个概念验证,而是一个能承载高并发业务的生产环境。比起 Aleo 那种大开大合的算力叙事,Dusk 这种死磕金融合规隐私的,反而可能在政策落地的空窗期找到生存空间,前提是开发进度别再拖了。
$DUSK
#Dusk @Dusk
Übersetzen
都在喊 RWA 是牛市发动机,但我发现很多项目其实就是中心化服务器上个链而已。Dusk 提的“Segregated Byzantine Agreement”(SBA)共识机制,我看了一遍论文,核心是为了解决 PoS 的“富人统治”和隐私保护。 它这个随机抽签出块的设计,理论上能防止节点被定向攻击,因为你不知道下一个出块人是谁。这点比单纯的 DPoS 强。但我比较担心的是它的即时确定性(Instant Finality)。在金融资产交易里,不能回滚是刚需。我在测试网观察节点同步数据,感觉网络分割时的恢复速度还有待验证。相比之下,Algorand 的确定性做得确实快,但 Algorand 没有原生隐私层。 Dusk 想做证券代币化,技术栈里的机密智能合约(Confidential Smart Contracts)是杀手锏。现在的问题是,我在浏览器上查交易哈希,有时候细节显示得不够直观,这对于还要做审计的机构来说是个体验减分项。如果它真想吃下欧洲那边的受监管资产市场,客户端的稳定性还得打磨,毕竟华尔街那帮人可没耐心等区块同步。 $DUSK {future}(DUSKUSDT) #Dusk @Dusk_Foundation
都在喊 RWA 是牛市发动机,但我发现很多项目其实就是中心化服务器上个链而已。Dusk 提的“Segregated Byzantine Agreement”(SBA)共识机制,我看了一遍论文,核心是为了解决 PoS 的“富人统治”和隐私保护。
它这个随机抽签出块的设计,理论上能防止节点被定向攻击,因为你不知道下一个出块人是谁。这点比单纯的 DPoS 强。但我比较担心的是它的即时确定性(Instant Finality)。在金融资产交易里,不能回滚是刚需。我在测试网观察节点同步数据,感觉网络分割时的恢复速度还有待验证。相比之下,Algorand 的确定性做得确实快,但 Algorand 没有原生隐私层。
Dusk 想做证券代币化,技术栈里的机密智能合约(Confidential Smart Contracts)是杀手锏。现在的问题是,我在浏览器上查交易哈希,有时候细节显示得不够直观,这对于还要做审计的机构来说是个体验减分项。如果它真想吃下欧洲那边的受监管资产市场,客户端的稳定性还得打磨,毕竟华尔街那帮人可没耐心等区块同步。
$DUSK
#Dusk @Dusk
Original ansehen
Kann Vanar die nächste AI-Blockchain-Überraschung werden? Ausgehend von den ökologischen Schwächen Die technische Erzählung von Vanar ist sehr vollständig – Neutron macht semantische Kompression, Kayon sorgt für on-chain Inferenz, Axon automatisiert die Ausführung, Flows verbindet sich mit Branchenanwendungen, die fünf Schichten Architektur klingt, als wäre sie maßgeschneidert für AI-native dApps. Aber wenn man DefiLlama und die großen Ökosystem-Tracker durchforstet, sind die Protokolle, die auf Vanar laufen, sehr begrenzt, und die TVL-Rankings liegen über 200. So fortschrittlich die Technologie auch sein mag, ohne ein unterstützendes Anwendungsökosystem ist es ein Luftschloss. Wo liegt das Problem? Einerseits sind die Kosten für die Marktschulung hoch. Entwickler sind an die Toolchain von Ethereum oder BSC gewöhnt, um zu Vanar zu migrieren, müssen sie verstehen, wie Neutron Daten komprimiert und wie Kayon Anfragen stellt, die Lernkurve ist steil. Andererseits gibt es nicht genug Anreize. Uniswap kann auf Ethereum mehrere Millionen Dollar an Gebühren pro Tag verdienen, warum sollte man das Risiko eingehen, auf eine neue Kette zu wechseln, deren TVL nicht einmal 10 Millionen beträgt? Die von Vanar beworbenen Kooperationen mit Worldpay und die Unterstützung durch Movement Labs befinden sich noch auf strategischer Ebene, die tatsächlichen Nutzer- und Kapitalzuwächse sind nicht sichtbar. Der Wettbewerber ASI hat die Ressourcen dreier großer Projekte hinter sich, mit einer Marktkapitalisierung von über 500 Millionen, obwohl die Token-Migration ein Chaos verursacht hat, ist die Größe des Ökosystems offensichtlich. Bittensor hat mit seinem Anreizmechanismus viele ML-Entwickler angezogen, die Anzahl der Subnetze wächst kontinuierlich. Vanars Differenzierung liegt in der „One-Stop-AI-Stack“ und EVM-Kompatibilität, aber diese Vorteile müssen in reale Anwendungsfälle umgewandelt werden, um überzeugend zu sein. Kürzlich wurden myNeutron v1.3 und die Transformation von Vanar Vision veröffentlicht, beides positive Signale, aber von der technischen Demonstration zur großflächigen Adoption liegen noch einige Hürden dazwischen. Ehrlich gesagt, wirkt Vanar derzeit eher wie ein technisches Testfeld, geeignet für frühzeitige Entwickler, die bereit sind, Neues auszuprobieren. Wenn in diesem Jahr einige DeFi- oder GameFi-Projekte mit einem TVL von mehreren Millionen erfolgreich umgesetzt werden können, um zu beweisen, dass Kayons on-chain Inferenz einen geschäftlichen Kreislauf durchlaufen kann, dann könnte es wirklich Fuß fassen. Andernfalls ist die Abhebung von Perpetual Contracts nur der erste Schritt, und es könnten noch mehr Liquiditätsherausforderungen folgen. Damit ein technischer Dunkelhengst zum Marktüberraschungsreiter wird, muss er mit Daten sprechen. @Vanar $VANRY {spot}(VANRYUSDT) #Vanar
Kann Vanar die nächste AI-Blockchain-Überraschung werden? Ausgehend von den ökologischen Schwächen
Die technische Erzählung von Vanar ist sehr vollständig – Neutron macht semantische Kompression, Kayon sorgt für on-chain Inferenz, Axon automatisiert die Ausführung, Flows verbindet sich mit Branchenanwendungen, die fünf Schichten Architektur klingt, als wäre sie maßgeschneidert für AI-native dApps. Aber wenn man DefiLlama und die großen Ökosystem-Tracker durchforstet, sind die Protokolle, die auf Vanar laufen, sehr begrenzt, und die TVL-Rankings liegen über 200. So fortschrittlich die Technologie auch sein mag, ohne ein unterstützendes Anwendungsökosystem ist es ein Luftschloss.
Wo liegt das Problem? Einerseits sind die Kosten für die Marktschulung hoch. Entwickler sind an die Toolchain von Ethereum oder BSC gewöhnt, um zu Vanar zu migrieren, müssen sie verstehen, wie Neutron Daten komprimiert und wie Kayon Anfragen stellt, die Lernkurve ist steil. Andererseits gibt es nicht genug Anreize. Uniswap kann auf Ethereum mehrere Millionen Dollar an Gebühren pro Tag verdienen, warum sollte man das Risiko eingehen, auf eine neue Kette zu wechseln, deren TVL nicht einmal 10 Millionen beträgt? Die von Vanar beworbenen Kooperationen mit Worldpay und die Unterstützung durch Movement Labs befinden sich noch auf strategischer Ebene, die tatsächlichen Nutzer- und Kapitalzuwächse sind nicht sichtbar.
Der Wettbewerber ASI hat die Ressourcen dreier großer Projekte hinter sich, mit einer Marktkapitalisierung von über 500 Millionen, obwohl die Token-Migration ein Chaos verursacht hat, ist die Größe des Ökosystems offensichtlich. Bittensor hat mit seinem Anreizmechanismus viele ML-Entwickler angezogen, die Anzahl der Subnetze wächst kontinuierlich. Vanars Differenzierung liegt in der „One-Stop-AI-Stack“ und EVM-Kompatibilität, aber diese Vorteile müssen in reale Anwendungsfälle umgewandelt werden, um überzeugend zu sein. Kürzlich wurden myNeutron v1.3 und die Transformation von Vanar Vision veröffentlicht, beides positive Signale, aber von der technischen Demonstration zur großflächigen Adoption liegen noch einige Hürden dazwischen.
Ehrlich gesagt, wirkt Vanar derzeit eher wie ein technisches Testfeld, geeignet für frühzeitige Entwickler, die bereit sind, Neues auszuprobieren. Wenn in diesem Jahr einige DeFi- oder GameFi-Projekte mit einem TVL von mehreren Millionen erfolgreich umgesetzt werden können, um zu beweisen, dass Kayons on-chain Inferenz einen geschäftlichen Kreislauf durchlaufen kann, dann könnte es wirklich Fuß fassen. Andernfalls ist die Abhebung von Perpetual Contracts nur der erste Schritt, und es könnten noch mehr Liquiditätsherausforderungen folgen. Damit ein technischer Dunkelhengst zum Marktüberraschungsreiter wird, muss er mit Daten sprechen.
@Vanarchain $VANRY
#Vanar
Übersetzen
现在的ZK(零知识证明)赛道简直卷出了天际,zkSync、Starknet、Scroll都在争L2的老大,Polygon也在搞ZKEVM。在这种神仙打架的背景下,Dusk作为一个独立的L1显得有点孤勇。很多人问我为什么不直接用以太坊L2?逻辑很简单,L2的隐私是打补丁,L1的隐私是基因。 我在分析Dusk的经济模型时发现,它把隐私计算的成本直接计入了Gas费模型里,这比L2上那种还需要向L1交租的模式经济模型更闭环。而且,Dusk专注的是垂直领域的金融隐私,而不是像Aleo那样做一个通用的隐私计算平台。通用的往往意味著臃肿,垂直的反而能做到极致的性能。我在使用过程中发现它的最终确定性(Finality)非常快,这对于交易结算至关重要。当然,缺点也有,就是生态目前的孤岛效应。没有了以太坊庞大的流动性支持,Dusk需要自己去通过跨链桥把资产引进来,这在初期会非常难。但我厌倦了那些套娃式的L2叙事,这种原生的、底层的、带点合规洁癖的链,反而给了我一种当年看早期以太坊的感觉。可能会失败,但绝对不是空气。 $DUSK {future}(DUSKUSDT) #Dusk @Dusk_Foundation
现在的ZK(零知识证明)赛道简直卷出了天际,zkSync、Starknet、Scroll都在争L2的老大,Polygon也在搞ZKEVM。在这种神仙打架的背景下,Dusk作为一个独立的L1显得有点孤勇。很多人问我为什么不直接用以太坊L2?逻辑很简单,L2的隐私是打补丁,L1的隐私是基因。
我在分析Dusk的经济模型时发现,它把隐私计算的成本直接计入了Gas费模型里,这比L2上那种还需要向L1交租的模式经济模型更闭环。而且,Dusk专注的是垂直领域的金融隐私,而不是像Aleo那样做一个通用的隐私计算平台。通用的往往意味著臃肿,垂直的反而能做到极致的性能。我在使用过程中发现它的最终确定性(Finality)非常快,这对于交易结算至关重要。当然,缺点也有,就是生态目前的孤岛效应。没有了以太坊庞大的流动性支持,Dusk需要自己去通过跨链桥把资产引进来,这在初期会非常难。但我厌倦了那些套娃式的L2叙事,这种原生的、底层的、带点合规洁癖的链,反而给了我一种当年看早期以太坊的感觉。可能会失败,但绝对不是空气。
$DUSK
#Dusk @Dusk
Übersetzen
大家都在谈 Web3 的数据主权,但很少人算过一笔账:把一张 4K 图片存到链上到底要花多少钱?如果用 Arweave,那是一次性买断,贵得离谱;用 AWS S3,那是中心化垄断。最近试用了 Walrus 的 Blob 存储功能,感觉它终于在成本和去中心化之间找到了一个平衡点。 在对比 BNB Greenfield 时,我发现 Walrus 与 Sui 的结合紧密度更高。Greenfield 虽然背靠大树,但在跨链原子性操作上,总感觉隔着一层纱。而 Walrus 的设计逻辑是,存储本身不应该成为计算的累赘。我在写代码调用 API 时,发现它的响应延迟比 IPFS 的 DHT 查找要快很多,这对于即时性要求高的 DApp 来说太重要了。当然,测试过程中也发现了一些 Bug,比如上传超大文件时偶尔会断连,CLI 工具的报错信息也经长让人摸不着头脑,显示一堆乱码。但从技术底层看,这种将存储层与执行层解耦,同时又利用 Sui 的共识来确权的思路,绝对是未来的方向。咱们不吹不黑,只要正式网上线能保持这个吞吐量,这东西能打。 @WalrusProtocol $WAL {future}(WALUSDT) #Walrus
大家都在谈 Web3 的数据主权,但很少人算过一笔账:把一张 4K 图片存到链上到底要花多少钱?如果用 Arweave,那是一次性买断,贵得离谱;用 AWS S3,那是中心化垄断。最近试用了 Walrus 的 Blob 存储功能,感觉它终于在成本和去中心化之间找到了一个平衡点。
在对比 BNB Greenfield 时,我发现 Walrus 与 Sui 的结合紧密度更高。Greenfield 虽然背靠大树,但在跨链原子性操作上,总感觉隔着一层纱。而 Walrus 的设计逻辑是,存储本身不应该成为计算的累赘。我在写代码调用 API 时,发现它的响应延迟比 IPFS 的 DHT 查找要快很多,这对于即时性要求高的 DApp 来说太重要了。当然,测试过程中也发现了一些 Bug,比如上传超大文件时偶尔会断连,CLI 工具的报错信息也经长让人摸不着头脑,显示一堆乱码。但从技术底层看,这种将存储层与执行层解耦,同时又利用 Sui 的共识来确权的思路,绝对是未来的方向。咱们不吹不黑,只要正式网上线能保持这个吞吐量,这东西能打。
@Walrus 🦭/acc $WAL
#Walrus
Übersetzen
研究了一晚上 Dusk 的 Rusk VM,脑瓜子嗡嗡的。现在的公链都在卷 EVM 兼容,毕竟为了虹吸以太坊的开发者资源,只有 Dusk 头铁,搞了个基于零知识证明优化的虚拟机。 从技术上讲,EVM 确实没法高效处理 ZK 电路,硬要在以太坊上跑隐私计算,Gas 费能贵到让你怀疑人生。Dusk 的 Piecrust 也就是 Rusk 的核心,利用了零知识证明友好的哈希函数,这点和 Mina 有点像,都是追求轻量级验证。但我实际测试写合约的时候发现,工具链还没跟上,Rust 相关的库有点缺,写起来比 Solidity 费劲多了。 这就很尴尬,技术逻辑上它是对的,为了 ZK 必须重构 VM;但生态逻辑上,这极大地提高了门槛。我看他们最近也在推 ZK-Rollup 的相关研究,可能是意识到了 Layer 1 孤岛的问题。如果把它和 Aztec 做对比,Dusk 作为独立公链的优势是资产原生隐私,不像 Layer 2 那样还得跨来跨去。但这把双刃剑能不能舞好,还得看后面开发者激励给得够不够,不然空有高性能 VM 没人写代码也是白搭。 $DUSK {future}(DUSKUSDT) #Dusk @Dusk_Foundation
研究了一晚上 Dusk 的 Rusk VM,脑瓜子嗡嗡的。现在的公链都在卷 EVM 兼容,毕竟为了虹吸以太坊的开发者资源,只有 Dusk 头铁,搞了个基于零知识证明优化的虚拟机。
从技术上讲,EVM 确实没法高效处理 ZK 电路,硬要在以太坊上跑隐私计算,Gas 费能贵到让你怀疑人生。Dusk 的 Piecrust 也就是 Rusk 的核心,利用了零知识证明友好的哈希函数,这点和 Mina 有点像,都是追求轻量级验证。但我实际测试写合约的时候发现,工具链还没跟上,Rust 相关的库有点缺,写起来比 Solidity 费劲多了。
这就很尴尬,技术逻辑上它是对的,为了 ZK 必须重构 VM;但生态逻辑上,这极大地提高了门槛。我看他们最近也在推 ZK-Rollup 的相关研究,可能是意识到了 Layer 1 孤岛的问题。如果把它和 Aztec 做对比,Dusk 作为独立公链的优势是资产原生隐私,不像 Layer 2 那样还得跨来跨去。但这把双刃剑能不能舞好,还得看后面开发者激励给得够不够,不然空有高性能 VM 没人写代码也是白搭。
$DUSK
#Dusk @Dusk
Übersetzen
最近在看隐私公链的底层架构,说实话,大部分项目都走的是“极客无政府主义”路线,像 Monero 或是早期的 Tornado Cash,主打一个谁也查不到。但 Dusk 这个思路挺有意思,它非要在隐私里塞进“合规”两个字。乍一听觉得这不就是个悖论吗?但我跑了一下他们的 Piecrust 虚拟机,确实发现点东西。 相比于 Secret Network 那种基于 TEE(可信执行环境)的方案,Dusk 直接在 Layer 1 用 ZK-SNARKs 做隐私,安全性确实更 Native 一些。我最直观的感受是,它的 Citadel 协议试图解决一个痛点:机构想进 DeFi,但过不了 KYC 就进不来;进了 KYC 又怕链上裸奔。Dusk 做的就是把 KYC 证明上链,但身份信息不上链。 不过在测试网交互的时候,感觉 TPS 并不像白皮书吹得那么稳,偶尔会有突发性的延迟。而且这种“合规隐私”能不能被强调抗审查的 Crypto 核心圈子接受,真的很难讲。竞品里 Aleo 也在搞可编程隐私,资金体量比 Dusk 大得多,Dusk 现在的优势可能就在于它在这个 RWA(现实资产上链)垂直领域的积淀更深。技术是好技术,就是文档写得太晦涩了,对开发者不太友好,这是硬伤。 $DUSK {future}(DUSKUSDT) #Dusk @Dusk_Foundation
最近在看隐私公链的底层架构,说实话,大部分项目都走的是“极客无政府主义”路线,像 Monero 或是早期的 Tornado Cash,主打一个谁也查不到。但 Dusk 这个思路挺有意思,它非要在隐私里塞进“合规”两个字。乍一听觉得这不就是个悖论吗?但我跑了一下他们的 Piecrust 虚拟机,确实发现点东西。
相比于 Secret Network 那种基于 TEE(可信执行环境)的方案,Dusk 直接在 Layer 1 用 ZK-SNARKs 做隐私,安全性确实更 Native 一些。我最直观的感受是,它的 Citadel 协议试图解决一个痛点:机构想进 DeFi,但过不了 KYC 就进不来;进了 KYC 又怕链上裸奔。Dusk 做的就是把 KYC 证明上链,但身份信息不上链。
不过在测试网交互的时候,感觉 TPS 并不像白皮书吹得那么稳,偶尔会有突发性的延迟。而且这种“合规隐私”能不能被强调抗审查的 Crypto 核心圈子接受,真的很难讲。竞品里 Aleo 也在搞可编程隐私,资金体量比 Dusk 大得多,Dusk 现在的优势可能就在于它在这个 RWA(现实资产上链)垂直领域的积淀更深。技术是好技术,就是文档写得太晦涩了,对开发者不太友好,这是硬伤。
$DUSK
#Dusk @Dusk
Original ansehen
Durchbruch des "unmöglichen Dreiecks" der dezentralen Speicherung: Was wir im Walrus-Testnetz gesehen habenDa die Marktheizung in den letzten Tagen ganz auf den Wettbewerb der modularen und hochleistungsfähigen öffentlichen Blockchains konzentriert ist, sollten wir unseren Blick von den K-Line-Diagrammen abwenden und über das sprechen, was die meisten Menschen ignorieren, aber ein tödlicher Engpass in der Infrastruktur ist - die Speicherung. Um ehrlich zu sein, habe ich in den letzten Jahren so viele Speicherprojekte ausprobiert, von der Berechnungskraft von Filecoin bis zur permanenten Speicherung von Arweave, und ich hatte immer das Gefühl, dass etwas fehlt. Entweder sind sie absurd teuer, oder das Abrufen von Daten dauert so lange, als ob man sich ins Internet einwählt. Kürzlich, während ich mit dem Sui-Ökosystem experimentierte, habe ich zufällig Walrus ausprobiert, ein dezentralisiertes Speicher-Netzwerk, das auf Sui aufgebaut ist, und es hat tatsächlich einen Riss in diese tote Situation gerissen.

Durchbruch des "unmöglichen Dreiecks" der dezentralen Speicherung: Was wir im Walrus-Testnetz gesehen haben

Da die Marktheizung in den letzten Tagen ganz auf den Wettbewerb der modularen und hochleistungsfähigen öffentlichen Blockchains konzentriert ist, sollten wir unseren Blick von den K-Line-Diagrammen abwenden und über das sprechen, was die meisten Menschen ignorieren, aber ein tödlicher Engpass in der Infrastruktur ist - die Speicherung. Um ehrlich zu sein, habe ich in den letzten Jahren so viele Speicherprojekte ausprobiert, von der Berechnungskraft von Filecoin bis zur permanenten Speicherung von Arweave, und ich hatte immer das Gefühl, dass etwas fehlt. Entweder sind sie absurd teuer, oder das Abrufen von Daten dauert so lange, als ob man sich ins Internet einwählt. Kürzlich, während ich mit dem Sui-Ökosystem experimentierte, habe ich zufällig Walrus ausprobiert, ein dezentralisiertes Speicher-Netzwerk, das auf Sui aufgebaut ist, und es hat tatsächlich einen Riss in diese tote Situation gerissen.
Übersetzen
美国核心PCE物价指数即将公布,市场预期月率为0.2%,若数据超预期可能进一步推迟美联储降息时间表。与此同时,日本国债市场出现异常波动,10年期国债收益率升至2.3%,创27年新高,这给全球风险资产带来额外压力。黄金价格却逆势创下历史新高,传统避险情绪升温往往预示着后续资金可能向比特币等数字资产轮动。$BNB {future}(BNBUSDT)
美国核心PCE物价指数即将公布,市场预期月率为0.2%,若数据超预期可能进一步推迟美联储降息时间表。与此同时,日本国债市场出现异常波动,10年期国债收益率升至2.3%,创27年新高,这给全球风险资产带来额外压力。黄金价格却逆势创下历史新高,传统避险情绪升温往往预示着后续资金可能向比特币等数字资产轮动。$BNB
Übersetzen
 比特币今日继续在9万美元关键位置展开激烈争夺,市场情绪因美欧贸易紧张局势而承压。特朗普政府宣布将于2月1日起对包括英国、德国、法国在内的多个欧洲国家征收10%关税,这一消息导致比特币从95,000美元高位回落至当前89,000美元附近。机构投资者似乎正在利用此次回调加仓,Strategy公司近日再次购入22,305枚比特币,价值约21.3亿美元,使其总持仓量达到709,715枚BTC。 $BTC {spot}(BTCUSDT)
 比特币今日继续在9万美元关键位置展开激烈争夺,市场情绪因美欧贸易紧张局势而承压。特朗普政府宣布将于2月1日起对包括英国、德国、法国在内的多个欧洲国家征收10%关税,这一消息导致比特币从95,000美元高位回落至当前89,000美元附近。机构投资者似乎正在利用此次回调加仓,Strategy公司近日再次购入22,305枚比特币,价值约21.3亿美元,使其总持仓量达到709,715枚BTC。
$BTC
Original ansehen
In der aktuellen dezentralen Speicherlandschaft spielen viele Projekte noch mit einfachen Kopien, was in der Tat sehr ineffizient ist. Kürzlich habe ich das Whitepaper und die technischen Dokumente von Walrus gelesen und festgestellt, dass ihre Anwendung von "Erasure Coding" wirklich interessant ist. Im Vergleich zu Filecoin, das durch massive Rechenleistung Daten schwerfällig aufrechterhält, ist die Architektur von Walrus offensichtlich viel leichter. Es ist nicht erforderlich, dass jeder Knoten eine vollständige Kopie der Daten speichert; stattdessen werden die Daten in Stücke aufgeteilt und verteilt, sodass die Daten auch dann wiederhergestellt werden können, wenn einige Knoten ausfallen. Als ich im Testnetz praktische Erfahrungen gesammelt habe, habe ich absichtlich einige Verbindungen von Fragmenten unterbrochen, und die Wiederherstellungsgeschwindigkeit war immer noch stabil, was in der praktischen Anwendung ein lebensrettendes Merkmal ist. Allerdings sind die aktuellen Dokumente ein wenig schwer verständlich, sodass nur wir Techniker sie hartnäckig durcharbeiten können; sie sind für unerfahrene Entwickler nicht besonders benutzerfreundlich. Wettbewerber wie Arweave setzen auf permanente Speicherung, aber dieses Kostenmodell ist für dynamische Daten mit häufigen Interaktionen einfach eine Katastrophe. Die effiziente Speicherung von Walrus, die auf "große Objekte" abzielt, füllt genau das Vakuum im Sui-Ökosystem aus, das über Transaktionsdaten hinausgeht. Die einzige Sorge ist, wie diese Architektur mit massiven Netzwerküberlastungen bei hoher Parallelität umgehen kann; dafür sind noch mehr Stresstests erforderlich. Nach den bisherigen Erfahrungen fühlt es sich eher wie eine "Bauweise" für groß angelegte Web3-Anwendungen an und nicht nur, um Hype zu erzeugen. @WalrusProtocol $WAL {future}(WALUSDT) #Walrus
In der aktuellen dezentralen Speicherlandschaft spielen viele Projekte noch mit einfachen Kopien, was in der Tat sehr ineffizient ist. Kürzlich habe ich das Whitepaper und die technischen Dokumente von Walrus gelesen und festgestellt, dass ihre Anwendung von "Erasure Coding" wirklich interessant ist. Im Vergleich zu Filecoin, das durch massive Rechenleistung Daten schwerfällig aufrechterhält, ist die Architektur von Walrus offensichtlich viel leichter. Es ist nicht erforderlich, dass jeder Knoten eine vollständige Kopie der Daten speichert; stattdessen werden die Daten in Stücke aufgeteilt und verteilt, sodass die Daten auch dann wiederhergestellt werden können, wenn einige Knoten ausfallen.
Als ich im Testnetz praktische Erfahrungen gesammelt habe, habe ich absichtlich einige Verbindungen von Fragmenten unterbrochen, und die Wiederherstellungsgeschwindigkeit war immer noch stabil, was in der praktischen Anwendung ein lebensrettendes Merkmal ist. Allerdings sind die aktuellen Dokumente ein wenig schwer verständlich, sodass nur wir Techniker sie hartnäckig durcharbeiten können; sie sind für unerfahrene Entwickler nicht besonders benutzerfreundlich. Wettbewerber wie Arweave setzen auf permanente Speicherung, aber dieses Kostenmodell ist für dynamische Daten mit häufigen Interaktionen einfach eine Katastrophe. Die effiziente Speicherung von Walrus, die auf "große Objekte" abzielt, füllt genau das Vakuum im Sui-Ökosystem aus, das über Transaktionsdaten hinausgeht. Die einzige Sorge ist, wie diese Architektur mit massiven Netzwerküberlastungen bei hoher Parallelität umgehen kann; dafür sind noch mehr Stresstests erforderlich. Nach den bisherigen Erfahrungen fühlt es sich eher wie eine "Bauweise" für groß angelegte Web3-Anwendungen an und nicht nur, um Hype zu erzeugen.
@Walrus 🦭/acc $WAL
#Walrus
Melde dich an, um weitere Inhalte zu entdecken
Bleib immer am Ball mit den neuesten Nachrichten aus der Kryptowelt
⚡️ Beteilige dich an aktuellen Diskussionen rund um Kryptothemen
💬 Interagiere mit deinen bevorzugten Content-Erstellern
👍 Entdecke für dich interessante Inhalte
E-Mail-Adresse/Telefonnummer
Sitemap
Cookie-Präferenzen
Nutzungsbedingungen der Plattform