Binance Square

W-BEN

image
Creator verificat
热爱生活,专注币安!币安超级返佣邀请码:BEN8888
Deținător GAIN
Deținător GAIN
Trader de înaltă frecvență
2 Ani
996 Urmăriți
60.4K+ Urmăritori
38.3K+ Apreciate
3.0K+ Distribuite
Postări
·
--
Chiar și un pic antiumană, mașina virtuală Piecrust este ceea ce ar trebui să fie RWA în ochii meiSincer să fiu, experiența de a răsfoi documentația tehnică Dusk în ultima săptămână a fost ca și cum aș încerca să urc un munte acoperit cu cioburi de sticlă cu mâinile goale. Obisnuit cu mediu Ethereum EVM, care chiar îngrijeşte puțin dezvoltatorii, să cad în această arhitectură de bază Dusk bazată pe Wasm, acea senzație de diferență te poate duce la limita abandonului. Dar tocmai acest design de bază aproape obsesiv mă face să simt un miros foarte periculos și tentant, acești oameni chiar vor să înghesuie acea logică extrem de complicată de conformitate din Wall Street în codul de bază al blockchain-ului.

Chiar și un pic antiumană, mașina virtuală Piecrust este ceea ce ar trebui să fie RWA în ochii mei

Sincer să fiu, experiența de a răsfoi documentația tehnică Dusk în ultima săptămână a fost ca și cum aș încerca să urc un munte acoperit cu cioburi de sticlă cu mâinile goale. Obisnuit cu mediu Ethereum EVM, care chiar îngrijeşte puțin dezvoltatorii, să cad în această arhitectură de bază Dusk bazată pe Wasm, acea senzație de diferență te poate duce la limita abandonului. Dar tocmai acest design de bază aproape obsesiv mă face să simt un miros foarte periculos și tentant, acești oameni chiar vor să înghesuie acea logică extrem de complicată de conformitate din Wall Street în codul de bază al blockchain-ului.
·
--
Ultimul test de stres înainte de mainnet-ul DUSK: Am văzut un bilet de intrare pe Wall Street în jurnalele noduluiIeri seară am repornit din nou serverul modificat de acasă, zgomotul ventilatorului a fost atât de puternic încât mi-a dat dureri de cap, dar am urmărit informațiile despre erorile compilatorului Rust care se derulau pe ecran și am simțit o ciudată excitare. În ultima lună, aproape că am răscolit complet codul sursă al Dusk Network, în special partea lor numită Rusk, o mașină virtuală. Sincer, dacă ești obișnuit cu confortul mediului EVM de la Ethereum, unde poți scrie contracte pe fugă, venind la Dusk pentru a scrie contracte te va înnebuni cu siguranță. Aici nu există șabloane Solidity gata făcute pe care să le copiezi, ci te confrunți cu constrângerile dure ale circuitelor de dovadă zero-știință.

Ultimul test de stres înainte de mainnet-ul DUSK: Am văzut un bilet de intrare pe Wall Street în jurnalele nodului

Ieri seară am repornit din nou serverul modificat de acasă, zgomotul ventilatorului a fost atât de puternic încât mi-a dat dureri de cap, dar am urmărit informațiile despre erorile compilatorului Rust care se derulau pe ecran și am simțit o ciudată excitare. În ultima lună, aproape că am răscolit complet codul sursă al Dusk Network, în special partea lor numită Rusk, o mașină virtuală. Sincer, dacă ești obișnuit cu confortul mediului EVM de la Ethereum, unde poți scrie contracte pe fugă, venind la Dusk pentru a scrie contracte te va înnebuni cu siguranță. Aici nu există șabloane Solidity gata făcute pe care să le copiezi, ci te confrunți cu constrângerile dure ale circuitelor de dovadă zero-știință.
·
--
加密市场深陷"Warsh效应"漩涡,比特币失守7万美元关键支撑 全球加密货币市场继续笼罩在"Warsh效应"的阴霾之下。比特币破70,000美元,创下去年11月以来的新低,24小时跌幅超过7%。这场由前美联储理事凯文·沃什( Kevin Warsh )被提名为下任美联储主席所引发的市场地震,正在重新定义加密货币的定价逻辑。 数据显示,自1月30日沃什提名消息公布以来,比特币ETF遭遇了连续12个交易日的资金外流,总流出额接近29亿美元。仅2月4日单日,净流出就达到5.44亿美元。更令人担忧的是,杠杆清算仍在加速——过去24小时内,全网爆仓金额超过6.5亿美元,其中多头占比达80%。 深层分析表明,沃什的提名之所以能引发如此剧烈的市场反应,是因为其代表着货币政策底层逻辑的彻底转变。这位以鹰派立场著称的前联储官员,曾公开反对第二轮量化宽松(QE2),并强调"健康经济需要正实际利率作为资源配置的信号机制"。这种观点与加密货币依赖的流动性宽松环境形成直接对立。 市场正在经历从"持续通胀驱动法币贬值,加密资产受益"的旧叙事,向"利率纪律强化美元信誉,流动性收缩惩罚风险资产"的新范式转变。比特币与科技股的相关性持续强化,被迫接受"高风险贝塔因子"的定位。当前价格已跌破2021年牛市顶部(约6.9-7万美元)的关键支撑区域,若有效跌破,下一个重要支撑位将下看6万美元(200周均线)甚至5.3万美元。 #加密市场 #
加密市场深陷"Warsh效应"漩涡,比特币失守7万美元关键支撑

全球加密货币市场继续笼罩在"Warsh效应"的阴霾之下。比特币破70,000美元,创下去年11月以来的新低,24小时跌幅超过7%。这场由前美联储理事凯文·沃什( Kevin Warsh )被提名为下任美联储主席所引发的市场地震,正在重新定义加密货币的定价逻辑。

数据显示,自1月30日沃什提名消息公布以来,比特币ETF遭遇了连续12个交易日的资金外流,总流出额接近29亿美元。仅2月4日单日,净流出就达到5.44亿美元。更令人担忧的是,杠杆清算仍在加速——过去24小时内,全网爆仓金额超过6.5亿美元,其中多头占比达80%。
深层分析表明,沃什的提名之所以能引发如此剧烈的市场反应,是因为其代表着货币政策底层逻辑的彻底转变。这位以鹰派立场著称的前联储官员,曾公开反对第二轮量化宽松(QE2),并强调"健康经济需要正实际利率作为资源配置的信号机制"。这种观点与加密货币依赖的流动性宽松环境形成直接对立。

市场正在经历从"持续通胀驱动法币贬值,加密资产受益"的旧叙事,向"利率纪律强化美元信誉,流动性收缩惩罚风险资产"的新范式转变。比特币与科技股的相关性持续强化,被迫接受"高风险贝塔因子"的定位。当前价格已跌破2021年牛市顶部(约6.9-7万美元)的关键支撑区域,若有效跌破,下一个重要支撑位将下看6万美元(200周均线)甚至5.3万美元。

#加密市场
#
·
--
波场现在的地位确实尴尬,你说它强吧,由于那谁的存在,合规资金根本不敢大举进场;你说它弱吧,全世界的USDT又都在上面跑。这种僵局持续了很久,直到我看到了Plasma的主网表现。很多人对这个名字的印象还停留在以太坊那个古早的扩容方案,但现在的Plasma完全是两码事。它现在的打法非常鸡贼,直接瞄准了波场的命门——稳定币支付体验。我这两天拿它和Tron做了一次压力测试对比,结果挺让人意外。波场在高峰期那种Gas费飙升和交易卡顿简直是灾难,特别是当你急着把U转进交易所抄底的时候,那几分钟的等待能让人心态爆炸。而Plasma给我的感觉非常“冷酷”,不管链上多忙, Paymaster机制都在后台把Gas问题处理得干干净净。用户根本不需要知道什么是Gas Price,这种体验上的降维打击,对于那些习惯了扫码支付的Web2用户来说才是最致命的诱惑。 这里必须聊聊它背后的Tether。大家心里都明镜似的,Tether才是币圈真正的央行。Plasma现在的技术架构明显就是为了配合Tether的下一步大棋设计的。既然是亲儿子级别的待遇,未来的流动性迁移可能比我们想象的要快。现在的公链都在卷TPS,卷谁的节点多,但Plasma走的是另一条路,它在卷“无感”。这种策略非常聪明,因为对于支付赛道来说,快是基础,好用才是护城河。我看了一下链上数据,现在的活跃度确实还很低,甚至可以说是个鬼城。但这恰恰是机会所在。如果等到链上全是土狗和金狗乱飞的时候,估值早就不是现在这个数了。 从代码层面看,Plasma并没有搞那种花里胡哨的创新,而是把EVM的兼容性做到了极致,这就意味着以太坊上的开发者迁移过来几乎没有成本。我现在担心的反而不是技术,而是它的运营。这团队太沉迷于做底层基建,在宣发上显得有点木讷。。 @Plasma $XPL {future}(XPLUSDT) #plasma
波场现在的地位确实尴尬,你说它强吧,由于那谁的存在,合规资金根本不敢大举进场;你说它弱吧,全世界的USDT又都在上面跑。这种僵局持续了很久,直到我看到了Plasma的主网表现。很多人对这个名字的印象还停留在以太坊那个古早的扩容方案,但现在的Plasma完全是两码事。它现在的打法非常鸡贼,直接瞄准了波场的命门——稳定币支付体验。我这两天拿它和Tron做了一次压力测试对比,结果挺让人意外。波场在高峰期那种Gas费飙升和交易卡顿简直是灾难,特别是当你急着把U转进交易所抄底的时候,那几分钟的等待能让人心态爆炸。而Plasma给我的感觉非常“冷酷”,不管链上多忙,

Paymaster机制都在后台把Gas问题处理得干干净净。用户根本不需要知道什么是Gas Price,这种体验上的降维打击,对于那些习惯了扫码支付的Web2用户来说才是最致命的诱惑。

这里必须聊聊它背后的Tether。大家心里都明镜似的,Tether才是币圈真正的央行。Plasma现在的技术架构明显就是为了配合Tether的下一步大棋设计的。既然是亲儿子级别的待遇,未来的流动性迁移可能比我们想象的要快。现在的公链都在卷TPS,卷谁的节点多,但Plasma走的是另一条路,它在卷“无感”。这种策略非常聪明,因为对于支付赛道来说,快是基础,好用才是护城河。我看了一下链上数据,现在的活跃度确实还很低,甚至可以说是个鬼城。但这恰恰是机会所在。如果等到链上全是土狗和金狗乱飞的时候,估值早就不是现在这个数了。

从代码层面看,Plasma并没有搞那种花里胡哨的创新,而是把EVM的兼容性做到了极致,这就意味着以太坊上的开发者迁移过来几乎没有成本。我现在担心的反而不是技术,而是它的运营。这团队太沉迷于做底层基建,在宣发上显得有点木讷。。
@Plasma $XPL
#plasma
·
--
香港共识大会开幕在即,AI与合规支付成熊市中的希望之光 当市场还沉浸在"Warsh效应"的悲观情绪中时,行业建设者已经在为下一轮增长蓄力。2月10-12日,Consensus香港大会将迎来第二届会议,预计吸引1.5万名参与者,较去年的1万人显著增长。 本次大会阵容豪华:Binance首席执行官Richard Teng、Solana基金会Lily Liu、Grayscale投资Peter Mintzberg、J.P. Morgan的Naveen Mallela等重量级人物确认出席。议题聚焦"AI智能体与链上执行""代币化星球""以太坊下一步"等前沿领域,反映出行业正在寻找超越单纯金融投机的新叙事。 更值得关注的是,硅谷顶级孵化器Y Combinator(YC)在2月3日宣布,从2026年春季开始,被投企业可以选择以USDC稳定币形式接收50万美元的投资。这是YC在投资Coinbase 14年后,首次正式将加密货币纳入核心业务流程。 这一转变的背后是2025年7月美国《GENIUS法案》的通过,该法案为稳定币建立了联邦监管框架,要求1:1储备支持和持有人赎回权。合规确定性的建立,消除了主流机构采用加密货币的最大障碍。 分析认为,在当前市场低迷期,两个趋势值得关注:一是AI与区块链的结合正在从理论走向实践,特别是自主智能体与链上执行的融合;二是合规支付通道的完善,使加密货币能够真正服务于全球创业和商业活动,而不仅仅是投机交易。 尽管短期价格承压,但行业基础设施正在悄然升级。当流动性退潮时,真正的价值创造者才会浮出水面。香港共识大会和YC的举措表明,聪明钱已经在为下一个周期布局。 #美国伊朗对峙
香港共识大会开幕在即,AI与合规支付成熊市中的希望之光

当市场还沉浸在"Warsh效应"的悲观情绪中时,行业建设者已经在为下一轮增长蓄力。2月10-12日,Consensus香港大会将迎来第二届会议,预计吸引1.5万名参与者,较去年的1万人显著增长。
本次大会阵容豪华:Binance首席执行官Richard Teng、Solana基金会Lily Liu、Grayscale投资Peter Mintzberg、J.P. Morgan的Naveen Mallela等重量级人物确认出席。议题聚焦"AI智能体与链上执行""代币化星球""以太坊下一步"等前沿领域,反映出行业正在寻找超越单纯金融投机的新叙事。
更值得关注的是,硅谷顶级孵化器Y Combinator(YC)在2月3日宣布,从2026年春季开始,被投企业可以选择以USDC稳定币形式接收50万美元的投资。这是YC在投资Coinbase 14年后,首次正式将加密货币纳入核心业务流程。
这一转变的背后是2025年7月美国《GENIUS法案》的通过,该法案为稳定币建立了联邦监管框架,要求1:1储备支持和持有人赎回权。合规确定性的建立,消除了主流机构采用加密货币的最大障碍。
分析认为,在当前市场低迷期,两个趋势值得关注:一是AI与区块链的结合正在从理论走向实践,特别是自主智能体与链上执行的融合;二是合规支付通道的完善,使加密货币能够真正服务于全球创业和商业活动,而不仅仅是投机交易。
尽管短期价格承压,但行业基础设施正在悄然升级。当流动性退潮时,真正的价值创造者才会浮出水面。香港共识大会和YC的举措表明,聪明钱已经在为下一个周期布局。
#美国伊朗对峙
·
--
Recent am explorat stratul de date al ecosistemului Sui și am reușit să parcurg documentația și rețeaua de testare a Walrus. Această soluție de stocare bazată pe Blob mi-a oferit cu adevărat o nouă perspectivă. Ne-am obișnuit cu povestea Arweave despre „plătești o dată, stocare permanentă”, dar din perspectiva economică, permanența în sine necesită un premium foarte ridicat pentru a acoperi incertitudinile viitoare, ceea ce face ca AR să fie mai puțin eficient pentru datele dinamice de înaltă frecvență. Walrus urmează o altă cale, nu este doar un simplu hard disk, ci mai degrabă o rețea eficientă de distribuție a datelor. Când am încărcat câțiva G de date nestructurate pe rețeaua de testare, viteza a fost mult mai fluidă decât serviciile de Pinning ale IPFS, mai ales datorită interoperabilității cu Sui, ceea ce a făcut ca maparea indicelui activelor de pe lanț și a datelor de pe lanț să fie extrem de simplă. În ceea ce privește comparația cu competitorii, deși Filecoin are o capacitate mare, piața de căutare a fost întotdeauna un mister, este ușor să stochezi, dar greu să recuperezi, adesea fiind nevoie de gateway-uri centralizate. Designul Walrus a învățat evident din aceste lecții, decuplând logica de stocare și căutare mai temeinic. Totuși, am descoperit câteva mici probleme în timpul utilizării, nodurile Publisher actuale pierd ocazional pachete atunci când gestionează cereri concurente, deși la nivelul protocolului există coduri de corecție a erorilor pentru redundanță, întârzierea feedback-ului clientului este totuși destul de evidentă. Dacă această problemă nu este rezolvată, aplicațiile comerciale la scară largă vor avea întârzieri. Dar asta m-a făcut să simt că este real, deoarece nu există sisteme perfecte. În loc să căutăm stocarea permanentă scumpă, mai bine căutăm disponibilitatea eficientă a datelor și redundanța cu costuri reduse, aceasta este calea inevitabilă pentru adoptarea în masă a Web3. Acum, competiția de stocare suferă de lipsa unor proiecte care pun accent pe implementarea ingineriei, mai degrabă decât pe simpla vânzare a puterii de calcul, sper să văd că este rafinată mai bine atunci când va fi implementată pe rețeaua principală. Conținut original destinat doar discuțiilor tehnice. @WalrusProtocol $WAL {future}(WALUSDT) #Walrus
Recent am explorat stratul de date al ecosistemului Sui și am reușit să parcurg documentația și rețeaua de testare a Walrus. Această soluție de stocare bazată pe Blob mi-a oferit cu adevărat o nouă perspectivă. Ne-am obișnuit cu povestea Arweave despre „plătești o dată, stocare permanentă”, dar din perspectiva economică, permanența în sine necesită un premium foarte ridicat pentru a acoperi incertitudinile viitoare, ceea ce face ca AR să fie mai puțin eficient pentru datele dinamice de înaltă frecvență. Walrus urmează o altă cale, nu este doar un simplu hard disk, ci mai degrabă o rețea eficientă de distribuție a datelor. Când am încărcat câțiva G de date nestructurate pe rețeaua de testare, viteza a fost mult mai fluidă decât serviciile de Pinning ale IPFS, mai ales datorită interoperabilității cu Sui, ceea ce a făcut ca maparea indicelui activelor de pe lanț și a datelor de pe lanț să fie extrem de simplă.
În ceea ce privește comparația cu competitorii, deși Filecoin are o capacitate mare, piața de căutare a fost întotdeauna un mister, este ușor să stochezi, dar greu să recuperezi, adesea fiind nevoie de gateway-uri centralizate. Designul Walrus a învățat evident din aceste lecții, decuplând logica de stocare și căutare mai temeinic. Totuși, am descoperit câteva mici probleme în timpul utilizării, nodurile Publisher actuale pierd ocazional pachete atunci când gestionează cereri concurente, deși la nivelul protocolului există coduri de corecție a erorilor pentru redundanță, întârzierea feedback-ului clientului este totuși destul de evidentă. Dacă această problemă nu este rezolvată, aplicațiile comerciale la scară largă vor avea întârzieri. Dar asta m-a făcut să simt că este real, deoarece nu există sisteme perfecte. În loc să căutăm stocarea permanentă scumpă, mai bine căutăm disponibilitatea eficientă a datelor și redundanța cu costuri reduse, aceasta este calea inevitabilă pentru adoptarea în masă a Web3. Acum, competiția de stocare suferă de lipsa unor proiecte care pun accent pe implementarea ingineriei, mai degrabă decât pe simpla vânzare a puterii de calcul, sper să văd că este rafinată mai bine atunci când va fi implementată pe rețeaua principală.
Conținut original destinat doar discuțiilor tehnice.
@Walrus 🦭/acc $WAL
#Walrus
·
--
Acum toată strada strigă modularizare, de parcă fără a despărți lanțul în șapte-opt bucăți nu ar avea conținut tehnic. Celestia și EigenLayer au tăiat stratul DA și stratul de consens în bucăți mici, iar rezultatul este că dezvoltatorii trebuie să se conecteze într-un mod care le va exploda capul, au construit o mulțime de poduri între lanțuri, iar siguranța depinde în întregime de noroc. Acum câteva zile, când mă ocupam de Vanar Chain, cea mai directă senzație a fost că acesta urmează un drum împotriva curentului. Nu face acel tip de tehnologie care se descompune doar pentru a se descompune, ci pur și simplu aduce tot ce este familiar din Google Cloud în Web2 în verificarea off-chain. Cum să descriu această senzație? E ca și cum ai fost obișnuit să faci clic pe mouse pe AWS pentru a desfășura servicii, iar brusc cineva te-ar face să te întorci la scrierea în asamblare pentru a gestiona memoria, aceasta este experiența pe care majoritatea L2 mi-o oferă acum. Și rețeaua principală Vanguard a lui Vanar, deși nu a trecut complet testul de înaltă concurență, modul în care a integrat Zero-Knowledge Proofs este cu adevărat ingenios. Nu este acel tip de plugin rigid, ci este încorporat în procesul de verificare. Comparativ cu Polygon, care încă se străduiește să repare compatibilitatea EVM, Vanar a renunțat direct la venerarea oarbă a vremurilor de odinioară, a realizat o arhitectură mai potrivită pentru datele de înaltă frecvență. Dar, revenind la subiect, indiferent cât de sexy este arhitectura tehnică, dacă nimeni nu o folosește, este totul în zadar. Acum, când deschizi exploratorul de blocuri, poți chiar vedea că blocurile de acum câteva minute sunt goale. Această senzație de pustietate contrastează puternic cu agitația colaborărilor promovate pe contul oficial. Și acel așa-zis nod de validare AI, desfășurat, are cerințe de hardware oarecum confuze, secțiunea din documentație despre apelurile GPU este scrisă într-un mod vag, am încercat de câteva ori până să reușesc să-l fac să funcționeze. E ca și cum ai cumpăra un server de top, iar manualul este scris în limba marțiană, te face să-ți iei capul în mâini. Dacă echipa de proiect nu poate repara rapid „ultimul kilometru” al acestor dezvoltatori, cele mai avansate baze nu vor fi decât jucării pentru geek-uri. @Vanar $VANRY {future}(VANRYUSDT) #Vanar
Acum toată strada strigă modularizare, de parcă fără a despărți lanțul în șapte-opt bucăți nu ar avea conținut tehnic. Celestia și EigenLayer au tăiat stratul DA și stratul de consens în bucăți mici, iar rezultatul este că dezvoltatorii trebuie să se conecteze într-un mod care le va exploda capul, au construit o mulțime de poduri între lanțuri, iar siguranța depinde în întregime de noroc. Acum câteva zile, când mă ocupam de Vanar Chain, cea mai directă senzație a fost că acesta urmează un drum împotriva curentului. Nu face acel tip de tehnologie care se descompune doar pentru a se descompune, ci pur și simplu aduce tot ce este familiar din Google Cloud în Web2 în verificarea off-chain.

Cum să descriu această senzație? E ca și cum ai fost obișnuit să faci clic pe mouse pe AWS pentru a desfășura servicii, iar brusc cineva te-ar face să te întorci la scrierea în asamblare pentru a gestiona memoria, aceasta este experiența pe care majoritatea L2 mi-o oferă acum. Și rețeaua principală Vanguard a lui Vanar, deși nu a trecut complet testul de înaltă concurență, modul în care a integrat Zero-Knowledge Proofs este cu adevărat ingenios. Nu este acel tip de plugin rigid, ci este încorporat în procesul de verificare. Comparativ cu Polygon, care încă se străduiește să repare compatibilitatea EVM, Vanar a renunțat direct la venerarea oarbă a vremurilor de odinioară, a realizat o arhitectură mai potrivită pentru datele de înaltă frecvență.

Dar, revenind la subiect, indiferent cât de sexy este arhitectura tehnică, dacă nimeni nu o folosește, este totul în zadar. Acum, când deschizi exploratorul de blocuri, poți chiar vedea că blocurile de acum câteva minute sunt goale. Această senzație de pustietate contrastează puternic cu agitația colaborărilor promovate pe contul oficial. Și acel așa-zis nod de validare AI, desfășurat, are cerințe de hardware oarecum confuze, secțiunea din documentație despre apelurile GPU este scrisă într-un mod vag, am încercat de câteva ori până să reușesc să-l fac să funcționeze. E ca și cum ai cumpăra un server de top, iar manualul este scris în limba marțiană, te face să-ți iei capul în mâini. Dacă echipa de proiect nu poate repara rapid „ultimul kilometru” al acestor dezvoltatori, cele mai avansate baze nu vor fi decât jucării pentru geek-uri.
@Vanarchain $VANRY
#Vanar
·
--
抛弃Arweave之后我在Walrus上找到了去中心化存储的正确打开方式最近这半个月我都在折腾一件事:把手里那个几十T的AI训练数据集搬到链上去。说实话,这过程简直就是一部血泪史。最初我迷信Arweave的“永久存储”,觉得一次付费终身无忧,结果光是同步节点和处理上传网关的限流就让我心态崩了。更别提那贵得离谱的存储成本,简直是在给矿工送钱。直到上周,在一个极客群里被安利了Walrus,我才意识到,可能我们之前的存储逻辑都错了。 我花了两天时间在测试网里跑了一遍全流程,那种感觉怎么形容呢?就像是你习惯了拨号上网,突然有人给了你一根光纤。Walrus底层的逻辑跟现在的Filecoin或者Arweave完全不是一个路数。它没有那种笨重的“全网复制”或者复杂的“时空证明”来以此证明数据还在,而是搞了个叫“Red Stuff”的纠删码技术。简单说,它把我的大文件切成无数个碎片,二维编码扔到一堆节点里。 最让我震惊的是它的恢复能力。我试着模拟了几个节点掉线的情况(别问我怎么做到的,这是秘密),数据居然在毫秒级就重构出来了。这在传统的去中心化存储里简直不敢想,Filecoin取回数据那是出了名的慢,有时候还得看矿工心情。但在Walrus这里,读取速度快得像是在读本地硬盘。而且因为它的冗余度只有4-5倍,不像其他公链动不动几十倍的冗余,成本肉眼可见地低。 在写代码接入的时候,我发现它的API设计非常“Sui”。如果你熟悉Move语言或者Sui的生态,上手会非常快。所有的Blob(二进制大对象)在链上就是一个个的对象,元数据和存储数据是分离的。这意味着什么?意味着我不需要把几十G的视频塞进区块里拥堵主网,只用在Sui上存个“凭证”,真正的重活儿都扔给Walrus的存储节点去干。这种分离设计太聪明了,直接解决了扩容的死结。 当然,现阶段也不是没槽点。官方文档写得那叫一个“硬核”,很多参数解释得不清不楚,害得我昨晚熬夜调试到凌晨三点,咖啡都喝了三杯。特别是那个CLI工具,报错信息简直是天书,非得逼着你去看源码才能懂是参数传错了还是网络超时。不过,这种“毛坯房”的感觉反而让我兴奋,说明这块地还没被那帮投机倒把的营销号占领,还有巨大的技术红利期。 我觉得Walrus最性感的地方在于它支持“删除”。对,你没听错。Arweave主打永久,但对于企业级应用来说,GDPR合规和隐私保护才是刚需。有些数据我就是只想存一年,或者我想更新它,死板的永久存储反而是累赘。Walrus允许我像操作S3桶一样管理文件的生命周期,这才是Web3存储走向大规模商用的关键。 这几天跑下来的数据看,上传速度稳定在几百兆带宽,完全不像是个区块链项目。我隐约感觉,这东西可能会是Sui生态爆发的那个隐形引擎。当大家都在炒作TPS的时候,Walrus悄悄把“数据资产化”这条路给铺平了。 @WalrusProtocol $WAL {future}(WALUSDT) #Walrus

抛弃Arweave之后我在Walrus上找到了去中心化存储的正确打开方式

最近这半个月我都在折腾一件事:把手里那个几十T的AI训练数据集搬到链上去。说实话,这过程简直就是一部血泪史。最初我迷信Arweave的“永久存储”,觉得一次付费终身无忧,结果光是同步节点和处理上传网关的限流就让我心态崩了。更别提那贵得离谱的存储成本,简直是在给矿工送钱。直到上周,在一个极客群里被安利了Walrus,我才意识到,可能我们之前的存储逻辑都错了。
我花了两天时间在测试网里跑了一遍全流程,那种感觉怎么形容呢?就像是你习惯了拨号上网,突然有人给了你一根光纤。Walrus底层的逻辑跟现在的Filecoin或者Arweave完全不是一个路数。它没有那种笨重的“全网复制”或者复杂的“时空证明”来以此证明数据还在,而是搞了个叫“Red Stuff”的纠删码技术。简单说,它把我的大文件切成无数个碎片,二维编码扔到一堆节点里。
最让我震惊的是它的恢复能力。我试着模拟了几个节点掉线的情况(别问我怎么做到的,这是秘密),数据居然在毫秒级就重构出来了。这在传统的去中心化存储里简直不敢想,Filecoin取回数据那是出了名的慢,有时候还得看矿工心情。但在Walrus这里,读取速度快得像是在读本地硬盘。而且因为它的冗余度只有4-5倍,不像其他公链动不动几十倍的冗余,成本肉眼可见地低。
在写代码接入的时候,我发现它的API设计非常“Sui”。如果你熟悉Move语言或者Sui的生态,上手会非常快。所有的Blob(二进制大对象)在链上就是一个个的对象,元数据和存储数据是分离的。这意味着什么?意味着我不需要把几十G的视频塞进区块里拥堵主网,只用在Sui上存个“凭证”,真正的重活儿都扔给Walrus的存储节点去干。这种分离设计太聪明了,直接解决了扩容的死结。
当然,现阶段也不是没槽点。官方文档写得那叫一个“硬核”,很多参数解释得不清不楚,害得我昨晚熬夜调试到凌晨三点,咖啡都喝了三杯。特别是那个CLI工具,报错信息简直是天书,非得逼着你去看源码才能懂是参数传错了还是网络超时。不过,这种“毛坯房”的感觉反而让我兴奋,说明这块地还没被那帮投机倒把的营销号占领,还有巨大的技术红利期。
我觉得Walrus最性感的地方在于它支持“删除”。对,你没听错。Arweave主打永久,但对于企业级应用来说,GDPR合规和隐私保护才是刚需。有些数据我就是只想存一年,或者我想更新它,死板的永久存储反而是累赘。Walrus允许我像操作S3桶一样管理文件的生命周期,这才是Web3存储走向大规模商用的关键。
这几天跑下来的数据看,上传速度稳定在几百兆带宽,完全不像是个区块链项目。我隐约感觉,这东西可能会是Sui生态爆发的那个隐形引擎。当大家都在炒作TPS的时候,Walrus悄悄把“数据资产化”这条路给铺平了。
@Walrus 🦭/acc $WAL
#Walrus
·
--
L2叙事下的冷思考:除了造富效应,我们到底还需要什么样的独立公链?这几天盯着屏幕眼睛生疼,不是因为看盘,而是为了搞明白那个所谓的模块化区块链到底把我的币弄哪去了。在几个热门的Rollup之间来回跨链,光是等待确认的时间就足够我喝完两杯咖啡。这种支离破碎的体验让我开始反思一个问题,我们是不是被“以太坊杀手”或者“Layer 2 救世主”这种宏大的叙事给洗脑了。大家都忙着在各种刚上线的L2里卷交互,博那个可能并不存在的空投,却很少有人停下来看看,到底有没有哪条链是真正为了好用而设计的。这几天我把目光从那些拥挤的EVM兼容链上移开,重新研究了一下Plasma,越看越觉得这帮人是在逆练九阴真经,在所有人都拼命做加法的时候,他们居然在做减法。 现在的公链市场就像是一个过度装修的样板房,看起来金碧辉煌,里面塞满了各种DeFi乐高、NFT市场和复杂的借贷协议。你进去只是想简单地转个账,结果发现必须要先穿过一堆不知所谓的智能合约迷宫,还要给门口的保安(定序器)交一笔不菲的保护费。我看了一下Plasma的代码库和技术架构,它给我的感觉更像是一个极简主义的清水房,什么花哨的装饰都没有,只有坚固的承重墙和通畅的管道。它把智能合约的那套复杂逻辑给剥离了,专门针对稳定币支付和高频结算做了底层优化。这种设计在现在看来简直是反人类的,因为它直接切断了土狗项目方发币圈钱的路径,没有复杂的合约就没有庞氏骗局的土壤。但这恰恰是我觉得它有意思的地方,它放弃了赌场生意,只想老老实实做个运钞车。 拿Solana来做个对比,Solana确实快,那TPS跑起来跟开了挂一样。但这种快是建立在极高的硬件门槛和中心化妥协上的。我试过在Solana宕机的那几个小时里操作,那种无力感真的让人抓狂。而Plasma走的是另一条路,它不追求账面上的TPS数字有多吓人,而是追求每一笔交易的“原子性”和“确定性”。我在他们的测试网里折腾了好几天,故意在网络拥堵的时候发起连续的小额转账,结果发现它的出块极其稳定,延迟几乎感知不到。这种稳定性对于金融支付来说才是最核心的,而不是那种平时快得飞起、一到关键时刻就掉链子的虚假繁荣。 再来看看现在炒得火热的Layer 2。说实话,我现在对L2的互操作性已经绝望了。Optimism和Arbitrum之间那道看不见的墙,把流动性割裂得七零八落。而且L2的安全性最终还是得看以太坊主网的脸色,一旦主网堵了,你的L2再快也得乖乖排队等待数据上链。Plasma作为一个独立的L1,它自己买了地基,自己盖了楼。我看重的是它这种主权性。它不需要把生杀大权交给别人,也不用担心因为某个NFT项目的Mint活动把整条链的Gas费拉到天上去。在Plasma的网络里,支付就是一等公民,没有任何应用可以抢占支付通道的资源。 当然,这种设计也不是没有代价。最直观的感受就是生态的贫瘠。你习惯了在以太坊生态里哪怕一个不知名的小链上都能找到十几个DEX和借贷平台,但在Plasma上,你能干的事情真的很少。除了转账、简单的兑换,几乎找不到什么好玩的DApp。这对于那些追求高APY的Degen玩家来说,简直就是坐牢。我自己刚开始用的时候也极其不适应,总想找个矿池把手里的U质押进去,结果找了一圈发现根本没有这种入口。但这几天冷静下来想,这可能正是它的护城河。一个真正用来做全球支付结算的网络,就不应该有太多的噪音。你见过Visa系统里跑着几百个庞氏盘子吗?没有。它的安静,恰恰是它作为基础设施的威严。 关于$XPL这个代币,它的经济模型设计得有点意思。现在的L2代币,除了治理投票几乎没有任何实际用途,Gas费还是得用ETH。这就导致了一个很尴尬的局面:L2发展得越好,ETH越值钱,而L2自己的代币反而因为抛压变大而跌跌不休。$XPL回归了最原始的公链逻辑,它既是燃料也是门票。我在链上做的每一次交互,都在实打实地消耗$XPL。而且他们引入了一种随网络活跃度动态调整的销毁机制,这比那些简单粗暴的通缩模型要健康得多。它是基于真实需求的通缩,而不是为了拉盘而人为制造的稀缺。 还有一个细节特别值得玩味,就是它和比特币网络的交互。我看技术文档里提到了它利用比特币的哈希算力来做最终的安全确认。这一点在社区里讨论得很少,但我认为这是它最鸡贼也最聪明的一步棋。现在的公链要想自己从头建立一套足够去中心化的验证节点网络,难度堪比登天。Plasma直接“借用”了比特币的安全性,相当于给自己的保险柜加了一把世界上最硬的锁。这种设计让我在把大额资金转进去的时候,心里稍微有了点底。毕竟,我不相信某个不知名的节点验证者,但我相信比特币的POW机制。 不过,我也得吐槽一下那个钱包的UI设计,真的是丑得让人想哭。交互逻辑生硬得像上个世纪的产物,完全没有考虑到现代用户的习惯。如果不看文档,我甚至不知道怎么把资产从交易所提过去。这种糟糕的用户体验如果是放在一个讲究流量的Web3社交项目上,早就凉透了。但放在一个to B属性更强的支付公链上,勉强还能忍受。这也侧面说明了团队的重心可能确实都在后端优化上,前端这块大概是找了个实习生随便画的。 其实投资到了最后,比的不是谁能抓到百倍币,而是谁能看懂未来的叙事逻辑。现在的市场依然沉浸在L2的泡沫里,大家都在赌谁是下一个ETH。但我隐约觉得,未来的区块链世界不会是一家独大,而是分工明确。以太坊继续做它的世界计算机,处理那些复杂的金融衍生品;而像Plasma这样专注、克制、独立的L1,则承担起全球价值流转的毛细血管。当潮水退去,那些只有空气的治理代币会归零,而真正承载了支付流量的网络,它的价值才会被重新计算。哪怕它现在看起来很笨重,哪怕它现在没人炒作,我还是愿意在我的投资组合里给它留一个位置。毕竟,在淘金热里,最稳赚不赔的生意永远是卖铲子和修路的,而Plasma,看起来就像是那条正在默默铺设的地下光缆。 @Plasma $XPL {future}(XPLUSDT) #plasma

L2叙事下的冷思考:除了造富效应,我们到底还需要什么样的独立公链?

这几天盯着屏幕眼睛生疼,不是因为看盘,而是为了搞明白那个所谓的模块化区块链到底把我的币弄哪去了。在几个热门的Rollup之间来回跨链,光是等待确认的时间就足够我喝完两杯咖啡。这种支离破碎的体验让我开始反思一个问题,我们是不是被“以太坊杀手”或者“Layer 2 救世主”这种宏大的叙事给洗脑了。大家都忙着在各种刚上线的L2里卷交互,博那个可能并不存在的空投,却很少有人停下来看看,到底有没有哪条链是真正为了好用而设计的。这几天我把目光从那些拥挤的EVM兼容链上移开,重新研究了一下Plasma,越看越觉得这帮人是在逆练九阴真经,在所有人都拼命做加法的时候,他们居然在做减法。
现在的公链市场就像是一个过度装修的样板房,看起来金碧辉煌,里面塞满了各种DeFi乐高、NFT市场和复杂的借贷协议。你进去只是想简单地转个账,结果发现必须要先穿过一堆不知所谓的智能合约迷宫,还要给门口的保安(定序器)交一笔不菲的保护费。我看了一下Plasma的代码库和技术架构,它给我的感觉更像是一个极简主义的清水房,什么花哨的装饰都没有,只有坚固的承重墙和通畅的管道。它把智能合约的那套复杂逻辑给剥离了,专门针对稳定币支付和高频结算做了底层优化。这种设计在现在看来简直是反人类的,因为它直接切断了土狗项目方发币圈钱的路径,没有复杂的合约就没有庞氏骗局的土壤。但这恰恰是我觉得它有意思的地方,它放弃了赌场生意,只想老老实实做个运钞车。
拿Solana来做个对比,Solana确实快,那TPS跑起来跟开了挂一样。但这种快是建立在极高的硬件门槛和中心化妥协上的。我试过在Solana宕机的那几个小时里操作,那种无力感真的让人抓狂。而Plasma走的是另一条路,它不追求账面上的TPS数字有多吓人,而是追求每一笔交易的“原子性”和“确定性”。我在他们的测试网里折腾了好几天,故意在网络拥堵的时候发起连续的小额转账,结果发现它的出块极其稳定,延迟几乎感知不到。这种稳定性对于金融支付来说才是最核心的,而不是那种平时快得飞起、一到关键时刻就掉链子的虚假繁荣。
再来看看现在炒得火热的Layer 2。说实话,我现在对L2的互操作性已经绝望了。Optimism和Arbitrum之间那道看不见的墙,把流动性割裂得七零八落。而且L2的安全性最终还是得看以太坊主网的脸色,一旦主网堵了,你的L2再快也得乖乖排队等待数据上链。Plasma作为一个独立的L1,它自己买了地基,自己盖了楼。我看重的是它这种主权性。它不需要把生杀大权交给别人,也不用担心因为某个NFT项目的Mint活动把整条链的Gas费拉到天上去。在Plasma的网络里,支付就是一等公民,没有任何应用可以抢占支付通道的资源。
当然,这种设计也不是没有代价。最直观的感受就是生态的贫瘠。你习惯了在以太坊生态里哪怕一个不知名的小链上都能找到十几个DEX和借贷平台,但在Plasma上,你能干的事情真的很少。除了转账、简单的兑换,几乎找不到什么好玩的DApp。这对于那些追求高APY的Degen玩家来说,简直就是坐牢。我自己刚开始用的时候也极其不适应,总想找个矿池把手里的U质押进去,结果找了一圈发现根本没有这种入口。但这几天冷静下来想,这可能正是它的护城河。一个真正用来做全球支付结算的网络,就不应该有太多的噪音。你见过Visa系统里跑着几百个庞氏盘子吗?没有。它的安静,恰恰是它作为基础设施的威严。
关于$XPL这个代币,它的经济模型设计得有点意思。现在的L2代币,除了治理投票几乎没有任何实际用途,Gas费还是得用ETH。这就导致了一个很尴尬的局面:L2发展得越好,ETH越值钱,而L2自己的代币反而因为抛压变大而跌跌不休。$XPL回归了最原始的公链逻辑,它既是燃料也是门票。我在链上做的每一次交互,都在实打实地消耗$XPL。而且他们引入了一种随网络活跃度动态调整的销毁机制,这比那些简单粗暴的通缩模型要健康得多。它是基于真实需求的通缩,而不是为了拉盘而人为制造的稀缺。
还有一个细节特别值得玩味,就是它和比特币网络的交互。我看技术文档里提到了它利用比特币的哈希算力来做最终的安全确认。这一点在社区里讨论得很少,但我认为这是它最鸡贼也最聪明的一步棋。现在的公链要想自己从头建立一套足够去中心化的验证节点网络,难度堪比登天。Plasma直接“借用”了比特币的安全性,相当于给自己的保险柜加了一把世界上最硬的锁。这种设计让我在把大额资金转进去的时候,心里稍微有了点底。毕竟,我不相信某个不知名的节点验证者,但我相信比特币的POW机制。
不过,我也得吐槽一下那个钱包的UI设计,真的是丑得让人想哭。交互逻辑生硬得像上个世纪的产物,完全没有考虑到现代用户的习惯。如果不看文档,我甚至不知道怎么把资产从交易所提过去。这种糟糕的用户体验如果是放在一个讲究流量的Web3社交项目上,早就凉透了。但放在一个to B属性更强的支付公链上,勉强还能忍受。这也侧面说明了团队的重心可能确实都在后端优化上,前端这块大概是找了个实习生随便画的。
其实投资到了最后,比的不是谁能抓到百倍币,而是谁能看懂未来的叙事逻辑。现在的市场依然沉浸在L2的泡沫里,大家都在赌谁是下一个ETH。但我隐约觉得,未来的区块链世界不会是一家独大,而是分工明确。以太坊继续做它的世界计算机,处理那些复杂的金融衍生品;而像Plasma这样专注、克制、独立的L1,则承担起全球价值流转的毛细血管。当潮水退去,那些只有空气的治理代币会归零,而真正承载了支付流量的网络,它的价值才会被重新计算。哪怕它现在看起来很笨重,哪怕它现在没人炒作,我还是愿意在我的投资组合里给它留一个位置。毕竟,在淘金热里,最稳赚不赔的生意永远是卖铲子和修路的,而Plasma,看起来就像是那条正在默默铺设的地下光缆。
@Plasma $XPL
#plasma
·
--
Nu te lăsa păcălit de conceptele sofisticate ZK, acest VM Dusk este cel care rezolvă cu adevărat problemele Ieri seară m-am forțat să termin documentația Piecrust VM actualizată de Dusk, și sincer, prima reacție a fost că acești oameni sunt destul de încăpățânați. Acum toată lumea se zbate pe Layer 2 pentru a obține compatibilitate EVM, aproape că ar copia și lipi codul Ethereum pentru a-l face să funcționeze, dar Dusk trebuie să-și construiască propriul drum cu un VM bazat pe WASM. Am încercat să scriu un contract simplu de transfer privat, la început am fost chinuit de acel model de memorie și am vrut să sparg tastatura, dar după ce a funcționat, mi-am dat seama că ambiția lor nu este de a fi compatibil, ci de eficiență. Comparativ cu circuitele complexe de la StarkNet care sunt doar pentru a dovedi, Piecrust are o viteză de pornire la rece incredibil de rapidă atunci când gestionează dovezile cu cunoștințe zero, parcă ar fi deschis o ușă din spate la nivelul sistemului de operare, făcând loc pentru calculul privat. Ceea ce este cel mai impresionant în acest design este că a transformat intimitatea în blocuri LEGO programabile, în loc să fie doar o cutie neagră, așa cum este Zcash. Am aruncat o privire asupra competiției ZK de acum, majoritatea proiectelor încă se chinuie să ascundă sumele, Dusk deja se gândește cum să permită contractelor inteligente să execute logica fără a vedea datele. Totuși, această învățare are o curbă de învățare extrem de abruptă, dezvoltatorii Rust ar putea să se descurce, dar cei obișnuiți cu sintaxa simplă a Solidity probabil că vor înnebuni. Acum mă uit la acel depozit GitHub gol și îmi fac griji pentru ei, indiferent cât de avansată este tehnologia, dacă nimeni nu vrea să vină să umple golurile, în cele din urmă va fi doar un ornament frumos. Este ca și cum ai construit o sabie de ucidere a dragonului, iar toți fierarii din lume sunt obișnuiți să facă doar cuțite de bucătărie, această discontinuitate între tehnologie și ecosistem, dacă nu este rezolvată, Piecrust, oricât de puternic ar fi, va rămâne doar praf în cartea albă. #Dusk @Dusk_Foundation $DUSK {future}(DUSKUSDT)
Nu te lăsa păcălit de conceptele sofisticate ZK, acest VM Dusk este cel care rezolvă cu adevărat problemele
Ieri seară m-am forțat să termin documentația Piecrust VM actualizată de Dusk, și sincer, prima reacție a fost că acești oameni sunt destul de încăpățânați. Acum toată lumea se zbate pe Layer 2 pentru a obține compatibilitate EVM, aproape că ar copia și lipi codul Ethereum pentru a-l face să funcționeze, dar Dusk trebuie să-și construiască propriul drum cu un VM bazat pe WASM. Am încercat să scriu un contract simplu de transfer privat, la început am fost chinuit de acel model de memorie și am vrut să sparg tastatura, dar după ce a funcționat, mi-am dat seama că ambiția lor nu este de a fi compatibil, ci de eficiență. Comparativ cu circuitele complexe de la StarkNet care sunt doar pentru a dovedi, Piecrust are o viteză de pornire la rece incredibil de rapidă atunci când gestionează dovezile cu cunoștințe zero, parcă ar fi deschis o ușă din spate la nivelul sistemului de operare, făcând loc pentru calculul privat.

Ceea ce este cel mai impresionant în acest design este că a transformat intimitatea în blocuri LEGO programabile, în loc să fie doar o cutie neagră, așa cum este Zcash. Am aruncat o privire asupra competiției ZK de acum, majoritatea proiectelor încă se chinuie să ascundă sumele, Dusk deja se gândește cum să permită contractelor inteligente să execute logica fără a vedea datele. Totuși, această învățare are o curbă de învățare extrem de abruptă, dezvoltatorii Rust ar putea să se descurce, dar cei obișnuiți cu sintaxa simplă a Solidity probabil că vor înnebuni.

Acum mă uit la acel depozit GitHub gol și îmi fac griji pentru ei, indiferent cât de avansată este tehnologia, dacă nimeni nu vrea să vină să umple golurile, în cele din urmă va fi doar un ornament frumos. Este ca și cum ai construit o sabie de ucidere a dragonului, iar toți fierarii din lume sunt obișnuiți să facă doar cuțite de bucătărie, această discontinuitate între tehnologie și ecosistem, dacă nu este rezolvată, Piecrust, oricât de puternic ar fi, va rămâne doar praf în cartea albă.
#Dusk @Dusk $DUSK
·
--
Cei care se concentrează doar pe graficele K nu vor înțelege niciodată de ce Google vrea să își întindă mâna în nodurile de validare de bază ale lui VanarÎn ultimele zile, piața criptomonedelor a fost la fel de haotică ca o oală de terci în clocot, iar diversele monede bazate pe concepte AI dansează în jur. Privind la acele proiecte a căror cărți albe sunt generate de GPT și care își dublează valoarea în fiecare zi, inima mea simte o oarecare agitație. Pentru a mă forța să mă calmez, am închis software-ul de piață și am reluat un script Python pe care nu l-am terminat, intenționând să caut ceva pe rețeaua de testare a lui Vanar. Sincer să fiu, la început, interesul meu pentru această blockchain era limitat la acea veste despre colaborarea cu Google Cloud, care părea un pic prea strălucitoare. După ce am petrecut mult timp în această industrie, am dezvoltat un instinct de apărare; când aud „colaborare cu o mare companie”, prima reacție este că este doar o strategie de PR. Dar când am început să mă adâncesc în datele de răspuns ale nodului RPC și chiar am făcut să se blocheze un server cloud al meu pentru a-i testa limita de capacitate, a trebuit să recunosc că această aroganță m-a făcut să ratez unele lucruri foarte interesante.

Cei care se concentrează doar pe graficele K nu vor înțelege niciodată de ce Google vrea să își întindă mâna în nodurile de validare de bază ale lui Vanar

În ultimele zile, piața criptomonedelor a fost la fel de haotică ca o oală de terci în clocot, iar diversele monede bazate pe concepte AI dansează în jur. Privind la acele proiecte a căror cărți albe sunt generate de GPT și care își dublează valoarea în fiecare zi, inima mea simte o oarecare agitație. Pentru a mă forța să mă calmez, am închis software-ul de piață și am reluat un script Python pe care nu l-am terminat, intenționând să caut ceva pe rețeaua de testare a lui Vanar. Sincer să fiu, la început, interesul meu pentru această blockchain era limitat la acea veste despre colaborarea cu Google Cloud, care părea un pic prea strălucitoare. După ce am petrecut mult timp în această industrie, am dezvoltat un instinct de apărare; când aud „colaborare cu o mare companie”, prima reacție este că este doar o strategie de PR. Dar când am început să mă adâncesc în datele de răspuns ale nodului RPC și chiar am făcut să se blocheze un server cloud al meu pentru a-i testa limita de capacitate, a trebuit să recunosc că această aroganță m-a făcut să ratez unele lucruri foarte interesante.
·
--
🎙️ 轻松畅聊广交朋友,欢迎币圈朋友一起来探讨熊市怎么度过,输出更多有价值信息和方向🎉
background
avatar
S-a încheiat
03 h 09 m 01 s
8.8k
25
30
·
--
🎙️ 大盘爆跌现货抄底时机🔥分批建仓你都选择了哪些币种?
background
avatar
S-a încheiat
03 h 31 m 22 s
8.3k
26
161
·
--
最近跑了一下Walrus的测试网节点,顺便重读了那篇关于Red Stuff算法的白皮书,体感上这不仅仅是Sui生态的附属品,更像是对Filecoin早期那个笨重证明机制的一次降维打击。现在的存储赛道太卷了,Arweave主打永久存储,但成本曲线对于高频交互的dApp并不友好,特别是当你试图在链上存点稍微大点的多媒体数据时,那个Gas费简直让人想把键盘吃了。Walrus切入点很刁钻,它用纠删码技术替代了传统的全节点复制,这意味着网络不需要每个节点都保存完整数据副本,只需要保存分片。 从实际体验来看,这种架构最大的优势就是快和省。我在本地环境部署时发现,相比于FIL需要昂贵的硬件做密封计算,Walrus对硬件的宽容度高得离谱。这带来的直接结果就是存储成本的指数级下降。目前的去中心化存储最大的伪命题就是所谓的“永久”,其实用户更关心的是数据在需要的时候能不能低延迟地拿回来。在这点上,Arweave的读取速度受限于Blockweave的结构,而Walrus的重建机制在逻辑上更接近CDN的分发效率。不过目前测试网偶尔会有节点同步卡顿的情况,可能是验证节点数量还不够分散导致的,这种中心化的小尾巴在早期很难避免。但如果主网上线后能保持这种低开销的高效检索,对于那些想做全链游戏的开发者来说,吸引力是致命的。必竟,谁也不想为了存一张NFT图片花掉几十刀的成本。 @WalrusProtocol $WAL {future}(WALUSDT) #Walrus
最近跑了一下Walrus的测试网节点,顺便重读了那篇关于Red Stuff算法的白皮书,体感上这不仅仅是Sui生态的附属品,更像是对Filecoin早期那个笨重证明机制的一次降维打击。现在的存储赛道太卷了,Arweave主打永久存储,但成本曲线对于高频交互的dApp并不友好,特别是当你试图在链上存点稍微大点的多媒体数据时,那个Gas费简直让人想把键盘吃了。Walrus切入点很刁钻,它用纠删码技术替代了传统的全节点复制,这意味着网络不需要每个节点都保存完整数据副本,只需要保存分片。
从实际体验来看,这种架构最大的优势就是快和省。我在本地环境部署时发现,相比于FIL需要昂贵的硬件做密封计算,Walrus对硬件的宽容度高得离谱。这带来的直接结果就是存储成本的指数级下降。目前的去中心化存储最大的伪命题就是所谓的“永久”,其实用户更关心的是数据在需要的时候能不能低延迟地拿回来。在这点上,Arweave的读取速度受限于Blockweave的结构,而Walrus的重建机制在逻辑上更接近CDN的分发效率。不过目前测试网偶尔会有节点同步卡顿的情况,可能是验证节点数量还不够分散导致的,这种中心化的小尾巴在早期很难避免。但如果主网上线后能保持这种低开销的高效检索,对于那些想做全链游戏的开发者来说,吸引力是致命的。必竟,谁也不想为了存一张NFT图片花掉几十刀的成本。
@Walrus 🦭/acc $WAL
#Walrus
·
--
告别AWS账单:我用48小时暴力测试Sui链上的存储怪兽,结果令人不安最近实验室的项目因为数据存储成本的问题一直在扯皮,老板嫌AWS S3的账单越来越离谱,师兄建议用IPFS,但我对那个Pinning服务失效导致数据“人间蒸发”的鬼故事实在心有余悸。刚好前几天在推特上看到Move生态里有个新东西冒出来,说是能把数据切碎了扔在去中心化网络里,还能像CDN一样快。抱着死马当活马医的心态,我决定用周末这48小时,把我们组那个几百G的训练数据集扔上去试试,看看这个号称使用“RedStuff”编码技术的家伙到底是骡子是马。 入手的第一感觉是“轻”,真的轻。以前配置Filecoin的节点,光是硬件要求就让我这种穷学生望而却步,硬盘还没跑起来,风扇的声音已经像直升机起飞了。但这个协议的CLI工具装起来意外地顺滑,没有任何多余的依赖库报错,这一点在Web3开发体验里简直是稀有动物。我随手敲了一行命令,把一个5GB的压缩包扔了进去,本以为会像Arweave那样先让我算半天永久存储的费用,或者像Filecoin那样等待矿工接单等到地老天荒,结果终端里的进度条居然开始匀速跑动了。 这里不得不提一下它的核心技术,也是我觉得最“性感”的地方——二维纠删码。简单说,它不像传统云存储那样搞一堆副本备份,也不像Filecoin那样疯狂堆叠算力来做复制证明。它把我的文件像切洋葱一样切成无数个Blob(二进制大对象),然后用数学魔法把这些碎片撒到网络里的各个节点上。即使一大半节点突然断网或者跑路,我依然能把数据毫发无损地还原回来。我在宿舍断网模拟了几次节点掉线,恢复速度快得让我以为它根本没走网络,而是就在我本地硬盘里。 但问题也随之而来,我在测试中发现了一个很诡异的现象,就是所谓的“存储开销”。虽然官方文档说它比Filecoin那种25倍甚至更高的复制成本要低得多,只需要4到5倍的冗余,但在实际操作中,我发现小文件的元数据开销并不低。如果你像我一样试图上传几万张小图片去做NFT元数据,那个Gas费和存储费的计算方式会让你有点头大。相比之下,它似乎更喜欢吞噬大文件,那种几个G的视频或者数据库快照扔进去,性价比瞬间就拉满了。 跟竞品对比的话,IPFS就像个无人管理的公共图书馆,书随时可能丢;Filecoin更像是个深埋地下的金库,存进去容易取出来难,检索速度慢到能让你怀疑人生;而这个新协议给我的感觉更像是一个去中心化的网盘,速度快到不仅能做冷存储,甚至能直接拿来做流媒体的后端。我试着在浏览器里直接通过HTTP网关拉取刚才上传的视频,缓冲几乎是秒开,这在去中心化存储领域里绝对是降维打击。 不过,体验也不是完美的。这周末我大概有一半的时间都在跟它的水龙头(Faucet)较劲。测试网的代币比真正的比特币还难抢,点了十几次才滴出来那么一点点,刚好够我跑完几个测试用例。而且目前的浏览器浏览器虽然能查到Blob的ID,但对于非技术人员来说,界面还是太极客了,全是哈希值和乱码,缺少那种“所见即所得”的文件管理视图。如果你不是那种习惯对着黑底绿字终端敲代码的人,现阶段恐怕还是会觉得门槛有点高。 但这恰恰是我觉得它有机会的地方。Web3一直在喊Mass Adoption(大规模采用),但连存个头像都要去IPFS上折腾半天,怎么可能大规模?这个协议直接把存储变成了Sui链上的原生对象,这意味着以后的智能合约可以直接读写数据,甚至AI Agent可以自动买空间存模型,这种可编程性才是大厂云服务最害怕的噩梦。虽然它现在还满身Bug,但我似乎看到了未来去中心化互联网硬盘该有的样子。 @WalrusProtocol $WAL {future}(WALUSDT) #Walrus

告别AWS账单:我用48小时暴力测试Sui链上的存储怪兽,结果令人不安

最近实验室的项目因为数据存储成本的问题一直在扯皮,老板嫌AWS S3的账单越来越离谱,师兄建议用IPFS,但我对那个Pinning服务失效导致数据“人间蒸发”的鬼故事实在心有余悸。刚好前几天在推特上看到Move生态里有个新东西冒出来,说是能把数据切碎了扔在去中心化网络里,还能像CDN一样快。抱着死马当活马医的心态,我决定用周末这48小时,把我们组那个几百G的训练数据集扔上去试试,看看这个号称使用“RedStuff”编码技术的家伙到底是骡子是马。
入手的第一感觉是“轻”,真的轻。以前配置Filecoin的节点,光是硬件要求就让我这种穷学生望而却步,硬盘还没跑起来,风扇的声音已经像直升机起飞了。但这个协议的CLI工具装起来意外地顺滑,没有任何多余的依赖库报错,这一点在Web3开发体验里简直是稀有动物。我随手敲了一行命令,把一个5GB的压缩包扔了进去,本以为会像Arweave那样先让我算半天永久存储的费用,或者像Filecoin那样等待矿工接单等到地老天荒,结果终端里的进度条居然开始匀速跑动了。
这里不得不提一下它的核心技术,也是我觉得最“性感”的地方——二维纠删码。简单说,它不像传统云存储那样搞一堆副本备份,也不像Filecoin那样疯狂堆叠算力来做复制证明。它把我的文件像切洋葱一样切成无数个Blob(二进制大对象),然后用数学魔法把这些碎片撒到网络里的各个节点上。即使一大半节点突然断网或者跑路,我依然能把数据毫发无损地还原回来。我在宿舍断网模拟了几次节点掉线,恢复速度快得让我以为它根本没走网络,而是就在我本地硬盘里。
但问题也随之而来,我在测试中发现了一个很诡异的现象,就是所谓的“存储开销”。虽然官方文档说它比Filecoin那种25倍甚至更高的复制成本要低得多,只需要4到5倍的冗余,但在实际操作中,我发现小文件的元数据开销并不低。如果你像我一样试图上传几万张小图片去做NFT元数据,那个Gas费和存储费的计算方式会让你有点头大。相比之下,它似乎更喜欢吞噬大文件,那种几个G的视频或者数据库快照扔进去,性价比瞬间就拉满了。
跟竞品对比的话,IPFS就像个无人管理的公共图书馆,书随时可能丢;Filecoin更像是个深埋地下的金库,存进去容易取出来难,检索速度慢到能让你怀疑人生;而这个新协议给我的感觉更像是一个去中心化的网盘,速度快到不仅能做冷存储,甚至能直接拿来做流媒体的后端。我试着在浏览器里直接通过HTTP网关拉取刚才上传的视频,缓冲几乎是秒开,这在去中心化存储领域里绝对是降维打击。
不过,体验也不是完美的。这周末我大概有一半的时间都在跟它的水龙头(Faucet)较劲。测试网的代币比真正的比特币还难抢,点了十几次才滴出来那么一点点,刚好够我跑完几个测试用例。而且目前的浏览器浏览器虽然能查到Blob的ID,但对于非技术人员来说,界面还是太极客了,全是哈希值和乱码,缺少那种“所见即所得”的文件管理视图。如果你不是那种习惯对着黑底绿字终端敲代码的人,现阶段恐怕还是会觉得门槛有点高。
但这恰恰是我觉得它有机会的地方。Web3一直在喊Mass Adoption(大规模采用),但连存个头像都要去IPFS上折腾半天,怎么可能大规模?这个协议直接把存储变成了Sui链上的原生对象,这意味着以后的智能合约可以直接读写数据,甚至AI Agent可以自动买空间存模型,这种可编程性才是大厂云服务最害怕的噩梦。虽然它现在还满身Bug,但我似乎看到了未来去中心化互联网硬盘该有的样子。
@Walrus 🦭/acc $WAL
#Walrus
·
--
这几天因为需要频繁转账U,又被波场的能量机制恶心到了,就在我满世界找能量租赁平台的时候,回头看了一眼Plasma的白皮书,才发现这帮人切入的点有多精准。 很多做公链的都在卷TPS,卷节点数量,好像数据好看了用户就会来。其实用户根本不在乎你每秒能跑多少笔交易,用户只在乎能不能别让我去计算那该死的Gas费。Plasma的Paymaster机制实际上就是在解决这个问题,它允许应用方或者协议层帮用户垫付Gas。这就好比现在的淘宝包邮,买家根本不需要关心快递费是付给了顺丰还是圆通。我在Plasma的测试网跑了几圈,那种不需要在钱包里留一点原生代币当路费的感觉,真的太爽了。 这种设计对于咱们这种老韭菜来说可能只是省了点麻烦,但对于还没进圈的新人,这简直是救命稻草。你很难跟一个圈外人解释为什么转账USDT还需要买另一种完全不认识的币。Tether作为USDT的发行方,显然也意识到了波场的局限性。虽然现在大家都习惯用TRC20,但那是建立在早期低费率的红利上。现在红利吃完了,剩下的就是越来越高的门槛。Plasma背后的资源其实挺耐人寻味的,如果Tether真的想把支付这块蛋糕做大,必须要有一条能承载无感支付的链。 当然,现在说Plasma能翻盘还为时过早。我看了一下链上的数据,真实活跃度跟波场完全不在一个量级。大部分还是撸毛党在交互,真实的商业支付场景还没跑通。而且$XPL现在的币价走势确实不算强势,一直被按在地板上摩擦。但这反而是个机会,毕竟基础设施的价值发现往往都是滞后的。等到大家都觉得好用的时候,那估值早就上天了。与其在Meme里赌命,不如关注这种真正想解决痛点的基建。 @Plasma $XPL {future}(XPLUSDT) #plasma
这几天因为需要频繁转账U,又被波场的能量机制恶心到了,就在我满世界找能量租赁平台的时候,回头看了一眼Plasma的白皮书,才发现这帮人切入的点有多精准。
很多做公链的都在卷TPS,卷节点数量,好像数据好看了用户就会来。其实用户根本不在乎你每秒能跑多少笔交易,用户只在乎能不能别让我去计算那该死的Gas费。Plasma的Paymaster机制实际上就是在解决这个问题,它允许应用方或者协议层帮用户垫付Gas。这就好比现在的淘宝包邮,买家根本不需要关心快递费是付给了顺丰还是圆通。我在Plasma的测试网跑了几圈,那种不需要在钱包里留一点原生代币当路费的感觉,真的太爽了。

这种设计对于咱们这种老韭菜来说可能只是省了点麻烦,但对于还没进圈的新人,这简直是救命稻草。你很难跟一个圈外人解释为什么转账USDT还需要买另一种完全不认识的币。Tether作为USDT的发行方,显然也意识到了波场的局限性。虽然现在大家都习惯用TRC20,但那是建立在早期低费率的红利上。现在红利吃完了,剩下的就是越来越高的门槛。Plasma背后的资源其实挺耐人寻味的,如果Tether真的想把支付这块蛋糕做大,必须要有一条能承载无感支付的链。

当然,现在说Plasma能翻盘还为时过早。我看了一下链上的数据,真实活跃度跟波场完全不在一个量级。大部分还是撸毛党在交互,真实的商业支付场景还没跑通。而且$XPL现在的币价走势确实不算强势,一直被按在地板上摩擦。但这反而是个机会,毕竟基础设施的价值发现往往都是滞后的。等到大家都觉得好用的时候,那估值早就上天了。与其在Meme里赌命,不如关注这种真正想解决痛点的基建。
@Plasma $XPL
#plasma
·
--
模块化叙事的终结与回归:在碎片化的流动性中重估Plasma的单体价值最近这半年我的链上操作体验简直可以用灾难来形容,为了去撸那些所谓Layer 2的空投,我把原本完整的ETH拆分得支离破碎,分散在五六个不同的Rollup网络里。上周我想把资金归集起来去冲一个一级市场的项目,结果光是跨链桥的交互就耗费了我整整一下午的时间,更别提中间那一层层被抽走的磨损费。那一刻我极其怀念早期的单体链时代,没有那么多的资产映射,没有那么多的定序器风险,转账就是转账,确认就是确认。这种对碎片化流动性的极度疲惫,迫使我重新审视那些还在坚持做独立Layer 1的项目,而Plasma就是在这个时间节点重新进入我视野的一个异类。 现在的市场都在鼓吹模块化区块链,仿佛把共识层、执行层和数据可用性层拆开就是通往未来的唯一门票,但我看Plasma的技术白皮书时读出了一种反潮流的野心。它完全放弃了对他链的依赖,坚持自己构建一套完整的验证体系。这种做法在现在的风投机构眼里可能不够性感,属于费力不讨好的重资产模式,但从使用者的角度看,它解决了一个致命的问题,即原子性的丢失。当我在Plasma网络上发起一笔交易时,我不需要担心以太坊主网是否拥堵,也不需要等待几小时后的状态最终确认。这种即时性的快感是目前任何一个Op系Rollup都无法提供的。 为了验证它的性能底色,我特意避开了官方推荐的那些头部节点,自己搭建了一个轻节点来跑数据。令我意外的是,Plasma在同步账本时的资源占用率极低,这说明它的底层代码在状态修剪机制上下了狠功夫。现在的很多公链跑个几年下来,状态爆炸会导致普通硬件根本无法承担节点的运营成本,最终走向中心化。Plasma似乎从一开始就预设了高频支付带来的数据膨胀问题,它采用的那套动态状态存储架构,让轻节点只需要存储最近的快照就能参与验证。这对于去中心化来说是至关重要的,毕竟只有当你在家用一台破笔记本也能跑节点时,这条链才是真正安全的。 不过技术上的优越性掩盖不了生态上的贫瘠。这几天我在Plasma链上逛了一圈,说实话体验有些割裂。它的转账速度快得惊人,几乎是点击发送的瞬间对面就收到了,但当我手里拿着$XPL想去玩点DeFi乐高时,却发现周围一片荒凉。目前的DApp数量少得可怜,仅有的几个Swap不仅UI设计充满了上个世纪的复古感,深度也差强人意。如果你是一个习惯了以太坊生态那种丰富度的DeFi老手,来到这里可能会有一种从繁华都市突然被流放到西部荒漠的落差感。 拿它和Solana做个对比会非常有趣。Solana走的是高性能单体链的极致路线,靠的是硬件堆料,不仅节点门槛高得吓人,而且时不时还要来个全网宕机给大家助助兴。Plasma虽然在TPS数值上没有Solana吹得那么高,但我在高并发测试阶段发现它的出块稳定性要好得多。它似乎并不追求那种为了跑分而存在的极限吞吐量,而是把重点放在了交易确认的确定性上。对于金融支付场景来说,一万TPS和五万TPS的区别其实没那么大,但不宕机、不回滚才是商户敢用的底线。 这就引出了$XPL作为一个独立L1原生代币的价值逻辑。现在的Layer 2代币大多只是个治理权凭证,除了拿来投票几乎没有任何用例,网络的Gas消耗还是得看ETH的脸色。这就导致了一个很尴尬的局面,L2越繁荣,ETH越贵,而L2自己的代币反而没人买。Plasma完全规避了这种寄生关系,$XPL既是网络的安全保证金,也是唯一的燃料。这种经济模型虽然老套,但极其有效。每一次链上交互都在实打实地消耗$XPL,这种供需关系是直接挂钩的。我看了一下最近的链上数据,尽管生态应用不多,但单纯的转账交易笔数在稳步上升,这意味着它正在吸引那些真正有支付需求的用户,而不是只会挖矿的投机客。 当然我也必须吐槽一下它的开发者文档。作为一个偶尔写代码的人,我尝试去读了一下他们的智能合约部署指南,那种晦涩程度简直是在劝退。非EVM兼容的架构本身就设立了很高的门槛,如果官方不能提供足够好用的中间件和SDK,指望以太坊的开发者大规模迁移过来简直是痴人说梦。这是Plasma目前面临的最大危机,如果不能在技术优越性和开发者体验之间找到平衡点,它很可能变成一条技术极客自嗨的鬼链。 但这恰恰也是机会所在。正是因为门槛高、生态荒凉、不仅没有VC抱团喊单,甚至连像样的营销推特都很少见,$XPL的估值才会被压在这个位置。市场总是习惯于奖励那些会讲故事的项目,而惩罚那些埋头做基建的工兵。但当这一轮L2互操作性的泡沫破裂,当大家发现跨链桥不仅贵而且不安全时,资金会本能地寻找那些安全、独立且高效的避风港。我不会把全副身家都压在这里,但作为一个对冲主流叙事的配置,Plasma这种反脆弱的单体链架构,值得我付出耐心去等待那个临界点的到来。 @Plasma $XPL {spot}(XPLUSDT) #plasma

模块化叙事的终结与回归:在碎片化的流动性中重估Plasma的单体价值

最近这半年我的链上操作体验简直可以用灾难来形容,为了去撸那些所谓Layer 2的空投,我把原本完整的ETH拆分得支离破碎,分散在五六个不同的Rollup网络里。上周我想把资金归集起来去冲一个一级市场的项目,结果光是跨链桥的交互就耗费了我整整一下午的时间,更别提中间那一层层被抽走的磨损费。那一刻我极其怀念早期的单体链时代,没有那么多的资产映射,没有那么多的定序器风险,转账就是转账,确认就是确认。这种对碎片化流动性的极度疲惫,迫使我重新审视那些还在坚持做独立Layer 1的项目,而Plasma就是在这个时间节点重新进入我视野的一个异类。
现在的市场都在鼓吹模块化区块链,仿佛把共识层、执行层和数据可用性层拆开就是通往未来的唯一门票,但我看Plasma的技术白皮书时读出了一种反潮流的野心。它完全放弃了对他链的依赖,坚持自己构建一套完整的验证体系。这种做法在现在的风投机构眼里可能不够性感,属于费力不讨好的重资产模式,但从使用者的角度看,它解决了一个致命的问题,即原子性的丢失。当我在Plasma网络上发起一笔交易时,我不需要担心以太坊主网是否拥堵,也不需要等待几小时后的状态最终确认。这种即时性的快感是目前任何一个Op系Rollup都无法提供的。
为了验证它的性能底色,我特意避开了官方推荐的那些头部节点,自己搭建了一个轻节点来跑数据。令我意外的是,Plasma在同步账本时的资源占用率极低,这说明它的底层代码在状态修剪机制上下了狠功夫。现在的很多公链跑个几年下来,状态爆炸会导致普通硬件根本无法承担节点的运营成本,最终走向中心化。Plasma似乎从一开始就预设了高频支付带来的数据膨胀问题,它采用的那套动态状态存储架构,让轻节点只需要存储最近的快照就能参与验证。这对于去中心化来说是至关重要的,毕竟只有当你在家用一台破笔记本也能跑节点时,这条链才是真正安全的。
不过技术上的优越性掩盖不了生态上的贫瘠。这几天我在Plasma链上逛了一圈,说实话体验有些割裂。它的转账速度快得惊人,几乎是点击发送的瞬间对面就收到了,但当我手里拿着$XPL想去玩点DeFi乐高时,却发现周围一片荒凉。目前的DApp数量少得可怜,仅有的几个Swap不仅UI设计充满了上个世纪的复古感,深度也差强人意。如果你是一个习惯了以太坊生态那种丰富度的DeFi老手,来到这里可能会有一种从繁华都市突然被流放到西部荒漠的落差感。
拿它和Solana做个对比会非常有趣。Solana走的是高性能单体链的极致路线,靠的是硬件堆料,不仅节点门槛高得吓人,而且时不时还要来个全网宕机给大家助助兴。Plasma虽然在TPS数值上没有Solana吹得那么高,但我在高并发测试阶段发现它的出块稳定性要好得多。它似乎并不追求那种为了跑分而存在的极限吞吐量,而是把重点放在了交易确认的确定性上。对于金融支付场景来说,一万TPS和五万TPS的区别其实没那么大,但不宕机、不回滚才是商户敢用的底线。
这就引出了$XPL作为一个独立L1原生代币的价值逻辑。现在的Layer 2代币大多只是个治理权凭证,除了拿来投票几乎没有任何用例,网络的Gas消耗还是得看ETH的脸色。这就导致了一个很尴尬的局面,L2越繁荣,ETH越贵,而L2自己的代币反而没人买。Plasma完全规避了这种寄生关系,$XPL既是网络的安全保证金,也是唯一的燃料。这种经济模型虽然老套,但极其有效。每一次链上交互都在实打实地消耗$XPL,这种供需关系是直接挂钩的。我看了一下最近的链上数据,尽管生态应用不多,但单纯的转账交易笔数在稳步上升,这意味着它正在吸引那些真正有支付需求的用户,而不是只会挖矿的投机客。
当然我也必须吐槽一下它的开发者文档。作为一个偶尔写代码的人,我尝试去读了一下他们的智能合约部署指南,那种晦涩程度简直是在劝退。非EVM兼容的架构本身就设立了很高的门槛,如果官方不能提供足够好用的中间件和SDK,指望以太坊的开发者大规模迁移过来简直是痴人说梦。这是Plasma目前面临的最大危机,如果不能在技术优越性和开发者体验之间找到平衡点,它很可能变成一条技术极客自嗨的鬼链。
但这恰恰也是机会所在。正是因为门槛高、生态荒凉、不仅没有VC抱团喊单,甚至连像样的营销推特都很少见,$XPL的估值才会被压在这个位置。市场总是习惯于奖励那些会讲故事的项目,而惩罚那些埋头做基建的工兵。但当这一轮L2互操作性的泡沫破裂,当大家发现跨链桥不仅贵而且不安全时,资金会本能地寻找那些安全、独立且高效的避风港。我不会把全副身家都压在这里,但作为一个对冲主流叙事的配置,Plasma这种反脆弱的单体链架构,值得我付出耐心去等待那个临界点的到来。
@Plasma $XPL
#plasma
·
--
OpenAI发布Sora那天,我在Vanar测试网上看见了Web3的尴尬与真相最近这两周,DeepSeek和Sora的消息把整个科技圈炸得人仰马翻,我朋友圈里那些做Web3的朋友又开始躁动了,言必称“AI+Crypto”是本轮牛市唯一的发动机。看着他们兴奋地转发各种连白皮书都没写完的土狗项目,我只觉得好笑。当所有人都盯着AI生成的炫酷视频时,很少有人去思考一个极其无聊却致命的问题:这些海量的、指数级增长的数据和确权信息,到底该往哪儿搁?以太坊那个每秒十几笔交易的吞吐量,连个简单的DeFi套娃都跑得气喘吁吁,指望它去承载Sora生成的高频元数据,简直是痴人说梦。 带着这种对行业现状的深度怀疑,我把目光重新投向了Vanar。说实话,选它做测试对象不是因为它有多火,而是因为它足够“异类”。在大家都在卷ZK-Rollup、卷模块化的时候,Vanar竟然还在死磕L1的EVM兼容和企业级落地,这种反直觉的打法成功引起了我的注意。为了验证它到底是不是又一个为了圈钱而生的PPT项目,我决定不再看那些光鲜亮丽的营销文档,直接上手写代码,用真实的负载去扒掉它的底裤。 这几天我干了一件极其枯燥的事,就是把一套原本部署在Polygon上的AIGC版权分发协议,尝试迁移到Vanar测试网上。这个协议的逻辑不算复杂,但对交互频次要求极高,每当AI生成一张图,智能合约就需要记录哈希值、创作者签名以及时间戳。在Polygon上跑的时候,我经常遇到Gas费突然飙升导致交易失败的情况,那种不可预测性对于商业应用来说是灾难性的。然而在Vanar上的部署体验,让我这个写了五年Solidity的老兵都愣了一下。我几乎没有修改任何一行核心逻辑代码,只是替换了RPC接口和网络ID,整个合约就跑通了。这种“零摩擦”的迁移体验,说起来容易,做起来极难,它意味着底层的EVM兼容性做得非常扎实,没有为了所谓的创新去搞一些奇奇怪怪的Opcode。 当我们谈论“AI-Ready”时,很多人脑子里想的是链上跑大模型,这纯属外行看热闹。目前的区块链架构根本跑不动神经网络,真正的结合点在于“资产化”和“存证”。我在Vanar的Creator Pad里折腾了一下午,试图模拟一个高频的AI资产生成场景。不得不承认,他们的UI交互做得太像Web2的产品了,没有任何晦涩难懂的术语,甚至连钱包签名的弹窗时机都经过了精心设计。但我这人就是喜欢挑刺,在连续上传了五十个大容量的3D模型文件后,我发现系统的响应速度开始变慢,有一两个文件的元数据甚至卡在链上迟迟没有确认。这显然是节点在处理并发大文件索引时的瓶颈,虽然不致命,但也暴露了目前的基础设施距离真正的“企业级”还有一段路要走。这让我联想到Solana,虽然号称高性能,但只要网络一拥堵就直接宕机,相比之下,Vanar这种“虽然慢了一点但绝不掉线”的稳定性,反而更符合B端客户的口味。 我特意去研究了一下Vanar的Gas机制,这可能是它最被低估的地方。在以太坊生态里,Gas费是根据网络拥堵程度动态调整的,这对于DeFi玩家来说是博弈的乐趣,但对于AI Agent来说就是噩梦。想象一下,你的AI代理原本计算好了一笔交易的成本是0.1美元,结果执行时变成了10美元,整个经济模型瞬间崩塌。Vanar似乎在底层引入了一种平滑机制,即使我在脚本里把并发请求拉满,Gas费的波动依然控制在一个极小的范围内。这种确定性是所有想做链上自动化、想做AI代理的项目方最看重的。它不性感,不适合拿来炒作,但它管用。 说到竞品,我不禁想起了Flow。当年Flow凭借NBA Top Shot的爆火,向世界展示了IP上链的潜力,但Flow那个Cadence语言简直是开发者的噩梦。你得专门为了它去学一门新语言,这对于现在的开发者来说,时间成本太高了。Vanar聪明就聪明在它不搞语言壁垒,它知道现在的存量开发者都在以太坊生态里,直接把门槛降到地板上,只要你会写Solidity,你就是Vanar的开发者。这种“拿来主义”虽然在技术极客眼里不够酷,但在商业竞争中极其有效。不过,Vanar目前的生态确实太冷清了。我在区块浏览器里翻了好几页,除了官方的那几个应用和一些简单的代币转账,几乎看不到什么活跃的第三方DApp。这就像是一条刚修好的高速公路,路面平整,收费便宜,但因为周围没有繁华的城市,所以路上跑的车寥寥无几。 还有一个让我比较在意的点是它与Google Cloud的合作。在很多加密原教旨主义者看来,这简直就是“投降”,是向中心化势力低头。但我反倒觉得这是一步好棋。现在的Web3行业已经过了那个草莽创业的阶段,接下来的增量市场一定是在传统的Web2巨头那里。你指望耐克、迪士尼或者那些AI独角兽公司去用一个完全由匿名节点组成的、随时可能分叉的公链吗?不可能的。他们需要的是背书,是SLA服务等级协议。Vanar引入Google Cloud作为验证节点,其实是在告诉那些大厂:我们这里有你们熟悉的那个世界的安全感。这种混合架构虽然牺牲了一部分抗审查性,但换来的是合规和稳定,这笔买卖在商业逻辑上是划算的。 在测试网蹲守的这几个晚上,我也发现了一些让人啼笑皆非的小Bug。比如他们的区块浏览器在移动端的适配简直是一坨,查个交易哈希还得把手机横过来才能看全。还有那个Creator Pad,有时候明明交易已经上链了,前端页面还在那转圈圈,搞得我以为是RPC节点挂了。这些前端体验上的瑕疵,虽然不影响链的安全性,但真的很影响心情。这也侧面反映出团队目前的重心都在底层基建上,对于用户体验这种“面子工程”还不够重视。 回过头来看,Vanar并不是那种会让你肾上腺素飙升的项目。它没有Sui或者Aptos那种“重新定义区块链”的豪言壮语,也没有比特币那种“数字黄金”的宏大叙事。它更像是一个务实的包工头,看着隔壁都在炒作概念,自己默默地把砖搬好,把路修平。对于我们这种已经被各种高大上的概念割得体无完肤的“老韭菜”来说,这种务实反倒有一种莫名的吸引力。DeepSeek证明了即使没有几万张H100,靠算法优化也能做出顶级的AI;Vanar或许也在证明,不需要重新发明轮子,靠极致的工程优化和正确的商业定位,也能在拥挤的公链赛道里杀出一条血路。 但这并不意味着我就建议你无脑梭哈。生态的冷启动是所有L1面临的生死劫,Vanar现在最大的风险就是能不能把那些所谓的合作伙伴真正转化为链上的活跃用户。如果再过半年,这条链上还是只有官方的那几个Demo在跑,那它技术再好也只是个死掉的标本。现在的它,就像是一个拿着一手好牌但还没机会出牌的选手,我们在场边看着,既期待它能打出王炸,又担心它最后烂在手里。 在这个充满噪音和泡沫的深夜,看着屏幕上跳动的代码,我突然觉得,或许我们都在寻找的那个“Killer App”,不会诞生在那些喧嚣的赌场里,而是会在这条看起来有点冷清、有点无聊,但足够坚实的道路上,悄悄地长出来。@Vanar $VANRY {future}(VANRYUSDT) #Vanar

OpenAI发布Sora那天,我在Vanar测试网上看见了Web3的尴尬与真相

最近这两周,DeepSeek和Sora的消息把整个科技圈炸得人仰马翻,我朋友圈里那些做Web3的朋友又开始躁动了,言必称“AI+Crypto”是本轮牛市唯一的发动机。看着他们兴奋地转发各种连白皮书都没写完的土狗项目,我只觉得好笑。当所有人都盯着AI生成的炫酷视频时,很少有人去思考一个极其无聊却致命的问题:这些海量的、指数级增长的数据和确权信息,到底该往哪儿搁?以太坊那个每秒十几笔交易的吞吐量,连个简单的DeFi套娃都跑得气喘吁吁,指望它去承载Sora生成的高频元数据,简直是痴人说梦。
带着这种对行业现状的深度怀疑,我把目光重新投向了Vanar。说实话,选它做测试对象不是因为它有多火,而是因为它足够“异类”。在大家都在卷ZK-Rollup、卷模块化的时候,Vanar竟然还在死磕L1的EVM兼容和企业级落地,这种反直觉的打法成功引起了我的注意。为了验证它到底是不是又一个为了圈钱而生的PPT项目,我决定不再看那些光鲜亮丽的营销文档,直接上手写代码,用真实的负载去扒掉它的底裤。
这几天我干了一件极其枯燥的事,就是把一套原本部署在Polygon上的AIGC版权分发协议,尝试迁移到Vanar测试网上。这个协议的逻辑不算复杂,但对交互频次要求极高,每当AI生成一张图,智能合约就需要记录哈希值、创作者签名以及时间戳。在Polygon上跑的时候,我经常遇到Gas费突然飙升导致交易失败的情况,那种不可预测性对于商业应用来说是灾难性的。然而在Vanar上的部署体验,让我这个写了五年Solidity的老兵都愣了一下。我几乎没有修改任何一行核心逻辑代码,只是替换了RPC接口和网络ID,整个合约就跑通了。这种“零摩擦”的迁移体验,说起来容易,做起来极难,它意味着底层的EVM兼容性做得非常扎实,没有为了所谓的创新去搞一些奇奇怪怪的Opcode。
当我们谈论“AI-Ready”时,很多人脑子里想的是链上跑大模型,这纯属外行看热闹。目前的区块链架构根本跑不动神经网络,真正的结合点在于“资产化”和“存证”。我在Vanar的Creator Pad里折腾了一下午,试图模拟一个高频的AI资产生成场景。不得不承认,他们的UI交互做得太像Web2的产品了,没有任何晦涩难懂的术语,甚至连钱包签名的弹窗时机都经过了精心设计。但我这人就是喜欢挑刺,在连续上传了五十个大容量的3D模型文件后,我发现系统的响应速度开始变慢,有一两个文件的元数据甚至卡在链上迟迟没有确认。这显然是节点在处理并发大文件索引时的瓶颈,虽然不致命,但也暴露了目前的基础设施距离真正的“企业级”还有一段路要走。这让我联想到Solana,虽然号称高性能,但只要网络一拥堵就直接宕机,相比之下,Vanar这种“虽然慢了一点但绝不掉线”的稳定性,反而更符合B端客户的口味。
我特意去研究了一下Vanar的Gas机制,这可能是它最被低估的地方。在以太坊生态里,Gas费是根据网络拥堵程度动态调整的,这对于DeFi玩家来说是博弈的乐趣,但对于AI Agent来说就是噩梦。想象一下,你的AI代理原本计算好了一笔交易的成本是0.1美元,结果执行时变成了10美元,整个经济模型瞬间崩塌。Vanar似乎在底层引入了一种平滑机制,即使我在脚本里把并发请求拉满,Gas费的波动依然控制在一个极小的范围内。这种确定性是所有想做链上自动化、想做AI代理的项目方最看重的。它不性感,不适合拿来炒作,但它管用。
说到竞品,我不禁想起了Flow。当年Flow凭借NBA Top Shot的爆火,向世界展示了IP上链的潜力,但Flow那个Cadence语言简直是开发者的噩梦。你得专门为了它去学一门新语言,这对于现在的开发者来说,时间成本太高了。Vanar聪明就聪明在它不搞语言壁垒,它知道现在的存量开发者都在以太坊生态里,直接把门槛降到地板上,只要你会写Solidity,你就是Vanar的开发者。这种“拿来主义”虽然在技术极客眼里不够酷,但在商业竞争中极其有效。不过,Vanar目前的生态确实太冷清了。我在区块浏览器里翻了好几页,除了官方的那几个应用和一些简单的代币转账,几乎看不到什么活跃的第三方DApp。这就像是一条刚修好的高速公路,路面平整,收费便宜,但因为周围没有繁华的城市,所以路上跑的车寥寥无几。
还有一个让我比较在意的点是它与Google Cloud的合作。在很多加密原教旨主义者看来,这简直就是“投降”,是向中心化势力低头。但我反倒觉得这是一步好棋。现在的Web3行业已经过了那个草莽创业的阶段,接下来的增量市场一定是在传统的Web2巨头那里。你指望耐克、迪士尼或者那些AI独角兽公司去用一个完全由匿名节点组成的、随时可能分叉的公链吗?不可能的。他们需要的是背书,是SLA服务等级协议。Vanar引入Google Cloud作为验证节点,其实是在告诉那些大厂:我们这里有你们熟悉的那个世界的安全感。这种混合架构虽然牺牲了一部分抗审查性,但换来的是合规和稳定,这笔买卖在商业逻辑上是划算的。
在测试网蹲守的这几个晚上,我也发现了一些让人啼笑皆非的小Bug。比如他们的区块浏览器在移动端的适配简直是一坨,查个交易哈希还得把手机横过来才能看全。还有那个Creator Pad,有时候明明交易已经上链了,前端页面还在那转圈圈,搞得我以为是RPC节点挂了。这些前端体验上的瑕疵,虽然不影响链的安全性,但真的很影响心情。这也侧面反映出团队目前的重心都在底层基建上,对于用户体验这种“面子工程”还不够重视。
回过头来看,Vanar并不是那种会让你肾上腺素飙升的项目。它没有Sui或者Aptos那种“重新定义区块链”的豪言壮语,也没有比特币那种“数字黄金”的宏大叙事。它更像是一个务实的包工头,看着隔壁都在炒作概念,自己默默地把砖搬好,把路修平。对于我们这种已经被各种高大上的概念割得体无完肤的“老韭菜”来说,这种务实反倒有一种莫名的吸引力。DeepSeek证明了即使没有几万张H100,靠算法优化也能做出顶级的AI;Vanar或许也在证明,不需要重新发明轮子,靠极致的工程优化和正确的商业定位,也能在拥挤的公链赛道里杀出一条血路。
但这并不意味着我就建议你无脑梭哈。生态的冷启动是所有L1面临的生死劫,Vanar现在最大的风险就是能不能把那些所谓的合作伙伴真正转化为链上的活跃用户。如果再过半年,这条链上还是只有官方的那几个Demo在跑,那它技术再好也只是个死掉的标本。现在的它,就像是一个拿着一手好牌但还没机会出牌的选手,我们在场边看着,既期待它能打出王炸,又担心它最后烂在手里。
在这个充满噪音和泡沫的深夜,看着屏幕上跳动的代码,我突然觉得,或许我们都在寻找的那个“Killer App”,不会诞生在那些喧嚣的赌场里,而是会在这条看起来有点冷清、有点无聊,但足够坚实的道路上,悄悄地长出来。@Vanarchain $VANRY
#Vanar
·
--
别被那些披着AI外衣的EVM侧链给忽悠了 市面上现在跑出来的所谓AI公链,十个有九个是挂羊头卖狗肉。扒开底层代码一看,基本就是把以太坊那套东西fork过来,然后搞个跨链桥就开始吹自己是智能体专用链。这几天深度折腾了一下Vanar Chain的测试网,这种感觉特别强烈——它确实和那帮仅仅在EVM上做加法的L2不一样,但这种差异感能不能转化成生产力还真得打个问号。 以前在Arbitrum上跑个简单的交易机器人,光是Gas费的优化就能把头发熬白,更别提那个让人心态爆炸的延迟。Vanar给我的冲击在于它那种近乎Web2的响应速度,特别是处理高频小额交互的时候,几乎感觉不到这是在和区块链打交道。它似乎把重心完全放在了降低磨损上,这一点对于需要频繁调用链上数据的AI Agent来说简直是续命。相比之下,Base虽然背靠Coinbase大树,但在处理这种微交易流时,依然摆脱不了以太坊那个昂贵账本的阴影。 但这并不代表Vanar就完美无缺。我在部署合约的时候发现,它的RPC节点稳定性在高峰期有点迷,偶尔会出现请求超时的情况,这对于追求极致稳定性的金融类AI应用来说是致命伤。而且现有的开发者工具链相比Solana那种成熟的体系,显得相当稚嫩,很多时候遇到报错去搜Github,只能看到一片荒芜。它就像是一个刚铺好赛道的F1赛车场,路面确实平整,但周边的维修站和加油站还没建好。如果项目方不能尽快把这些基础设施补齐,再好的底层架构也只能是个空壳子。 @Vanar $VANRY {future}(VANRYUSDT) #Vanar
别被那些披着AI外衣的EVM侧链给忽悠了
市面上现在跑出来的所谓AI公链,十个有九个是挂羊头卖狗肉。扒开底层代码一看,基本就是把以太坊那套东西fork过来,然后搞个跨链桥就开始吹自己是智能体专用链。这几天深度折腾了一下Vanar Chain的测试网,这种感觉特别强烈——它确实和那帮仅仅在EVM上做加法的L2不一样,但这种差异感能不能转化成生产力还真得打个问号。

以前在Arbitrum上跑个简单的交易机器人,光是Gas费的优化就能把头发熬白,更别提那个让人心态爆炸的延迟。Vanar给我的冲击在于它那种近乎Web2的响应速度,特别是处理高频小额交互的时候,几乎感觉不到这是在和区块链打交道。它似乎把重心完全放在了降低磨损上,这一点对于需要频繁调用链上数据的AI Agent来说简直是续命。相比之下,Base虽然背靠Coinbase大树,但在处理这种微交易流时,依然摆脱不了以太坊那个昂贵账本的阴影。

但这并不代表Vanar就完美无缺。我在部署合约的时候发现,它的RPC节点稳定性在高峰期有点迷,偶尔会出现请求超时的情况,这对于追求极致稳定性的金融类AI应用来说是致命伤。而且现有的开发者工具链相比Solana那种成熟的体系,显得相当稚嫩,很多时候遇到报错去搜Github,只能看到一片荒芜。它就像是一个刚铺好赛道的F1赛车场,路面确实平整,但周边的维修站和加油站还没建好。如果项目方不能尽快把这些基础设施补齐,再好的底层架构也只能是个空壳子。
@Vanarchain $VANRY
#Vanar
·
--
Recent, pentru a calcula veniturile potențiale din recompensele rețelei principale Dusk, m-am hotărât să implementez nodurile lor. Sincer, întregul proces mi-a dat senzația a două cuvinte: descurajare. Dacă ești obișnuit cu scripturile din Solana sau cu interacțiunea simplistă din Ethereum L2, venind la Dusk aici cu siguranță vei avea parte de o dezamăgire. Cerințele pentru hardware nu sunt la fel de ridicate ca cele necesare pentru Sui, ci se axează pe o cerință aproape obsesivă de siguranță a mediului. Am urmărit jurnalul de sincronizare o vreme îndelungată și am descoperit că stratul de consens SBA al acestuia funcționează logic complet diferit față de PoS-urile cu care suntem familiarizați. Nodurile din blockchains obișnuite se străduiesc să transmită semnale pentru a obține dreptul de a crea blocuri, temându-se că altcineva nu va ști că sunt online; nodurile Dusk însă joacă un joc de-a v-ați ascunselea. Mecanismul de ofertă oarbă Blind Bid este într-adevăr ingenios, nodurile fiind complet invizibile înainte de a obține dreptul de a contabiliza. Această design protejează împotriva atacurilor DDoS direcționate către noduri specifice, dar face ca întreținerea să fie extrem de dureroasă. Nu ai cum să monitorizezi direct dacă nodul tău se află pe lista de candidați, ci doar să te uiți la valorile hash criptate fără a înțelege nimic. Comparându-l cu Aleo, Aleo este acel tip tipic care își bazează puterea de calcul pe brute-force, având o puternică amprentă de miner; Dusk este mai degrabă un ceas elvețian de precizie, fiecare rotiță trebuie să se potrivească perfect. Această arhitectură face ca rețeaua să fie extrem de robustă, dar scalabilitatea va fi cu siguranță limitată la început. Cea mai mare îngrijorare a mea acum este că această barieră tehnologică ridicată ar putea duce la o concentrare excesivă a nodurilor timpurii în mâinile câtorva instituții profesionale. Deși documentația oficială continuă să sublinieze descentralizarea, în realitate, operarea manuală arată că investitorii obișnuiți nu pot participa la consens, nici măcar nu pot configura mediul de generare a dovezilor zero-knowledge fără dificultăți. Dar, gândindu-mă dintr-o altă perspectivă, aceasta ar putea fi tocmai mecanismul de selecție pe care ei îl doresc. La urma urmei, se concentrează pe piața de valori mobiliare reglementate; dacă nodurile ar fi pedepsite ușor din cauza deconectării sau a configurării greșite, acțiunile și obligațiunile de pe platformă ar fi fost deja în haos. Această abordare de a sacrifica ușurința de utilizare pentru siguranță, deși pare nepotrivită în această piață agitată care caută un TPS ridicat, oferă un sentiment de siguranță pentru acele instituții care intră cu sume mari de bani. #dusk @Dusk_Foundation $DUSK {spot}(DUSKUSDT)
Recent, pentru a calcula veniturile potențiale din recompensele rețelei principale Dusk, m-am hotărât să implementez nodurile lor. Sincer, întregul proces mi-a dat senzația a două cuvinte: descurajare. Dacă ești obișnuit cu scripturile din Solana sau cu interacțiunea simplistă din Ethereum L2, venind la Dusk aici cu siguranță vei avea parte de o dezamăgire. Cerințele pentru hardware nu sunt la fel de ridicate ca cele necesare pentru Sui, ci se axează pe o cerință aproape obsesivă de siguranță a mediului.

Am urmărit jurnalul de sincronizare o vreme îndelungată și am descoperit că stratul de consens SBA al acestuia funcționează logic complet diferit față de PoS-urile cu care suntem familiarizați. Nodurile din blockchains obișnuite se străduiesc să transmită semnale pentru a obține dreptul de a crea blocuri, temându-se că altcineva nu va ști că sunt online; nodurile Dusk însă joacă un joc de-a v-ați ascunselea. Mecanismul de ofertă oarbă Blind Bid este într-adevăr ingenios, nodurile fiind complet invizibile înainte de a obține dreptul de a contabiliza. Această design protejează împotriva atacurilor DDoS direcționate către noduri specifice, dar face ca întreținerea să fie extrem de dureroasă. Nu ai cum să monitorizezi direct dacă nodul tău se află pe lista de candidați, ci doar să te uiți la valorile hash criptate fără a înțelege nimic.

Comparându-l cu Aleo, Aleo este acel tip tipic care își bazează puterea de calcul pe brute-force, având o puternică amprentă de miner; Dusk este mai degrabă un ceas elvețian de precizie, fiecare rotiță trebuie să se potrivească perfect. Această arhitectură face ca rețeaua să fie extrem de robustă, dar scalabilitatea va fi cu siguranță limitată la început. Cea mai mare îngrijorare a mea acum este că această barieră tehnologică ridicată ar putea duce la o concentrare excesivă a nodurilor timpurii în mâinile câtorva instituții profesionale. Deși documentația oficială continuă să sublinieze descentralizarea, în realitate, operarea manuală arată că investitorii obișnuiți nu pot participa la consens, nici măcar nu pot configura mediul de generare a dovezilor zero-knowledge fără dificultăți.
Dar, gândindu-mă dintr-o altă perspectivă, aceasta ar putea fi tocmai mecanismul de selecție pe care ei îl doresc. La urma urmei, se concentrează pe piața de valori mobiliare reglementate; dacă nodurile ar fi pedepsite ușor din cauza deconectării sau a configurării greșite, acțiunile și obligațiunile de pe platformă ar fi fost deja în haos. Această abordare de a sacrifica ușurința de utilizare pentru siguranță, deși pare nepotrivită în această piață agitată care caută un TPS ridicat, oferă un sentiment de siguranță pentru acele instituții care intră cu sume mari de bani.
#dusk @Dusk $DUSK
Conectați-vă pentru a explora mai mult conținut
Explorați cele mai recente știri despre criptomonede
⚡️ Luați parte la cele mai recente discuții despre criptomonede
💬 Interacționați cu creatorii dvs. preferați
👍 Bucurați-vă de conținutul care vă interesează
E-mail/Număr de telefon
Harta site-ului
Preferințe cookie
Termenii și condițiile platformei