在7月1号Hyperdrive升级后,星际文件系统(InterPlanetary File System,简称IPFS)生态又一次得到改善。Gas费用下降,几乎可以忽略不计。这促使存储提供商更热情地封装扇区,每日算力的增长速度比之前增长了60%。同时,初始质押也增加,因此市场流通量的增长放缓。
而8月份以来,FIL流通量每天平均增加58126枚。根据官方发布模式,10月15号,FIL12到期后,每日流入市场的FIL数量将减少87183枚。换句话说,FIL每日数量预计将减少29057枚,再次进入下降趋势。
但随着全网每日算力不断提高,一方面全网算力在超过基线要求的情况下的产出有所下降,另一方面初始质押总量和Gas消耗量将持续增加。这可能导致FIL的供需市场转向供不应求的状态。
现在FIL处于低位,许多人选择参与其中,看好项目前景,等待进一步的爆发。在进行FIL挖矿时,需要进行数据封装。封装速度取决于完成P1、P2、C1、C2等步骤,将文件切成无数碎片,大小为256KB,最终完成密封。
具体来说,P1P2C1C2表示文件封装的四个过程:precommit1、precommit2、commit1、commit2。
首先是P1阶段,将文件分割并装箱,由于在IPFS网络中,文件都被切片且大小不能超过256K,因此需要大量的CPU消耗。因此,现在我们可以看到Filecoin的矿机是使用AMD的CPU。
接着是P2阶段,将装成小箱的数据碎片进行文件名和信息的记录生成动态散列列表;然后进行查找文件。这一过程通常需要使用显卡资源,因此封装机通常会加装一个显卡进行处理。接下来,我们将数据放入小盒子,并生成文件的信息表。
第三阶段是C1阶段,为这些小盒子贴上标签,通常只需要几十秒时间。
最后一个阶段是C2阶段,进行零知识证明,为以后的时空证明做准备。零知识证明是在存储阶段时,可以在不知道具体存储内容的情况下证明自己保存了该文件。其中一半步骤需要大量的并行计算,因此所有算力机都是必需的工具。
总结:封装数据的过程就是P1P2C1C2。
P1阶段是分割装箱,需要AMDCPU消耗,可能需要数小时时间。
P2阶段是生成文件信息表,也叫动态哈希列表DHT,通常需要使用显卡,完成时间大约为几十分钟。
C1阶段是贴标签,通常只需要几十秒。
C2阶段是进行零知识证明,一般运行时间为30-40分钟左右。
如今,因特网发展迅速,Web2.0正在向Web3.0发展。全球每天生成的数据越来越多。然而,传统的HTTP中心化协议无法存储每日产生的数据。
如何保证人们在互联网上生成的数据?如何存储这些数据?如何更快地传递这些数据?这是因特网发展到目前亟需解决的问题。
5G已经到来,6G也即将到来。人类已经进入互联互通的环境,每天产生的数据量巨大。IPFS主要解决了我们产生大量数据但没有储存的问题。如果生成的数据无法安全储存,Web3.0也无法实现。因此,可以预见IPFS在市场上有巨大的空间。
本站所有软件信息均由用户上传发布,版权归原著所有。如有侵权/违规内容,敬请来信告知邮箱:764327034@qq.com,我们将及时撤销! 转载请注明出处:https://czxurui.com/zx/19410.html
发表回复
评论列表(0条)