作者:郭涡轮,Mirror
总而言之:
Modulus labs通过链下执行ML计算并灵活生成zkp的方式实现了可验证AI,本文从应用视角重新部署该方案,分析其在哪些场景是刚需的,而在哪些场景需求较弱,最后延牵横向的和纵向统一的基于公链的AI生态模式,主要内容有:
需要是否可验证AI依据:是否修改链上数据,以及是否涉及公平和隐私
当AI不影响链上状态时,AI可以充当建议者,人们可以通过实际效果判断AI服务质量好坏,无需对计算过程进行验证。
当影响链上状态时,若该服务针对个人且某隐私有影响,则用户仍可以直接判断AI服务质量抽取检验计算过程。
当AI的输出会影响多人间的公平和个人隐私时,比如用AI给社区成员评价并分配奖励,用AI优化AMM,或涉及生物数据,就会希望对AI的计算进行审查,这是可以的验证AI可能找到PMF的位置。
纵向的AI应用生态:由于可验证AI的尾部是智能合约,可验证AI应用之间既然AI和原生dapp之间或许可以实现消耗信任地交互调用,这是潜在的可组合的AI应用生态
横向的AI应用生态:公链系统可以为AI服务商处理服务付费、支付瓶颈协调、用户需求和服务内容的匹配等问题,让用户获得自由度更高的去中心化AI服务体验。
1. Modulus Labs简介与应用案例
1.1 简介与核心方案
Modulus Labs是一家“链上”AI公司,其认为AI可以显着提升智能合约的能力,使web3应用变得更加强大。但AI评价web3时存在一个矛盾,即AI的运行需要大量算力,而链下计算中的AI是一个黑盒子,这并不符合web3去信任、可验证的基本要求。
因此,Modulus Labs 峰会 zk rollup【链下修复+链上验证】的方案,提出了可验证 AI 的架构,具体为:ML 模型在链下运行,另外在链下为 ML 的计算过程生成一个 zkp ,通过该 zkp 可以验证链下模型的架构、权限重和输入(inputs),当然这个 zkp 也可以发布到链上由智能合约进行验证。此时 AI 和链上合约就可以进行更多去信任的交互,大概实现了“链上AI”。
基于可验证的 AI 思路,Modulus Labs 目前推出了三个“链上 AI”应用,同时也提出了许多可能的应用场景。
1.2 应用案例
第一个推出的是Rocky bot,一个自动交易AI。Rocky由wEth/USDC交易对的历史数据训练而来。其根据历史数据判断未来weth走势,做出交易决策后会为决策过程(计算过程)生成一个 zkp ,转发 L1 发送消息触发交易。
第二个是链上国际象棋游戏“Leela vs the World”,游戏双方是AI和人,棋局情况放在合约里。玩家通过钱包进行操作(与合约交互)。而AI读取新的棋局情况,完成判断,并为整个计算过程生成 zkp ,这两步都是在 AWS 云上,而 zkp 交由链上的合约验证,验证成功后调用棋局合约“下棋”。
第三个是“链上”AI艺术家,并推出了NFT系列zkMon,核心在于AI生成NFT并发布至链上,同时生成一个zkp,用户通过zkp查验自己的NFT是否生成对应的AI模型。
此外,Modulus Labs 还提及了其他一些例子:
利用AI评估个人链上数据等信息,生成个人积分奖励,并发布zkp供用户验证;
利用AI优化AMM的表现,并发布zkp供用户验证;
利用可验证的AI帮助隐私项目应对监管压力,但同时不暴露隐私(可能是利用ML证明此交易并非洗黑钱,同时不暴露用户地址等信息);
AI天气预报,同时发布zkp提供所有者查验链下数据可靠性;
AI模型比赛,比赛者提交自己的架构和权重,然后用统一的测试输入跑模型,为装甲生成zkp,最终契约会自动将奖金发放给模拟者;
Worldcoin称在未来,或许可以让用户在本地设备下载完为虹膜生成对应代码的模型,本地运行模型并生成zkp,这样链上合约可以用zkp验证用户的虹膜代码生成自正确的模型以及合理的虹膜,同时让生物信息不离开用户自己的设备;
1.3 基于对可验证AI的需求讨论不同应用场景
1.3.1 可能需要验证AI的场景
在Rocky bot的场景下,用户可能没有验证ML计算过程的需求。第一,用户并没有专业知识,根本没有能力做真正的验证。即使有验证工具,在用户看来都是【自己按了一个】按钮,界面弹窗是告诉自己这次的AI服务确实是由某个模型生成的】,无法确定真实性。第二,用户没有需求进行验证,因为用户在乎这个ai的意义是否高。当既然不高时用户就会迁移,且永远会选择效果最好的模型。总之,当用户追求的是 AI 的最终效果时,验证过程可能意义不大,因为用户只需要迁移至效果最好的模型服务即可。
**一种可能的方案是:AI只作为建议者,用户自主执行交易。**当人们把自己的交易目标输入AI后,AI在链下计算并返回一个更好的交易路径/交易方向,用户选择是否进行执行。人们也不需要验证背后的模型,只需选择收益最高的产品。
另一种危险但极有可能出现的情况是,人们根本不在乎自己对资产的控制权以及AI腐蚀过程,当一个自动挣钱的机器人出现时,人们甚至愿意把钱直接托管给它,正如将代币打入CEX或传统银行进行理财一般。人们并不会在乎背后的原理,只能在乎他们最后得到多少钱,甚至只能在乎项目方给其显示挣了多少钱,因为这种服务可能也能够快速获取大量用户,甚至比使用可验证AI的项目方产品迭代速度更快。
退一步看,如果AI根本不参与链上状态修改,那么如果将链上数据拉下来为用户进行消耗,则也没有为计算过程生成ZKP的需求。这里将此类应用变成【数据服务】 】,下面是几个案例:
Mest提供的聊天框是典型的数据服务,用户可以用问答的方式了解自己的链上数据,比如询问自己在nft上花了多少钱;
ChainGPT是一个多功能的AI助手,它可以在交易前为你解读智能合约,告诉你是否与正确的池子进行交易,或者告诉你交易是否可能被夹或抢跑。ChainGPT也准备做AI新闻推荐,输入提示自动生成图片并发布成NFT等各种服务;
RSS3 提供了选择 AIOP ,使用户可以自己想要什么上链数据,并做一定的上链数据,从而方便地选择特定的上链数据训练 AI;
DefiLlama 和 RSS3 也开发了 ChatGPT 插件,用户可以通过对话获取链上数据;
1.3.2 需要验证AI的场景
本文认为涉及多个,涉及公平和隐私的场景,需要 ZKP 提供验证,在此针对 Modulus Labs 提及的几个应用进行讨论:
当社区基于AI生成的个人奖励发放奖励时,社区成员必然会要求对决策过程进行审查,这个决策过程就是ML的计算过程;
AI优化AMM的涉及到多个之间的利益分配,也需要定期查验AI的计算过程;
在平衡隐私和监管时,ZK是目前比较好的方案之一,若服务方在服务中使用ML处理隐私数据,则需要为整个计算过程生成ZKP;
由于预测机影响范围较广,若由AI进行调节,就需要定期生成ZKP来查验AI是否正常运行;
在比赛中,公众和其他参赛者有需求查验ML的损坏是否符合比赛规范;
在世界币的潜在案例中,保护个人生物数据同样是一个抑制需求;
总体来说,当人工智能类似一个决策者时,其输出影响范围极广且涉及到多方的公平时,而人们会要求对决策过程进行审查,或者只是简单地保证人工智能的决策过程没有大的问题,而保护个人隐私就是非常直接的需求了。
因此,【AI输出是否链上状态】和【修改是否需要影响公平/隐私】,是判断AI方案是否可验证的两个标准
当AI输出不修改链上状态时,AI服务可以充当建议者的身份,可以通过建议效果判断AI服务质量好坏,无需对计算过程进行验证;
当AI输出修改链上状态时,若该服务仅针对个人且不对隐私有影响,则用户仍可以直接判断AI服务质量检验计算过程;
当AI的输出会直接影响多人间的公平性,并且AI是自动修改链上数据时,社区和公众就对AI决策过程进行检验的需求;
当ML处理的数据涉及个人隐私时,同样需要zk来保护隐私,并提出应对监管要求。
2. 两种基于公链的AI生态模式
无论如何,Modulus Labs 的方案对 AI 结合加密货币并带来实际应用价值具有很大的启示意义。但公链体系不仅能够提升单个 AI 服务的能力,而且有潜力构建新的 AI 应用生态。新生态带来了引人注目的Web2的AI服务间关系,AI服务与用户的协作方式,必然是上下游各个环节的协作方式,我们可以把潜在的AI生态模式归纳为纵向模式和横向模式两种。
2.1 纵向模式:注意力实现AI之间的可组合性
“Leela vs the World”链上国际象棋这个例子有一个特殊的地方,人们可以为人类或者AI下注,结束比赛后自动分配代币。此时zkp的意义不仅仅提供用户验证AI计算的过程,而且是作为触发链上状态转换的信任。有了信任保障,AI服务之间,AI和加密货币dapp之间也可能拥有dapp级别的可组合性。
可组合 AI 的基本单元是【链下 ML 模型-zkp 生成-链上验证合约-主合约】,该单元在“Leela vs the World”的框架中充实,但实际的单个 AI dapp 的架构可能和上图展示的不一样。一是国际象棋中棋局情况需要一个合约,但现实情况下AI可能不需要一个链上合约。但就可组合AI的架构来看,如果主要业务是通过合约进行记录,其他二是主合约影响不一定需要AI dapp本身的ML模型,因为某个AI dapp可能是单向影响的,ML模型处理完成后触发自身业务相关的合约即可,而该合约又会被其他dapp进行调用。
延展来看,合约之间的调用是不同web3应用之间的调用,是个人身份、资产、金融服务、社交信息的调用,我们可以设想一种具体的AI应用的组合:
Worldcoin 使用 ML 为个人虹膜数据生成虹膜代码以及 zkp;
AI应用先此DID是否为真人(背后有虹膜数据),根据链上信誉为用户分配NFT;
网络服务根据用户拥有的 NFT 调整网络共享;
......
在公链框架下的AI间互动并不是一件一起讨论的事情,全链游戏领域生态贡献者Loaf曾提出,AI NPC之间可以和玩家一样交互交易,使得整个经济系统可以自我优化并自动AI Arena开发了一个AI自动对战的游戏,用户首先购买一个NFT,一个NFT代表一个战斗机器人,背后是一个AI模型。用户先自己玩游戏,然后把数据交换AI模拟学习,当用户觉得这个AI足够强的时候就可以放到竞技场中和其他AI自动对战。Modulus Labs提到的AI Arena希望把这些AI都转化为可验证的AI。这两个案例中都看到了AI间进行,并直接交互在交易时修改链上数据的可能性。
但如何组合 AI 在具体实现上终止大量待讨论的问题,例如不同的 dapp 利用普遍的 zkp 或者验证合约等。不过在 zk 领域也有大量优秀项目,比如 RISC Zero 在链下进行复杂的缺血性 zkp发布至链上这方面有许多进展,或许天就可以组合出合适的方案。
2.2 横向模式:实现停车场去中心化的AI服务平台
在这方面,我们主要介绍一个叫SAKSHI的去中心化AI平台,它由来自普林斯顿、清华大学、伊利诺伊大学香槟分校、香港科技大学、Witness Chain和Eigen Layer的人员共同提出。其核心目标是让用户能够以更加去中心化的方式获得AI服务,使得整个流程更加去信任化和自动化。
SAKSHI的架构可以分为六层:分别是服务层(Service Layer)、控制层(Control Layer)、交易层(Transation Layer)、证明层(Proof Layer)、经济层(Economic Layer)和市场层(Marketplace) )
市场是最接近用户的层次,市场上有聚合器来代表不同的AI供应商向用户提供服务,通过用户聚合器下单并和聚合器就服务质量和支付价格达成协议(协议被称为SLA) -服务级别协议)。
接下来的服务层会为客户端头部提供API,然后客户端头部向聚合器发起ML推理请求,请求被传送至匹配AI服务提供方的服务器(传输请求所用的路由是控制层的一部分)。,服务层和控制层类似一个拥有多个服务器的web2的服务,但不同的服务器由不同的主体运营,单个服务器通过SLA(之前的服务协议)和聚合器进行关联。
SLA以智能合约的形式部署在链上,这些合约都属于交易层(注:这里方案中部署在见证链上)。交易层会记录记账服务订单的当前状态,并用于协调用户、聚合器和服务提供方,解决支付难题。
为了让交易层在处理问题时有据可依,论证层(Proof Layer)将检验服务是否符合 SLA 的约定使用模型。但 SAKSHI 并没有选择为 ML 计算过程生成 zkp ,而是用乐观论证的思路,希望建立挑战者节点网络来对服务进行检验,节点受到见证链承担。
虽然 SLA 和挑战者节点网络都在 Witness Chain 上,但在 SAKSHI 的方案中,Witness Chain 并不打算用改造自己的代币励志实现独立的安全性,而是通过 Eigen Layer 来借用以太坊的安全性,因此整个经济层其实是依托于 Eigen Layer 的。
可以看出,SAKSHI围绕AI服务方和用户之间,将不同的AI用去中心化的方式组织起来为用户提供服务,这形成了一个横向上的方案。SAKSHI的核心所在,它让AI服务重点更集中于管理自己的链下模型计算,通过链上协议完成用户需求和模型服务的撮合、服务的支付和服务质量的验证,并尝试自动化解决支付难题。当然,目前SAKSHI还是一个理论阶段,同样有大量执行的细节值得确定。
3.未来展望
无论是可组合AI还是去中心化AI平台,公链的AI生态模式似乎都有共通之处。比如,AI服务商均不直接和用户进行对接,其只需提供ML模型并在链下进行计算支付、难题解决、用户需求和服务之间的撮合,都可以通过去中心化的协议解决。公链作为一种去信任的基础设施,减少了服务方和用户之间的难度,此时用户也拥有更高的自主权。
以公链为应用基础的优势虽然老生常谈,但也适用于AI服务。而AI应用和存粹的dapp应用不同的场所,AI应用无法将全部计算放在链上,所以用zk还是乐观证明让AI服务以更多去信任的方式接入公链系统。
随着账户抽象等一系列体验优化方案的落地,用户可以感知不到助记词、链和gas等的存在,这让公链生态在体验上接近web2,而用户可以获得比web2更高的服务自由度及可组合性,这让用户产生了更大的吸引力,以公链为基础的AI应用生态值得期待。
本站所有软件信息均由用户上传发布,版权归原著所有。如有侵权/违规内容,敬请来信告知邮箱:764327034@qq.com,我们将及时撤销! 转载请注明出处:https://czxurui.com/zx/88993.html
发表回复
评论列表(0条)