引言
公共区块链的兴起是计算机科学史上的重要里程碑,而人工智能的发展正深刻影响着我们的世界。区块链技术为交易结算、数据存储和系统设计提供了新的模板,而人工智能则在计算、分析和内容交付方面引领了一场革命。这两个领域的创新正在催生新的用例,未来数年可能加速两者的融合。本报告探讨了加密货币和人工智能的持续集成,重点分析了弥合两者差距、利用两者力量的新颖用例。具体而言,本报告研究了开发去中心化计算协议、零知识机器学习 (zkML) 基础设施和人工智能代理的项目。
加密货币为人工智能提供了无需许可、无需信任且可组合的结算层。这不仅解锁了如通过去中心化计算系统使硬件更易访问等用例,还推动了构建可执行复杂任务的人工智能代理,以及开发对抗 Sybil 攻击和深度伪造的身份和来源解决方案。人工智能也为加密货币带来了诸多益处,如通过大型语言模型(如 ChatGPT 和 Copilot)增强用户体验 (UX),并显著提升智能合约的功能和自动化潜力。区块链为人工智能提供了透明的数据丰富环境,但其计算能力有限,这是直接集成人工智能模型的主要障碍。
加密货币和人工智能交叉领域正在进行的实验和最终采用背后的驱动力与推动加密货币最有前途的用例的驱动力相同——访问无需许可和去信任化的协调层,以更好地促进价值转移。鉴于这一巨大潜力,该领域的参与者需要了解这两种技术交叉的基本方式。
要点:
术语
人工智能是利用计算和机器来模仿人类的推理和解决问题的能力。
神经网络是人工智能模型的一种训练方法,通过离散的算法层运行输入,对其进行改进,直至产生所需输出。神经网络由具有权重的方程组成,可以修改权重来改变输出。它们可能需要大量的数据和计算进行训练,以便其输出准确。这是开发人工智能模型最常见的方式之一(如 ChatGPT 使用依赖于 Transformer 的神经网络过程)。
训练是开发神经网络和其他人工智能模型的过程,需要大量数据来训练模型以正确解释输入并产生准确输出。在训练过程中,模型方程的权重不断修改,直至产生令人满意的输出。培训费用可能非常昂贵,例如 ChatGPT 使用数万个 GPU 处理数据。资源较少的团队通常依赖专门的计算供应商,如 Amazon Web Services、Azure 和 Google Cloud 供应商。
推理是实际使用 AI 模型获取输出或结果的过程(例如,使用 ChatGPT 为有关加密货币和 AI 交集的论文创建大纲)。推理在整个培训过程和最终产品中都会使用。由于计算成本的原因,即使在训练完成后,运行成本也可能很高,但其计算强度低于训练。
零知识证明 (ZKP) 允许在不泄露基础信息的情况下验证声明。这在加密货币中非常有用,主要有两个原因:1) 隐私和 2) 扩展。为了保护隐私,这使用户能够在不泄露敏感信息(如钱包中有多少 ETH)的情况下进行交易。对于扩展而言,它使链下计算能够比重新执行计算更快地在链上得到证明。这使得区块链和应用程序能够廉价地在链外运行计算,然后在链上验证它们。有关零知识及其在以太坊虚拟机中的作用的更多信息,请参阅 Christine Kim 的报告 zkEVMs:以太坊可扩展性的未来。
人工智能/加密货币市场地图
人工智能和加密货币集成的项目仍在构建支持大规模链上人工智能交互所需的底层基础设施。去中心化计算市场正在兴起,以提供训练和推理人工智能模型所需的大量物理硬件,主要以图形处理单元 (GPU) 的形式。这些双向市场将那些租赁和寻求租赁计算的人连接起来,促进价值的转移和计算的验证。在去中心化计算中,正在出现几个提供附加功能的子类别。除了双边市场之外,本报告还将审查专门提供可验证培训和微调输出的机器学习培训供应商,以及致力于连接计算和模型生成以实现人工智能的项目,也经常被称为智能激励网络。
zkML 是希望以经济有效且及时的方式在链上提供可验证模型输出的项目的一个新兴重点领域。这些项目主要使应用程序能够处理链下繁重的计算请求,然后在链上发布可验证的输出,证明链下工作负载是完整且准确的。zkML 在当前实例中既昂贵又耗时,但越来越多地被用作解决方案。这在 zkML 供应商和想要利用 AI 模型的 DeFi/游戏应用程序之间的集成数量不断增加中显而易见。
充足的计算供应以及验证链上计算的能力为链上人工智能代理打开了大门。代理是经过训练的模型,能够代表用户执行请求。代理提供了显着增强链上体验的机会,使用户只需与聊天机器人对话即可执行复杂的交易。然而,就目前而言,代理项目仍然专注于开发基础设施和工具,以实现轻松快速地部署。
去中心化计算
概述
人工智能需要大量计算来训练模型和运行推理。在过去的十年中,随着模型变得越来越复杂,计算需求呈指数级增长。例如,OpenAI 发现从 2012 年到 2018 年其模型的计算需求从每两年翻一番变为每三个半月翻一番。这导致对 GPU 的需求激增,一些加密货币矿工甚至重新利用其 GPU 来提供云计算服务 。随着访问计算的竞争加剧和成本上升,一些项目正在利用加密技术来提供去中心化计算解决方案。他们以具有竞争力的价格提供按需计算,以便团队能够以经济实惠的方式训练和运行模型。在某些情况下,权衡可能是性能和安全性。
最先进的 GPU(如 Nvidia 生产的 GPU)的需求量很大。9 月 Tether 收购了德国比特币矿商 Northern Data 的股份据报道该公司斥资 4.2 亿美元购买了 10,000 个 H100 GPU(用于 AI 训练的最先进 GPU 之一)。获得一流硬件的等待时间可能至少为六个月甚至更长在某些情况下甚至更长更糟糕的是公司经常被要求签署长期合同以获取他们甚至可能不会使用的计算量这可能会导致存在可用计算但市场上不可用的情况去中心化计算系统有助于解决这些市场效率低下的问题创建一个二级市场计算所有者可以在接到通知后立即转租其过剩容量从而释放新的供应除了具有竞争力的定价和可访问性之外去中心化计算的关键价值主张是抗审查性尖端人工智能开发日益由拥有无与伦比的计算和数据访问能力的大型科技公司主导2023年的AI指数年度报告中强调的第一个关键主题是工业界在人工智能模型的开发方面日益超越学术界将控制权集中在少数技术领导者手中这引发了人们担忧他们是否有能力在制定支撑人工智能模型的规范和价值观方面产生巨大影响力特别是在这些科技公司推动监管以限制其无法控制的人工智能开发之后去中心化计算的垂直领域近年来出现了几种去中心化计算模型每种模型都有自己的重点和权衡广义计算在 Akash、io.net、iExec、Cudos 等项目中除了数据和通用计算解决方案之外它们还提供或即将提供用于 AI 训练和推理的专用计算的访问权限Akash 是目前唯一完全开源的“超级云”平台它是使用 Cosmos SDK 的权益证明网络AKT 是 Akash 的原生代币作为一种支付形式用于保护网络安全并激励参与Akash 于 2020 年推出了第一个主网专注于提供无需许可的云计算市场最初以存储和 CPU 租赁服务为特色2023 年 6 月 Akash 推出了一个专注于 GPU 的新测试网并于 9 月推出了 GPU 主网使用户能够租赁 GPU 进行人工智能训练和推理Akash 生态系统中有两个主要参与者 – 租户和供应商租户是想要购买计算资源的 Akash 网络的用户供应商是计算供应商为了匹配租户和供应商 Akash 依靠逆向拍卖流程租户提交他们的计算要求在其中他们可以指定某些条件例如服务器的位置或进行计算的硬件类型以及他们愿意支付的金额然后供应商提交他们的要价最低出价者将获得任务Akash 验证器维护网络的完整性一套验证器目前限制为 100 个并计划随着时间的推移逐步增加任何人都可以通过质押比当前质押 AKT 数量最少的验证者更多的 AKT 来成为验证者AKT 持有者还可以将其 AKT 委托给验证者网络的交易费用和区块奖励以 AKT 形式分配此外对于每笔租赁 Akash 网络都会按照社区确定的费率赚取“收取费用”并将其分配给 AKT 持有者二级市场去中心化计算市场旨在填补现有计算市场的低效率供应的限制导致公司囤积超出其可能需要的计算资源并且由于与云供应商的合同结构将客户锁定在长期合同中即使可能不需要持续访问供应也进一步受到限制去中心化计算平台释放了新的供应使世界上任何拥有计算需求的人都可以成为供应商AI 训练对 GPU 的需求激增是否会转化为 Akash 上的长期网络使用还有待观察例如 Akash 长期以来一直为 CPU 提供市场以 70-80% 的折扣提供与集中式替代品类似的服务然而较低的价格并没有带来显着的采用网络上的活跃租约已经趋于平缓到 2023 年第二季度平均只有 33% 的计算、16% 的内存和 13% 的存储虽然这些都是链上采用的令人印象深刻的指标(作为参考领先的存储提供商 Filecoin 已经 2023 年第三季度存储利用率为 12.6%)这表明这些产品的供应仍然超过需求Akash 推出 GPU 网络已经过去了半年多的时间现在准确评估长期采用率还为时过早迄今为止 GPU 的平均利用率为 44%高于 CPU、内存和存储这是需求的一个迹象这主要是由对最高质量 GPU(如 A100)的需求推动的超过 90% 已出租Akash 的每日支出也有所增加相对于 GPU 出现之前几乎翻了一番这部分归因于其他服务使用量的增加尤其是 CPU 但主要是新 GPU 使用量的结果定价与 Lambda Cloud 和 Vast.ai 等中心化竞争对手相当或者在某些情况下甚至更贵对最高端 GPU(例如 H100 和 A100)的巨大需求意味着该设备的大多数所有者对在面临竞争性定价的市场上市兴趣不大虽然初期的利润是正向的但采用仍然存在障碍(下面进一步讨论)去中心化计算网络需要采取更多措施来产生需求和供应团队正在尝试如何最好地吸引新用户例如 2024 年初 Akash 通过了第 240 号提案增加 GPU 供应商的 AKT 排放量并激励更多供应特别针对高端 GPU团队还致力于推出概念验证模型向潜在用户展示其网络的实时功能Akash 正在训练他们自己的基础模型并且已经推出了聊天机器人和图像生成产品可以使用 Akash GPU 创建输出同样 io.net 开发了一个稳定的扩散模型并正在推出新的网络功能以更好地模仿网络的性能和规模去中心化机器学习培训除了能够满足人工智能需求的通用计算平台外一组专注于机器学习模型训练的专业人工智能 GPU 供应商也正在兴起例如 Gensyn 正在“协调电力和硬件来构建集体智慧”其观点是如果有人想要训练某种东西并且有人愿意训练它那么就应该允许这种训练发生该协议有四个主要参与者:提交者、解决者、验证者和举报人提交者向网络提交带有培训请求的任务这些任务包括训练目标、要训练的模型和训练数据作为提交过程的一部分提交者需要为解决者所需的估计计算量预先支付费用提交后任务将分配给对模型进行实际训练的解决者然后解决者将已完成的任务提交给验证者负责检查训练以确保正确完成举报人有责任确保验证者诚实行事为了激励举报人参与网络 Gensyn 计划定期提供故意错误的证据奖励举报人抓住他们除了为人工智能相关工作负载提供计算之外 Gensyn 的关键价值主张是其验证系统该系统仍在开发中为了确保 GPU 提供商的外部计算正确执行(即确保用户的模型按照他们想要的方式进行训练)验证是必要的 Gensyn 采用独特的方法解决了这个问题利用了称为“概率学习证明、基于图形的精确协议和 Truebit 式激励游戏”的新颖验证方法这是一种乐观求解模式允许验证者确认解决者已正确运行模型而无需自己完全重新运行模型这是一个成本高昂且低效的过程除了其创新的验证方法之外 Gensyn 还声称相对于中心化替代方案和加密货币竞争对手而言具有成本效益提供的 ML 培训价格比 AWS 便宜高达 80%同时在测试方面胜过 Truebit 等类似项目这些初步结果是否可以在去中心化网络中大规模复制还有待观察 Gensyn 希望利用小型数据中心、零售用户以及未来手机等小型移动设备等供应商的多余计算能力然而正如 Gensyn 团队自己承认的那样依赖异构计算供应商带来了一些新的挑战对于谷歌云和 Coreweave 等中心化供应商来说计算成本昂贵而计算之间的通信(带宽和延迟)却很便宜这些系统旨在尽快实现硬件之间的通信 Gensyn 颠覆了这一框架通过让世界上任何人都可以提供 GPU 来降低计算成本但同时也增加了通信成本因为网络现在必须在相距较远的异构硬件上协调计算作业 Gensyn 尚未推出但它是构建去中心化机器学习训练协议时可能实现的概念证明去中心化一般智能去中心化计算平台也为人工智能创建方法的设计提供了可能性 Bittensor是一种基于 Substrate 构建的去中心化计算协议试图解答“我们如何将人工智能转变为协作方法?”Bittensor旨在实现人工智能生成的去中心化和商品化该协议于 2021 年推出希望利用协作机器学习模型的力量来不断迭代并产生更好的人工智能Bittensor 从比特币中汲取灵感其原生货币 TAO 的供应量为 2100 万减半周期为四年(第一次减半将于 2025 年)Bittensor 不是使用工作量证明来生成正确的随机数并获得区块奖励而是依赖于“智能证明”要求矿工运行模型来响应推理请求而生成输出激励智能Bittensor最初依赖专家混合 (MoE) 模型来生成输出当提交推理请求时 MoE 模型不会依赖一个广义模型而是将推理请求转发给给定输入类型的最准确的模型想象一下建造一栋房子您聘请了各种专家来负责施工过程的不同方面(例如:建筑师、工程师、油漆工、建筑工人等……)MoE 将其应用于机器学习模型尝试根据输入利用不同模型的输出正如 Bittensor 创始人 Ala Shaabana 所解释的那样这就像“与一屋子聪明人交谈并获得最佳答案而不是与一个人交谈”由于在确保正确路由、消息同步到正确模型以及激励方面存在挑战这种方法已被搁置直到项目得到进一步开发Bittensor 网络中有两个主要参与者:验证者和矿工验证者的任务是向矿工发送推理请求审查他们的输出并根据他们的响应质量对它们进行排名为了确保他们的排名可靠验证者会根据他们的排名与其他验证者排名的一致程度给予“vtrust”分数验证者的 vtrust 分数越高他们获得的 TAO 排放量就越多这是为了激励验证者随着时间的推移就模型排名达成共识因为就排名达成一致的验证者越多他们的个人 vtrust 分数就越高矿工也称为服务器是运行实际机器学习模型的网络参与者矿工们相互竞争为验证者提供针对给定查询的最准确的输出输出越准确赚取的 TAO 排放就越多矿工可以按照自己的意愿生成这些输出例如在未来的情况下 Bittensor 矿工完全有可能之前在 Gensyn 上训练过模型并用它们来赚取 TAO 排放量如今大多数交互直接发生在验证者和矿工之间验证者向矿工提交输入并请求输出(即训练模型)一旦验证者查询网络上的矿工并收到他们的响应他们就会对矿工进行排名并将其排名提交到网络为了提供更清晰的说明下面是一个示例说明应用程序集成到网络中后 Bittensor 可能如何工作子网根据根网络评估的性能赚取 TAO根网络位于所有子网之上本质上充当一种特殊的子网并由64个最大的子网验证者按权益进行管理根网络验证器根据子网的性能对子网进行排名并定期将 TAO 排放分配给子网通过这种方式各个子网充当根网络的矿工Bittensor的展望Bittensor仍在经历成长的烦恼因为它扩展了协议的功能以激励跨多个子网的智能生成矿工们不断设计新的方法来攻击网络以获得更多 TAO 的奖励例如通过稍微修改其模型运行的高评价推理的输出然后提交多个变体影响整个网络的治理提案只能由完全由 Opentensor 基金会利益相关者组成的 Triumvirate 提交和实施(值得注意的是提案需要在实施之前得到由 Bittensor 验证者组成的 Bittensor 参议院的批准)该项目的代币经济正在进行修改以提高对 TAO 跨子网使用的激励该项目还因其独特的方法而迅速声名狼藉最受欢迎的人工智能网站之一 HuggingFace 的首席执行官表示 Bittensor 应该将其资源添加到该网站在核心开发人员最近发表的一篇名为“Bittensor Paradigm”的文章中该团队阐述了 Bittensor 的愿景即最终发展为“对所测量的内容不可知”理论上这可以使 Bittensor 开发子网来激励由 TAO 提供支持的任何类型的行为仍然存在相当大的实际限制最值得注意的是证明这些网络能够扩展以处理如此多样化的流程并且潜在的激励措施推动的进步超过了中心化产品为人工智能模型构建去中心化计算堆栈上述部分提供了正在开发的各种类型的去中心化人工智能计算协议的深度概述在开发和采用的早期它们提供了生态系统的基础最终可以促进“人工智能构建块”的创建无需许可的区块链的可组合性为每个协议构建在另一个协议之上提供了可能性以提供更全面的去中心化人工智能生态系统例如这是 Akash、Gensyn 和 Bittensor 可能全部交互以响应推理请求的一种方式需要明确的是这只是未来可能发生的事情的一个例子而不是当前生态系统、现有合作伙伴关系或可能结果的代表相互操作性的限制以及下面描述的其他考虑因素极大地限制了当今的集成可能性除此之外流动性分散和使用多种代币的需要可能会损害用户体验 Akash 和 Bittensor 的创始人都指出了这一点其他去中心化产品除了计算之外还推出了其他几种去中心化基础设施服务以支持加密货币新兴的人工智能生态系统列出所有这些超出了本报告的范围但一些有趣且有说明性的示例包括总的来说这些都指向探索支持人工智能模型的去中心化市场模型或开发它们所需的周边基础设施的几乎无限的机会目前这些项目大多处于概念验证阶段需要更多的研究和开发来证明它们能够以提供全面人工智能服务所需的规模运行展望去中心化计算产品仍处于开发的早期阶段他们刚刚开始推出最先进的计算能力能够在生产中训练最强大的人工智能模型为了获得有意义的市场份额他们需要展示与中心化替代方案相比的实际优势更广泛采用的潜在触发因素包括智能合约和 zkML智能合约是任何区块链生态系统的核心构建块在给定一组特定条件的情况下它们会自动执行并减少或消除对受信任第三方的需求从而能够创建复杂的去中心化应用程序例如 DeFi 中的应用程序然而智能合约的功能仍然有限因为它们根据必须更新的预设参数执行例如部署借出/借入协议的智能合约其中包含根据特定贷款与价值比率何时清算头寸的规范虽然在静态环境中有用但在风险不断变化的动态情况下这些智能合约必须不断更新以适应风险承受能力的变化这给不通过集中流程管理的合约带来了挑战例如依赖去中心化治理流程的 DAO 可能无法快速反应以应对系统性风险集成人工智能(即机器学习模型)的智能合约是增强功能、安全性和效率同时改善整体用户体验的一种可能方法然而这些集成也带来了额外的风险因为不可能确保支撑这些智能合约的模型不会被利用或解释长尾情况(鉴于数据输入的稀缺长尾情况很难训练模型)零知识机器学习(zkML)机器学习需要大量的计算来运行复杂的模型这使得人工智能模型由于成本高昂而无法直接在智能合约中运行例如为用户提供收益优化模型的 DeFi 协议如果不支付过高的 Gas 费用将很难在链上运行该模型一种解决方案是增加底层区块链的计算能力然而这也增加了对链验证器集的要求可能会破坏去中心化特性相反一些项目正在探索使用 zkML 以去信任化的方式验证输出而不需要密集的链上计算说明 zkML 有用性的一个常见示例是当用户需要其他人通过模型运行数据并验证其交易对手实际上运行了正确的模型也许开发人员正在使用去中心化计算供应商来训练他们的模型并担心该供应商试图通过使用输出差异几乎无法察觉的且更便宜的模型来削减成本 zkML 使计算供应商能够通过其模型运行数据然后生成可以在链上验证的证明以证明给定输入的模型输出是正确的在这种情况下模型提供者将具有额外的优势即能够提供他们的模型而不必透露产生输出的基础权重也可以做相反的事情如果用户想要使用他们的数据运行模型但由于隐私问题(即在医疗检查或专有商业信息的情况下)不希望提供模型的项目访问他们的数据那么用户可以在他们的数据上运行模型而不共享数据然后通过证明验证他们运行了正确的模型这些可能性通过解决令人望而却步的计算限制极大地扩展了人工智能和智能合约功能集成的设计空间基础设施和工具鉴于 zkML 领域的早期状态开发主要集中在构建团队所需的基础设施和工具以将其模型和输出转换为可以在链上验证的证明这些产品尽可能地提取了零知识方面的开发EZKL 和 Giza 是通过提供机器学习模型执行的可验证证明来构建此工具的两个项目两者都帮助团队构建机器学习模型以确保这些模型能够以可以在链上以可信方式验证结果的形式执行这两个项目