AI 与 DePIN 的交汇点

gateio

OK欧意交易所

全球排名前三的数字货币衍生品交易平台,新用户注册可拆数字货币盲盒,最高60000元,100%有奖哦

点击注册 进入官网

撰文:Geng Kai、Eric,DFG

引言

自 2023 年以来,AI 和 DePIN 都是 Web3 中的抢手趋向,其中 AI 的市值为300 亿美圆,而 DePIN 的市值为230 亿美圆。这两个类别十分庞大,每个类别都涵盖了各种不同的协议,这些协议效劳于不同的范畴和需求,应该单独涵盖。但是,本文旨在讨论两者之间的交集,并研讨该范畴协议的展开。

在 AI 技术堆栈中,DePIN 网络经过计算资源为 AI 提供适用性。大型科技公司的展开招致GPU 短缺,这招致其他正在构建自己的 AI 模型的开发人员缺乏足够的 GPU 中止计算。这通常会招致开发人员选择中心化云提供商,但由于必需签署不灵活的长期高性能硬件合同,招致效率低下。

DePIN 实质上提供了一种愈加灵活且更具本钱效益的替代计划,它运用代币奖励来鼓舞契合网络目的的资源贡献。人工智能中的 DePIN 将 GPU 资源从个人一切者众包到数据中心,为需求访问硬件的用户构成统一的供给。这些 DePIN 网络不只为需求计算才干的开发人员提供可定制性和按需访问,还为可能难以经过闲置获利的 GPU 一切者提供额外收入。

市场上有如此多的 AI DePIN 网络,可能很难辨认它们之间的差别并找到所需的正确网络。在下一部分中,我们将讨论每种协议的作用以及它们试图完成的目的,以及它们曾经完成的一些细致亮点。

AI DePIN网络概述

这里提到的每个项目都有一个相似的目的——GPU 计算市场网络。本文这一部分的目的是研讨每个项目的亮点、它们的市场重点以及它们所取得的成就。经过首先了解它们的关键基础设备和产品,我们能够深化了解它们之间的差别,这将在下一节中引见。

Render是提供 GPU 计算才干的 P2P 网络的先驱,之前专注于为内容创作渲染图形,后来经过集成Stable Diffusion等工具集,将其范围扩展到包括从神经反射场 (NeRF) 到生成 AI 的 AI计算任务。

AI 与 DePIN 的交汇点

有趣之处

  1. 由具有奥斯卡获奖技术的云图形公司 OTOY 创建

  2. GPU 网络已被派拉蒙影业、PUBG、星际迷航等文娱行业的大公司所运用

  3. 与 Stability AI 和 Endeavor 协作,应用 Render 的 GPU 将他们的 AI 模型与 3D 内容渲染工作流程相集成

  4. 批准多个计算客户端,集成更多 DePIN 网络的 GPU

Akash将自己称为“托管版 Airbnb”,将自己定位为支持存储、GPU 和 CPU 计算的传统平台(如 AWS)的“超级云”替代品。应用Akash 容器平台和Kubernetes 管理的计算节点等开发人员友好型工具,它能够跨环境无缝部署软件,从而能够运转任何云原生应用程序。

AI 与 DePIN 的交汇点

有趣之处

  1. 针对从通用计算到网络托管的普遍计算任务

  2. AkashML 允许其 GPU 网络在 Hugging Face 上运转超越 15,000 个模型,同时与 Hugging Face 集成

  3. Akash 上托管着一些值得留意的应用程序,例如 Mistral AI 的 LLM 模型聊天机器人、Stability AI 的SDXL文本转图像模型,以及 Thumper AI 的新基础模型AT-1

  4. 构建元宇宙、人工智能部署和联邦学习的平台正在应用 Supercloud

io.net提供对散布式 GPU 云集群的访问,这些集群特地用于 AI 和 ML 用例。它聚合了来自数据中心、加密矿工和其他去中心化网络等范畴的 GPU。该公司之前是一家量化买卖公司,在高性能 GPU 价钱大幅上涨后,该公司转向了目前的业务。

有趣之处

  1. 其 IO-SDK 与 PyTorch 和 Tensorflow 等框架兼容,其多层架构可依据计算需求自动动态扩展

  2. 支持创建3 种不同类型的集群,可在 2 分钟内启动

  3. 强有力的协作努力,以整合其他 DePIN 网络的 GPU,包括 Render、Filecoin、Aethir 和 Exabits

Gensyn提供专注于机器学习和深度学习计算的 GPU 计算才干。它宣称与现有办法相比,经过分离运用诸如用于考证工作的学习证明、用于重新运转考证工作的基于图形的准肯定位协议以及触及计算提供商的质押和削减的 Truebit 式鼓舞游戏等概念,完成了更高效的考证机制。

​​有趣之处

  1. 估量 V100 等效 GPU 的每小时本钱约为 0.40 美圆/小时,从而大幅俭省本钱

  2. 经过证明堆叠,能够对预先锻炼的基础模型中止微调,以完成更细致的任务

  3. 这些基础模型将是去中心化的、全球具有的,除了硬件计算网络之外还提供额外的功用

Aethir特地搭载企业 GPU,专注于计算密集型范畴,主要是人工智能、机器学习 (ML)、云游戏等。其网络中的容器充任执行基于云的应用程序的虚拟端点,将工作负载从本地设备转移到容器,以完成低延迟体验。为了确保为用户提供优质效劳,他们依据需求和位置将 GPU 移近数据源,从而调整资源。

AI 与 DePIN 的交汇点

有趣之处

  1. 除了人工智能和云游戏,Aethir 还扩展到云手机效劳,并与 APhone 协作推进来中心化的云智能手机

  2. 与 NVIDIA、Super Micro、HPE、富士康和 Well Link 等大型 Web2 公司树立了普遍的协作同伴关系

  3. Web3 中的多个协作同伴,例如 CARV、Magic Eden、Sequence、Impossible Finance 等

Phala Network充任 Web3 AI 处置计划的执行层。其区块链是一种无需信任的云计算处置计划,经过运用其可信执行环境 (TEE) 设计来处置隐私问题。其执行层不是用作 AI 模型的计算层,而是使 AI 代理能够由链上的智能合约控制。

AI 与 DePIN 的交汇点

有趣之处

  1. 充任可考证计算的协处置器协议,同时也使 AI 代理能够链上资源

  2. 其人工智能代理合约可经过 Redpill 取得 OpenAI、Llama、Claude 和 Hugging Face 等顶级大型言语模型

  3. 未来将包括 zk-proofs、多方计算 (MPC)、全同态加密 (FHE) 等多重证明系统

  4. 未来支持H100等其他TEE GPU ,提升计算才干

项目比较

 

Render

Akash

io.net

Gensyn

Aethir

Phala

硬件

GPU & CPU

GPU & CPU

GPU & CPU

GPU

GPU

CPU

业务重点

图形渲染和AI

云计算、渲染和AI

AI

AI

人工智能、云游戏和电信

链上 AI 执行

AI任务类型

推理

Both

Both

锻炼

锻炼

执行

工作定价

基于表现的定价

反向拍卖

市场定价

市场定价

招标系统

权益计算

区块链

Solana

Cosmos

Solana

Gensyn

Arbitrum

Polkadot

数据隐私

加密&散列

mTLS 身份考证

数据加密

安全映射

加密

TEE

工作费用

每项工作 0.5-5%

20% USDC,

4% AKT

2% USDC,0.25%

准备金费用

费用低廉

每个session 20%

与质押金额成比例

安全

渲染证明

权益证明

计算证明

权益证明

渲染才干证明

继承自中继链

完成证明

时间锁证明

学习证明

渲染工作证明

TEE 证明

质量保证

争议

核实者和告发人

检查器节点

远程证明

GPU 集群

重要性

集群和并行计算的可用性

散布式计算框架完成了 GPU 集群,在不影响模型精确性的状况下提供更高效的锻炼,同时增强了可扩展性。锻炼更复杂的 AI 模型需求强大的计算才干,这通常必需依托散布式计算来满足其需求。从更直观的角度来看,OpenAI 的 GPT-4 模型具有超越 1.8 万亿个参数,在 3-4 个月内运用 128 个集群中的约 25,000 个 Nvidia A100 GPU 中止锻炼。

此前,Render 和 Akash 仅提供单一用处的 GPU,这可能会限制其对 GPU 的市场需求。不过,大多数重点项目往常都已整合了集群以完成并行计算。io.net 与 Render、Filecoin 和 Aethir 等其他项目协作,将更多 GPU 归入其网络,并已胜利在 24 年第一季度部署了超越 3,800 个集群。固然 Render 不支持集群,但它的工作原理与集群相似,将单个帧合成为多个不同的节点,以同时处置不同范围的帧。Phala 目前仅支持 CPU,但允许将 CPU 工作器集群化。

将集群框架归入 AI 工作流程网络十分重要,但满足 AI 开发人员需求所需的集群 GPU 数量和类型是一个单独的问题,我们将在后面的部分中讨论。

数据隐私

开发 AI 模型需求运用大量数据集,这些数据集可能来自各种来源,方式各异。个人医疗记载、用户财务数据等敏感数据集可能面临暴露给模型提供商的风险。三星因担忧敏感代码上传到平台会侵犯隐私而内部遏止运用 ChatGPT,微软的 38TB 私人数据泄露事故进一步凸显了在运用 AI 时采取足够安全措施的重要性。因而,具有各种数据隐私办法关于将数据控制权交还给数据提供商至关重要。

所涵盖的大多数项目都运用某种方式的数据加密来维护数据隐私。数据加密可确保网络中从数据提供者到模型提供者(数据接纳者)的数据传输遭到维护。Render 在将渲染结果发布回网络时运用加密和哈希处置,而 io.net 和 Gensyn 则采用某种方式的数据加密。Akash 运用 mTLS 身份考证,仅允许租户选择的提供商接纳数据。

但是,io.net 最近与 Mind Network 协作推出了完整同态加密 (FHE),允许在无需先解密的状况下处置加密数据。经过使数据能够安全地传输用于培训目的而无需泄露身份和数据内容,这项创新能够比现有的加密技术更好地确保数据隐私。

AI 与 DePIN 的交汇点

Phala Network 引入了 TEE,即衔接设备主处置器中的安全区域。经过这种隔离机制,它能够避免外部进程访问或修正数据,无论其权限级别如何,即便是对机用具有物理访问权限的个人。除了 TEE 之外,它还在其 zkDCAP 考证器和jtee命令行界面中分离了 zk-proofs 的运用,以便与 RiscZero zkVM 集成的程序。

计算完成证明和质量检查

这些项目提供的 GPU 可为一系列效劳提供计算才干。由于这些效劳范围普遍,从渲染图形到 AI 计算,因而此类任务的最终质量可能不一定总是契合用户的规范。能够运用完成证明的方式来表示用户租用的特定 GPU 的确用于运转所需的效劳,并且质量检查对央求完成此类工作的用户有益。

计算完成后,Gensyn 和 Aethir 都会生成证明以标明工作已完成,而 io.net 的证明则标明租用的 GPU 的性能已得到充沛应用且没有呈现问题。Gensyn 和 Aethir 都会对已完成的计算中止质量检查。关于 Gensyn,它运用考证者重新运转生成的证明的部分内容以与证明中止核对,而告发人则充任对考证者的另一层检查。同时,Aethir 运用检查节点来肯定效劳质量,对低于规范的效劳中止处分。Render 倡议运用争议处置流程,假如检查委员会发现节点存在问题,则削减该节点。Phala 完成后会生成 TEE 证明,确保 AI 代理在链上执行所需的操作。

硬件统计数据

 

Render

Akash

io.net

Gensyn

Aethir

Phala

GPU数量

5600

384

38177

40000+

CPU数量

114

14672

5433

30000+

H100/A100数量

157

2330

2000+

H100费用/小时

$1.46

$1.19

A100费用/小时

$1.37

$1.50

$0.55 (估量)

$0.33 (估量)

高性能 GPU 的请求

由于 AI 模型锻炼需求性能最佳的 GPU,因而他们倾向于运用 Nvidia 的 A100 和 H100 等 GPU,固然后者在市场上的价钱很高,但它们提供最佳质量。看看 A100 如何不只能够锻炼一切工作负载,而且还能以更快的速度完成锻炼,这只能阐明市场对这种硬件的注重水平。由于 H100 的推理性能比 A100 快 4 倍,因而它往常已成为首选 GPU,特别是关于正在锻炼自己的 LLM 的大型公司而言。

AI 与 DePIN 的交汇点

AI 与 DePIN 的交汇点

关于去中心化的 GPU 市场提供商来说,要想与 Web2 同行竞争,它不只需提供更低的价钱,还要满足市场的实践需求。2023年,Nvidia 向中心化的大型科技公司托付了超越 50 万台 H100,这使得获取尽可能多的同等硬件以与大型云提供商竞争变得本钱昂扬且艰难重重。因而,思索这些项目能够以低本钱带入其网络的硬件数量关于将这些效劳扩展到更大的客户群十分重要。

固然每个项目都在 AI 和 ML 计算方面有业务,但它们在提供计算的才干方面有所不同。Akash 总共只需 150 多个 H100 和 A100 单元,而 io.net 和 Aethir 则分别取得了 2000 多个单元。通常,从头开端预锻炼 LLM 或生成模型需求集群中至少 248 到 2000 多个 GPU,因然后两个项目更合适大型模型计算。

依据此类开发人员所需的集群大小,目前市场上这些去中心化 GPU 效劳的本钱曾经比中心化 GPU 效劳低得多。Gensyn 和 Aethir 都宣称能够以每小时不到 1 美圆的价钱租用相当于 A100 的硬件,但这仍需求随着时间的推移得到证明。

网络衔接的 GPU 集群具有大量 GPU,每小时本钱较低,但与 NVLink 衔接的 GPU 相比,它们的一个问题是内存受限。NVLink支持多个 GPU 之间的直接通讯,无需在 CPU 和 GPU 之间传输数据,即可完成高带宽和低延迟。与网络衔接的 GPU 相比,NVLink 衔接的 GPU 最合适具有许多参数和大型数据集的 LLMS,由于它们需求高性能和密集计算。

固然如此,关于那些具有动态工作负载需求或需求灵活性和跨多个节点分配工作负载才干的用户来说,去中心化 GPU 网络仍可为散布式计算任务提供强大的计算才干和可扩展性。经过提供比中心化云或数据提供商更具本钱效益的替代计划,这些网络为构建更多 AI 和 ML 用例翻开了寡头垄断局面,而不像中心化 AI 模型那样。

提供消费级 GPU/CPU

固然 GPU 是渲染和计算所需的主要处置单元,但 CPU 在锻炼 AI 模型方面也发挥着重要作用。CPU 可用于锻炼的多个部分,包括数据预处置不时到内存资源管理,这对开发人员开发模型十分有用。消费级 GPU 还可用于不太密集的任务,例如对曾经预先锻炼好的模型中止微调或以更实惠的本钱在较小的数据集上锻炼较小范围的模型。

固然 Gensyn 和 Aethir 等项目主要专注于企业级 GPU,但思索到超越 85% 的消费者 GPU 资源处于闲置状态,Render、Akash 和 io.net 等其他项目也能够效劳于这一部分市场。提供这些选项能够让他们开发自己的市场利基,让他们专注于大范围密集型计算、更通用的小范围渲染或两者之间的混合。

结论

AI DePIN 范畴依然相对较新,面临着自身的应战。他们的处置计划因其可行性而遭到批判,并遭遇波折。例如,io.net 被指控伪造其网络上的 GPU 号码,后来经过引入工作量证明流程来考证设备并避免女巫攻击,处置了这个问题。

固然如此,这些去中心化 GPU 网络中执行的任务和硬件数量仍显着增加。这些网络上执行的任务量不时增加,凸显了对 Web2 云提供商硬件资源替代品的需求不时增长。同时,这些网络中硬件提供商的激增凸显了以前未充沛应用的供给。这一趋向进一步证明了 AI DePIN 网络的产品市场契合度,由于它们有效地处置了需求和供给方面的应战。

瞻望未来,人工智能的展开轨迹指向一个蓬勃展开的数万亿美圆的市场,我们以为这些分散的 GPU 网络将在为开发人员提供经济高效的计算替代计划方面发挥关键作用。经过应用其网络不时弥合需求和供给之间的差距,这些网络将为人工智能和计算基础设备的未来格局做出严重贡献。

上一篇 2024-07-31
下一篇 2024-07-31

相关推荐