近一年来,AI叙事在Crypto市场发展火热,a16z、红杉、Lightspeed、Polychain等领先的VC大笔一挥,千万美元下注。许多科研背景、名校背景的高素质团队也进入了Web3,向着去中心化AI的方向迈进。未来12个月内,我们将见证这些优质项目逐渐落地。
今年10月,OpenAI再次融资66亿美元,AI赛道的军备竞赛来到了一个史无前例的高度。散户投资者很少有机会在直接投资英伟达和硬件以外赚钱,这股热情势必会持续蔓延到Crypto中,特别是近期由AIMeme带动的全民抓狗潮。可以预见的是,CryptoxAI,不论是现有上市代币,还是新晋明星项目,势头仍会强劲。
随着去中心化AI头部项目Hyperbolic近日获得Polychain和Lightspeed的二次加码,我们从近期获得头部机构大额融资的6个项目出发,梳理CryptoxAI基建项目的发展脉络,展望去中心化技术可以如何为人类在AI的未来保驾护航。
Hyperbolic:近日宣布完成由Variant和Polychain共同领投的1200万美元A轮融资,总融资额超过2000万美元,BanklessVentures、ChapterOne、LightspeedFaction、IOSG、BlockchainBuildersFund、AlumniVentures、SamsungNext等知名VC参投。
PINAI:完成1000万美元pre-seed轮融资,a16zCSX、HackVC、BlockchainBuildersFund(斯坦福区块链加速器)等一众知名VC投资。
Vana:完成1800万美元的A轮融资和500万美元的战略融资,Paradigm、Polychain、Coinbase等知名VC投资。
Sahara:完成4300万美元A轮融资,BinanceLabs、PanteraCapital、Polychain等知名VC投资。
Aethir:2023年以1.5亿美元估值完成900万美元的Pre-A轮融资,并在2024年完成约1.2亿美元的节点销售。
IO.NET:完成3000万美元的A轮融资,HackVC、DelphiDigital、ForesightVentures等知名VC投资。
AI的三要素:数据、算力和算法马克思在《资本论》中告诉我们,生产资料、生产力和生产关系是社会生产中的关键要素。如果我们做一次类比,就会发现在人工智能世界中,也有这样的关键三要素。
在AI时代,算力、数据和算法是关键。
在AI中,数据即生产资料。例如,你每天在手机上打字聊天、拍照发朋友圈,这些文字和图片都是数据,它们就像是AI的“食材”,是AI得以运作的基础。
这些数据包括从结构化的数值信息到非结构化的图像、音频、视频和文本等多种形式。没有数据,AI算法就无法学习和优化。数据的质量、数量、覆盖面和多样性直接影响到AI模型的表现,决定了它能否有能效地完成特定任务。
在AI中,算力即生产力。算力是执行AI算法所需的底层计算资源。算力越强,处理数据的速度就越快、效果就越好。算力的强弱直接决定了AI系统的效率和能力。
强大的算力不仅能够缩短模型的训练时间,还可以支持更复杂的模型架构,从而提升AI的智能水平。像OpenAI的ChatGPT这样的大语言模型,需要数月时间在强大的计算集群上进行训练。
在AI中,算法即生产关系。算法是AI的核心,其设计决定了数据和算力怎样协同工作,是将数据转化为智能决策的关键。在强大算力的支持下,算法能够更好地学习数据中的模式,并应用于实际问题中。
如此看来,数据就相当于AI的燃料,算力是AI的引擎,而算法则是AI的灵魂。AI=数据+算力+算法,任何想要在AI赛道中脱颖而出的创业公司,这三要素必须齐全,或者在其中一项中展现出独特的领先优势。
随着AI正在向多模态(模型基于多种信息形式,能够同时处理文本、图像和音频等)发展,对算力和数据的需求只会呈指数级增长。
算力稀缺时代,Crypto赋能AIChatGPT的横空出世,不仅掀起了一场人工智能的革命,也无意中将算力和算力硬件推向了科技热搜的风口浪尖。
历经2023年的“千模大战”,2024年,随着市场对于AI大模型认知的不断加深,围绕大模型的全球竞争正在被划分为“能力提升”与“场景开发”两条路。
在大模型能力提升方面,市场最大的期待莫过于被传OpenAI将于今年发布的GPT-5,翘首以盼其大模型被推到一个真正多模态的阶段。
在大模型场景开发方面,AI巨头们都在推进大模型更快融入行业场景,产生应用落地价值。例如,AIAgent、AI搜索等领域的尝试,都是在不断深化大模型对现有用户体验的提升。
这两条路背后,无疑都对算力提出了更高的需求。大模型能力提升以训练为主,需要短时间内调用庞大的高性能算力;大模型场景应用则以推理为主,对算力的性能要求相对不算高,但更注重稳定性和低延时。
正如OpenAI曾在2018年做过的估算,自2012年以来,训练大模型的算力需求每3.5个月会翻一番,每年所需算力增幅高达10倍。同时随着大模型及应用越来越多地部署到企业实际业务场景中,推理算力需求也水涨船高。
问题来了,全球范围内对高性能GPU的需求正在迅速增长,而供给却未能跟上。以英伟达的H100芯片为例,在2023年经历了严重的供应短缺问题,其供给缺口超过43万颗。即将推出的性能提高2.5倍、成本仅增加25%的B100芯片,很有可能再次出现供应短缺。这种供需失衡会导致算力成本的再次上升,使得许多中小型企业难以承担高昂的计算费用,从而限制他们在AI领域的发展潜力。
大型科技公司如OpenAI、Google和Meta拥有更强大的资源获取能力,有钱有资源去构建自家的算力基础设施。但对于AI初创公司,更别说是尚未融资的呢?
的确在eBay、亚马逊等平台上购买二手GPU也是可行方法之一。虽然降低了成本,但可能存在性能问题和长期维修费用。在这个GPU稀缺的时代,构建基础设施对于初创公司恐怕永远不会是最优解。
即便已经有了可按需租赁的GPU云提供商,但高昂的价格对于它们来说也是一个不小的挑战,例如,一张英伟达A100的价格约每天80美元,如果需要50张每月运行25天,只在算力方面的成本就高达80x50x25=10万美元/月。
这给了以DePIN为架构的去中心化算力网络趁虚而入的机会,可以说顺风顺水。正如IO.NET、Aethir、Hyperbolic所做的,它们将AI初创公司的算力基础设施成本转移到网络本身。而且可以让全球任何人将家中未使用的GPU连接至其中,大幅降低了计算成本。
Aethir:全球GPU共享网络,让算力普惠化Aethir在2023年9月以1.5亿美元估值完成900万美元的Pre-A轮融资,并在今年3-5月完成约1.2亿美元的CheckerNode节点销售。Aethir在短短30分钟内通过销售CheckerNode获得了6000万美元的收益,可见市场对该项目的认可和期待。
Aethir的核心,是要建立一个去中心化的GPU网络,让每个人都有机会贡献自己的闲置GPU资源,并获得收益。这就像是把每个人的电脑变成一个小型的超级计算机,大家一起共享计算能力。这样做的好处是,可以大幅度提高GPU的利用率,减少资源浪费,同时也能让需要大量计算能力的企业或个人,以更低的成本获取到所需的资源
Aethir创建了一个去中心化的DePIN网络,就像资源池一般,激励来自全球各地的数据中心、游戏工作室、科技公司和游戏玩家将闲置GPU连至其中。这些GPU提供方可以自由地将GPU连接或退出网络,因此具有比闲置更高的利用率。这使得Aethir能够向算力需求方提供从消费者级、专业级到数据中心级的GPU资源,而且相比Web2云提供商的价格要低80%以上。
Aethir的DePIN架构确保了这些零散算力的品质和稳定。其中最核心的三个部分是:
Container(容器)是Aethir的计算单元,充当云服务器,负责执行和渲染应用程序。每一个任务都被封装在一个独立的Container中,作为相对隔离的环境来运行客户的任务,避免了任务间互相干扰的情况。
Indexer(索引器)主要用于根据任务需求即时匹配和调度可用的算力资源。同时,动态资源调整机制能够根据整个网络的负载情况,动态将资源分配给不同的任务,以达到最佳整体效能。
Checker(检查器)则负责即时监控和评估Container的性能,它可以即时监控和评估整个网络的状态,并对可能出现的安全问题做出及时的反应。如需应对网络攻击等安全事件,在侦测到异常行为后,能够及时发出警告并启动防护措施。同样的,当网络性能出现瓶颈时,Checker也可以及时发出提醒,以便问题能够被及时解决,保证了服务品质和安全。
Container、Indexer、Checker三者之间有效协作,为客户提供了自由定制算力配置,安全、稳定且价格相对低廉的云服务体验。对于AI和游戏等领域,Aethir是一个不错的商用级解决方案。
总的来说,Aethir通过DePIN的方式,重塑了GPU资源的分配和使用,让算力变得更加普及和经济。它已在AI和游戏领域取得了一些不错的成绩,而且还在不断扩展合作伙伴和业务线,未来的发展潜力不可限量。
IO.NET:打破算力瓶颈的分布式超级计算网络IO.NET今年3月完成了3000万美元的A轮融资,HackVC、DelphiDigital、ForesightVentures等知名VC投资。
与Aethir类似,打造一个企业级的去中心化计算网络,通过汇聚全球闲散的计算资源(GPU、CPU),为AI初创企业提供价格更低、更易获得、更灵活适配的算力服务。
不同于Aethir的是,IO.NET利用Ray框架(IO-SDK)将数千个GPU集群转换为一个整体,服务于机器学习(Ray框架也被OpenAI用于训练GPT-3)。在单个设备上训练大模型时,CPU/GPU内存限制和顺序处理工作流程呈现了巨大的瓶颈。利用Ray框架来编排和批处理,实现了算力任务并行化。
为此,IO.NET采用多层架构:
用户界面层:为用户提供视觉前端界面,包括公共网站、客户区域及GPU供应商区域,旨在提供直观且友好的用户体验。
安全层:确保系统的完整性与安全,融合了网络防护、用户认证及活动日志记录等机制。
API层:作为网站、供应商及内部管理的通信枢纽,便于数据交换和各类操作的执行。
后端层:构成系统核心,负责管理集群/GPU、客户交互及自动扩展等运营任务。
数据库层:负责数据的存储和管理,主存储负责结构化数据,而缓存则用于临时数据的处理。
任务层:管理异步通信和任务执行,保证数据处理和流转的高效性。
基础设施层:构成系统基础,包含GPU资源池、编排工具及执行/ML任务,配备了强大的监控解决方案。
从技术上看,IO.NET为解决分布式算力面临的难点,推出了其核心技术IO-SDK的分层架构,以及解决安全连接和数据隐私问题的反向隧道技术和网状VPN架构。在Web3受到热捧,被称为是下一个Filecoin,前景较为广阔。
总的来说,IO.NET的核心使命是打造全球最大的DePIN基础设施,把全世界的闲置GPU资源都集中起来,向需要大量算力的AI和机器学习领域提供支持。
Hyperbolic:打造“AI雨林”,实现繁荣互助的分布式AI基建生态今天,Hyperbolic再次宣布完成了总额超过1200万美元的A轮融资,由Variant和PolychainCapital共同领投,总融资额超过2000万美元。BanklessVentures、ChapterOne、LightspeedFaction、IOSG、BlockchainBuildersFund、AlumniVentures、SamsungNext等知名VC机构参投。其中头部硅谷风投Polychain和LightSpeedFaction在种子轮后二度加码,足以说明Hyperbolic在Web3AI赛道的龙头地位。
Hyperbolic的核心使命是让AI变得人人可用,开发者做的起,创作者用的起。Hyperbolic旨在构建一个“AI雨林”,在其生态系统中,开发者可以找到创新、协作和发展所需的必要资源。就像天然雨林一样,生态间相互联系、生机勃勃、可再生,让创作者能够无限制地探索。
在两位联合创始人Jasper和Yuchen看来,虽然AI模型可以开源,但如果没有开放的计算资源,那还是不够的。目前很多大型数据中心控制着GPU资源,这让很多想要用AI的人望而却步。Hyperbolic就是要打破这种局面,他们通过整合全球的闲置计算资源建立DePIN算力基础设施,让每个人都能轻松使用AI。
因此,Hyperbolic引入了“开放式AI云”概念,小到个人电脑,大到数据中心,都可以连接到Hyperbolic提供算力。在此基础上,Hyperbolic创建了一个可验证、确保隐私的AI层,允许开发者构建有推理能力的AI应用,而所需算力则直接来源于AI云。
与Aethir、IO.NET类似,Hyperbolic的AI云拥有自己独特的GPU集群模型,被称为“太阳系集群”。正如我们所知的那样,太阳系包含了水星、火星等各种独立行星,Hyperbolic的太阳系集群掌管着例如水星集群、火星集群、木星集群,这些GPU集群用途广泛,规模各异,但又相互独立,由太阳系调度。
这样的模型确保了GPU集群满足了两个特性,相比Aethir、IO.NET更灵活且效率最大化:
调节状态平衡,GPU集群会根据需求自动扩大或缩小
若某个集群发生中断,太阳系集群将自动检测并修复
在大型语言模型(LLM)的性能对比实验中,HyperbolicGPU集群的吞吐量高达43tokens/s,这一成绩不仅超过了由60人组成的TogetherAI团队的42tokens/s,更是明显高于拥有300多名团队成员的HuggingFace的27tokens/s。
而在图像生成模型的生成速度对比实验中,HyperbolicGPU集群同样展现了其技术实力不容小觑。同样是使用SOTA开源图像生成模型,Hyperbolic以17.6images/min的生成速度领先,不仅超过了TogetherAI的13.6images/min,更是远高于IO.NET的6.5images/min。
这些数据有力地证明了Hyperbolic的GPU集群模型拥有极高的效率,卓越的性能表现使之在规模更大的竞争对手中脱颖而出。结合价格低廉的优势,这使得Hyperbolic非常适合需要高算力提供支持的复杂AI应用,提供近乎实时的响应,且确保AI模型在处理复杂任务时具有更高的准确性和效率。
另外,从加密创新的角度,我们认为Hyperbolic最应关注的成绩是开发了验证机制PoSP(ProofofSampling,抽样证明),以去中心化的方法解决AI领域最棘手的挑战之一—验证输出是否来自指定的模型,从而使推理过程可以经济有效地去中心化。
基于PoSP原理,Hyperbolic团队开发了针对AI应用的spML机制(抽样机器学习),对网络中的交易随机抽样,奖励诚实者,处罚不诚实者,来达到一种轻量级的验证效果,减轻了网络的计算负担,使得几乎任何AI创业公司都可以将他们的AI服务以一种可分布验证的范式完成去中心化。
具体实现流程如下:
1)节点计算了函数,通过加密的方式将结果提交给编排者。
2)然后,由编排者决定是否信任这一结果,如果信任,则节点因计算而获得奖励。
3)如果不信任,编排者会随机选择网络中的验证者,对节点发起挑战,计算同样的函数。同样的,验证者通过加密的方式将结果提交给编排者。
4)最后,编排者检查所有的结果是否一致,如果一致,节点和验证者都会获得奖励;如果不一致,将会发起仲裁程序,对每个结果的计算过程做追溯。诚实者因其准确性获得奖励,不诚实者因欺骗系统而被处罚。
节点不知道他们提交的结果是否会被挑战,也不知道编排者会选择哪个验证者来挑战,有次来确保验证的公正性。作弊成本远超潜在的收益。
如果未来spML得到检验,那么足以改变AI应用的游戏规则,使无需信任的推理验证成为现实。此外,Hyperbolic拥有行业中独一无二的将BF16算法运用在模型推理中的能力(同业者都还停留在FP8),能有效提升推理的准确度,使得Hyperbolic的去中心化推理服务性价比卓越超群。
此外,Hyperbolic的创新还体现在其将AI云的算力供给与AI应用一体化。去中心化算力市场的需求本身较为稀少,Hyperbolic通过构建可验证的AI基础设施来吸引开发者建设AI应用,算力可以在不牺牲性能和安全性的情况下直接无缝集成至AI应用,扩展到一定规模后能做到自给自足,达到供需平衡。
开发者可以在Hyperbolic上构建围绕算力、Web2及Web3的AI创新应用,例如:
GPUExchange,建立在GPU网络(编排层)之上的GPU交易平台,将“GPU资源”商品化自由交易,使算力更具成本效益。
IAO,或者说将AIAgent代币化,允许贡献者赚取代币,AIAgent的收入将分配给代币持有者。
AI驱动的DAO,即通过人工智能帮助治理决策和财务管理的DAO。
GPURestaking,允许用户将GPU连接到Hyperbolic后,再质押到AI应用。
总的来说,Hyperbolic建立了一个开放的AI生态系统,让每个人都能轻松地使用AI。通过技术创新,Hyperbolic正在让AI变得更加普及和可访问,让AI的未来充满互操作性和兼容性,鼓励合作创新。
数据回归用户,共赴AI浪潮当今,数据就是金矿,个人数据正被科技巨头无偿攫取和商业化。
数据是AI的食粮。没有高质量的数据,即使是最先进的算法也无法发挥其作用。数据的数量、质量和多样性直接影响到AI模型的性能。
前面我们提到过,业界正在期待GPT-5的推出。但是它迟迟没出来,原因可能是数据量尚未足够。仅在发表论文阶段的GPT-3,就需要2万亿Token的数据量。GPT-5预计会达到200万亿Token的数据量。除了现有的文本数据,还要更多的多模态数据,加以清洗后才能够被用于训练。
在今天的公开互联网数据中,高质量的数据样本是偏少的,一个现实的情况是,大模型在任意领域的问答生成表现都非常好,但面对专业领域问题的表现不佳,甚至会出现模型“一本正经地胡说八道”的幻觉。
为了确保数据的“新鲜程度”,AI巨头们经常与大型数据源的所有者达成交易协议。例如,OpenAI与Reddit签署了一项价值6000万美元的协议。
近期一些社群软件开始要求用户签署协议,需要用户同意将内容授权用于第三方AI模型的训练,然而,用户却没有从中获得任何回报。这种掠夺行为引发舆论对数据使用权的质疑。
显然,区块链去中心化且可追溯来源的潜力天然适合改善数据和资源的获取窘境,同时为用户数据提供更多控制权和透明度,还可以通过参与AI模型的训练和优化获得收益。这种全新的数据价值创造方式将大幅提升用户参与度,推动生态整体繁荣。
Web3已经有了一些针对AI数据的公司,例如:
数据获取:OceanProtocol、Vana、PINAI、Sahara等
数据处理:PublicAI、Lightworks等
其中比较有意思的是Vana、PINAI、Saraha,恰巧也都在近期获得了大额融资,投资者阵容豪华。这两个项目都跳脱出了子领域,将数据获取与AI开发相结合,推动AI应用的落地。
Vana:用户掌控数据,DAO与贡献机制重塑AI数据经济Vana在2022年12月完成了一轮1800万美元的融资,并在今年9月完成了500万美元的战略融资。Paradigm、Polychain、Coinbase等知名VC投资。
Vana的核心理念是“用户拥有的数据,实现用户拥有的AI”。在这个数据为王的时代,Vana想要打破大公司对数据的垄断,让用户自己控制自己的数据,并且从自己的数据中获益。
Vana是一个去中心化数据网络,专注于保护私人数据,使用户的数据能够像金融资产一样灵活地使用。Vana试图重塑数据经济的格局,将用户从被动的数据提供者转变为积极参与、共同受益的生态系统建设者。
为了实现这个愿景,Vana允许用户通过数据DAO汇集并上传数据,然后通过贡献证明机制,在保护隐私的情况下验证数据的价值。这些数据可以用于AI训练,而用户根据上传数据的优质程度获得激励。
在实现方式上,Vana的技术架构包括数据流动性层、数据可移植层、通用连接组、非托管数据存储和去中心化应用层五个关键组件。
数据流动性层(DataLiquidityLayer):这是Vana网络的核心,它通过数据流动性池(DLP)激励、聚合并验证有价值的数据。DLP就像是数据版的“流动性池”,每个DLP都是一个智能合约,专门用于聚合特定类型的数据资产,如Reddit、Twitter等社交媒体数据。
数据可移植层(DataPortabilityLayer):这一组件向用户数据赋予了可移植性,确保用户可以轻松地在不同的应用和AI模型之间转移和使用自己的数据。
数据生态图:这是一个跟踪整个生态实时数据流动的地图,确保了透明度。
非托管数据存储:Vana的创新点在于其独特的数据管理方式,让用户始终保持对自己数据的完全控制权。用户的原始数据不会上链,而是由用户自行选择存储位置,比如云服务器或个人服务器。
去中心化应用层:在数据基础上,Vana构建了一个开放的应用生态系统,开发者可以利用DLP积累的数据构建各种创新应用,包括AI应用,而数据贡献者则可以从这些应用中获得分红奖励。
目前Vana上构建了围绕ChatGPT、Reddit、LinkedIn、Twitter等社媒平台以及专注于AI、浏览数据的DLP,随着更多的DLP加入其中,更多的创新应用在平台上构建,Vana有潜力成为下一代去中心化AI和数据经济基础设施。
这不禁让我们想到最近发生的一则新闻,为了改善LLM的多样性,Meta正在收集Facebook、Instagram英国用户的数据,但因让用户选择“退出”而不是“同意”,而饱受强迫诟病。也许,Meta在Vana上分别构建一个Facebook和Instagram的DLP,不仅确保了数据隐私,还激励更多用户主动贡献数据,会是一种更好的选择。
PINAI:去中心化AI助手,移动式AI连接数据与日常生活PINAI今年9月完成1000万美元pre-seed轮融资,a16zCSX、HackVC、BlockchainBuildersFund(斯坦福区块链加速器)等一众知名VC和天使投资人参与了本次投资。
PINAI是一个开放的AI网络,由DePIN架构的分布式数据存储网络提供支持,用户可以将设备连接至该网络,提供个人数据/用户偏好,获得代币激励。此举使用户能够重新获得控制权并使其数据货币化。而开发者可以利用数据在其中构建有用的AIAgent。
其愿景是成为AppleIntelligence的去中心化替代方案,致力于向用户群体提供对日常生活有用的应用,实现用户提出的意图,比如线上购买商品、策划旅行、计划投资行为。
PINAI由两种AI组成,个人AI助理和外部AI服务。
个人AI助理能够访问用户数据,收集用户的需求,并且在外部服务AI需要数据时给予它们相应的数据。PINAI底层由DePIN分布式数据存储网络构成,为外部AI服务的推理提供丰富的用户数据,同时无法访问用户的个人隐私。
有了PINAI,用户将不再需要打开数千个手机App来完成不同的任务。当用户向个人AI助理表达“我想买一件新衣服”、“点什么样的外卖”或“找到我这篇文章中最好的投资机会”等意图时,该AI不仅了解用户的偏好,还可以有效地执行所有这些任务——将找到最相关的应用程序和服务提供商,以竞标的形式实现用户意图。
最重要的是,PINAI意识到了在当下用户习惯直接和中心化服务提供商互动获得服务的困局下,引入一个能提供更多价值的去中心化服务的必要性。个人AI助理可以名正言顺的以用户的名义,获取用户和Web2应用互动时产生的高价值数据,并以去中心化的方式存储、调用,使同一份数据发挥更大的价值,使数据所有者和调用者同时受益。
虽然PINAI主网还未正式上线,但团队通过Telegram小程度向用户展示了产品雏形,便于感知愿景。
HiPINBot由三个板块组成,Play、DataConnectors、AIAgent。
Play是一个AI虚拟伴侣,由PINAI-1.5b、Gemma、Llama等大模型提供支持。这就相当于PINAI的个人AI助理。
在DataConnectors中,用户可以连接Google、Facebook、X、Telegram账户,赚取积分升级虚拟伴侣。未来还将支持用户连接Amazon、Ebay、Uber等账户。这就相当于PINAI的DePIN数据网络。
自己的数据自己用,连接数据后,用户可以向虚拟伴侣提出需求(Comingsoon),由虚拟伴侣向符合任务要求的AIAgent提供用户的数据来处理。
官方开发了一些AIAgent原型,目前仍是测试阶段,这些也就相当于PINAI的外部AI服务。例如XInsight,输入推特账号,它可以分析该账号的运营情况。当DataConnectors支持电商、外卖等平台账户后,像Shopping、OrderFood这些AIAgent也能够发挥作用,自主处理用户提出的订单。
总的来说,通过DePIN+AI的形式,PINAI建立了一个开放的AI网络,让开发者可以构建真正有用的AI应用,让用户的生活变得更加便捷和智能。随着更多的开发者加入,PINAI将会带来更多创新的应用,让AI真正融入日常生活。
Sahara:多层架构领航AI数据确权、隐私、与公平交易Sahara在今年8月完成4300万美元A轮融资,BinanceLabs、PanteraCapital、Polychain等知名VC投资。
SaharaAI是一个多层架构的AI区块链应用平台,专注在AI时代建立一个更加公平透明、能够将数据进行价值归属并分润给用户的AI发展模式,解决传统AI系统中的隐私、安全、数据获取以及透明度等痛点。
通俗的来说,SaharaAI想要建一个去中心化的AI网络,让用户能自己控制数据,还能根据贡献的数据质量来获得奖励。这样一来,用户不再是被动的数据提供者,而是变成了能够参与进来,共享收益的生态系统建设者。
用户可以把数据上传到他们的去中心化数据市场,然后通过一种特殊的机制来证明这些数据的所有权(“确权”)。这些数据可以用来训练AI,用户根据数据的质量来获得奖励。
SaharaAI包含应用、交易、数据和执行四层架构,为AI生态系统发展提供了强大的基础。
应用层:提供安全保险库、去中心化AI数据市场、无代码工具包和SaharaID等工具。这些工具能够确保数据隐私并推动对用户的公平补偿,且进一步简化创建和部署AI应用的过程。
简单来说,保险库利用先进的加密技术保障AI数据的安全性;去中心化AI数据市场可以用于数据收集、标注和转化,促进创新和公平交易;无代码工具包则使AI应用的开发更加简单;SaharaID负责管理用户声誉,保障信任。
交易层:Sahara区块链,通过权益证明(PoS)共识机制来确保网络的效率和稳定性,让即使在有恶意节点存在的情况下也能达成共识。此外,Sahara的原生预编译功能是专为优化AI处理而设计,能直接在区块链环境中进行高效计算,提升系统性能。
数据层:管理链上和链下的数据。链上数据处理不可追溯的操作和属性记录,保障信誉和透明性;链下数据则处理大型数据集,并通过MerkleTree和零知识证明技术来确保数据的完整性与安全性,防止数据重复和篡改。
执行层:抽象了保险库、AI模型和AI应用的操作,支持各种AI训练、推理和服务范式。
整个四层架构不仅确保了系统的安全和可扩展性,还体现了SaharaAI促进协作经济和AI发展的远大愿景,旨在彻底改变AI技术的应用模式,为用户带来更具创新性和公平的解决方案。
结语随着AI技术的不断进步和加密市场的兴起,我们正站在一个新时代的门槛上。
随着AI大模型和应用的不断涌现,对算力的需求也在呈指数级增长。然而,算力的稀缺和成本的上升,对于许多中小型企业来说,是一个巨大的挑战。幸运的是,去中心化的解决方案,特别是Hyperbolic、Aethir和IO.NET,为AI初创公司提供了新的算力获取途径,降低了成本,提高了效率。
同时,我们也看到了数据在AI发展中的重要性。数据不仅是AI的食粮,更是推动AI应用落地的关键。PINAI、Sahara等项目通过激励网络,鼓励用户参与数据的收集和分享,为AI的发展提供了强大的数据支持。
算力和数据不仅仅是训练环节,对于AI应用来说,从数据摄入到生产推理,每个环节都需要利用不同工具实现海量数据处理,并且这是一个不断重复的流程。
在这个AI和Crypto交织的世界中,我们有理由相信,未来将见证更多创新的AI项目落地,这些项目将不仅改变我们的工作和生活方式,也将推动整个社会向更加智能化、去中心化的方向发展。随着技术的不断进步和市场的不断成熟,我们期待着一个更加开放、公平、高效的AI时代的到来。