L'IA risque de connaître la même centralisation que celle observée dans les éditions précédentes d'Internet. Mais une autre voie est possible, disent Mahesh Ramakrishnan et Vinayak Kurup.
L'IA décentralisée promet de démocratiser le calcul, en le rendant accessible aux petits développeurs et en le protégeant contre la consolidation du pouvoir par quelques acteurs majeurs.
Fin juillet, Mark Zuckerberg a écrit une lettre expliquant pourquoi « l’open source est nécessaire pour un avenir positif de l’IA », dans laquelle il se livre à des propos poétiques sur la nécessité du développement de l’IA open source. Le fondateur adolescent autrefois ringard, maintenant transformé en « Zuck » du wakeboard, du port de chaînes en or et du jiu-jitsu, a été présenté comme le messie du développement de modèles open source.
Mais jusqu’à présent, lui et l’équipe Meta n’ont pas beaucoup expliqué comment ces modèles sont déployés. Alors que la complexité des modèles entraîne des exigences de calcul plus élevées, si le déploiement du modèle est contrôlé par une poignée d’acteurs, n’avons-nous pas succombé à une forme similaire de centralisation ?
L'IA décentralisée promet de résoudre ce défi, mais la technologie nécessite des progrès dans les techniques cryptographiques de pointe et des solutions hybrides uniques.
Cet article d'opinion fait partie du nouveau DePIN Vertical de CoinDesk, couvrant le secteur émergent de l'infrastructure physique décentralisée.
Contrairement aux fournisseurs de cloud centralisés, l'IA décentralisée (DAI) distribue les processus informatiques pour l'inférence et la formation de l'IA sur plusieurs systèmes, réseaux et emplacements. S'ils sont mis en œuvre correctement, ces réseaux, un type de réseau d'infrastructure physique décentralisé (DePIN), apportent des avantages en termes de résistance à la censure, d'accès au calcul et de coût.
DAI 面临两个主要领域的挑战:人工智能环境和去中心化基础设施本身。与集中式系统相比,DAI 需要额外的保护措施,以防止未经授权访问模型详细信息或窃取和复制专有信息。因此,对于专注于开源模型但认识到开源模型与闭源模型相比的潜在性能劣势的团队来说,这是一个尚未充分开发的机会。
去中心化系统特别面临网络完整性和资源开销方面的障碍。例如,客户端数据分布在不同的节点上会暴露更多的攻击媒介。攻击者可以启动节点并分析其计算,尝试拦截节点之间的数据传输,甚至引入降低系统性能的偏差。即使在安全的去中心化推理模型中,也必须有审核计算过程的机制。通过提供不完整的计算来激励节点节省资源成本,并且由于缺乏可信的集中参与者而使验证变得复杂。
零知识证明
零知识证明(ZKP)虽然目前计算成本太高,但却是解决某些 DAI 挑战的一种潜在解决方案。 ZKP 是一种加密机制,使一方(证明者)能够说服另一方(验证者)相信某个陈述的真实性,而不会泄露该陈述本身的任何细节(除了其有效性)。对该证明的验证对于其他节点来说是快速运行的,并为每个节点提供了一种证明其按照协议行事的方法。证明系统及其实现之间的技术差异(稍后对此进行深入探讨)对于该领域的投资者来说非常重要。
集中式计算使得模型训练仅限于少数地位良好且资源丰富的参与者。 ZKP 可能是解锁消费类硬件上闲置计算的一部分;例如,MacBook 可以使用其额外的计算带宽来帮助训练大型语言模型,同时为用户赚取代币。
使用消费类硬件部署去中心化训练或推理是 Gensyn 和 Inference Labs 等团队的重点;与 Akash 或 Render 等去中心化计算网络不同,计算分片会增加复杂性,即浮点问题。利用闲置的分布式计算资源为小型开发人员测试和训练自己的网络打开了大门 - 只要他们能够访问解决相关挑战的工具即可。
目前,ZKP 系统似乎比本地运行计算昂贵四到六个数量级,并且对于需要高计算(如模型训练)或低延迟(如模型推理)的任务,使用 ZKP 是令人望而却步的慢的。相比之下,下降六个数量级意味着在 M3 Max 芯片上运行的尖端系统(如 a16z 的 Jolt)可以证明程序比在 TI-84 图形计算器上运行慢 150 倍。
人工智能处理大量数据的能力使其与零知识证明(ZKP)兼容,但在 ZKP 得到广泛使用之前,密码学方面还需要取得更多进展。 Irreducible(设计了 Binius 证明系统和承诺方案)、Gensyn、TensorOpera、Hellas 和 Inference Labs 等团队所做的工作将是实现这一愿景的重要一步。然而,时间表仍然过于乐观,因为真正的创新需要时间和数学进步。
与此同时,值得注意的是其他可能性和混合解决方案。 HellasAI 和其他公司正在开发表示模型和计算的新方法,这些方法可以实现乐观挑战游戏,只允许需要以零知识处理的计算子集。乐观证明只有在有质押、证明不法行为的能力时才有效,
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!