全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
未来已来:3EX AI交易引领数字资产交易新时代
go
lg
...
AI交易平台利用先进的机器学习算法和
深度
学习
模型,能够分析海量的市场数据,并从中提取出有价值的信息,帮助投资者做出更加准确和及时的交易决策。 量化交易的新趋势 在数字资产交易中,量化交易已经成为一种新的趋势。而AI技术的运用使得量化交易变得更加智能化和高效化。通过3EX AI交易平台,投资者可以轻松地创建和优化量化交易策略,利用机器学习算法来实现自动化的交易执行,从而降低交易成本、提高交易效率,并获取更稳定的收益。 风险管理的智能化 在数字资产交易中,风险管理是至关重要的一环。然而,传统的人工风险管理往往存在着主观性和局限性。而3EX AI交易平台则通过智能化的风险管理策略,实现了对交易风险的全面监控和精准控制。通过AI算法的实时分析和预测,平台可以及时发现并应对潜在的风险,保障投资者的资金安全。 策略交流与共享 除了提供先进的交易技术和优质的服务外,3EX还致力于打造一个开放、包容的数字资产交易社区。在这个社区里,投资者可以分享自己创建的AI交易策略或者一键跟随交易大咖的优质策略,共同探讨交易策略、分享交易经验,共同成长。平台还为用户提供了丰富的学习资源和培训课程,帮助他们提升交易技能,实现财富增长。 随着数字资产市场的不断发展和成熟,投资者对交易平台的要求也越来越高。在这样的背景下,3EX AI交易平台以其先进的技术和人性化的服务,成为了投资者的首选。未来,我们相信,随着科技的进步和平台的不断完善,3EX将继续引领着数字资产交易的新时代,为全球投资者创造更多的价值和机遇。 3EX相关链接: Twitter(EN): https://twitter.com/3exglobal Twitter(CN): https://twitter.com/3EX_ZH Facebook: https://www.facebook.com/profile.php?id=100092234370403 Instagram: https://www.instagram.com/3EX.Exchange/ Medium: https://medium.com/@3ex Reddit:https://www.reddit.com/user/3EXGLOBAL Youtube:https://youtube.com/@3EXGLOBAL?feature=shared 来源:金色财经
lg
...
金色财经
2024-02-28
AI 新黑马 KIP Protocol 是下一个早期 Bittensor
go
lg
...
数字产权安全的同时,又能不断提升AI的
深度
学习
能力,是需要思考的问题。 由此,KIP Protocol,首个专注于AI的去中心化Web3底层协议,应运而生。 KIP Protocol: 聚焦 AI 安全创新的 Web3 底层协议 2024年初,在a16z关于《2024年展望清单》中,就将“AI+Crypto”列入其中,并强调加密技术可以“实现创建多边、全球、无需许可的市场,任何人都可以为网络的某个需要的人贡献计算或新的数据集,并获得补偿”,而利用这些资源的长尾将使这些市场降低 AI 的成本,使数据更加易于获取。 Vitalik Buterin也在其文章中对于“AI+Crypto”进行展望,同样认为加密技术可以平衡AI的中心化与透明度,并有助于优化AI的数据储存。 KIP Protocol的目标是开发一个安全且高效的去中心化 Web3 底层协议,使 AI 创造者(数据拥有者,模型制作者, AI 应用开发者)能够: 将他们的工作部署在 Web3 上,从而保留完全数字产权 与其他 AI 资产交互和交易 在不失去访问控制的情况下获得收益 同时,KIP Protocol也是世界上首个支持去中心化RAG(检索增强生成)方案的Web3协议。在其官方的Explainer系列的第二篇也重点介绍了RAG概念。 RAG是生成式AI中使用的一种复杂的创新技术,它能让AI模型通过检索外部知识库和数据库中的数据和信息,生成它原本不知道的答案。它就像一个智能助手,虽然不知道你问题的答案,但却能专业地从外部数据中找到你想要的答案,以保护数据的安全性,不会暴露给模型。 RAG技术涉及AI中的 3 个关键价值创造者(App开发者、模型制作者和数据所有者)。 通过建立一个去中心化RAG的框架,KIP本质上其实是建立了一个去中心化控制AI价值创造的框架,为所有价值创造者提供一个公平竞争的环境,从而摆脱AI垄断。同时,允许AI以高效的方式发挥作用,成为数百万小规模和大规模创作者共同努力的结晶,而无需任何一个大型公司来一手掌控每个核心功能。 近期,KIP Protocol官宣了由Animoca Ventures领投的战略轮融资。据官方介绍,KIP团队汇集了自2019年以来致力于AI研究的资深博士和技术专家,他们同时在Web3 领域拥有深厚的专业背景和丰富经验。 同时,KIP Protocol 团队已在 2023 年度 Chainlink Constellation 黑客松上荣获腾讯云奖项。其协议上的首个app“Kipley.ai”,一个以安全为中心的多模型 RAG 平台,目前已成功与Animoca Ventures、泰国科学技术研究院、Anomaly以及众多来自知名大学的教授和研究人员进行合作。而协议上首个dapp “KnowledgeFi”,据其白皮书披露也将在2024年第一或第二季度推向市场。 去中心化,是AI迈向未来的必经之路 AI时代数据与信息支撑着AI的运行,数据在当下的重要性已不言而喻,只有形成足够大的数据,才能试练算法模型,最终能够带来经济效应。而随着AI领域的发展,打造最大、最强模型的的竞赛已经开始,而“数字产权垄断”则成为了个大科技巨头展开争夺的重点。 KIP Protocol的构建初心则是希望通过 Web3 来保护 AI 创造者的数字产权,为每位 AI 创造者都能提供一条公平的货币化道路,搭建一个由不同合作伙伴(数据拥有者,模型制作者, AI 应用开发者)构成的多元化商业生态系统,并帮助其基于 KIP Protocol 实现自由合作或生产创造,以摆脱科技巨头日益增长的 AI 垄断。 对此,KIP解决了AI 模型制作者、App开发者和数据所有者在尝试去中心化时将面临的三个基本问题。 “链上链下的数据互通”问题 随着AI技术的不断发展,开源模型库公司Hugging Face平台上的模型数量已突破50万大关,但由于当前的区块链技术无法达到完全去中心化,所以大部分的AI模型仍处于链下阶段,而KIP Protocol 的应用层则解决了链上链下的交互问题。 通过应用层,KIP可以轻松将不同的资产(比如软件、数据等)上传到链上。AI应用可以基于KIP Protocol铸造ERC-3525 SFT,与AI模型以及数据资产进行自由整合并无缝交互,这些交互会通过KIP Protocol记录到链上。同时,AI应用创造者和用户则可以根据自己的需要选择使用哪些模型、数据和应用格式。 “收入变现”问题 目前AI领域的基本收入模式是按查询付费,因为用户的每一次查询都会消耗 GPU的计算能力。并且,要回答一个用户的查询,需要多个AI价值创造者来回答这个问题。 因此,致力于去中心AI的KIP Protocol若想获得成功,就必须确保将AI工作去中心化的各方都能获得收入。 但这在AI领域,并不是一件简单的事情。以通过 RAG(检索增强生成) 运行查询为例: 用户向AI聊天机器人提问。 AI聊天机器人将查询转给它的大脑--AI模型。 模型只从知识库中检索回答问题所需的相关数据块,制定答案并将其发送回app。 App将答案打包并发送给用户。 在这个示例中,你可以看到三个角色是如何为回答用户查询而做出贡献。 如果在一个中心化生态系统中,一个平台拥有并控制着三个角色,那么用户只需向这个中心化平台付费,其余的都是内部之间的转账。 但如果KIP Protocol想要去中心化而不是垄断,那么每一方都需要被付费,因此需要解决以下问题: 记录(链上)每个人的贡献 分配用户的收入 让每个人都能赚取属于他们自己的收入 基于KIP Protocol,每个创作者可以为查询功能设置自己的价格,而KIP会确保用户支付的费用按比例分配给AI价值创造者(模型制作者,App开发者,数据所有者)。 由于每次交互都记录在链上,KIP可以通过低Gas、高效率的结算层进行准确的AI交互与收益核算,让每个创作者在贡献数字产权的同时,获得相应比例的报酬实现收入变现。 “数字产权保护”问题 KIP Protocol通过使用区块链代币,特别是ERC-3525代币形式(SFT)将不同的资产(比如软件、数据等)储存在KIP Protocol框架里的产权层。 1.对于数据所有者:SFT 代表了矢量化知识库,或用于模型训练的加密原始数据文件链接。 2.对于模型制作者:SFT 可以代表一个通向链下模型的API,或者一套可供出售的权重模型。 3.对于App开发人员:SFT 可以代表前端API或提示词本身。 这些SFT作为“变现实体”,可以在链上相互交互,并记录每个SFT从特定交易中赚取的金额。 通过解决这些问题,KIP可以让AI价值创造者轻松实现工作中的去中心化,为一个充满活力、规模更大的去中心化AI生态系统创造初始条件。 KIP Cycle进行时,海外KOL力捧KIP新概念 目前,KIP已在X平台上开启多次cycle活动,第10次活动刚刚结束。用户即需要在Galxe上解锁并完成相应任务,方可获得项目积分。 而谈到积分,这不得不让我们联想到了近期大热的“积分制公平发射”,此外根据KIP白皮书中关于$KIP代币经济学中也曾谈到,会将总供应量的35%用于生态系统基金,而其中则包括以“忠诚度”为主的社区奖励,那么完全可以相信所谓的“空投预期”也不是空穴来风。并且,在没有大规模市场宣发的情况下,目前KIP Cycle参与的总人数已超过50k,足以可见KIP项目在海外热度不错。 实际上,KIP目前已经成为专注于AI板块的加密投资者口中炙手可热的Alpha项目。 知名BTC投资KOL Marco Johanning曾在X平台上表示,“KIP是首个支持去中心化的 AI RAG的Web3底层协议,目前该项目仍处于早期阶段”,并表示已与KIP团队取得联系,“KIP团队只联系了部分Bittensor的早期投资者,因为作为$TAO Holder他们并没有抛售,而是对AI板块抱有共同期待”。 而深耕于AI板块的加密KOL AI Project Hub更是将“KIP Protocol”描述为“以不同的方式进行去中心化AI研究,而这种方法则是Bittensor(去中心化激励机器学习智能生产的协议)的补充”。 对此,另一个海外大V Crypto Phoenix在该条文章下留言表示对此持开放态度,通过研究相关资料认为KIP这个项目的启动经过了深思熟虑“尤其是关于兑现期与成长计划”,并明牌表示KIP未来可能获得巨大的成功。 而坐拥近5万粉的加密大V@wauwda也向KIP 项目抛去橄榄枝,公开其参与了KIP的早期融资。 知名加密博主Tomb更是将KIP列为了下一个潜在财富密码。 目前,海外AI板块的加密投资者正在争先恐后成为“第一个吃螃蟹的人”,然而,相比海外市场的热闹与活跃,KIP在华语市场的影响力和知名度仍处在一个较为空白的时期,这也意味着KIP对于华语投资者来说,充满了无限的可能性和机遇。 根据上述KOL与团队的交流,我们可以深切地感受到这是一个成熟且富有远见的团队,不仅对KIP Protocol的发展有着清晰明确的规划,更对未来充满了信心和期待。这种信心和期待并非空穴来风,而是基于他们对AI与区块链技术的深刻理解和扎实的技术实力。 在KIP团队看来,早期用户的选择至关重要,他们更倾向于寻找那些“有着AI愿景的长期Holder”。这样的用户群体不仅能为社区带来稳定且持久的支持,更能与团队形成强大的共识,共同推动KIP Protocol的发展。 总结 如果说“Crypto+AI=future of finance”,那么KIP可能就是在AI与加密领域交汇处一个强有力的投注。 到目前为止,在“Crypto+AI”领域,KIP是首个专注AI的去中心化底层协议。作为开源的Web3底层协议,KIP Protocol始终秉持“AI时代,人人都应实现KnowledgeFi”价值理念,促进去中心化数字产权的创建、管理和盈利,以实现KnowledgeFi。近期,KIP Protocol官宣成功加入谷歌云的Startups Program,而Dapp KnowledgeFi也将在今年第一或第二季度面向市场。 笔者认为目前“Crypto+AI”还是蓝海市场,潜力巨大,关注早期基础设施的发展是拥抱新浪潮的第一步。虽然KIP 未来的道路还很漫长,但KIP的价值理念与愿景正从海外社区向着世界范围内扩散。 关于 KIP Protocol KIP Protocol 为 AI App 开发者、模型制作者和数据所有者构建 Web3 底层协议,使 AI 资产能够轻松部署和实现货币化,同时保留完整的数字产权。 KIP 将搭建全新的 AI 商业生态系统,以解决去中心化 AI 部署中面临的问题与挑战,并确保所有人都能享受 AI 带来的经济利益。 KIP 团队汇集了自 2019 年以来致力于 AI 研究的资深博士和技术专家,他们同时在 Web3 领域拥有深厚的专业背景和丰富经验,致力于推动 AI 去中心化,成为去中心化 AI 浪潮的加速催化剂。 要了解更多信息,请访问www.kip.pro或在 X @KIPProtocol 上关注他们 来源:金色财经
lg
...
金色财经
2024-02-28
巨头纷纷下注Figure AI, AI领域新星引领科技风潮
go
lg
...
。 Figure AI的核心技术是基于
深度
学习
的人工智能算法,该算法能够对大量数据进行快速、准确的分析和处理,为企业提供精准的决策支持。此外,Figure AI还拥有一支由顶级科研人员组成的团队,他们在人工智能领域有着深厚的研究背景和丰富的实践经验,这也是Figure AI能够在众多AI公司中脱颖而出的重要原因。 Figure AI的出现,无疑给AI领域带来了新的活力。在当前科技飞速发展的时代,人工智能技术的应用已经深入到各个行业和领域,而Figure AI的出现,正是这一趋势的最好证明。Figure AI的技术和服务,不仅能够帮助企业提高效率,降低成本,还能够为企业带来全新的商业模式和增长点。 目前,已经有多家科技巨头对Figure AI表示了投资意向,这无疑是对Figure AI技术和商业模式的高度认可。这些科技巨头的投资,不仅能够为Figure AI提供资金支持,更能够为其提供丰富的行业资源和市场渠道,有助于Figure AI的快速发展和扩张。 尽管Figure AI的前景看好,但其发展之路并非一帆风顺。在人工智能领域,竞争异常激烈,各家公司都在积极研发新的技术和产品,以争夺市场份额。因此,Figure AI必须不断创新,提升自身的技术和服务水平,才能在竞争中保持领先地位。 总的来说,Figure AI的出现,标志着人工智能领域的新一轮竞争已经拉开帷幕。科技巨头们纷纷下注Figure AI,既是对其技术和商业模式的认可,也是对AI领域未来发展的乐观预期。我们有理由相信,Figure AI将在未来的AI领域中发挥更大的作用,引领科技风潮。
lg
...
金融界
2024-02-26
从Sora到3EX AI交易:AI如何重塑加密交易
go
lg
...
了一系列创新的交易工具和服务。通过集成
深度
学习
和机器学习模型,3EX能够分析大量的市场数据,预测市场趋势,并据此自动调整交易策略。 从Sora到3EX AI交易,AI技术正在逐步成为区块链行业的游戏改变者。随着技术的不断进步,AI和区块链的结合将更加紧密,未来的区块链平台将更加智能化、个性化和安全,带领区块链行业进入一个全新的发展阶段,为全球的投资者提供更加高效、安全和智能的交易服务。未来已来,让我们共同期待AI在区块链行业中创造的更多可能。 3EX相关链接: Twitter(EN): https://twitter.com/3exglobal Twitter(CN): https://twitter.com/3EX_ZH Facebook: https://www.facebook.com/profile.php?id=100092234370403 Instagram: https://www.instagram.com/3EX.Exchange/ Medium: https://medium.com/@3ex Reddit:https://www.reddit.com/user/3EXGLOBAL Youtube:https://youtube.com/@3EXGLOBAL?feature=shared 来源:金色财经
lg
...
金色财经
2024-02-26
巨头纷纷下注Figure AI,AI领域新星引领科技风潮
go
lg
...
。 Figure AI的核心技术是基于
深度
学习
的人工智能算法,该算法能够对大量数据进行快速、准确的分析和处理,为企业提供精准的决策支持。此外,Figure AI还拥有一支由顶级科研人员组成的团队,他们在人工智能领域有着深厚的研究背景和丰富的实践经验,这也是Figure AI能够在众多AI公司中脱颖而出的重要原因。 Figure AI的出现,无疑给AI领域带来了新的活力。在当前科技飞速发展的时代,人工智能技术的应用已经深入到各个行业和领域,而Figure AI的出现,正是这一趋势的最好证明。Figure AI的技术和服务,不仅能够帮助企业提高效率,降低成本,还能够为企业带来全新的商业模式和增长点。 目前,已经有多家科技巨头对Figure AI表示了投资意向,这无疑是对Figure AI技术和商业模式的高度认可。这些科技巨头的投资,不仅能够为Figure AI提供资金支持,更能够为其提供丰富的行业资源和市场渠道,有助于Figure AI的快速发展和扩张。 然而,尽管Figure AI的前景看好,但其发展之路并非一帆风顺。在人工智能领域,竞争异常激烈,各家公司都在积极研发新的技术和产品,以争夺市场份额。因此,Figure AI必须不断创新,提升自身的技术和服务水平,才能在竞争中保持领先地位。 总的来说,Figure AI的出现,标志着人工智能领域的新一轮竞争已经拉开帷幕。科技巨头们纷纷下注Figure AI,既是对其技术和商业模式的认可,也是对AI领域未来发展的乐观预期。我们有理由相信,Figure AI将在未来的AI领域中发挥更大的作用,引领科技风潮。
lg
...
金融界
2024-02-26
揭开智能 DeFi 的面纱:协处理器如何赋能 DeFi
go
lg
...
的协处理器。它们擅长处理 3D 渲染和
深度
学习
等任务所需的并行计算。这种安排允许主 CPU 专注于通用处理。协处理器模型使计算机能够处理更复杂的工作负载,而使用单个通用 CPU 是无法实现的。 通过利用协处理器和访问链上数据,区块链应用程序可以提供高级功能并做出明智的决策。这为进行额外计算创造了机会,能够执行更复杂的任务,并使应用程序变得更加“智能”。 不同类型的协处理器 基于信任假设,协处理器主要可以分为三种不同类型:零知识(ZK)、乐观和加密经济。 ZK 协处理器如果实现正确,理论上是无需信任的。他们执行链下计算并提交链上证明进行验证。虽然它们提供了速度,但在证明成本方面需要权衡。随着定制硬件的进步和加密技术的发展,转嫁给最终消费者的最终成本可能会降低到更可接受的水平。 Axiom和RISC Zero Bonsai 是 ZK 协处理器的示例。它们允许访问链上状态的任意计算在链外运行,并提供计算执行的证据。 为了更清楚地了解典型 ZK 协处理器的运行方式,让我们检查一下RISC Zero Bonsai 的工作流程。 应用程序将协同处理请求发送到 Bonsai Relay,然后将证明请求转发到 Bonsai 证明服务。RISC Zero zkVM 执行程序并生成证明来验证代码的正确执行,任何人都可以验证。随后,Bonsai Relay 在链上发布证明,应用程序通过回调函数接收结果。 虽然 ZK 协处理器是实现可验证的链外计算的一种方法,但 MPC 和 TEE 等替代方案提供了不同的方法。MPC 支持对敏感数据进行协作计算,而 TEE 则提供基于硬件的安全飞地。每个选项都需要在安全性和效率之间进行权衡。在本文中,我们将重点关注 ZK 协处理器。 乐观协处理器提供了经济高效的解决方案,但它们存在严重的延迟问题(通常为数周)。他们要求诚实的各方在具有挑战性的窗口内通过欺诈证据有效地挑战他们。因此,安全保障的时间被推迟。 加密经济协处理器是乐观的协处理器,在执行时具有足够大的经济债券和链上保险系统,允许其他人获得错误计算的补偿。这种经济债券和保险可以通过 Eigenlayer 等共享安全提供商购买。优点是即时结算,但缺点是购买保险的成本。 *现有的证明生成时间不到一秒(诚然,对于小型、优化的证明),而且它们正在迅速改进。 不同类型的协处理器表现出不同的成本、延迟和安全特性。组合不同类型的协处理器可以带来优化的用户体验。一个突出的例子是布雷维斯。Brevis 最初推出的是 zk 协处理器,现在推出了Brevis coChain。这项创新将加密经济学和 ZKP 结合在 ZK 协处理器中,从而降低了成本、最小化了延迟并增强了用户体验。 纯 ZK 协处理器在当前状态下仍然面临诸如高证明生成成本和可扩展性问题等挑战。这是因为数据访问和计算结果的 ZK 证明总是预先生成的。利用 Eigenlayer 的重新抵押基础设施,Brevis coChain 使 dapp 能够定制他们想要的加密经济安全级别,从而赋予他们更大的灵活性来增强用户体验。以下是其运作方式的简单说明。 Brevis coChain 首先会根据 PoS 共识“乐观”地生成协处理请求的结果。然后,启动两个挑战窗口,一个是特定于应用程序且由开发人员配置的,另一个是较长的全局 coChain 削减窗口。 在应用程序挑战窗口期间,观察者可以提交与协处理结果相矛盾的 ZKP。成功的挑战会削减提议者并奖励挑战者。失败的提案会导致挑战者的保证金被没收。 如果没有挑战,应用程序将认为结果有效。全球 coChain 削减窗口是为了增强安全性。即使应用程序接受了错误的结果,只要 coChain 削减窗口打开,恶意验证器就可以被削减,并且可以纠正错误的结果。 由于不同类型的协处理器表现出不同的成本、延迟和安全特性,因此应用程序必须评估其需求以确定所需的协处理器类型。如果计算涉及高安全性任务,例如计算 Beacon 链上验证者的余额,涉及数十亿美元的流动性质押,ZK 协处理器是最合适的选择。它们提供了最大的安全性,因为结果可以不受信任地验证。此外,在这种情况下,延迟不是问题,可以在可接受的时间范围内生成证明。 对于对延迟不太敏感且不涉及重大财务价值的任务,例如在社交资料上展示链上成就指标,提供最低链下计算的乐观协处理器可能更可取。 对于其他任务,当购买的保险涵盖风险价值时,加密经济协处理器被证明更具成本效益。保险成本的分析应根据具体情况进行,很大程度上受到应用程序所带来的价值的影响。这些任务通常需要不同的分析和风险建模。 对协处理器进行分类的另一种方法是按计算类型,例如: RiscZero,简洁且=nil;对于一般计算, AI 的仪式和模块, 数据库操作的空间和时间, 用于 EVM 计算的MegaETH等。 协处理器在 DeFi 中的使用是一个具有巨大潜力的新兴领域。接下来,我将概述如何在 DeFi 的各个领域(包括 DEX、货币市场、质押、重新质押等)使用协处理器的现有想法和实现。 DEX DEX 涉及多个利益相关者。其中包括交易者、流动性提供者、做市商、流动性管理者、解决者/填充者等。协处理器有潜力通过不同级别的信任假设有效地简化复杂任务,最终增强这些利益相关者的体验。 降低成本 在基本的 AMM 中,一项重要功能是在用户发起交换时计算必要的参数。这些参数包括转入和转出的金额、费用以及转入后的价格。在维持信任保证的同时利用 zk 协处理器的计算能力的一个简单用例是在链外执行部分交换功能,然后在链上完成其余步骤。zkAMM 是自动做市商 (AMM) 的一种变体,它在协议中集成了零知识证明。迭戈(@0xfuturistic)介绍了基于 Uniswap v3 的 zkAMM (zkUniswap) 实现,其中一部分 AMM 交换计算被卸载到 Risc Zero zkVM。用户通过在链上发出请求来启动交换,交换输入由中继器拾取,并且计算在链外进行。然后中继者发布输出和证明。AMM 验证证明并结算交换。 虽然现阶段计算成本仍与 EVM 相当,但由于 RiscZero 的延续特性,可以通过独立路径并行计算交换来实现更高的效率。本质上,交换的执行可以在链上按顺序完成,但实际的交换步骤可以使用这种方法在链外并行计算。这使得批次中最重的部分能够并行化,这在 EVM 中本身是不可能的。验证成本也可以通过将多个交易分批在一起来摊销。 用户还可以选择使用替代数据可用性层来发送交换请求。另一种方法是利用EIP712签名进行链下传播,这可以进一步降低交换成本。 动态参数 协处理器还可以用于动态控制 AMM 池的交换费用。动态费用的概念是在市场波动期间提高费率,并在市场平静时降低费率。这对被动流动性提供者来说是一个好处,因为他们始终站在交易的不利一边,并通过损失与再平衡(LVR)经历价值泄漏。动态费用的实施旨在通过充分补偿有限合伙人来解决这个问题。 一些 AMM 已经具备此功能。例如,Ambient利用外部预言机每 60 分钟监控不同费用级别的 Uniswap v3 池并拍摄快照,以选择性能最佳的池。 为了进一步了解调整费率,可以利用链上和链下的额外数据。这包括针对该特定 AMM 池或针对不同流动性池(例如 Ambient 解决方案)甚至不同网络上的池的同一货币对进行的链上历史交易。如果允许某些信任假设,还可以引入来自 Chainlink 或 Pyth 等信誉良好的预言机的链下数据(例如 CEX 交易数据)。 使用哪种类型的协处理器的决定受到费用调整频率的影响。如果池需要非常频繁的动态费用变化,加密经济协处理器可能更合适。这是因为证明成本可能超过保险成本,保险成本可以通过费率差异乘以平均数量来估计。如果发生任何错误的计算,有限合伙人可以轻松地索赔 Eigenlayer 提供的保险,以补偿他们的费用损失。 另一方面,有些矿池更喜欢不太频繁的费率变化。然而,这些池处理的数量非常大,这可能会增加保险购买成本。在这种情况下,ZK协处理器更适合,因为它提供了最强的保障。 主动流动性管理器(ALM) 对于经验不足的用户来说,被动流动性提供可能是一个有吸引力的选择,他们希望从闲置流动性中赚取费用,而不必过度担心价格偏差。然而,一些流动性提供者(LP)更容易受到价格偏差和统计套利造成的损失。我们之前讨论过如何动态调整费用来缓解这个问题。但为什么不更进一步,彻底改变流动性曲线的形状呢?这是一种更复杂的流动性管理方法,称为主动流动性管理器(ALM)。 遗憾的是,现有的ALM大多只提供再平衡等基础策略,对费用收取的影响有限。另一方面,可以使用稍微更先进的技术,例如使用货币市场或衍生品进行对冲。然而,它们要么在链上频繁执行时会产生高昂的成本,要么依赖集中式链下黑盒计算。 协处理器有潜力解决成本和信任问题,从而能够采用先进的策略。通过与Modulus Labs等尖端零知识机器学习 (ZKML) 解决方案和Ritual等去中心化人工智能平台集成,流动性管理者可以利用基于历史交易数据、价格相关性、波动性、动量等的复杂策略,同时享受隐私和无需信任的优点。 高频交易策略需要精确的时机和快速的执行。虽然 ZK 解决方案可能并不总能满足必要的速度,但加密经济协处理器在这一领域表现出色。这些协处理器允许快速执行人工智能算法,并在块时间允许的情况下尽可能频繁地更新参数。然而,使用这种方法会产生保险费用。由于管理者不当处理资金或进行反向交易等潜在风险,准确估计这些成本可能具有挑战性。决策过程涉及平衡额外回报与保险费用,这最终取决于协处理器测量的时间范围内发生的总量。 基于指标的奖励分配 虽然每笔交易都记录在区块链上,但智能合约在确定这些交易所代表的指标方面面临着挑战,例如交易量、交互次数、每单位时间的 TVL 等。人们可能会建议使用 Dune Analytics 等索引解决方案,该解决方案提供有价值的信息。然而,依赖链外索引引入了额外的信任层。这就是协处理器成为一种有前途的解决方案的地方。 一项特别有价值的链上指标是交易量。例如,与某些块内的特定地址相关联的特定 AMM 池内的累积量。这个指标对于 DEX 非常有利。一种用例是允许根据用户的交易量为其设置不同的费用等级。这种方法类似于动态费用,但它不依赖一般数据,而是查看特定地址的数据。 Brevis提供了一个有趣的例子,其中交易量证明可以与定制的费用回扣 Uniswap 挂钩相结合,以提供类似于 CEX 上的 VIP 交易者的基于交易量的费用回扣。 具体来说,Uniswap v4可以读取用户过去30天内的历史交易,用定制的逻辑解析每个交易事件,并使用Brevis计算交易量。然后,交易量和 Brevis 生成的 ZK Proof 在 Uniswap v4 Hook 智能合约中进行可信验证,该智能合约异步确定并记录用户的 VIP 费用等级。验证通过后,符合条件的用户未来的任何交易都会触发 getFee() 函数,简单地查询 VIP 记录并相应减少交易费用。 获得“VIP”认证的成本也很便宜(根据其性能基准结果,大约 2.5 美元)。使用NEBRA等解决方案聚合多个用户可以进一步降低成本。唯一的代价是延迟,因为访问和计算 2600 个链上 Uniswap 交易大约需要 400 秒。然而,对于时间不敏感的功能来说,这不太重要。 为了解决延迟问题,dapp 可以利用 Brevis 的 coChain。通过 PoS 共识机制快速计算和交付结果,以最大程度地减少延迟。如果出现恶意活动,可以在挑战窗口期间使用 ZKP 来惩罚流氓验证者。 例如,在前面提到的 VIP 费用场景中,如果超过 2/3 的 coChain 验证者在链接到动态费用挂钩的“VIP 等级查找表”中欺骗性地为某些用户分配更高的 VIP 等级,则某些用户最初可能会获得更大的费用折扣。然而,当在削减窗口期间出示 ZK 证明,证明 VIP 等级不正确时,恶意验证者将面临处罚。然后,可以通过启用质询回调来更新 VIP 等级查找表来纠正错误的 VIP 等级。对于更谨慎的场景,开发人员可以选择实施扩展的应用程序级挑战窗口,提供额外的安全性和适应性层。 流动性挖矿 流动性挖矿是一种旨在引导流动性的奖励分配形式。DEX 可以通过协处理器更深入地了解其流动性提供者的行为,并适当分配流动性挖矿奖励或激励。重要的是要认识到并非所有 LP 都是一样的。有些人充当雇佣兵,而另一些人则仍然是忠实的长期信徒。 最佳的流动性激励应该回顾性地评估有限合伙人的奉献精神,特别是在市场大幅波动期间。那些在此期间持续为矿池提供支持的人应该获得最高的奖励。 求解器/填充器声誉系统 在关注用户意图的未来,求解器/填充器通过简化复杂的交易并实现更快、更便宜或更好的结果来发挥至关重要的作用。然而,对于求解器的选择过程一直存在批评。目前的解决方案包括: 利用荷兰式拍卖或费用自动扶梯的无需许可的系统。然而,这种方法在确保竞争性和无需许可的拍卖环境方面面临挑战,可能导致延迟问题甚至用户无法执行。 无需许可的系统需要抵押代币才能参与,这会造成进入的财务障碍,并且可能缺乏明确的削减/惩罚条件,或透明且无需信任的执行。 或者,可以根据声誉和关系建立解决者白名单。 前进的道路应该是无需许可和无需信任的。然而,为了实现这一目标,有必要建立区分优秀求解器和一般求解器的准则。通过利用 ZK 协处理器,可以生成可验证的证明,以确定某些求解器是否满足或不满足这些准则。根据这些信息,求解器可能会受到优先顺序流、削减、暂停甚至列入黑名单的影响。理想情况下,更好的求解器将收到更多的订单流,而较差的求解器将收到更少的订单流。定期审查和更新这些评级非常重要,以防止巩固和促进竞争,为新来者提供平等的参与机会。 抗操纵价格预言机 Uniswap 已经在其 v2 和 v3 版本中引入了嵌入式预言机。随着 v4 的发布,Uniswap 通过引入更高级的预言机选项,为开发人员扩展了可能性。然而,链上价格预言机仍然存在局限性和约束。 首先,有成本的考虑。如果协处理器计算的价格预言机可以提供成本改进,那么它可以作为更实惠的替代方案。价格预言机的设计越复杂,节省成本的潜力就越大。 其次,链上价格预言机池仍然容易受到操纵。为了解决这个问题,通常的做法是汇总不同来源的价格并进行计算,以创建更具抗操纵性的价格预言机。协处理器能够从各种池中检索历史交易,甚至跨不同协议,从而能够生成具有竞争性成本的抗操纵价格预言机,以便与其他 DeFi 协议集成。 DIA Data正在与Mina 生态系统的O(1) Labs合作开发基于 ZK 的预言机。这种方法是类似的——获取市场数据并在链外执行更复杂的计算,不受天然气成本和其他执行限制的影响,但能够在结果在链上提供时验证计算的完整性。这使得用其他市场数据(例如深度)补充简单的价格信息变得可行,以帮助评估清算影响,以及元数据以使协议能够定制其信息。 保证金制度 为了克服区块链技术的计算限制,许多衍生品平台经常将某些组件(例如风险管理系统)移至链外。 @0x_emperor和@0xkrane提出了一个有趣的协处理器用例,其中裕度逻辑是透明且可验证的。许多交易所都设有风险管理系统来防止杠杆过高。其中一个例子是自动减仓系统(ADL),该系统战略性地将损失分配给盈利的交易者,以抵消清算交易者所遭受的损失。本质上,它在盈利的交易者之间重新分配损失,以弥补因这些清算而产生的未偿债务。 用户可能对强行平仓有疑问。为了解决这个问题,交易所可以利用协处理器使用链上数据执行保证金引擎逻辑,并生成证明来验证计算是否正确。由于 ADL 很少发生,因此对延迟和证明成本的担忧很小。然而,使用无需信任且可验证的 Zk 协处理器可以增强透明度和完整性,这对交易所及其用户都是有利的。 货币市场 通过利用历史链上数据的见解,协处理器有可能增强有限合伙人和借贷协议的风险管理。此外,协议可以基于数据驱动的分析提供改进的用户体验。 几个月前,当 Curve 遭遇漏洞攻击时,人们的注意力转向了货币市场,数以百万计的 CRV 代币面临清算风险。当贷款价值 (LTV) 比率变得不健康时,Frax 贷方在协议大幅加息中找到了一些安慰。这激励 Curve 创始人更快地偿还债务。然而,AAVE 利益相关者表达了担忧,并发起了关于减少抵押品容量和可能停止市场的讨论。他们的担忧源于流动性不足以成功清算的可能性,这可能导致坏账和易受市场条件影响。 幸运的是,危机已经解决。定期审查货币市场上列出的资产非常重要,特别要关注其在市场上的流动性,尤其是在清算事件期间。非流动资产应被分配较低的贷款价值(LTV)比率和抵押品能力。 然而,正如我们在 CRV 情况中观察到的那样,货币市场风险参数变化的决策过程通常是反应性的。我们需要更加迅速和主动的措施,包括去信任的解决方案。关于反馈控制的使用进行了讨论根据链上指标(例如流动性利用率)动态调整参数,而不是依赖预先确定的曲线。一个有趣的概念涉及一个贷款池,用于验证特定市场的链上流动性证明。控制器接收 ZK 协处理器根据链上指标计算得出的证据,表明资产何时不再具有足够的流动性超过特定阈值。根据这些信息,控制者可以采取各种措施,例如调整利率、设定贷款价值上限、暂停市场,甚至完全停止市场。 更先进的策略可能包括根据前一周的链上流动性定期调整抵押品借贷能力或利率曲线。确切的门槛将通过 DAO 内部的讨论来确定。它可以通过考虑历史链上交易量、代币储备、一次性互换的最小滑点等因素来确定。 对于贷款人和借款人来说,货币市场可以提供增强的服务和体验,类似于 DEX 中 VIP 交易者的费用回扣计划。现有的信用评分解决方案旨在创建链上用户的全面档案。目标是激励良好的行为,例如通过避免清算事件、维持健康的平均贷款价值比率、稳定的大额存款等来证明有效的风险管理。这些积极行为可以得到无需信任的奖励,包括与普通用户相比更好、更平滑的利率、更高的最大LTV和清算比率、清算缓冲时间、更低的清算费用等等。 质押和重新质押 信任最小化的预言机 自合并和上海/沙佩拉升级以来,流动性质押市场已成为 DeFi 最大的市场。值得注意的是,Lido 的 TVL 已超过 290 亿美元,而 Rocketpool 的 TVL 超过 36 亿美元。 鉴于涉及大量资金,值得注意的是,用于报告信息的预言机(例如信标链上相关验证器的准确余额)仍然值得信赖。这些预言机在向执行层的涉众分配奖励方面发挥着至关重要的作用。 目前,Lido 采用 9 中 5 的法定人数机制,并维护一份受信任的成员列表,以防范恶意行为者。同样,Rocketpool 使用仅限邀请的 Oracle DAO 进行运营,该 DAO 由节点运营商组成,这些节点运营商受信任更新执行层智能合约中的奖励信息。 然而,必须认识到,如果大多数受信任的第三方受到损害,可能会严重损害流动质押代币(LST)持有者以及建立在 LST 之上的整个 DeFi 生态系统。为了降低错误/恶意预言机报告的风险,Lido在协议的执行层代码中实施了一系列健全性检查。 随着 EIP-4788“EVM 中的信标块根”的引入,协处理器可以更轻松地访问和计算共识层上的数据。=无;Foundation、Succint和 DendrETH 都在为 Lido 开发自己的 ZK-proof TVL 预言机。为了确保最大程度的安全性,Lido 可以利用多重防护架构。 以 =nil; 的设计为例,在较高的层面上,预言机从共识层和执行层获取基本信息,例如 Beacon 区块头、Beacon 状态、Lido 合约地址等,然后计算出一份报告所有 Lido 验证器的总锁定值和验证器计数。这些数据以及其他必要的信息被传递给证明生成者并在专用电路上运行以生成 ZK 证明。预言机检索证据并将证据及其报告提交给智能合约进行验证。请注意,这些预言机设计仍处于测试阶段,可能会发生变化。 然而,值得注意的是,由于通过 4788 发送的内容有限,总会有一些数据可能无法在 EL 端得到证明,并且该数据子集可能仍然需要预言机。 此外,信任最小化的 ZK 证明预言机仍处于起步阶段。Lido 贡献者提出的方法是使用 ZK 预言机提供的信息作为对可信预言机所做工作的“健全性检查”,直到这些 ZK 实现可以进行战斗测试。现阶段将预言机系统中的信任全部转移到 ZK 系统风险太大。 此外,这种大小的数据的证明计算量非常大(例如,甚至可能需要 30-45 分钟)并且非常昂贵,因此,在目前技术成熟的情况下,对于诸如每日甚至日内之类的事情,它们并不是合适的替代品报告。 验证者风险和绩效分析 验证者在质押生态系统中发挥着至关重要的作用。他们在信标链上锁定 32 ETH 并提供验证服务。如果他们表现得当,他们就会得到奖励。然而,如果他们行为不端,他们将面临砍伐。验证器由具有不同风险状况的节点运营商运行。它们可以被策划(例如 Lido 的策划验证器集)、绑定(例如 Rocket pool、Lido 的CSM))或单独的质押者。他们可能会选择在云数据中心或家里运行他们的服务,在加密货币监管友好或不友好的地区。此外,验证者可以利用 DVT 技术来拆分内部节点或加入集群以增强容错能力。随着 Eigenlayer 和各种 AVS(主动验证服务)的出现,验证器可能会提供除以太坊验证之外的其他服务。毫无疑问,验证者的风险状况将很复杂,因此准确评估其风险状况至关重要。凭借良好的验证者风险和性能分析,它打开了无限可能性的大门,包括: 首先,风险评估在建立无需许可的验证器集方面发挥着至关重要的作用。在 Lido 的背景下,质押路由器的引入和未来的 EIP-7002“执行层可触发退出”可以为验证者的无许可加入和退出铺平道路。加入或退出的标准可以根据验证者过去验证活动得出的风险状况和性能分析来确定。 其次,DVT中的节点选择。对于单独的质押者来说,选择其他节点来创建 DVT 集群可能是有益的。这有助于实现容错并提高产量。节点的选择可以基于各种分析。此外,集群的形成可以是无需许可的,允许具有强大历史性能的节点加入,同时可以删除性能不佳的节点。 第三,重新赌注。Liquid 重新抵押协议使重新抵押者能够参与 Eigenlayer 重新抵押市场。这些协议不仅产生称为流动性重新抵押代币(LRT)的流动性收据,而且旨在为重新抵押者确保最佳的风险调整回报。例如,Renzo 的策略之一是构建具有最高夏普比率的 AVS 投资组合,同时遵守指定的最大损失目标,通过 DAO 调整风险承受能力和权重。随着越来越多的 AVS 项目启动,优化对特定 AVS 的支持以及选择最合适的 AVS 运营商变得越来越重要。 到目前为止,我们强调了验证者风险和性能分析的重要性,以及它所支持的广泛用例。然而,问题仍然存在:我们如何准确评估验证者的风险状况?Ion Protocol正在开发一种潜在的解决方案。 Ion Protocol 是一个利用可证明的验证器支持的数据的借贷平台。它使用户能够以其质押和重新质押头寸借入 ETH。贷款参数,包括利率、LTV 和头寸健康状况,由共识层数据确定,并由 ZK 数据系统保护。 Ion 正在与 Succinct 团队合作开发Precision,这是一个无需信任的框架,用于验证以太坊共识层上验证器的经济状态。其目的是创建一个可验证的系统,准确评估抵押资产的价值,减轻任何潜在的操纵或削减风险。一旦建立,该系统可以促进贷款发放和清算流程。 Ion 还与 Modulus Labs 合作,利用 ZKML 对借贷市场进行去信任分析和参数化,包括利率、LTV 和其他市场细节,以最大限度地减少异常削减事件时的风险暴露。 结论 DeFi 确实非常了不起,因为它彻底改变了金融活动的进行方式,消除了对中介机构的需求并降低了交易对手风险。然而,目前 DeFi 在提供良好的用户体验方面还存在不足。令人兴奋的消息是,随着协处理器的引入,这种情况即将发生变化,协处理器将使 DeFi 协议能够提供数据驱动的功能,增强用户体验并完善风险管理。此外,随着去中心化人工智能基础设施的进步,我们正在迈向智能 DeFi 的未来。 来源:金色财经
lg
...
金色财经
2024-02-26
Web3与AI的交织还能碰撞出怎样的火花?
go
lg
...
模式识别、分类及连续输入输出映射问题。
深度
学习
,作为连接主义的发展,已在图像识别、语音识别和自然语言处理等领域取得突破; 行为主义(Behaviorism) 行为主义则与仿生机器人学和自主智能系统的研究紧密相关,强调智能体能够通过与环境的交互学习。与前两者不同,行为主义不专注于模拟内部表征或思维过程,而是通过感知和行动的循环实现适应性行为。行为主义认为,智能通过与环境的动态交互、学习而展现,这种方法应用于需要在复杂和不可预测环境中行动的移动机器人和自适应控制系统中时,显得尤为有效。 尽管这三个研究方向存在本质区别,但在实际的AI研究和应用中,它们也可以相互作用和融合,共同推动AI领域的发展。 AIGC原理概述 现阶段正在经历爆炸式发展的生成式AI(Artificial Intelligence Generated Content,简称AIGC),便是对于连接主义的一种演化和应用,AIGC能够模仿人类创造力生成新颖的内容。这些模型使用大型数据集和
深度
学习
算法进行训练,从而学习数据中存在的底层结构、关系和模式。根据用户的输入提示,生成新颖独特的输出结果,包括图像、视频、代码、音乐、设计、翻译、问题回答和文本。而目前的AIGC基本由三个要素构成:
深度
学习
(Deep Learning,简称DL)、大数据、大规模算力。
深度
学习
深度
学习
是机器学习(ML)的一个子领域,
深度
学习
算法是仿照人脑建模的神经网络。例如,人脑包含数百万个相互关联的神经元,它们协同工作以学习和处理信息。同样,
深度
学习
神经网络(或人工神经网络)是由在计算机内部协同工作的多层人工神经元组成的。人工神经元是称为节点的软件模块,它使用数学计算来处理数据。人工神经网络是使用这些节点来解决复杂问题的
深度
学习
算法。 从层次上划分神经网络可分为输入层、隐藏层、输出层,而不同层之间连接的便是参数。 ● 输入层(Input Layer):输入层是神经网络的第一层,负责接收外部输入的数据。输入层的每个神经元对应于输入数据的一个特征。例如,在处理图像数据时,每个神经元可能对应于图像的一个像素值; ● 隐藏层(Hidden Layer):输入层处理数据并将其传递到神经网络中更远的层。这些隐藏层在不同层级处理信息,在接收新信息时调整其行为。
深度
学习网
络有数百个隐藏层,可用于从多个不同角度分析问题。例如,你得到了一张必须分类的未知动物的图像,则可以将其与你已经认识的动物进行比较。比如通过耳朵形状、腿的数量、瞳孔的大小来判断这是什么动物。深度神经网络中的隐藏层以相同的方式工作。如果
深度
学习
算法试图对动物图像进行分类,则其每个隐藏层都会处理动物的不同特征并尝试对其进行准确的分类; ● 输出层(Output Layer):输出层是神经网络的最后一层,负责生成网络的输出。输出层的每个神经元代表一个可能的输出类别或值。例如,在分类问题中,每个输出层神经元可能对应于一个类别,而在回归问题中,输出层可能只有一个神经元,其值表示预测结果; ● 参数:在神经网络中,不同层之间的连接由权重(Weights)和偏置(Biases)参数表示,这些参数在训练过程中被优化以使网络能够准确地识别数据中的模式和进行预测。参数的增加可以提高神经网络的模型容量,即模型能够学习和表示数据中复杂模式的能力。但相对应的是参数的增加会提升对算力的需求。 大数据 为了有效训练,神经网络通常需要大量、多样及质量高和多源的数据。它是机器学习模型训练和验证的基础。通过分析大数据,机器学习模型可以学习数据中的模式和关系,从而进行预测或分类。 大规模算力 神经网络的多层复杂结构,大量参数,大数据处理需求,迭代训练方式(在训练阶段,模型需要反复迭代,训练过程中需要对每一层计算进行前向传播和反向传播,包括激活函数的计算、损失函数的计算、梯度的计算和权重的更新),高精度计算需求,并行计算能力,优化和正则化技术以及模型评估和验证过程共同导致了其对高算力的需求。 Sora 作为OpenAI最新发布的视频生成AI模型,Sora代表了人工智能处理和理解多样化视觉数据能力的巨大进步。通过采用视频压缩网络和空间时间补丁技术,Sora能够将来自世界各地、不同设备拍摄的海量视觉数据转换为统一的表现形式,从而实现了对复杂视觉内容的高效处理和理解。依托于文本条件化的Diffusion模型,Sora能够根据文本提示生成与之高度匹配的视频或图片,展现出极高的创造性和适应性。 不过,尽管Sora在视频生成和模拟真实世界互动方面取得了突破,但仍面临一些局限性,包括物理世界模拟的准确性、长视频生成的一致性、复杂文本指令的理解以及训练与生成效率。并且Sora本质上还是通过OpenAI垄断级的算力和先发优势,延续“大数据-Transformer-Diffusion-涌现”这条老技术路径达成了一种暴力美学,其它AI公司依然存在着通过技术弯道超车的可能。 虽然Sora与区块链的关系并不大,但个人认为之后的一两年里。因为Sora的影响,会迫使其它高质量AI生成工具出现并快速发展,并且将辐射到Web3内的GameFi、社交、创作平台、Depin等多条赛道,所以对于Sora有个大致了解是必要的,未来的AI将如何有效的与Web3结合,也许是我们需要思考的一个重点。 AI x Web3的四大路径 如上文所诉,我们可以知道,生成式AI所需的底层基座其实只有三点:算法、数据、算力,另一方面从泛用性和生成效果来看AI是颠覆生产方式的工具。 而区块链最大的作用有两点:重构生产关系以及去中心化。所以两者碰撞所能产生的路径我个人认为有如下四种: 去中心化算力 由于过去已经写过相关文章,所以本段的主要目的是更新一下算力赛道的近况。当谈到AI时,算力永远是难以绕开的一环。AI对于算力的需求之大,在Sora诞生之后已经是难以想象了。而近期,在瑞士达沃斯2024年度世界经济论坛期间,OpenAI首席执行官山姆·奥特曼更是直言算力和能源是现阶段最大的枷锁,两者在未来的重要性甚至会等同于货币。而在随后的2月10日,山姆·奥特曼在推上发表了一个极为惊人的计划,融资7万亿美元(相当于中国23年全国GDP的40%)改写目前全球的半导体产业格局,创立一家芯片帝国。在写算力相关的文章时,我的想象力还局限在国家封锁,巨头垄断,如今一家公司就想要控制全球半导体产业真的还是挺疯狂的。 所以去中心化算力的重要性自然不言而喻,区块链的特性确实能解决目前算力极度垄断的问题,以及购置专用GPU价格昂贵的问题。从AI所需的角度来看,算力的使用可以分为推理和训练两种方向,主打训练的项目,目前还是寥寥无几,从去中心化网络需要结合神经网络设计,再到对于硬件的超高需求,注定是门槛极高且落地极难的一种方向。而推理相对来说简单很多,一方面是在去中心化网络设计上并不复杂,二是硬件和带宽需求较低,算是目前比较主流的方向。 中心化算力市场的想象空间是巨大的,常常与“万亿级”这个关键词挂钩,同时也是AI时代下最容易被频繁炒作的话题。不过从近期大量涌现的项目来看,绝大部分还是属于赶鸭子上架,蹭热度。总是高举去中心化的正确旗帜,却闭口不谈去中心化网络的低效问题。并且在设计上存在高度同质化,大量的项目非常相似(一键L2加挖矿设计),最终可能会导致一地鸡毛,这样的情况想要从传统AI赛道分一杯羹着实困难。 算法、模型协作系统 机器学习算法,是指这些算法能够从数据中学习规律和模式,并据此做出预测或决策。算法是技术密集型的,因为它们的设计和优化需要深厚的专业知识和技术创新。算法是训练AI模型的核心,它定义了数据如何被转化为有用的见解或决策。较为常见的生成式AI算法比如生成对抗网络(GAN)、变分自编码器(VAE)、转换器(Transformer),每个算法都是为了一个特定领域(比如绘画、语言识别、翻译、视频生成)或者说目的而生,再通过算法训练出专用的AI模型。 那么如此之多的算法和模型,都是各有千秋,我们是否能将其整合为一种能文能武的模型?近期热度高涨的Bittensor便是这个方向的领头者,通过挖矿激励的方式让不同AI模型和算法相互协作与学习,从而创作出更高效全能的AI模型。而同样以这个方向为主的还有Commune AI(代码协作)等,不过算法和模型对于现在的AI公司来说,都是自家的看门法宝,并不会随意外借。 所以AI协作生态这种叙事很新奇有趣,协作生态系统利用了区块链的优势去整合AI算法孤岛的劣势,但是否能创造出对应的价值目前尚未可知。毕竟头部AI公司的闭源算法和模型,更新迭代与整合的能力非常强,比如OpenAI发展不到两年,已从早期文本生成模型迭代到多领域生成的模型,Bittensor等项目在模型和算法所针对的领域也许要另辟蹊径。 去中心化大数据 从简单的角度来说,将私有数据用来喂AI以及对数据进行标记都是与区块链非常契合的方向,只需要注意如何防止垃圾数据以及作恶,并且数据存储上也能使FIL、AR等Depin项目受益。而从复杂的角度来说,将区块链数据用于机器学习(ML),从而解决区块链数据的可访问性也是一种有趣的方向(Giza的摸索方向之一)。 在理论上,区块链数据可随时访问,反映了整个区块链的状态。但对于区块链生态系统之外的人来说,获取这些庞大数据量并不容易。完整存储一条区块链需要丰富的专业知识和大量的专门硬件资源。为了克服访问区块链数据的挑战,行业内出现了几种解决方案。例如,RPC提供商通过API访问节点,而索引服务则通过SQL和GraphQL使数据提取变得可能,这两种方式在解决问题上发挥了关键作用。然而,这些方法存在局限性。RPC服务并不适合需要大量数据查询的高密度使用场景,经常无法满足需求。同时,尽管索引服务提供了更有结构的数据检索方式,但Web3协议的复杂性使得构建高效查询变得极其困难,有时需要编写数百甚至数千行复杂的代码。这种复杂性对于一般的数据从业者和对Web3细节了解不深的人来说是一个巨大的障碍。这些限制的累积效应凸显了需要一种更易于获取和利用区块链数据的方法,可以促进该领域更广泛的应用和创新。 那么通过ZKML(零知识证明机器学习,降低机器学习对于链的负担)结合高质量的区块链数据,也许能创造出解决区块链可访问性的数据集,而AI能大幅降低区块链数据可访问性的门槛,那么随着时间的推移,开发者、研究人员和ML领域的爱好者将能够访问到更多高质量、相关的数据集,用于构建有效和创新的解决方案。 AI赋能Dapp 自23年,ChatGPT3爆火以来,AI赋能Dapp已经是一个非常常见的方向。泛用性极广的生成式AI,可以通过API接入,从而简化且智能化分析数据平台、交易机器人、区块链百科等应用。另一方面,也可以扮演聊天机器人(比如Myshell)或者AI伴侣(Sleepless AI),甚至通过生成式AI创造链游中的NPC。但由于技术壁垒很低,大部分都是接入一个API之后进行微调,与项目本身的结合也不够完美,所以很少被人提起。 但在Sora到来之后,AI赋能GameFi(包括元宇宙)与创作平台的方向将是接下来关注的重点。因为Web3领域自下而上的特性,肯定很难诞生出一些与传统游戏或是创意公司抗衡的产品,而Sora的出现很可能会打破这一窘境(也许只用两到三年)。以Sora的Demo来看,其已具备和微短剧公司竞争的潜力,Web3活跃的社区文化也能诞生出大量有趣的Idea,而当限制条件只有想象力的时候,自下而上的行业与自上而下的传统行业之间的壁垒将被打破。 来源:金色财经
lg
...
金色财经
2024-02-24
Sora横空出世 2024或成AI+Web3变革元年?
go
lg
...
模式识别、分类及连续输入输出映射问题。
深度
学习
,作为连接主义的发展,已在图像识别、语音识别和自然语言处理等领域取得突破; 行为主义 (Behaviorism) 行为主义则与仿生机器人学和自主智能系统的研究紧密相关,强调智能体能够通过与环境的交互学习。与前两者不同,行为主义不专注于模拟内部表征或思维过程,而是通过感知和行动的循环实现适应性行为。行为主义认为,智能通过与环境的动态交互、学习而展现,这种方法应用于需要在复杂和不可预测环境中行动的移动机器人和自适应控制系统中时,显得尤为有效。 尽管这三个研究方向存在本质区别,但在实际的AI研究和应用中,它们也可以相互作用和融合,共同推动AI领域的发展。 AIGC原理概述 现阶段正在经历爆炸式发展的生成式AI(Artificial Intelligence Generated Content,简称AIGC),便是对于连接主义的一种演化和应用,AIGC能够模仿人类创造力生成新颖的内容。这些模型使用大型数据集和
深度
学习
算法进行训练,从而学习数据中存在的底层结构、关系和模式。根据用户的输入提示,生成新颖独特的输出结果,包括图像、视频、代码、音乐、设计、翻译、问题回答和文本。而目前的AIGC基本由三个要素构成:
深度
学习
(Deep Learning,简称DL)、大数据、大规模算力。
深度
学习
深度
学习
是机器学习(ML)的一个子领域,
深度
学习
算法是仿照人脑建模的神经网络。例如,人脑包含数百万个相互关联的神经元,它们协同工作以学习和处理信息。同样,
深度
学习
神经网络(或人工神经网络)是由在计算机内部协同工作的多层人工神经元组成的。人工神经元是称为节点的软件模块,它使用数学计算来处理数据。人工神经网络是使用这些节点来解决复杂问题的
深度
学习
算法。 从层次上划分神经网络可分为输入层、隐藏层、输出层,而不同层之间连接的便是参数。 输入层(Input Layer):输入层是神经网络的第一层,负责接收外部输入的数据。输入层的每个神经元对应于输入数据的一个特征。例如,在处理图像数据时,每个神经元可能对应于图像的一个像素值; 隐藏层(Hidden Layer):输入层处理数据并将其传递到神经网络中更远的层。这些隐藏层在不同层级处理信息,在接收新信息时调整其行为。
深度
学习网
络有数百个隐藏层,可用于从多个不同角度分析问题。例如,你得到了一张必须分类的未知动物的图像,则可以将其与你已经认识的动物进行比较。比如通过耳朵形状、腿的数量、瞳孔的大小来判断这是什么动物。深度神经网络中的隐藏层以相同的方式工作。如果
深度
学习
算法试图对动物图像进行分类,则其每个隐藏层都会处理动物的不同特征并尝试对其进行准确的分类; 输出层(Output Layer):输出层是神经网络的最后一层,负责生成网络的输出。输出层的每个神经元代表一个可能的输出类别或值。例如,在分类问题中,每个输出层神经元可能对应于一个类别,而在回归问题中,输出层可能只有一个神经元,其值表示预测结果; 参数:在神经网络中,不同层之间的连接由权重(Weights)和偏置(Biases)参数表示,这些参数在训练过程中被优化以使网络能够准确地识别数据中的模式和进行预测。参数的增加可以提高神经网络的模型容量,即模型能够学习和表示数据中复杂模式的能力。但相对应的是参数的增加会提升对算力的需求。 大数据 为了有效训练,神经网络通常需要大量、多样及质量高和多源的数据。它是机器学习模型训练和验证的基础。通过分析大数据,机器学习模型可以学习数据中的模式和关系,从而进行预测或分类。 大规模算力 神经网络的多层复杂结构,大量参数,大数据处理需求,迭代训练方式(在训练阶段,模型需要反复迭代,训练过程中需要对每一层计算进行前向传播和反向传播,包括激活函数的计算、损失函数的计算、梯度的计算和权重的更新),高精度计算需求,并行计算能力,优化和正则化技术以及模型评估和验证过程共同导致了其对高算力的需求。 Sora 作为OpenAI最新发布的视频生成AI模型,Sora代表了人工智能处理和理解多样化视觉数据能力的巨大进步。通过采用视频压缩网络和空间时间补丁技术,Sora能够将来自世界各地、不同设备拍摄的海量视觉数据转换为统一的表现形式,从而实现了对复杂视觉内容的高效处理和理解。依托于文本条件化的Diffusion模型,Sora能够根据文本提示生成与之高度匹配的视频或图片,展现出极高的创造性和适应性。 不过,尽管Sora在视频生成和模拟真实世界互动方面取得了突破,但仍面临一些局限性,包括物理世界模拟的准确性、长视频生成的一致性、复杂文本指令的理解以及训练与生成效率。并且Sora本质上还是通过OpenAI垄断级的算力和先发优势,延续“大数据-Transformer-Diffusion-涌现”这条老技术路径达成了一种暴力美学,其它AI公司依然存在着通过技术弯道超车的可能。 虽然Sora与区块链的关系并不大,但个人认为之后的一两年里。因为Sora的影响,会迫使其它高质量AI生成工具出现并快速发展,并且将辐射到Web3内的GameFi、社交、创作平台、Depin等多条赛道,所以对于Sora有个大致了解是必要的,未来的AI将如何有效的与Web3结合,也许是我们需要思考的一个重点。 AI x Web3的四大路径 如上文所诉,我们可以知道,生成式AI所需的底层基座其实只有三点:算法、数据、算力,另一方面从泛用性和生成效果来看AI是颠覆生产方式的工具。 而区块链最大的作用有两点:重构生产关系以及去中心化。所以两者碰撞所能产生的路径我个人认为有如下四种: 去中心化算力 由于过去已经写过相关文章,所以本段的主要目的是更新一下算力赛道的近况。当谈到AI时,算力永远是难以绕开的一环。AI对于算力的需求之大,在Sora诞生之后已经是难以想象了。而近期,在瑞士达沃斯2024年度世界经济论坛期间,OpenAI首席执行官山姆·奥特曼更是直言算力和能源是现阶段最大的枷锁,两者在未来的重要性甚至会等同于货币。而在随后的2月10日,山姆·奥特曼在推上发表了一个极为惊人的计划,融资7万亿美元(相当于中国23年全国GDP的40%)改写目前全球的半导体产业格局,创立一家芯片帝国。在写算力相关的文章时,我的想象力还局限在国家封锁,巨头垄断,如今一家公司就想要控制全球半导体产业真的还是挺疯狂的。 所以去中心化算力的重要性自然不言而喻,区块链的特性确实能解决目前算力极度垄断的问题,以及购置专用GPU价格昂贵的问题。从AI所需的角度来看,算力的使用可以分为推理和训练两种方向,主打训练的项目,目前还是寥寥无几,从去中心化网络需要结合神经网络设计,再到对于硬件的超高需求,注定是门槛极高且落地极难的一种方向。而推理相对来说简单很多,一方面是在去中心化网络设计上并不复杂,二是硬件和带宽需求较低,算是目前比较主流的方向。 中心化算力市场的想象空间是巨大的,常常与“万亿级”这个关键词挂钩,同时也是AI时代下最容易被频繁炒作的话题。不过从近期大量涌现的项目来看,绝大部分还是属于赶鸭子上架,蹭热度。总是高举去中心化的正确旗帜,却闭口不谈去中心化网络的低效问题。并且在设计上存在高度同质化,大量的项目非常相似(一键L2加挖矿设计),最终可能会导致一地鸡毛,这样的情况想要从传统AI赛道分一杯羹着实困难。 算法、模型协作系统 机器学习算法,是指这些算法能够从数据中学习规律和模式,并据此做出预测或决策。算法是技术密集型的,因为它们的设计和优化需要深厚的专业知识和技术创新。算法是训练AI模型的核心,它定义了数据如何被转化为有用的见解或决策。较为常见的生成式AI算法比如生成对抗网络(GAN)、变分自编码器(VAE)、转换器(Transformer),每个算法都是为了一个特定领域(比如绘画、语言识别、翻译、视频生成)或者说目的而生,再通过算法训练出专用的AI模型。 那么如此之多的算法和模型,都是各有千秋,我们是否能将其整合为一种能文能武的模型?近期热度高涨的Bittensor便是这个方向的领头者,通过挖矿激励的方式让不同AI模型和算法相互协作与学习,从而创作出更高效全能的AI模型。而同样以这个方向为主的还有Commune AI(代码协作)等,不过算法和模型对于现在的AI公司来说,都是自家的看门法宝,并不会随意外借。 所以AI协作生态这种叙事很新奇有趣,协作生态系统利用了区块链的优势去整合AI算法孤岛的劣势,但是否能创造出对应的价值目前尚未可知。毕竟头部AI公司的闭源算法和模型,更新迭代与整合的能力非常强,比如OpenAI发展不到两年,已从早期文本生成模型迭代到多领域生成的模型,Bittensor等项目在模型和算法所针对的领域也许要另辟蹊径。 去中心化大数据 从简单的角度来说,将私有数据用来喂AI以及对数据进行标记都是与区块链非常契合的方向,只需要注意如何防止垃圾数据以及作恶,并且数据存储上也能使FIL、AR等Depin项目受益。而从复杂的角度来说,将区块链数据用于机器学习(ML),从而解决区块链数据的可访问性也是一种有趣的方向(Giza的摸索方向之一)。 在理论上,区块链数据可随时访问,反映了整个区块链的状态。但对于区块链生态系统之外的人来说,获取这些庞大数据量并不容易。完整存储一条区块链需要丰富的专业知识和大量的专门硬件资源。为了克服访问区块链数据的挑战,行业内出现了几种解决方案。例如,RPC提供商通过API访问节点,而索引服务则通过SQL和GraphQL使数据提取变得可能,这两种方式在解决问题上发挥了关键作用。然而,这些方法存在局限性。RPC服务并不适合需要大量数据查询的高密度使用场景,经常无法满足需求。同时,尽管索引服务提供了更有结构的数据检索方式,但Web3协议的复杂性使得构建高效查询变得极其困难,有时需要编写数百甚至数千行复杂的代码。这种复杂性对于一般的数据从业者和对Web3细节了解不深的人来说是一个巨大的障碍。这些限制的累积效应凸显了需要一种更易于获取和利用区块链数据的方法,可以促进该领域更广泛的应用和创新。 那么通过ZKML(零知识证明机器学习,降低机器学习对于链的负担)结合高质量的区块链数据,也许能创造出解决区块链可访问性的数据集,而AI能大幅降低区块链数据可访问性的门槛,那么随着时间的推移,开发者、研究人员和ML领域的爱好者将能够访问到更多高质量、相关的数据集,用于构建有效和创新的解决方案。 AI赋能Dapp 自23年,ChatGPT3爆火以来,AI赋能Dapp已经是一个非常常见的方向。泛用性极广的生成式AI,可以通过API接入,从而简化且智能化分析数据平台、交易机器人、区块链百科等应用。另一方面,也可以扮演聊天机器人(比如Myshell)或者AI伴侣(Sleepless AI),甚至通过生成式AI创造链游中的NPC。但由于技术壁垒很低,大部分都是接入一个API之后进行微调,与项目本身的结合也不够完美,所以很少被人提起。 但在Sora到来之后,我个人认为AI赋能GameFi(包括元宇宙)与创作平台的方向将是接下来关注的重点。因为Web3领域自下而上的特性,肯定很难诞生出一些与传统游戏或是创意公司抗衡的产品,而Sora的出现很可能会打破这一窘境(也许只用两到三年)。以Sora的Demo来看,其已具备和微短剧公司竞争的潜力,Web3活跃的社区文化也能诞生出大量有趣的Idea,而当限制条件只有想象力的时候,自下而上的行业与自上而下的传统行业之间的壁垒将被打破。 结语 随着生成式AI工具的不断进步,我们未来还将经历更多划时代的“iPhone时刻”。尽管许多人对AI与Web3的结合嗤之以鼻,但实际上我认为目前的方向大多没有问题,需要解决的痛点其实只有三点,必要性、效率、契合度。两者的融合虽处于探索阶段,却并不妨碍这条赛道成为下个牛市的主流。 对新事物永远保持足够的好奇心和接纳度是我们需要必备的心态,历史上,汽车取代马车的转变瞬息之间便已成定局,亦如同铭文和过去的NFT一样,持有太多偏见只会和机遇失之交臂。 来源:金色财经
lg
...
金色财经
2024-02-23
Sora涌现:2024年会是AI+Web3革命年吗
go
lg
...
模式识别、分类和连续输入输出映射问题。
深度
学习
作为联结主义的演变,在图像识别、语音识别、自然语言处理等领域取得了突破。 行为主义 行为主义与仿生机器人和自主智能系统的研究密切相关,强调智能体可以通过与环境的交互来学习。与前两者不同,行为主义并不注重模拟内部表征或思维过程,而是通过感知和行动的循环来实现适应性行为。行为主义认为,智能是通过与环境的动态交互和学习来体现的,这使得它对于在复杂和不可预测的环境中运行的移动机器人和自适应控制系统特别有效。 这三个研究方向虽然存在根本差异,但在AI的实际研究和应用中可以相互作用、相互融合,共同推动人工智能领域的发展。 AIGC的原则 AIGC的爆炸性发展领域代表了联结主义的演变和应用,能够通过模仿人类创造力来生成新颖的内容。这些模型使用大型数据集和
深度
学习
算法进行训练,学习数据中的底层结构、关系和模式。根据用户提示,它们生成独特的输出,包括图像、视频、代码、音乐、设计、翻译、问题答案和文本。目前,AIGC基本上由三个要素组成:
深度
学习
、大数据和海量计算能力。
深度
学习
深度
学习
是机器学习的一个子领域,它采用模仿人脑神经网络的算法。例如,人脑由数百万个相互连接的神经元组成,它们一起工作来学习和处理信息。同样,
深度
学习
神经网络(或人工神经网络)由在计算机内协同工作的多层人工神经元组成。这些人工神经元(称为节点)使用数学计算来处理数据。人工神经网络利用这些节点通过
深度
学习
算法解决复杂问题。 神经网络分为层:输入层、隐藏层和输出层,参数连接不同层。 输入层:神经网络的第一层,负责接收外部输入数据。输入层中的每个神经元对应于输入数据的一个特征。例如,在处理图像数据时,每个神经元可能对应于图像的一个像素值。 隐藏层:输入层处理数据并将其进一步传递到网络中。这些隐藏层在不同级别处理信息,在接收新信息时调整其行为。
深度
学习网
络有数百个隐藏层,可以从多个角度分析问题。例如,当呈现需要分类的未知动物的图像时,你可以通过检查耳朵形状、腿数量、瞳孔大小等将其与你已经知道的动物进行比较。深度神经网络中的隐藏层以类似的方式工作方式。如果
深度
学习
算法尝试对动物图像进行分类,每个隐藏层都会处理动物的不同特征并尝试对其进行准确分类。 输出层:神经网络的最后一层,负责生成网络的输出。输出层中的每个神经元代表一个可能的输出类别或值。例如,在分类问题中,每个输出层神经元可能对应一个类别,而在回归问题中,输出层可能只有一个神经元,其值代表预测结果。 参数:在神经网络中,不同层之间的连接由权重和偏差表示,它们在训练过程中进行优化,以使网络能够准确识别数据中的模式并做出预测。增加参数可以增强神经网络的模型能力,即学习和表示数据中复杂模式的能力。然而,这也增加了对计算能力的需求。 大数据 为了进行有效的训练,神经网络通常需要大量、多样化、高质量和多源的数据。它构成了训练和验证机器学习模型的基础。通过分析大数据,机器学习模型可以学习数据中的模式和关系,从而实现预测或分类。 海量计算能力 神经网络多层结构复杂,参数众多,大数据处理要求,迭代训练方式(训练时模型需要反复迭代,涉及到每一层的前向和后向传播计算,包括激活函数计算、损失函数计算、梯度计算和权重更新)、高精度计算需求、并行计算能力、优化和正则化技术以及模型评估和验证过程共同导致了高计算能力的需求。 Sora 作为 OpenAI 最新的视频生成 AI 模型,Sora 代表了人工智能处理和理解多样化视觉数据的能力的重大进步。通过采用视频压缩网络和时空补丁技术,Sora 可以将全球范围内不同设备捕获的海量视觉数据转换为统一的表示形式,从而实现对复杂视觉内容的高效处理和理解。利用文本条件扩散模型,Sora 可以生成与文本提示高度匹配的视频或图像,展现出高度的创造力和适应性。 然而,尽管Sora在视频生成和模拟现实世界交互方面取得了突破,但它仍然面临一些局限性,包括物理世界模拟的准确性、生成长视频的一致性、理解复杂的文本指令以及训练和生成的效率。本质上,Sora通过OpenAI的垄断算力和先发优势,延续了“大数据-Transformer-Diffusion-emergence”的老技术路径,实现了一种蛮力美学。其他人工智能公司仍然有通过技术创新实现超越的潜力。 虽然Sora与区块链的关系并不大,但相信未来一两年,由于Sora的影响力,其他优质的AI生成工具将会出现并迅速发展,冲击各个Web3领域如GameFi、社交平台、创意平台、Depin等。因此,对Sora有一个大致的了解是必要的,未来AI如何与Web3有效结合是一个重点考虑的问题。 AI x Web3融合的四种途径 正如前面所讨论的,我们可以理解生成式AI所需的基本要素本质上有三重:算法、数据和计算能力。另一方面,考虑到其普遍性和产出效果,AI是一种彻底改变生产方式的工具。同时,区块链最大的影响是双重的:重组生产关系和去中心化。 因此,我认为这两种技术的碰撞可以产生以下四种路径: 去中心化算力 如前所述,本节旨在更新计算能力格局的状态。谈到AI,计算能力是不可或缺的一个方面。Sora的出现,让原本难以想象的AI对算力的需求凸显出来。近日,在2024年瑞士达沃斯世界经济论坛期间,OpenAI首席执行官Sam Altman公开表示,算力和能源是当前最大的制约因素,暗示它们未来的重要性甚至可能等同于货币。随后,2月10日,Sam Altman在推特上宣布了一项令人震惊的计划,将筹集7万亿美元(相当于2023年中国GDP的40%)来彻底改革当前的全球半导体产业,旨在打造一个半导体帝国。我之前对算力的思考仅限于国家封锁和企业垄断;一家公司想要主宰全球半导体行业的想法确实很疯狂。 因此,去中心化计算能力的重要性是不言而喻的。区块链的特性确实可以解决当前计算能力极度垄断的问题,以及与获取专用 GPU 相关的昂贵成本的问题。从AI需求的角度来看,算力的使用可以分为推理和训练两个方向。专注于训练的项目还很少,因为去中心化网络需要集成神经网络设计,对硬件要求极高,是一个门槛较高、实施难度较大的方向。相比之下,推理相对简单,因为去中心化网络设计没有那么复杂,对硬件和带宽的要求也较低,是更主流的方向。 中心化算力市场想象空间广阔,常常与“万亿级”关键词联系在一起,也是AI时代最容易炒作的话题。然而,纵观最近出现的众多项目,大多数似乎都是利用趋势的考虑不周的尝试。他们经常高举去中心化的旗帜,但却避免讨论去中心化网络的低效率。另外,设计同质化程度很高,很多项目非常相似(一键L2加挖矿设计),最终可能会导致失败,很难在传统AI竞赛中占据一席之地。 算法与模型协同系统 机器学习算法是那些可以从数据中学习模式和规则,并根据它们做出预测或决策的算法。算法是技术密集型的,因为其设计和优化需要深厚的专业知识和技术创新。算法是训练人工智能模型的核心,定义了如何将数据转化为有用的见解或决策。常见的生成式 AI 算法包括生成对抗网络 (GAN)、变分自编码器 (VAE) 和 Transformers,每种算法都是针对特定领域(例如绘画、语言识别、翻译、视频生成)或目的而设计的,然后用于训练专门的 AI模型。 那么,这么多的算法和模型,各有千秋,是否有可能将它们整合成一个通用的模型呢?Bittensor是最近备受关注的一个项目,它通过激励不同的AI模型和算法相互协作和学习,从而创建更高效 、更有能力的AI模型,从而引领了这个方向。其他专注于这个方向的项目包括Commune AI(代码协作),但算法和模型对于AI公司来说是严格保密的,不容易共享。 因此,AI协作生态系统的叙述新颖而有趣。协作生态系统利用区块链的优势来整合孤立的AI算法的劣势,但是否能够创造相应的价值还有待观察。毕竟,拥有自主算法和模型的领先AI公司,拥有强大的更新、迭代和集成能力。例如,OpenAI 在不到两年的时间内从早期的文本生成模型发展到多领域生成模型。像 Bittensor 这样的项目可能需要在其模型和算法目标领域探索新路径。 去中心化大数据 从简单的角度来看,利用隐私数据来喂养AI和注释数据是与区块链技术非常吻合的方向,主要考虑的是如何防止垃圾数据和恶意行为。此外,数据存储可以使 FIL 和 AR 等 DePIN项目受益。从更复杂的角度来看,使用区块链数据进行机器学习来解决区块链数据的可访问性是另一个有趣的方向(Giza 的探索之一)。 理论上,区块链数据是随时可访问的,反映了整个区块链的状态。然而,对于区块链生态系统之外的人来说,访问这些大量数据并不简单。存储整个区块链需要丰富的专业知识和大量的专业硬件资源。为了克服访问区块链数据的挑战,行业内出现了多种解决方案。例如,RPC 提供商通过 API 提供节点访问,索引服务使通过 SQL 和 GraphQL 进行数据检索成为可能,在解决该问题方面发挥了至关重要的作用。然而,这些方法都有其局限性。RPC服务不适合需要大量数据查询的高密度用例,往往无法满足需求。同时,尽管索引服务提供了一种更加结构化的数据检索方式,但 Web3 协议的复杂性使得构造高效查询变得极其困难,有时需要数百甚至数千行复杂代码。这种复杂性对于一般数据从业者和那些对 Web3 细节了解有限的人来说是一个重大障碍。这些限制的累积效应凸显了需要一种更易于访问和利用的方法来获取和利用区块链数据,这可以促进该领域更广泛的应用和创新。 因此,将ZKML(零知识证明机器学习,减轻链上机器学习的负担)与高质量的区块链数据相结合,可能会创建解决区块链数据可访问性的数据集。AI可以显着降低区块链数据的访问障碍。随着时间的推移,开发人员、研究人员和机器学习爱好者可以访问更多高质量、相关的数据集,以构建有效和创新的解决方案。 AI赋能Dapp 自2023年ChatGPT3爆发以来,AI对Dapp的赋能已经成为一个非常普遍的方向。广泛适用的生成式人工智能可以通过API集成,从而简化和智能化数据平台、交易机器人、区块链百科全书和其他应用程序。另一方面,它还可以充当聊天机器人(如 Myshell)或 AI 伴侣(Sleepless AI),甚至可以使用生成式 AI 在区块链游戏中创建 NPC。但由于技术门槛较低,大多数只是集成API后的调整,与项目本身的集成并不完善,因此很少被提及。 但随着Sora的到来,我个人认为AI对GameFi(包括元宇宙)和创意平台的赋能将是未来的重点。鉴于Web3领域自下而上的性质,它不太可能生产出可以与传统游戏或创意公司竞争的产品。然而,Sora的出现可能会打破这一僵局(也许只需两到三年)。从Sora的演示来看,它有与短剧公司竞争的潜力。Web3活跃的社区文化还可以催生出大量有趣的想法,当唯一的限制就是想象力时,自下而上的行业与自上而下的传统行业之间的壁垒将被打破。 结论 随着生成式人工智能工具的不断发展,未来我们将见证更多突破性的“iPhone时刻”。尽管人们对AI与Web3的整合持怀疑态度,但我相信目前的方向基本上是正确的,只需要解决三个主要痛点:必要性、效率和契合度。虽然这两者的融合还处于探索阶段,但并不妨碍这条路径成为下一次牛市的主流。 对新事物保持足够的好奇心和开放的态度是我们的基本心态。从历史上看,从马车到汽车的转变是瞬间解决的,正如铭文和过去的 NFT 所显示的那样。持有太多偏见只会导致错失机会。 来源:金色财经
lg
...
金色财经
2024-02-23
比特派钱包下载更新:bitpie.bar比特派Bitpie钱包
go
lg
...
改善城市的实时监控系统。通过语言模型的
深度
学习
和分析能力,城市可以建立更智能的监控网络,监测城市环境、公共设施和安全状况。这将有助于提高城市的整体安全水平,及时发现并解决潜在的问题,创造更安全宜居的城市环境。 生成式AI在这些领域的应用,不仅可以提高城市运行效率,更能够深入洞察居民的喜好和需求,提供度身定制的服务,弥合居民个性化需求和行政解决方案之间的差距,进一步改善信息交流。 然而,这一进步也伴随着一系列挑战。 首先是隐私问题。生成式AI广泛应用于城市生活中也意味着海量个人数据将被收集和使用,因此城市管理者必须制定严格的隐私政策,确保居民个人信息得到妥善保护,防止滥用和泄露。 其次是网络安全风险。城市基础设施的智能化程度越高,网络攻击风险也随之增加。城市管理者需要投入更多的资源构建强大的网络安全体系,确保公共事务领域的生成式AI应用不会成为网络犯罪分子的攻击目标。 最后,伦理问题也是生成式AI发展中不可忽视的一环。城市管理者需要建立明确的伦理指导方针,确保公正、透明地使用。克莱·加纳指出:“城市完全可以成为制定LLMs在地方层面使用指导方针的主要推动者,但需要顾及国家和地方政府政策之间的平衡,因此会牵涉一系列需要仔细考虑的复杂问题。”例如,国家与地方对生成式AI监管的权责划分,各层级技术支持、人力资源和财政投入分配方式,如何统一技术标准以确保生成式AI在不同城市间的公共服务具有互通性,等等。
lg
...
用户1708679434944710
2024-02-23
上一页
1
•••
51
52
53
54
55
•••
124
下一页
24小时热点
黄金突然暴跌的原因在这!伊朗突传重大消息 金价狂泻47美元 如何交易黄金?
lg
...
事态紧急!特朗普要求官员在战情室做好准备 金价短线急涨突破3400美元
lg
...
以色列伊朗还在激烈交火,中国发出严正警告!北京立场与特朗普对比鲜明
lg
...
中国房市突传重大警告!高盛:中国城市新房需求恐较峰值低75%
lg
...
突发重磅!特朗普:所有人都应“立即撤离德黑兰” 油价应声大涨、金价飙升
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论