全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
马斯克祝贺谷歌推出Gemini:令人印象深刻
go
lg
...
谷歌当地时间周三发布了其
大型
语言
模型
Gemini,据称是第一个在MMLU(大规模多任务语言理解)上超越人类专家的模型。特斯拉CEO马斯克刚刚在谷歌CEO皮查伊介绍Gemini的帖子下评论称:“令人印象深刻。”马斯克还回应了谷歌DeepMind首席执行官、Gemini团队代表德米斯·哈萨比斯(Demis Hassabis)的一条帖子,向他表示祝贺。
lg
...
金融界
2023-12-07
超越GPT-4?谷歌震撼发布最先进AI大模型Gemini,AI人工智能ETF(512930.SH)逆市上涨近1%
go
lg
...
公司宣布推出其规模最大、功能最强大的新
大型
语言
模型
Gemini,其最强大的TPU(张量处理单元)系统“Cloud TPU v5p”以及来自谷歌云的人工智能超级计算机。Gemini模型作为谷歌以及全球范围内最先发布的多模态模型,在性能上是第一个在MMLU上超越人类专家的模型。根据谷歌给出的基准测试结果,Gemini 在许多测试中都表现出了「最先进的性能」,甚至在大部分基准测试中完全击败了 OpenAI 的 GPT-4。 中信证券表示,近日,谷歌宣布发布新一代大模型Gemini,再次引发市场对人工智能产业的持续关注。多模态Gemini模型的正式发布,一方面可以拓宽应用场景的拓展,另一方面能够带来算力需求的持续升级。持续看好后续AI产业的前景,后续GPT-5等模型的发布亦将带来更多的催化。 值得注意的是,该基金跟踪的中证人工智能主题指数估值处于历史低位,最新市净率PB为4.28倍,低于指数近1年80.74%以上的时间,估值性价比突出。 AI人工智能ETF紧密跟踪中证人工智能主题指数,中证人工智能主题指数从沪深市场中选取50只业务涉及为人工智能提供基础资源、技术以及应用支持的上市公司证券作为指数样本,以反映人工智能主题上市公司证券的整体表现。 数据显示,截至2023年11月30日,中证人工智能主题指数(930713)前十大权重股分别为海康威视(002415)、韦尔股份(603501)、科大讯飞(002230)、中际旭创(300308)、金山办公(688111)、澜起科技(688008)、紫光股份(000938)、中科曙光(603019)、浪潮信息(000977)、德赛西威(002920),前十大权重股合计占比49.35%。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-12-07
谷歌推出其最大、“最有能力”的人工智能模型Gemini
go
lg
...
该公司正面临越来越大的压力。 谷歌称,
大型
语言
模型
Gemini将包括一套三种不同规格的套件:最大、功能最强大的工具Gemini Ultra;可扩展各种任务的Gemini Pro,以及用于特定任务和移动设备的Gemini Nano。
lg
...
金融界
2023-12-06
AMD涨1.77% 消息称预计MI300明年出货约达30万~40万颗
go
lg
...
持高达192GB的HBM3存储器,提供
大型
语言
模型
推导与生成式AI工作负载所需的运算力与存储器效率。
lg
...
金融界
2023-12-06
加密AI智能体已进化到哪步 会成为链上一等公民吗
go
lg
...
止,加密领域的机器人还相当初级,但由于
大型
语言
模型
(LLM)的兴起,加密领域之外的机器人已经开始发展成为强大的AI智能体,其最终目标是自主处理复杂的任务并让自己的决策更明智。 在加密领域上构建这些AI智能体产生了几个重要的增强功能: 原生支付:AI智能体可以存在于加密货币之外,但如果我们希望AI智能体执行复杂的操作,他们将需要获得资本。与让AI智能体访问银行账户或支付处理器(例如 Stripe)或处理链下世界中存在的绝大多数其他低效率问题相比,加密领域为AI智能体提供了有意义的改进。 AI智能体钱包所有权:连接到钱包的 AI智能体将有能力拥有资产(例如NFT、收益等),从而赋予智能体所有加密资产固有的数字产权。这对于智能体之间的交易尤其重要。 可验证的、确定性的行为:当行为可证明时(它们可以确保某些行动已完成),AI智能体将最有效。链上交易本质上是确定性的——它们要么发生,要么没有发生——这意味着AI智能体将能够比链下更准确地完成链上任务。 当然,链上AI智能体也有局限性。 一个限制是人AI智能体需要在链下执行逻辑才能提高性能。这意味着链上AI智能体将在链下托管其逻辑/计算以优化效率,但智能体决策将在链上执行,从而允许可验证的操作。重要的是,AAI智能体还可以使用Modulus等 zkML 提供商来确保其链下数据输入得到验证。 AI智能体的另一个主要限制是它们的有用性取决于向它们提供的工具。例如,如果你要求智能体提供实时新闻事件的摘要,则智能体的工具包中需要有一个网络爬虫来梳理互联网以执行给定的任务。你是否需要智能体将回应保存为 PDF 格式?将文件系统添加到工具包里。想要智能体跟单你最喜欢的加密推特KOL吗?智能体需要访问钱包并获得该钱包的密钥签名权限。 纵观当前从确定性到非确定性的情况,大多数加密AI智能体都执行确定性任务。也就是说,人类对任务的参数以及如何完成任务(例如代币交换)进行编程。 加密AI智能体已经从早期的keeper机器人(仍在 DeFi 和预言机应用程序中使用)发展到今天利用 LLM 的更复杂的智能体,包括像Botto这样的自主艺术家;AI智能体可以使用Syndicate 的交易云为自己提供银行服务;以及Autonolas等早期AI智能体服务市场。 已经有各种令人兴奋的前沿应用: 支持AI智能体的“智能钱包” :Dawn利用DawnAI提供AI智能体,可以帮助用户发送交易、执行交易和其他实时链上洞察(例如NFT趋势)。 加密游戏智能体:Parallel Alpha 的最新游戏Colony旨在创建可以拥有钱包并相互交易的 AI 角色。 AI智能体的增强工具包:AI智能体的好坏取决于它们的工具包,与区块链的交互目前是一个新兴领域。加密AI智能体需要钱包、为其提供资金的方式、许可功能、集成人工智能模型以及与其他智能体交互的能力。更具体地说,Gnosis 展示了这个早期基础设施的AI 机制,它用智能合约包装 AI 脚本,这样任何人(包括另一个机器人)都可以调用智能合约来执行代理操作(例如,在预测市场),同时还能够支付智能体费用。 AI增强交易者:为交易者和投机者提供高级操作的DeFi超级应用程序,包括: 如果满足条件,则以美元平均成本(Dollar Cost Averaging)建仓;当Gas价格跌破特定水平时执行交易;监控新的 meme 代币合约;并确定订单路由,而用户无需知道在哪个dapp交易等。 AI智能体长尾市场:虽然像ChatGPT这样的大型应用程序适合某些一般聊天目的,但AI智能体需要针对众多行业、主题和生态位市场进行微调。像Bittensor这样的市场激励“矿工”围绕目标行业(例如加密货币、生物技术、学术界)为特定任务(例如图像生成、预训练、预测建模)训练模型。虽然 Bittensor 还处于萌芽阶段,但开发人员已经在使用它在开源 LLM 的长尾之上构建应用程序/代理。 NPC消费者应用程序智能体:不可玩角色在 MMORPG 等游戏中很常见,但在多人消费者应用程序中不太常见。然而,加密消费者应用程序的金融化性质使AI智能体成为引入新型游戏机制的优秀参与者。开放人工智能基础设施公司 Ritual 最近发布了Frenrug,这是一个基于 LLM 的智能体,在Friend.tech内部运行,将根据用户消息执行交易(购买或出售key)。Friend.tech 用户可以尝试说服智能体购买他们的key、出售其他人的key,或者尝试让 Frenrug 智能体以其他创造性的方式使用其资金。 随着越来越多的应用程序和协议利用AI智能体,人类将使用它们作为访问加密经济的渠道。虽然AI智能体今天看起来像玩具,但在未来,它们将增强日常消费者体验,成为协议的关键利益相关者,并在它们之间创建整个经济体。 AI智能体还处于起步阶段,但这些链上经济体的一等公民已经开始展示其潜力。 来源:金色财经
lg
...
金色财经
2023-12-06
报道:预计超微MI300明年出货约达30万~40万颗
go
lg
...
持高达192GB的HBM3存储器,提供
大型
语言
模型
推导与生成式AI工作负载所需的运算力与存储器效率。
lg
...
金融界
2023-12-06
Footprint Analytics x Future3 Campus联合发布AI与Web3研究报告
go
lg
...
图 7:区块链数据与 LLM 的融合
大型
语言
模型
的培训需要依赖大规模数据,通过学习数据中的模式来建立模型。区块链数据中蕴含的交互和行为模式是 LLM 学习的燃料。数据量和质量也直接影响 LLM 模型的学习效果。 数据不仅仅是 LLM 的消耗品,LLM 还有助于生产数据,甚至可以提供反馈。例如,LLM 可以协助数据分析师在数据预处理方面做出贡献,如数据清洗和标注,或者生成结构化数据,清除数据中的噪声,凸显有效信息。 3.3 增强 LLM 的常用技术解决方案 ChatGPT 的出现,不仅向我们展示了 LLM 解决复杂问题的通用能力,同时也引发了全球范围的,对在通用能力上去叠加外部能力的探索。这里包括,通用能力的增强(包括上下文长度、复杂推理、数学、代码、多模态等)以及外部能力的扩充(处理非结构化数据、使用更复杂的工具、与物理世界的交互等)。如何将 crypto 领域的专有知识以及个人的个性化私有数据嫁接到大模型的通用能力上,是大模型在 crypto 垂直领域商业化落地的核心技术问题。 目前,大多数应用都集中在检索增强生成(RAG)上,比如提示工程和嵌入技术,已经存在的代理工具也大多都聚焦于提高 RAG 工作的效率和准确性。市场上主要的基于 LLM 技术的应用栈的参考架构有以下几种: Prompt Engineering 图 8:Prompt Engineering 当前,大多数从业者在构建应用时采用基础解决方案,即 Prompt Engineering。这一方法通过设计特定的 Prompt 来改变模型的输入,以满足特定应用的需求,是最方便快捷的做法。然而,基础的 Prompt Engineering 存在一些限制,如数据库更新不及时、内容冗杂、以及对输入上下文长度(In-Context Length)的支持和多轮问答的限制。 因此,行业内也在研究更先进的改进方案,包括嵌入(Embedding)和微调(Fine-tuning)。 嵌入(Embedding) 嵌入(Embedding)是一种广泛应用于人工智能领域的数据表示方法,能高效捕获对象的语义信息。通过将对象属性映射成向量形式,嵌入技术能够通过分析向量之间的相互关系,快速找到最有可能正确的答案。嵌入可以在 LLM 的基础上构建,以利用该模型在广泛语料上学到的丰富语言知识。通过嵌入技术将特定任务或领域的信息引入到预训练的大模型中,使得模型更专业化,更适应特定任务,同时保留了基础模型的通用性。 用通俗的话来讲,嵌入就类似于你给一个经过综合训练的大学生一本工具书,让他拿着拥有特定任务相关知识的工具书去完成任务,他可以随时查阅工具书,然后可以解决特定的问题。 微调(Fine-tuning) 图 9:Fine Tuning 微调(Fine-tuning)与嵌入不同,通过更新已经预训练的语言模型的参数,使其适应特定任务。这种方法允许模型在特定任务上表现出更好的性能,同时保持通用性。微调的核心思想是调整模型参数,捕捉与目标任务相关的特定模式和关系。但微调的模型通用能力上限仍然受限于基座模型本身。 用通俗的话来讲,微调就类似于给经过综合训练的大学生上专业知识课程,让他掌握除了综合能力以外的专业课知识,能自行解决专业板块的问题。 重新训练 LLM 当前的 LLM 虽然强大,但不一定能够满足所有需求。重新训练 LLM 是一种高度定制化的解决方案,通过引入新数据集和调整模型权重,使其更适应特定任务、需求或领域。然而,这种方法需要大量计算资源和数据,并且管理和维护重新训练后的模型也是挑战之一。 Agent 模型 图 10:Agent 模型 Agent 模型是一种构建智能代理的方法,它以 LLM 作为核心控制器。这个系统还包括几个关键组成部分,以提供更全面的智能。 Planning,规划:将大任务分成小任务,这样更容易完成 Memory,反思:通过反思过去的行为,改进未来的计划 Tools,工具使用:代理可以调用外部工具获取更多信息,如调用搜索引擎、计算器等 人工智能代理模型具备强大的语言理解和生成能力,能够解决通用问题,进行任务分解以及自我反思。这使得它在各种应用中都有广泛的潜力。然而,代理模型也存在一些局限性,例如受到上下文长度的限制、长期规划和任务拆分容易出错、输出内容的可靠性不稳定等问题。这些局限性需要长期不断的研究和创新,以进一步拓展代理模型在不同领域的应用。 以上的各种技术并不是相互排斥的,它们可以在训练和增强同一个模型的过程中一起使用。开发者可以充分发挥现有大语言模型的潜力,尝试不同的方法,以满足日益复杂的应用需求。这种综合使用不仅有助于提高模型的性能,还有助于推动 Web3 技术的快速创新和进步。 然而,我们认为,虽然现有的 LLM 已经在 Web3 的快速发展中发挥了重要作用,但在充分尝试这些现有模型(如 OpenAI、Llama 2 以及其他开源 LLM)之前,我们可以从浅入深,从 prompt engineering 和嵌入等 RAG 策略入手,谨慎考虑微调和重新训练基础模型。 3.4 LLM 如何加速区块链数据生产的各个流程 3.4.1 区块链数据的一般处理流程 当今,区块链领域的建设者逐渐认识到数据产品的价值。这一价值覆盖了产品运营监控、预测模型、推荐系统以及数据驱动的应用程序等多个领域。尽管这一认知逐渐增强,但作为数据获取到数据应用中不可或缺的关键步骤,数据处理往往被忽视。 图 12:区块链数据处理流程 将区块链原始非结构化数据,如 events 或 logs 等,转换为结构化的数据 区块链上的每一笔交易或事件都会生成 events 或 logs,这些数据通常是非结构化的。这一步骤是获取数据的第一入口,但数据仍然需要被进一步处理以提取有用信息,得到结构化的原始数据。这包括整理数据、处理异常情况和转化为通用格式。 将结构化的原始数据,转换为具有业务意义的抽象表 在得到结构化原始数据后,需要进一步进行业务抽象,将数据映射到业务实体和指标上,比如交易量、用户量等业务指标,将原始数据转化为对业务和决策有意义的数据。 从抽象表中,计算提取业务指标 有了抽象的业务数据后,可以在业务抽象的数据上进行进一步计算,就可以得出各种重要的衍生指标。例如交易总额的月增长率、用户留存率等核心指标。这些指标可以借助 SQL、Python 等工具实现,更加有可能帮助监控业务健康、了解用户行为和趋势,从而支持决策和战略规划。 3.4.2 区块链数据生成流程加入 LLM 后的优化 LLM 在区块链数据处理中可以解决多个问题,包括但不限于以下内容: 处理非结构化数据: 从交易日志和事件中提取结构化信息:LLM 可以分析区块链的交易日志和事件,提取其中的关键信息,如交易金额、交易方地址、时间戳等,将非结构化数据转化为的带有业务意义的数据,使其更易于分析和理解。 清洗数据,识别异常数据:LLM 可以自动识别和清洗不一致或异常的数据,帮助确保数据的准确性和一致性,从而提高数据质量。 进行业务抽象: 将原始链上数据映射到业务实体:LLM 可以将原始区块链数据映射到业务实体,例如将区块链地址映射到实际用户或资产,从而使业务处理更加直观和有效。 处理非结构化链上内容,打标签:LLM 可以分析非结构化数据,如 Twitter 情感分析结果,将其标记为正面、负面或中性情感,从而帮助用户更好地理解社交媒体上的情感倾向。 自然语言解读数据: 计算核心指标:基于业务抽象,LLM 可以计算核心业务指标,如用户交易量、资产价值、市场份额等,以帮助用户更好地了解其业务的关键性能。 查询数据:LLM 可以通过 AIGC,理解用户意图,生成 SQL 查询,使用户能够以自然语言提出查询请求,而不必编写复杂的 SQL 查询语句。这增加了数据库查询的可访问性。 指标选择、排序和相关性分析:LLM 可以帮助用户选择、排序和分析不同的多个指标,以更好地理解它们之间的关系和相关性,从而支持更深入的数据分析和决策制定。 产生业务抽象的自然语言描述:LLM 可以根据事实数据,生成自然语言摘要或解释,以帮助用户更好地理解业务抽象和数据指标,提高可解释性,并使决策更具合理性。 3.5 目前用例 根据 LLM 自身的技术以及产品体验优势,它可以被应用到不同的链上数据场景,技术上从易到难可以将这些场景分成四类: 数据转换:进行数据增强、重构等操作,如文本摘要、分类、信息抽取。这类应用开发较快,但更适合通用场景,不太适合大量数据的简单批量化处理。 自然语言接口:将 LLM 连接知识库或工具,实现问答或基本工具使用的自动化。这可以用于构建专业聊天机器人,但其实际价值受其所连接的知识库质量等其他因素影响。 工作流自动化:使用 LLM 实现业务流程的标准化和自动化。这可以应用于较复杂的区块链数据处理流程,如解构智能合约运行过程、风险识别等。 协助机器人与助手辅助系统:辅助系统是在自然语言接口的基础上,集成更多数据源和功能的增强系统,大幅提高用户工作效率。 图 11:LLM 应用场景 3.6 LLM 的局限性 3.6.1 行业现状:成熟应用、正在攻克的问题以及尚未解决的挑战 在 Web3 数据领域,尽管已经取得了一些重要的进展,但仍然面临一些挑战。 相对成熟的应用: 使用 LLM 进行信息处理:LLM 等 AI 技术已成功用于生成文本摘要、总结、解释等工作,帮助用户从长篇文章、专业报告中提取关键信息,提高了数据的可读性和可理解性。 使用 AI 解决开发问题:LLM 已经应用于解决开发过程中的问题,例如替代StackOverflow 或搜索引擎,为开发者提供问题解答和编程支持。 有待解决与正在探索的问题: 利用 LLM 生成代码:行业正在努力将 LLM 技术应用于自然语言到 SQL 查询语言的转换,以提高数据库查询的自动化和可理解性。然而,过程中会有很多困难,比如在某些情境下,生成的代码要求极高的准确性,语法必须百分之百正确,以确保程序能够无 bug 运行,并获得正确的结果。难点还包括确保问题回答的成功率、正确率,以及对业务的深刻理解。 数据标注问题:数据标注对于机器学习和深度学习模型的训练至关重要,但在 Web3 数据领域,特别是处理匿名的区块链数据时,标注数据的复杂性较高。 准确性和幻觉(Hallucination)问题:AI 模型中幻觉的出现可能受多因素影响,包括有偏见或不足的训练数据、过度拟合、有限的上下文理解、缺乏领域知识、对抗性攻击和模型架构。研究人员和开发者需要不断改进模型的训练和校准方法,以提高生成文本的可信度和准确性。 利用数据进行业务分析和文章输出:将数据用于业务分析和生成文章仍然是一个具有挑战性的问题。问题的复杂性、需要精心设计的提示(prompt)、以及高质量的数据、数据量、减少幻觉问题的方法都是待解决的问题。 根据业务领域自动索引智能合同数据以进行数据抽象:自动为不同业务领域的智能合同数据建立索引以进行数据抽象仍然是一个未解决的问题。这需要综合考虑不同业务领域的特点,以及数据的多样性和复杂性。 处理时序数据,表格文档数据等更复杂的模态:DALL·E 2 等多模态模型非常擅长在文字生成图像、语音等常见模态。而在区块链以及金融领域需要特别地对待一些时序数据,而非简单地把文本向量化就能解决。联和时序数据与文本,跨模态联合训练等,是实现数据智能分析以及应用的重要研究方向。 3.6.2 为何只靠 LLM 不能完美解决区块链数据行业的问题 作为语言模型,LLM 更适用于处理对流畅度要求较高的场景,而在追求准确性方面,可能需要对模型进行更进一步的调整。在将 LLM 应用于区块链数据行业时,以下框架可提供一些参考。 图 13:区块链数据行业下 LLM 输出的流畅性、准确性和用例风险 在评估 LLM 在不同应用中的适用性时,关注流畅度和准确性是至关重要的。流畅度指的是模型的输出是否自然、通顺,准确性则表示模型的答案是否准确。这两个维度在不同应用场景中有不同的要求。 对于流畅度要求较高的任务,如自然语言生成、创意写作等,LLM 通常能够胜任,因为其在自然语言处理方面的强大性能使其能够生成流畅的文本。 区块链数据面临着数据解析、数据处理、数据应用等多方面的问题。LLM 拥有卓越的语言理解和推理能力,使其成为与区块链数据互动、整理和概括的理想工具。然而,LLM 并不能解决所有区块链数据领域的问题。 在数据处理方面,LLM 更适合快速迭代和探索性处理链上数据,不断尝试新的处理方法。然而,LLM 在生产环境中的详细核对等任务方面仍存在一些限制。典型的问题是 token 长度不够,无法应对长上下文的内容。耗时的 prompt,回答不稳定影响下游任务进而导致成功率不稳定的问题,以及执行大批量任务的效率不高。 其次,LLM 处理内容的过程中很可能出现幻觉问题。据估计,ChatGPT 的幻觉概率约为 15% 至 20%,而由于其处理过程的不透明性,很多错误难以察觉。因此,框架的建立和专家知识的结合变得至关重要。此外,LLM 结合链上数据还是有很多挑战: 链上数据实体类型多、数量庞大,以何种形式投喂给 LLM,有效地运用在具体的商业化场景,类似其他垂直行业,需要更多研究和探索。 链上数据包括结构化和非结构化数据,目前行业大多数数据解决方案,都是基于对业务数据的理解。解析链上数据的过程中,用 ETL 去过滤,清洗,补充和复原业务逻辑,进一步把非结构化数据整理为结构化数据,可以为后期多种业务场景提供更高效的分析。比如,结构化的 DEX trades,NFT marketplace transactions,wallet address portfolio 等,就具有前面提到的高质量,高价值,准确和真实等特点,可以给通用 LLM 提供高效的补充。 被误解的 LLM LLM 可以直接处理非结构化数据,因此结构化数据将不再被需要? LLM 通常基于海量文本数据预训练而来,天然适合处理各类非结构化的文本数据。然而,各个行业已经拥有大量结构化数据,尤其 Web3 领域中解析后的数据。如何有效的利用这些数据,增强 LLM,是一个行业的热门研究课题。 对于 LLM,结构化数据仍然具有以下的优势: 海量:大量的数据储存在各种应用背后的数据库和其他标准格式里面,特别是私有数据。每个公司和行业都还有大量 LLM 没有用于预训练的墙内数据。 已有:这些数据不需要重新生产,投入成本极低,唯一的问题是怎么用起来。 高质量和高价值:领域内长期积累的,蕴含专家的专业知识,通常都沉淀到了结构化数据里面,用于产学研。结构化数据的质量是数据可用性的关键,其中包括数据的完整性、一致性、准确性、唯一性和事实性。 高效率:结构化数据以表格、数据库或其他规范格式存储,模式是预先定义的,并且在整个数据集中保持一致。这意味着数据的格式、类型和关系都是可预测和可控的,使得数据的分析和查询更加简单和可靠。而且,行业已经有成熟的 ETL 及各种数据处理和管理工具,使用起来也更加高效和便捷。LLM 可以通过 API,把这些数据使用起来。 准确性和事实性:LLM 的文本数据,基于 token 概率,目前还不能稳定的输出确切的答案,产生的幻觉问题一直是 LLM 要解决的核心根本问题。对于很多行业和场景,会形成安全和可靠性问题,比如,医疗,金融等。结构化数据,正是可以辅助和矫正LLM 这些问题的一个方向。 体现关系图谱,和特定业务逻辑:不同类型的结构化数据,可以以特定的组织形式(关系型数据库,图数据库等),输入到 LLM,解决不同类型的领域问题。结构化数据使用标准化的查询语言(如 SQL),使得对数据进行复杂的查询和分析变得更加高效和准确。知识图谱 (Knowledge Graph) 可以更好地表达实体之间的关系,也更容易进行关联查询。 使用成本低:不用 LLM 每次重新从底层重新训练整个底座模型,可以结合 Agents 和LLM API 等 LLM 赋能方式,更快更低成本的接入 LLM。 目前市场上还有一些脑洞大开的观点,认为 LLM 在处理文本信息和非结构化信息方面的能力极强,只需将原始数据,包括非结构化数据,简单导入到 LLM,就能达到目的。这个想法类似于要求通用 LLM 解数学题,在没有专门构建数学能力模型的情况下,大多数 LLM 可能会在处理简单的小学加减题时出错。反而,建立类似数学能力模型,和图像生成模型的 Crypto LLM 垂直模型,才是解决 LLM 在 Crypto 领域更落地的实践。 4.2 LLM 可以从新闻、推特等文字信息推测内容,人们不再需要链上数据分析来得出结论? LLM 虽然可以从新闻、社交媒体等文本中获得信息,但直接从链上数据中获得的洞察仍然是不可或缺的,主要原因有: 链上数据是原始的第一手资讯,而新闻和社交媒体中的信息可能存在片面性或误导性。直接分析链上数据可以减少信息偏差。尽管利用 LLM 进行文本分析存在理解偏差的风险,但直接分析链上数据可以减少误读。 链上数据包含全面的历史交互和交易记录,分析可以发现长期趋势和模式。链上数据还可以展现整个生态系统的全貌,如资金流向、各方关系等。这些宏观的洞察有助于更深入地理解状况。而新闻和社交媒体信息通常更零散且短期。 链上数据是开放的。任何人都可以验证分析结果,避免信息的不对称。而新闻和社交媒体未必都如实披露。文本信息和链上数据可以相互验证。综合两者可以形成更立体和准确的判断。 链上数据分析仍是不可或缺的。LLM 从文本中获取信息具有辅助作用,但不能取代直接分析链上数据。充分利用两者优势才能取得最佳效果。 4.3 利用 LangChain、LlamaIndex 或其他 AI 工具,在 LLM 的基础上构建区块链数据解决方案非常容易? LangChain 和 LlamaIndex 等工具为构建自定义的简单 LLM 应用提供了便利,使快速搭建成为可能。然而,将这些工具成功应用于实际生产环境中涉及到更多的挑战。构建一个高效运行、保持高质量的 LLM 应用是一项复杂的任务,需要深入理解区块链技术和 AI 工具的工作原理,并有效地将它们整合在一起。这对于区块链数据行业来说,是一项重要但具有挑战性的工作。 在这个过程中,必须认识到区块链数据的特性,它要求极高的精准性和可重复校验性。一旦数据通过 LLM 进行处理和分析,用户对其准确性和可信度有很高的期望。这与 LLM 的模糊容错性之间存在着潜在的矛盾。因此,在构建区块链数据解决方案时,必须仔细权衡这两方面的需求,以满足用户的期望。 当前市场上,虽然已经有了一些基础工具,但这个领域仍在快速演进和不断迭代。类比于 Web2 世界的发展历程,从最初的 PHP 编程语言到更成熟、可扩展的方案如 Java、Ruby、Python,以及 JavaScript 和 Node.js 等,再到 Go 和 Rust 等新兴技术,都经历了不断的演变。AI 工具也在不断变化,新兴的 GPT 框架如 AutoGPT,Microsft AutoGen,及最近OpenAI 自己推出的 ChatGPT 4.0 Turbo 的 GPTs 和 Agents 等只是展示了未来可能性的一部分。这表明,区块链数据行业和 AI 技术都还有许多发展空间,需要不断努力和创新。 当前在应用 LLM 时,有两个陷阱需要特别注意: 期望值过高:很多人认为 LLM 可以解决一切问题,但实际上 LLM 有明显的局限性。它需要大量的计算资源,训练成本高昂,而且训练过程可能不稳定。对 LLM 的能力要有现实的期望,明白它在某些场景下表现出色,如自然语言处理和文本生成,但在其他领域可能无法胜任。 忽视业务需求:另一个陷阱是强行应用 LLM 技术,而不充分考虑业务需求。在应用 LLM 之前,务必明确具体的业务需求。需要评估 LLM 是否是最佳技术选择,并做好风险评估和控制。强调 LLM 的有效应用需要根据实际情况慎重考虑,避免误用。 尽管 LLM 在许多领域都具备巨大潜力,但开发者和研究者在应用 LLM 时需要保持谨慎,采取开放的探索态度,以找到更适合的应用场景并最大程度地发挥其优势。 关于Footprint Analytics Footprint Analytics是一家区块链数据解决方案提供商。借助尖端的人工智能技术,我们提供 Crypto 领域首家支持无代码数据分析平台以及统一的数据 API,让用户可以快速检索超过 30 条公链生态的 NFT,GameFi 以及 钱包地址资金流追踪数据。 关于Future3 Campus Future3 Campus是由万向区块链实验室和HashKey Capital共同发起的Web3.0创新孵化平台,重点聚焦Web3.0 Massive Adoption、DePIN、AI三大赛道,以上海、粤港澳大湾区、新加坡为主要孵化基地,辐射全球Web3.0生态。同时,Future3 Campus将推出首期5000万美金的种子基金用于Web3.0项目孵化,真正服务于Web3.0领域的创新创业。 来源:金色财经
lg
...
金色财经
2023-12-06
ChatGPT用户数量已超过17亿 一岁生日后何去何从?
go
lg
...
己的AI聊天机器人Bard。它由专有的
大型
语言
模型
提供支持,并使用来自网络的信息,以会话方式响应用户的提示。它还可以与Gmail、Docs和YouTube等其他谷歌工具连接,生成个性化回复。 去年11月,亚马逊发布了其AI聊天机器人Q。根据该公司的博客,这款“生成式AI助手”旨在帮助员工简化总结文档、进行研究和生成电子邮件草稿等任务。 工具致力于最终取代智能手机,将信息投射到用户的手上,让用户无需拿着智能手机就能接听电话和执行各种任务。 03.ChatGPT和生成式AI的下一步是什么 AI聊天机器人的未来发展可能意味着,它可以满足你个性化的特定需求。 11月6日,OpenAI宣布用户可以创建定制版本的ChatGPT来满足特定需求,比如解释棋盘游戏或帮助提高写作技能。用户还可以通过OpenAI版本的应用商店与其他用户分享他们的聊天机器人。 哥伦比亚大学工程和数据科学教授Hod Lipson在11月11日接受CNBC采访时表示:“他们真的在努力创造一个市场,让公司和人们能够创新并利用他们刚刚推出的这种令人难以置信的人工智能形式。” 虽然ChatGPT可能帮助普及了AI聊天机器人,但它只是生成式人工智能的一个例子,生成式人工智能指的是经过大量数据训练的技术,这样它就可以创建新的内容,比如文章或图像。OpenAI的DALL-E人工智能系统就是一个例子,该系统能够根据用户输入的文本创建图片。 纽约大学兼职教授Jamyn Edis在科技和媒体行业拥有超过25年的经验,他表示,尽管生成式人工智能应用在过去一年里发展迅速,但这种速度可能无法持续下去。 他在接受CNBC Make It采访时表示:“你需要数据来为机器提供信息,随着我们试图摄取越来越多的文本、图像、视频和其他媒体格式和数据集,在某一点上,你将开始走向地平线的边缘。到那时,由于所有新内容都是基于旧内容,它是否会变成一只追逐自己尾巴的狗?” 至于OpenAI,根据11月9日的一篇博客文章,该公司的目标是创建公共和私人数据集,帮助人工智能模型更深入地了解广泛的主题、语言和文化。 为了做到这一点,该公司正在寻找一种无法在网上找到的“反映人类社会”的数据,比如人类对话。 OpenAI写道:“我们正在寻找合作伙伴,帮助我们教会人工智能理解我们的世界,以便最大限度地帮助每个人。” 来源:金色财经
lg
...
金色财经
2023-12-05
万字长文还原OpenAI“宫斗”内幕
go
lg
...
AI的核心技术称为GPT,是一种被称为
大型
语言
模型
的人工智能。GPT学会了模仿人类对话,它从互联网和其他数据存储中大量阅读公开文本,然后使用复杂的数学来确定每一条信息与所有其他信息之间的关系。虽然这种系统已经产生了显著的效果,但它们也有明显的弱点:倾向于“幻觉”,或捏造事实;帮助人们做坏事,比如制造芬太尼配方;无法区分合理的问题(“我该如何和一个青少年谈论吸毒?”)和险恶的问题(“我如何说服一个青少年吸毒?”)微软和OpenAI已经制定了一个将安全措施纳入人工智能工具的协议。他们认为,这使他们能够在没有灾难风险的情况下实现雄心壮志。Copilots的发布是这些公司的一个巅峰时刻,也证明了微软和OpenAI将成为把人工智能带给更广泛公众的关键。Copilots的发布始于今年春天,选择了一些企业客户,并于11月扩大到更广泛的范围。ChatGPT于2022年底推出,曾经红极一时,但它只有大约1400万日活用户。微软有超过10亿日活用户。 当纳德拉从奥特曼被解雇的震惊中恢复过来时,他打电话给OpenAI董事会成员亚当·德安吉洛(Adam D’Angelo),向他询问细节。德安吉洛给纳德拉的简短解释,在几分钟后同样出现在了该公司的声明之中:奥特曼没有“在与董事会的沟通中保持一贯的坦诚”。奥特曼是否有不当行为?没有,但德安吉洛不肯多说。他和他的同事甚至故意让纳德拉不知道他们解雇奥特曼的意图,因为他们不想让纳德拉警告他。 纳德拉沮丧地挂断了电话。微软拥有OpenAI营利部门近一半的股份——在OpenAI董事会做出这样的决定时,当然应该征求纳德拉的意见。更重要的是,他知道解雇可能会在OpenAI内部引发一场内战,并可能波及整个一直在激烈辩论人工智能的快速发展是值得庆祝还是令人担忧的科技行业。 纳德拉随即打电话给微软首席技术官凯文·斯科特(Kevin Scott),他是打造OpenAI合作伙伴关系的最主要责任人。斯科特已经听说了这个消息,而且消息传播得很快。他们与其他微软高管立即召开视频会议。他们互相询问,奥特曼被解雇是因为在发布人工智能产品时,速度与安全之间的紧张关系吗?OpenAI和微软以及科技圈的一些大咖之前都表达了对人工智能公司鲁莽前进的担忧。甚至OpenAI的首席科学家兼董事会成员伊尔亚·苏茨克维(Ilya Sutskever)也公开谈论过不受约束的人工智能的危险。2023年3月,在OpenAI发布其迄今为止最强大的人工智能服务GPT-4后不久,包括“硅谷钢铁侠”埃隆·马斯克(Elon Musk)和苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)在内的数千人曾联名签署了一封公开信,呼吁暂停训练高级人工智能模型。“我们应该让机器用宣传和谎言淹没我们的信息渠道吗?”这封信中反问。“我们应该冒着让我们文明失控的风险吗?”许多硅谷观察家认为,这封信实质上就是对OpenAI和微软的指责。 在某种程度上,斯科特尊重他们的担忧。他认为,对于那些知道自己希望计算机做什么,但缺乏实现它的培训的人而言,围绕人工智能的讨论一直奇怪地集中在科幻小说的场景上——计算机摧毁了人类——并且在很大程度上忽视了该技术“创造公平竞争环境”的潜力。斯科特觉得如果人工智能是以足够的谨慎和足够的耐心建立起来的话,它会有能力用简单的语言与用户交流,可以成为一种变革和平衡的力量。 斯科特和他在OpenAI的合作伙伴已经决定缓慢但持续地发布人工智能产品:微软将观察未受教育的用户如何与该技术互动,而用户将自学该技术的优势和局限性。通过发布公认不完美的人工智能软件,并从客户那里获得坦率的反馈,微软找到了一种既能改进技术又能在用户中培养怀疑的实用主义的方法。斯科特认为,管理人工智能危险的最佳方式是对尽可能多的人尽可能透明,并让这项技术逐渐渗透到我们的生活中——从单调的用途开始。还有什么比通过文字处理器这样不性感的东西来教人类使用人工智能更好的方法呢? 斯科特所有的谨慎定位都因奥特曼被解雇变得岌岌可危。随着越来越多的人知道奥特曼被解雇,OpenAI的员工——他们对奥特曼和OpenAI的使命的信仰近乎狂热——开始在网上表达出沮丧之情。这家初创公司的首席技术官米拉·穆拉蒂(Mira Murati)随后被任命为临时首席执行官,但她并没有热情地接受了这个角色。很快,OpenAI总裁格雷格·布罗克曼(Greg Brockman)在社交平台X上说:“我不干了。”其他OpenAI员工也开始威胁着要辞职。 在与纳德拉的视频通话中,微软高管开始讨论对奥特曼下台的可能回应。A计划是试图通过支持穆拉蒂来稳定局势,然后与她合作,看看这家初创公司的董事会是否会改变决定,或者至少对其轻率的举动进行解释。 如果OpenAI董事会拒不遵从,微软高管将实施B计划:利用其巨大的影响力,包括承诺给OpenAI但尚未打款的数十亿美元,帮助奥特曼重新担任首席执行官并重塑OpenAI的治理结构,方法是更换董事会成员。知情人士表示,在当时的会议中,微软高管提到:“从我们的角度来看,事情一直进展得很好,而OpenAI的董事会做了一些不稳定的事情,所以我们想,‘让一些成年人来负责,回到我们所拥有的一切。’” 如果以上两个计划都失败,C计划将是微软聘用奥特曼及其最有天赋的同事,在微软内部重新建立OpenAI。在这种情况下,这家软件巨头将拥有所有出现的新技术,意味着它可以把这些技术出售给其他人——这可能会狠狠赚上一笔。 参与视频通话中的团队认为,这三个计划都很有力。但是微软的目的还是让一切恢复正常。这种策略背后的信念是,微软已经搞清楚了开发负责任人工智能所需的方法、安全保障和框架中的一些重要内容。无论奥特曼发生了什么,公司都在根据自己的蓝图推进人工智能的普及。 与OpenAI合作的关键人物 斯科特确信人工智能可以改变世界,这是因为技术已经彻底改变了他自己的生活。他在弗吉尼亚州格拉迪斯(Gladys)长大,这是一个离南北战争时期南方主将李将军向格兰特投降的地方不远的小社区。他家里没有人上过大学,医疗保险几乎是一个陌生的概念。作为一个男孩,斯科特有时依赖邻居的食物。他的父亲是一名越南兽医,曾尝试着经营过加油站、便利店、卡车运输公司和各种建筑企业,但都以失败告终,并两次宣布破产。 斯科特想要一种不同的生活。他的父母以每月分期付款的方式给他买了一套百科全书,斯科特像
大型
语言
模型
Avant La Lettre一样,把这套书从头到尾阅读了一遍。为了好玩,他拆开了家中的烤面包机和食物搅拌器。他攒够了钱,买得起Radio Shack最便宜的电脑,然后通过查阅图书馆书籍学会了编程。 在斯科特1972年出生前的几十年里,格拉迪斯周围的地区是家具和纺织厂的所在地。到他青春期时,大部分制造业都转移到了海外。技术——供应链自动化,和电信的进步表面上是罪魁祸首,因为它们使得在海外生产商品变得更加容易,那里的日常开支更便宜。但是,即使在十几岁的时候,斯科特也觉得技术不是真正的罪魁祸首。“这个国家告诉自己,外包是不可避免的,”斯科特今年9月接受采访时曾表示。“我们可以告诉自己失去制造业的社会和政治负面影响,或者保护社区的重要性。但那些从未真正成为现实。” 在进入林奇堡学院(一所隶属于基督门徒的当地学校)后,斯科特获得了维克森林大学的计算机科学硕士学位,并于1998年开始在弗吉尼亚大学攻读博士学位。他对人工智能很着迷,但他了解到许多计算机科学家将其视为等同于占星术。早期创造人工智能的各种尝试都失败了,这个领域有勇无谋的观念在学术部门和软件公司根深蒂固。许多顶级思想家已经放弃了这门学科。在2000年,一些学者试图通过将人工智能研究重新命名为“深度学习”来复兴它。但怀疑论持续存在:在2007年的一次人工智能会议上,一些计算机科学家制作了一个恶搞视频,暗示深度学习人群是由邪教徒组成的。 当斯科特攻读博士学位时,他注意到他遇到的一些最优秀的工程师强调了成为短期悲观主义者和长期乐观主义者的重要性。“这几乎是必须的,”斯科特说。“你看到世界上所有破碎的东西,而你的工作就是努力修复它。”即使工程师们认为他们尝试的大部分都不会成功,而且一些尝试可能会让事情变得更糟,他们也“必须相信他们可以解决问题,直到事情最终变得更好。” 2003年,斯科特从他的博士项目中请假加盟谷歌,在那里他负责监督移动广告工程。几年后,他从谷歌辞职,在移动广告初创公司AdMob负责工程和运营,谷歌后来以7.5亿美元收购了这家公司。斯科特随后跳槽到领英,在那里他因异常擅长以既鼓舞人心又现实的方式构建雄心勃勃的项目而闻名,2016年,领英被微软收购,斯科特也随之加入了微软。 那时的斯科特已经非常富有,但在技术圈里却鲜为人知,因为他喜欢“匿名”。他曾计划在微软收购完成后离开领英,但2014年成为微软首席执行官的纳德拉敦促他重新考虑。纳德拉分享了一些让斯科特对人工智能感到好奇的信息,部分由于更快的微处理器,该领域当时的发展让这项技术身名鹊起:Facebook已经开发了复杂的面部识别系统;谷歌建立了一个能够熟练翻译语言的人工智能。纳德拉很快宣布,在微软,人工智能“将决定我们未来的所有行动。” 斯科特不确定他和纳德拉是否有相同的抱负。他给纳德拉发了一份备忘录,解释说如果他留下来,他希望自己的部分议程是提升那些通常被科技行业忽视的人。斯科特希望人工智能能够帮助那些聪明但没有接受过数字教育的人,他就是在这些人中长大的。这是一个引人注目的论点——一些技术专家会认为这是故意的吗?鉴于人们普遍担心人工智能辅助的自动化会消除杂货店收银员、工厂工人或电影临时演员等工作。 然而,斯科特相信一个更乐观的故事。他在接受采访时表示,曾经有一段时间,大约70%的美国人从事农业工作。技术进步减少了对劳动力的需求,如今只有1.2%的劳动力务农。但这并不意味着有数百万农民失业:许多这样的人成为卡车司机,或回到学校成为会计师,或找到其他道路。斯科特表示,“也许在更大程度上,人工智能比之前的任何技术革命都更能用来重振美国梦。”他觉得,在弗吉尼亚州经营一家养老院的童年好友可以利用人工智能来处理她与医疗保险和医疗补助的互动,让该机构专注于日常护理。另一个朋友在一家为主题公园制造精密塑料部件的商店工作,他可以利用人工智能来帮助他制造部件。斯科特认为,人工智能可以通过将“有赢家和输家的零和交易转变为非零和进步,让社会变得更好。” 纳德拉读了备忘录,正如斯科特所说:“是的,听起来不错。”一周后,斯科特被任命为微软的首席技术官。 如果斯科特希望微软领导人工智能革命,他必须帮助该公司超越谷歌。谷歌通过向几乎任何人提供数百万美元来拉拢人工智能领域的人才,哪怕他们只是取得了一个小小的突破。在过去的20年里,微软一直试图通过在内部人工智能项目上花费数亿美元来与谷歌竞争,但收效甚微。微软高管们开始认为,像微软这样巨大的公司——拥有超过20万名员工和庞大的官僚体系——不具备人工智能发展所需的灵活性和动力。“有时候越小越好,”斯科特在接受采访时说。 在这种情况下,斯科特开始关注各种创业公司,其中一家脱颖而出:OpenAI。这家公司的使命是要确保“通用人工智能——我们指的是在最具经济价值的工作中超越人类的高度自治系统——造福全人类。”在此之前,微软和OpenAI已经建立起了合作关系:这家初创公司使用了微软的云计算平台Azure。2018年3月,斯科特在这家位于旧金山的初创公司安排了一次与一些员工的会面。他很高兴见到几十个年轻人,他们拒绝了大型科技公司的数百万美元薪酬,为一个承诺其发明不会“伤害人类或过度集权”的组织每天工作18小时。该公司首席科学家苏茨克维特别关注为人工智能的出现做准备,人工智能如此复杂,可能会解决人类的大多数问题——或者导致大规模的破坏和绝望。 与此同时,奥特曼是一位有魅力的企业家,他决心让人工智能变得有用和赚钱。斯科特认为,这家初创公司的敏感性非常理想。他表示,OpenAI致力于“将能量导向影响最大的事物。他们有一种真正的文化,即‘这是我们正在努力做的事情,这些是我们正在努力解决的问题,一旦我们发现什么可行,我们就会加倍努力。’他们对未来有一套自己的理论。” OpenAI当时已经取得了令人瞩目的成果:它的研究人员创造了一只机器人手,可以玩魔方,即使遇到以前没有遇到过的挑战,比如把它的一些手指绑在一起。然而,最让斯科特兴奋的是,在随后的一次会议上,OpenAI的管理层告诉他,他们已经放弃了机器人手,因为它不够有前途。“最聪明的人有时最难管理,因为他们有一千个绝妙的主意,”斯科特说。但该公司的员工对他们的工作几乎充满了救世主般的热情。在今年7月斯科特遇到苏茨克维后不久,苏茨克维向斯科特说,人工智能将“颠覆人类生活的每一个领域”,这可能会使医疗保健等领域比现在“好一亿倍”。这种自信吓跑了一些潜在投资者,但斯科特觉得这很吸引人。 这种乐观与当时弥漫在微软的阴郁气氛形成了鲜明对比。一位微软前高管表示:“每个人都认为人工智能是一场数据游戏,谷歌拥有更多数据,微软处于永远无法缩小的巨大劣势。”该高管补充说,“我记得当时感到非常绝望,直到斯科特说服我们,还有另一种方式来玩这个游戏。”微软和OpenAI之间的文化差异使他们成为特殊的合作伙伴。但对斯科特和在成为OpenAI的首席执行官之前曾领导创业加速器Y Combinator的奥特曼来说,联手是非常明智的。 纳德拉、斯科特和微软的其他人愿意容忍这些奇怪的事情,因为他们相信,如果他们能够用OpenAI技术强化自己的产品,并利用初创公司的天赋和雄心,他们将在人工智能竞赛中获得显著优势。2019年,微软同意向OpenAI投资10亿美元。从那以后,微软实际上获得了OpenAI营利部门49%的股份,以及将OpenAI过去和未来的发明商业化的权利,包括在Word、Excel、Outlook、以及Skype和Xbox游戏机等产品,都可以应用OpenAI的技术。 贫困中长大的穆拉蒂 纳德拉和斯科特对这项投资的信心是由他们与奥特曼、苏茨克维和首席技术官穆拉蒂形成的纽带支撑的。斯科特特别重视与穆拉蒂的关系。像他一样,她也是在贫困中长大的。她1988年出生于阿尔巴尼亚,经历了黑帮资本主义的兴起和内战的爆发。她通过参加数学竞赛来应对这一巨变。 当穆拉蒂16岁时,她获得了加拿大一所私立学校的奖学金,在那里她表现出色。“我童年的很多时光充斥着警笛声、枪击案以及其他可怕的事情,”穆拉蒂在今年夏天接受采访时说。“但是仍然有快乐的生日、少女的单相思和知识的海洋。这教会你一种坚韧的品德——相信如果你继续努力,事情会变得更好。” 穆拉蒂在达特茅斯大学学习机械工程,期间加入了一个研究团队,该团队正在建造一辆由超级电容器电池供电的赛车,这种电池能够产生巨大的能量爆发。其他研究人员认为超级电容器不切实际;还有一些人追求更深奥的技术。穆拉蒂认为这两种观点都太过极端。这样的人永远不可能穿越弹坑到达她的学校。穆拉蒂说,你必须是一个乐观主义者和现实主义者,“有时人们会把乐观主义误解为粗心的理想主义。但这必须经过充分的考虑和深思熟虑,要有很多护栏——否则,你会冒很大的风险。” 毕业后,穆拉蒂加入了特斯拉,然后在2018年加入了OpenAI。斯科特表示,他同意十亿美元投资的一个原因是他“从未见过穆拉蒂慌张的样子。”他们开始讨论如何使用超级计算机来训练各种
大型
语言
模型
。 两家公司很快就建立并运行了一个系统,结果令人印象深刻:OpenAI训练了一个机器人,它可以生成令人惊叹的图像,以响应诸如“给我看狒狒在耶稣旁边扔披萨,以马蒂斯的风格呈现”的提示。另一个创造GPT,能够用英语会话回答任何问题——即使不总是正确的。但目前还不清楚普通人如何将这种技术用于除了无所事事的娱乐之外的任何事情,也不清楚微软如何收回投资。今年年初又有消息称,微软的投资将增加至100亿美元。 2019年的一天,一位名为达里奥·阿莫代伊(Dario Amodei)的OpenAI副总裁向他的同行展示了一件非凡的事情:他向GPT输入了一个软件程序的一部分,并要求系统完成编程。它几乎立刻就这么做了(使用了阿莫代伊自己没有计划使用的技术)。没有人能确切地说出人工智能是如何做到这一点的——
大型
语言
模型
基本上是一个黑盒。GPT的实际代码相对较少;它的答案是一个字一个字地基于数十亿的数学“权重”,根据复杂的概率决定下一步应该输出什么。在回答用户的问题时,不可能绘制出模型建立的所有联系。 对OpenAI内部的一些人来说,GPT神秘的编程能力令人恐惧——毕竟,这是《终结者》等反乌托邦电影的场景。当员工们注意到,尽管GPT技术高超,但有时还是会犯编程错误,这几乎令人振奋。在了解到GPT的编程能力后,斯科特和穆拉蒂感到有些担心,但更多的是兴奋感。他们一直在寻找人工智能的实际应用,人们可能会付费使用。 Copilot的诞生 5年前,微软收购了GitHub,其原因与它投资OpenAI的原因大致相同。GitHub的文化年轻且快速发展,不受传统和正统文化束缚。被收购后,它成为微软内部的一个独立部门,拥有自己的首席执行官和独立决策权。事实证明该策略是成功的,GitHub深受软件工程师的喜爱,其用户数量增长到了一亿多。 因此,斯科特和穆拉蒂在寻找一个可能会对能够自动完成代码的工具感到兴奋的微软部门——即使它偶尔会出错——他们转向GitHub的首席执行官纳特·弗里德曼(Nat Friedman)。毕竟,发布在GitHub上的代码有时会包含错误;用户已经学会解决不完美的地方。弗里德曼说他想要这个工具。他指出,GitHub只需要想出一种方法来告诉人们,他们不能完全信任自动完成功能。GitHub员工集体讨论了该产品的名称:Coding Autopilot、Automated Pair Programmer、Programarama Automat。弗里德曼是一名业余飞行员,他和其他人认为这些名称错误地暗示该工具可以完成所有工作。而这个工具更像是一个副驾驶——一个和你一起进入驾驶舱并提出建议的人,同时偶尔也会提出一些不合时宜的建议。通常你会听副驾驶的意见;有时你会选择忽略。当斯科特听到弗里德曼最喜欢的名字——GitHub Copilot时,他很喜欢这个名字。斯科特说:“这个名称完美地传达了它的优点和缺点。” 但当GitHub准备在2021年推出Copilot时,微软其他部门的一些高管提出抗议,认为该工具偶尔会产生错误,会损害微软的声誉。“这是一场激烈的战斗,”弗里德曼告诉我。“但我是GitHub的首席执行官,我知道这是一个很棒的产品,所以我发布了它。”当GitHub Copilot发布后,立即大获成功。“Copilot简直让我大吃一惊,”一名用户在发布几小时后发推文说。“这是魔法!!!”另一个贴子说。微软开始对该应用程序收取每月10美元的费用;不到一年,GitHub的年收入就超过了一亿美元。该部门的独立性得到了回报。 但是GitHub Copilot也引起了不太积极的反应。在留言板上,程序员推测,如果有人太懒或太无知而没有在部署自动完成的代码之前检查它,这种技术可能会蚕食他们的工作,或者给网络恐怖分子提供动力,或者引发混乱。包括一些人工智能先驱在内的知名学者引用了已故的斯蒂芬·霍金(Stephen Hawking)在2014年的声明,即“全人工智能可能意味着人类的终结。” 令人震惊的是,GitHub Copilot的用户发现了如此多的灾难性可能性。但GitHub和OpenAI的高管们也注意到,人们使用这个工具越多,他们对它的能力和局限性的理解就越微妙。“使用一段时间后,你会对它擅长什么和不擅长什么有一种直觉,”弗里德曼说。“你的大脑会学习如何正确使用它.” 微软高管认为,他们找到了一个既有魄力又负责任的人工智能发展战略。斯科特开始写一份备忘录,题为《人工智能Copilot的时代》,于2023年初发送给微软的技术领导人。斯科特写道,重要的是,微软为向世界解释这项技术找到了一个强有力的比喻:“Copilot做的正是名字所暗示的;对于试图完成复杂任务的用户来说,它是一个专家助手……Copilot可以帮助用户了解其能力的极限。” 在ChatGPT发布后,它让大多数人了解了人工智能,并迅速成为历史上增长最快的消费级应用程序。但是斯科特可以预见未来:机器和人类通过自然语言进行互动;人们,包括那些对编程一无所知的人,仅仅通过说出他们想法来给计算机编程。这是他一直追求的公平竞争环境。正如OpenAI的联合创始人在社交媒体上所说:“最热门的新编程语言是英语。” 斯科特写道:“在我的职业生涯中,我从未经历过我的领域发生如此大变化的时刻,重新想象可能性的机会如此现实和令人兴奋。”下一个任务是将GitHub Copilot——一款精品产品——的成功应用于微软最受欢迎的软件。这些Copilot的引擎将是一项新的OpenAI发明:一个
大型
语言
模型
。OpenAI称之为GPT-4。 微软多年前曾试图将人工智能带给大众,但最终尴尬的以失败收场。1996年,该公司发布了Clippy,这是其办公产品的“助手”。Clippy在屏幕上显示为一个有着卡通大眼睛的纸夹,看似随机地弹出,询问用户是否需要帮助来写信、打开PowerPoint或完成其他任务。杰出的软件设计师艾兰·库伯(Alan Cooper)后来说,Clippy的设计是基于对研究的“悲剧性误解”,研究表明人们可能会更好地与似乎有情感的计算机互动。用户当然对Clippy有情绪:他们讨厌它。史密森尼称之为“计算机史上最糟糕的软件设计失误之一。”2007年,微软砍掉了Clippy。 9年后,微软创造了人工智能聊天机器人Tay,旨在模仿一个十几岁女孩的语调和注意力,目的是为了与推特用户互动。Tay几乎立即开始发布种族主义、性别歧视和同性恋恐惧的内容,包括“希特勒是对的”的声明。在发布后的第一个16小时内,Tay发布了96000次,此时微软意识到这是一场公关灾难,将其关闭。 到2022年底,微软高管们觉得已经准备好开始为Word、Excel和其他产品开发Copilots了。但微软明白,就像法律是不断变化的一样,即使在产品发布后,产生新的保护措施的需求也会不断增加。人工智能工程主管莎拉·伯德(Sarah Bird)和斯科特经常因这项技术的失误而感到汗颜。在疫情期间,当他们测试另一项OpenAI发明图像生成器Dall-E 2时,他们发现如果要求系统创建与新冠肺炎有关的图像,它通常会输出货架被抢空的图片。一些微软员工担心这样的图像会加剧人们对疫情导致经济崩溃的担忧,他们建议改变产品的安全措施以抑制这种趋势。但微软的其他人认为这些担忧是愚蠢的,不值得软件工程师花费时间。 斯科特和伯德决定在有限的公开发布中测试这个场景,而不是裁定这个内部辩论。他们推出了一个版本的图像生成器,然后等着看用户是否会因为看到屏幕上的空货架而感到不安。他们不会为一个没有人确定存在的问题设计一个解决方案——就像一个眼睛瞪得圆圆的回形针帮助你浏览一个你已经知道如何使用的文字处理器——他们只会在必要时增加一个缓解措施。在监控社交媒体和互联网的其他角落,并收集用户的直接反馈后,斯科特和伯德得出结论,这些担忧是没有根据的。“你必须在公共场合进行实验,”斯科特说。“你不能试图自己找到所有的答案,并希望你把一切都做对。我们必须学会如何一起使用这些东西,否则我们谁也搞不懂。” 2023年初,微软准备发布首次将GPT-4集成到微软品牌产品中:搜索引擎必应。集成人工智能技术的必应受到热烈欢迎,下载量猛增了八倍。纳德拉开玩笑说微软打败了“800磅重的大猩猩”,以此来嘲讽谷歌。(尽管这项创新令人印象深刻,但就市场份额而言并没有多大意义:谷歌仍然占据90%以上的搜索份额。) 必应只是一个微软议程上的一个开端。随后微软开始在其他产品中推出Copilot。今年春天,当微软最终开始推出Copilots时,版本的发布是小心翼翼地错开的。最初,只有大公司才能使用这项技术;随着微软了解这些客户如何使用它并开发出更好的保护措施,它才会被提供给越来越多的用户。截至11月15日,已有数万人在使用Copilots,预计很快会有数百万人注册。 在此两天之后,纳德拉忽闻奥特曼被解雇。OpenAI董事会的一些成员发现奥特曼是一个狡猾得令人不安的操纵者。例如,今年秋初,他与乔治敦大学安全和新兴技术中心主任海伦·托纳(Helen Toner)对质,因为她与人合写了一篇论文,似乎批评OpenAI“助长了人工智能炒作的火焰”。托纳为自己辩护(尽管她后来向董事会道歉,没有预料到这篇论文会被怎样看待)。奥特曼开始单独接触其他董事会成员,讨论替换她的问题。当这些成员交换谈话记录时,一些人认为奥特曲解成他们支持解除托纳职务。“他会在其他人的想法上撒谎,让他们互相争斗,”熟悉董事会讨论的人士透露。“这样的事情已经发生多年了。”(一位熟悉奥特曼观点的人士表示,他承认“试图让一名董事会成员下台的方式很笨拙”,但他没有企图操纵董事会。) 微软的A、B、C计划 奥特曼被认为是一个精明的企业斗士。这在过去对OpenAI很有帮助:2018年,他阻止了早期董事会成员马斯克收购OpenAI的冲动。奥特曼控制信息和操纵认知的能力——公开的和秘密的——吸引了风险资本家通过投资各种创业公司来相互竞争。他的战术技巧如此令人畏惧,以至于当董事会的四名成员——托纳、德安吉洛、苏茨克维和塔莎·麦考利(Tasha McCauley)——开始讨论罢免他时,他们决心保证让他措手不及。“很明显,一旦山姆知道了,他会尽一切可能削弱董事会,”熟悉这些讨论的人士说。 不高兴的董事会成员觉得OpenAI的任务要求他们对人工智能变得太危险保持警惕,他们认为奥特曼在位的情况下,他们无法履行这一职责。“任务是多方面的,要确保人工智能造福全人类,但如果不能让首席执行官负起责任,没人能做到,”另一名了解董事会想法的人说。奥特曼看问题的角度不同。熟悉他的观点的人说,他和董事会进行了“非常正常和健康的董事会辩论”,但一些董事会成员不熟悉商业规范,并被他们的责任所吓倒。这个人说,“我们每向人工智能靠近一步,每个人都要承受10分的精神错乱。” 很难说董事会成员更害怕有感知能力的计算机,还是担心奥特曼擅作主张。但不管怎样,董事会最终选择了先发制人,他们误以为微软会和他们站在一起,共同把奥特曼当做目标,支持他们的罢免决定。 纳德拉得知奥特曼被解雇的消息并召集斯科特和其他高管召开视频会议后不久,微软开始执行A计划:支持穆拉蒂担任临时首席执行官以稳定局势,同时试图查明董事会为何如此冲动。纳德拉已经批准发布一份声明,强调“在我们将人工智能的下一个时代带给我们的客户时,微软仍然致力于米拉和他们的团队”,并在他的个人X和LinkedIn账户上表达了同样的观点。他与穆拉蒂保持着频繁的联系,以便及时了解她从董事会掌握的信息。 答案是:不多。在奥特曼被解雇的前一天晚上,董事会通知了穆拉蒂他们的决定,并得到了她保持沉默的承诺。他们认为她的同意意味着她支持解雇奥特曼,或者至少不会反对董事会,他们还认为其他员工也会同意。他们错了。在内部,穆拉蒂和其他OpenAI高管表达了他们的不满,一些员工认为董事会的行动是一次政变。OpenAI的员工向董事会成员提出尖锐的问题,但董事会几乎没有回应。两名熟悉董事会想法的人士表示,出于保密的考虑,董事会成员感到必须保持沉默。此外,随着奥特曼下台成为全球新闻,董事会成员感到不知所措,“与任何人接触的带宽有限,包括微软。” 奥特曼被解雇的第二天,OpenAI的首席运营官布拉德·莱特卡普(Brad Lightcap)发送了一份全公司备忘录,称他了解到“董事会的决定不是为了应对渎职或任何与我们的财务、业务、安全或安全/隐私实践相关的事情。”他接着说,“这是山姆和董事会之间沟通的中断。”但是,每当有人要求奥特曼举例说明他没有像董事会最初抱怨的那样“在沟通中一贯坦诚”,董事会成员都保持沉默,甚至拒绝提及奥特曼反对托勒的运动。 在微软内部,整个事件看起来愚蠢得令人难以置信。据报道,到目前为止,OpenAI价值约800亿美元。该公司的一位高管表示:“除非OpenAI董事会的目标是毁灭整个公司,否则他们似乎总是莫名其妙地在每次做决定时做出最糟糕的选择。”即使其他OpenAI员工在总裁布罗克曼的带领下公开辞职,董事会仍然保持沉默。 A计划显然失败了。因此,微软的高管们转向了B计划:纳德拉开始与穆拉蒂协商,看是否有办法恢复奥特曼的首席执行官职位。在此期间,板球世界杯正在进行,纳德拉钟爱的印度队在决赛中对阵澳大利亚队。纳德拉偶尔会在社交平台X上发帖报告赛事的最新进展,希望缓解紧张的氛围,但他的许多同事不知道他在说什么。 OpenAI员工威胁要反抗。穆拉蒂和这家初创公司的其他人在微软的支持下,开始敦促所有董事会成员辞职。最终,他们中的一些人同意离开,只要他们认为替代者可以接受。他们表示,他们甚至可能对奥特曼的回归持开放态度,只要他不是首席执行官,并且没有获得董事会席位。到了感恩节前的那个周日,每个人都筋疲力尽了。OpenAI董事会邀请穆拉蒂单独加入他们进行私人谈话。他们告诉她,他们一直在秘密招聘一位新的首席执行官,并终于找到了愿意接受这份工作的人。 对穆拉蒂、OpenAI员工、微软而言,他们只能抓住最后一根稻草,启动C计划。周日晚上,纳德拉正式邀请奥特曼和布罗克曼领导微软内部的一个新的人工智能研究实验室,并提供他们想要的所有资源和尽可能多的自由。两人都接受了。微软开始为他们认为将加入该部门的数百名OpenAI员工准备办公室。 穆拉蒂和她的同事们写了一封公开信给OpenAI的董事会:“我们无法为那些缺乏能力、判断力且不关心我们使命和员工的人工作或与他们合作。”该信件的作者承诺辞职并“加入新成立的微软子公司”,除非所有现任董事会成员辞职并重新任命奥特曼和布罗克曼。几个小时内,几乎所有OpenAI员工都签署了这封信。 C计划以及OpenAI大规模离职的威胁足以让董事会态度软化。感恩节前两天,OpenAI宣布奥特曼将重新担任首席执行官。除德安吉洛外,所有董事会成员都将辞职,而更知名的人物——包括Facebook前高管、推特董事长布雷特·泰勒(Bret Taylor),以及前财政部长、哈佛大学校长拉里·萨默斯(Larry Summers)——将出任董事。OpenAI的高管同意对所发生的事情进行独立调查,包括奥特曼过去作为首席执行官的行为。 尽管C计划最初看起来很诱人,但微软高管后来得出的结论是,目前的情况是最好的结果。将OpenAI的员工转移到微软可能会导致成本高昂且浪费时间的诉讼,还可能引发政府调查。在新框架下,微软获得了OpenAI的无投票权的董事会观察员席位,使其在不引起监管审查的情况下获得了更大的影响力。 微软的巨大胜利 事实上,这出肥皂剧的结局被视为微软的巨大胜利,也是对其开发人工智能方法的有力认可。一位微软高管表示:“奥特曼和布罗克曼真的很聪明,他们可以去任何地方。但他们选择了微软,所有那些OpenAI的人都准备选择微软,就像四年前选择我们一样。这极大地验证了我们建立的体系。他们都知道,这里是继续他们正在做的工作的最佳地点,最安全的地点。” 与此同时,被解雇的董事会成员坚称他们的行为是明智的。“将会有一个全面和独立的调查,而不是把一群山姆的亲信放在董事会,我们最终有了可以对抗他的新人,”熟悉董事会讨论的人透露说。“山姆很有权力,他很有说服力,他善于为所欲为,现在他注意到人们在看着他。”前董事托纳说,“董事会始终专注于履行我们对OpenAI使命的义务。”(奥特曼告诉其他人,他欢迎调查——部分是为了帮助他理解为什么会发生这样的悲剧,以及他本可以采取哪些不同的措施来防止这种情况发生。) 一些人工智能监管机构对这个结果不是特别满意。开源人工智能平台Hugging Face的首席伦理学家玛格丽特·米歇尔(Margaret Mitchell)认为,“董事会解雇奥特曼的时候,确实是在做自己的工作。他的回归将会产生寒蝉效应。我们将会看到越来越少的人在公司内部直言不讳,因为他们会认为自己会被解雇——而高层的人会更加不负责任。” 就奥特曼而言,他准备讨论其他事情。“我认为我们只是转向良好的治理和优秀的董事会成员,我们将进行独立评估,这让我非常兴奋,”他告诉我。“我只是希望每个人都继续生活,开心快乐。我们会继续进行这项任务。” 让纳德拉和斯科特松了一口气的是,随着Copilots的大规模发布,微软的一切都恢复了正常。不过Office Copilots看起来既令人印象深刻又平庸。它们让平凡的任务变得更容易,但它们距离取代人类工人还有很长的路要走。它们感觉和科幻小说预言的相去甚远,但是它们也是人们可能每天都会用到的东西。 根据斯科特的说法,这种效果是有意的。“真正的乐观主义意味着有时要慢慢来,”他说。如果他、穆拉蒂和纳德拉如愿以偿——鉴于他们最近的胜利,这种可能性现在更大——人工智能将继续稳步渗透到我们的生活中,其速度足以适应短期悲观主义所需的警告,并且只有在人类能够吸收这项技术应该如何使用的情况下才会如此。事情仍有可能失控——人工智能的渐进发展将阻止我们意识到这些危险,直到为时已晚。但是,就目前而言,斯科特和穆拉蒂相信他们能够平衡进步和安全。 斯科特表示:“人工智能是人类为提高每个人的生活质量而发明的最强大的东西之一。但这需要时间,也应该需要时间。我们总是通过技术来解决极具挑战性的问题。因此,我们可以告诉自己一个关于未来的好故事,也可以告诉自己一个关于未来的坏故事——无论我们选择哪一个,那都有可能成为现实。” 来源:金色财经
lg
...
金色财经
2023-12-03
一代传奇投资大师“谢幕”前“忠告”!芒格:人工智能被过度炒作
go
lg
...
bon等作者提起的版权诉讼而变得严重。
大型
语言
模型
仍然容易产生幻觉,这使得它们远不可靠。与此同时,该技术的泛化能力超出其给定的训练数据集正如谷歌研究人员最近发表的一篇论文所指出的那样,是有争议的。
lg
...
Dan1977
2023-11-30
上一页
1
•••
60
61
62
63
64
•••
108
下一页
24小时热点
中国突传重磅!南华早报独家:习近平将首次缺席金砖国家峰会 究竟怎么回事?
lg
...
中俄突发重磅!华尔街日报独家:以伊冲突促使中国重新考虑俄罗斯天然气管道
lg
...
特朗普突然对中国说这句话,白宫紧急灭火!中东局势又有新变故
lg
...
特朗普突然重大表态!特朗普称允许中国继续购买伊朗石油 国际油价暴跌
lg
...
黄金突然暴跌的原因在这!鲍威尔国会作证释重要信号 金价狂泻46美元 接下来如何交易黄金?
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论