全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
AI x Crypto 报告:案例研究、发展瓶颈、技术挑战
go
lg
...
的大量内容将由这些模型生成。这意味着,
GPT-5
及以后的模型将使用 GPT-4 生成的数据进行训练。在合成数据上训练模型的效果如何?他们发现,在合成数据上训练语言模型会导致生成的模型出现不可逆转的缺陷。论文作者指出:"我们证明,如果我们要保持从网络上搜刮的大规模数据进行训练所带来的好处,就必须认真对待这一问题。事实上,当从互联网抓取的数据中出现由 LLM 生成的内容时,收集到的有关人类与系统之间真正交互行为的数据的价值将越来越大"。 这可能表明,围绕数据出处(追踪数据来源)的解决方案存在重大机遇。 图 35:模型崩溃示意图。随着使用人工智能模型生成的互联网内容越来越多,下一代模型的训练集中很可能包含合成数据,如本文所示 请注意,这种现象并非LLM所特有,它可能会影响各种机器学习模型和生成式人工智能系统(如变异自动编码器、高斯混合模型)。 现在,让我们来看看监督学习。在监督学习中,我们需要一个贴有标签的数据集。这意味着原始数据本身(一张狗的图片)和一个标签("狗")。标签由模型设计者手动选择,可以通过人工标注和自动化工具相结合的方式获得。这在实践中带来了许多挑战。这包括 主观性:决定数据的标签可能是主观的,从而导致模糊不清和潜在的伦理问题。一个人认为合适的标签,另一个人可能会有不同的看法。 标签的差异:同一个人(更不用说不同的人)重复运行可能会提供不同的标签。这就提供了 "真实标签 "的噪声近似值,因此需要质量保证层。例如,人类可能会收到一个句子,并负责标注该句子的情绪("快乐"、"悲伤"......等)。同一个人有时会给完全相同的句子贴上不同的标签。这就降低了数据集的质量,因为它在标签中引入了差异。在实践中,20% 的标签无法使用的情况并不少见。 想象一下,创建一个数据集来预测区块链上新协议的质量。你很可能会得到一个范围很广的分数,这取决于你所选择的评分系统的次活动性,以及你所调查的人的意见差异。 缺乏专家注释者:对于一个小众的医疗应用,人们可能很难获得大量有意义的标签数据。这是由于能够提供这些标签的人员(医学专家)十分稀缺。 罕见事件:对于许多事件来说,由于事件本身非常罕见,因此很难获得大量的标注数据。例如,发现流星的计算机视觉模型。 高成本:当试图收集大量高质量数据集时,成本可能高得惊人。由于上述问题,如果需要对数据集进行标注,成本尤其高昂。 还有很多问题,比如应对对抗性攻击和标签的可转移性。为了让读者对数据集的规模有一些直观的了解,请看下图。像 ImageNet这样的数据集包含1400万个标签数据点。 图 36:各种机器学习数据集的规模示意图。Common Crawl的近似值为10亿个网页,因此总字数远远超过这个数字。小型数据集(如 Iris)包含 150 幅图像。MNIST 大约有 70,000 张图像。请注意,这是一个对数比例 2.1.2 强化学习中的数据收集 在强化学习中,数据收集是一项独特的挑战。与监督学习不同的是,监督学习的数据是预先标记好的静态数据,而强化学习则依赖于通过与环境互动而产生的数据,这通常需要复杂的模拟或真实世界的实验。这就带来了一些挑战: 这一过程可能会耗费大量资源和时间,对于物理机器人或复杂环境而言尤其如此。如果机器人在真实世界中接受训练,那么它从试验和错误中学习可能会导致事故。或者,也可以考虑让训练机器人通过试验和错误来学习。 奖励稀少且延迟:在收到有意义的反馈之前,代理可能需要探索大量的行动,从而难以学习有效的策略。 确保所收集数据的多样性和代表性至关重要;否则,代理可能会过度适应狭隘的经验集,而不能通用化。在探索(尝试新行动)和利用(使用已知的成功行动)之间取得平衡使数据收集工作更加复杂,需要复杂的策略才能有效收集有用的数据。 值得强调的一点是,数据收集与推理直接相关。在训练一个强化学习代理下棋时,我们可以利用自我对弈来收集数据。自我对弈就像是与自己下棋,以获得进步。代理与自己的副本对弈,形成一个持续学习的循环。这种方法非常适合收集数据,因为它会不断产生新的场景和挑战,帮助代理从广泛的经验中学习。这一过程可以在多台机器上并行执行。由于推理的计算成本很低(与训练相比),这一过程对硬件的要求也很低。通过自我游戏收集数据后,所有数据都将被用于训练模型和改进模型。 闲置计算在分布式推理和数据收集中可以发挥强大作用,因为对硬件的要求比训练低得多。 2.1.3 对抗性数据攻击 数据毒化攻击:在这种攻击中,通过添加扰动来破坏训练数据,从而欺骗分类器,导致不正确的输出。例如,有人可能会在非垃圾邮件中添加垃圾邮件元素。这将导致将来在垃圾邮件过滤器的训练中加入这些数据时,性能下降。这可以通过在非垃圾邮件上下文中增加 "free"、"win"、"offer "或 "token"等词的使用来解决。 规避攻击:攻击者在部署过程中操纵数据,欺骗先前训练好的分类器。规避攻击在实际应用中最为普遍。针对生物识别验证系统的"欺骗攻击 "就是规避攻击的例子。 对抗性攻击:这是对合法输入的修改,目的是愚弄模型,或者使用专门设计的"噪音"来引起错误分类。请看下面的例子,在熊猫图像中添加噪音后,模型将其分类为长臂猿(置信度为99.3%)。 图 37:通过在熊猫图像中添加特殊类型的噪声,模型可预先判断出图像是长臂猿而不是熊猫。在进行对抗攻击时,我们向神经网络提供一幅输入图像(左图)。然后,我们使用梯度下降法构建噪声向量(中)。该噪声向量被添加到输入图像中,从而导致错误分类(右图)。(图片来源:本文图 1解释和利用对抗性实例》论文中的图 1) 在创建开放数据集时,有必要建立一个强大的质量控制层,以避免恶意攻击。此外,数据出处(追溯图像来源)可能会有所帮助。 2.2 训练方面的挑战 训练机器学习模型会面临许多挑战。本节绝不是为了说明这些挑战的严重性。相反,我们试图让读者了解挑战的类型和瓶颈所在。这将有助于建立直觉,从而能够评估将训练模型与密码原语相结合的项目构想。 请看下面这个无监督学习问题的例子。在无监督学习中,没有 "老师 "提供标签或指导模型。相反,模型会发现问题中隐藏的模式。考虑一个猫狗数据集。每只猫狗都有两种颜色:黑色和白色。我们可以使用一个无监督学习模型,通过将它们聚类为两组来找到数据中的模式。该模型有两种有效的方法: 将所有狗集中在一起,将所有猫集中在一起 将所有白色动物集中在一起,将所有黑色动物集中在一起。 请注意,从技术上讲,这两者都没有错。模型找到的模式很好。然而,要完全按照我们的要求来引导模型是非常具有挑战性的。 图 38:训练好的对猫和狗进行分类的模型最终可能会根据颜色将动物聚类在一起。这是因为在实践中很难指导无监督学习模型。所有图像均由人工智能使用 Dalle-E 生成 这个例子说明了无监督学习所面临的挑战。然而,在所有类型的学习中,能够评估模型在训练过程中的学习效果并进行潜在干预至关重要。这可以节省大量资金。 在无权限系统中,模型的训练无需专家监督,因此可能会浪费大量资源。处理早期停止等问题的自动化工具还很不成熟。 训练大型模型的挑战还有很多,这是一个非常简短的清单: 训练大规模机器学习模型,尤其是深度学习模型,需要大量的计算能力。这通常意味着要使用高端 GPU 或 TPU,而它们可能既昂贵又耗能。 与这些计算需求相关的成本不仅包括硬件,还包括连续运行这些机器(有时长达数周或数月)所需的电力和基础设施。 强化学习因其训练的不稳定性而闻名,模型或训练过程中的微小变化都可能导致结果的显著差异。 与Adam等监督学习中使用的更稳定的优化方法不同,强化学习中没有放之四海而皆准的解决方案。通常需要对训练过程进行定制,这不仅耗时,而且需要深厚的专业知识。 强化学习中的探索-开发两难问题使训练变得更加复杂,因为找到正确的平衡点对于有效学习至关重要,但却很难实现。 机器学习中的损失函数定义了模型的优化目标。选择错误的损失函数会导致模型学习到不恰当或次优的行为。 在复杂任务中,例如涉及不平衡数据集或多类分类的任务,选择、有时甚至定制设计正确的损失函数变得更加重要。 损失函数必须与应用的实际目标紧密结合,这就需要深入了解数据和预期结果。 在强化学习中,设计能持续、准确反映预期目标的奖励函数是一项挑战,尤其是在奖励稀少或延迟的环境中。 在国际象棋游戏中,奖励函数可以很简单:赢了得 1 分,输了得 0 分。但是,对于行走机器人来说,这个奖励函数可能会变得非常复杂,因为它将包含 "面向前方行走"、"不要随意摆动手臂 "等信息。 奖励函数(和损失函数)包含了模型去符号化者认为重要的主观因素。可能有必要建立管理制度,以确保为广泛使用的模型选择适当的函数。 在监督学习中,由于深度神经网络的 "黑箱 "性质,要了解是哪些特征驱动了复杂模型(如深度神经网络)的预测具有挑战性。 这种复杂性使得调试模型、了解其决策过程和提高其准确性变得十分困难。 这些模型的复杂性也对可预测性和可解释性提出了挑战,而这对在敏感或受监管领域部署模型至关重要。 同样,训练模式和所涉及的挑战也是非常复杂的话题。我们希望上述内容能让您对所涉及的挑战有一个大致的了解。如果您想深入了解该领域当前面临的挑战,我们推荐您阅读《应用深度学习中的开放性问题》(Open Problems in Applied Deep Learning)和《MLOps 指南》(MLOps guide)。 从概念上讲,机器学习模型的训练是按顺序进行的。但在很多情况下,并行训练模型至关重要。这可能只是因为模型太大,一个 GPU 难以容纳,并行训练可以加快训练速度。然而,并行训练模型会带来重大挑战,包括 通信开销:将模型分割到不同的处理器需要这些单元之间不断进行通信。这可能会造成瓶颈,尤其是对于大型模型而言,因为各单元之间的数据传输可能会耗费大量时间。 负载均衡:确保所有计算单元得到平等利用是一项挑战。不平衡会导致一些单元闲置,而另一些单元超负荷运行,从而降低整体效率。 内存限制:每个处理器单元的内存都是有限的。在不超出这些限制的情况下,有效管理和优化多个单元的内存使用情况是非常复杂的,尤其是大型模型。 实施的复杂性:设置模型并行涉及计算资源的复杂配置和管理。这种复杂性会增加开发时间和出错的可能性。 优化困难:传统的优化算法可能无法直接适用于模型并行化环境,也无法提高效率,这就需要进行修改或开发新的优化方法。 调试和监控:由于训练过程的复杂性和分布性增加,监控和调试分布在多个单元上的模型比监控和调试运行在单个单元上的模型更具挑战性。 分散和并行训练方面的基本新方法可以极大地推动机器学习的进步。 2.3 推理中的挑战 许多类型的机器学习系统面临的最重要挑战之一就是它们可能会"自信地出错"。ChatGPT可能会返回一个我们听起来很有把握的答案,但事实上这个答案是错误的。这是因为大多数模型经过训练后都会返回最有可能的答案。贝叶斯方法可用于量化不确定性。也就是说,模型可以返回一个有根据的答案,来衡量它有多确定。 考虑使用蔬菜数据训练图像分类模型。该模型可以获取任何蔬菜的图像,并返回它是什么,例如 "黄瓜 "或 "红洋葱"。如果我们给这个模型输入一张猫的图像,会发生什么呢?普通模型会返回它的最佳猜测,也许是 "白色洋葱"。这显然是不正确的。但这是模型的最佳猜测。贝叶斯模型的输出则是 "白色洋葱 "和一个确定度,例如 3%。如果模型有 3% 的确定性,我们可能就不应该根据这个预测采取行动。 图 39:常规模型预测(只返回最有可能的答案)和贝叶斯模型预测(返回预测结果的 s 分布)的示意图 这种形式的不确定性定性和推理在关键应用中至关重要。例如,医疗干预或金融决策。然而,贝叶斯模型的实际训练成本非常高,而且面临许多可扩展性问题。 推理过程中出现的更多挑战 维护:随着时间的推移,尤其是数据和现实世界场景发生变化时,保持模型的更新和正常运行。 RL 中的探索-利用:在探索新策略和利用已知策略之间取得平衡,尤其是在推理直接影响数据收集的情况下。 测试性能:确保模型在新的、未见过的数据上表现良好,而不仅仅是在训练过的数据上。 分布偏移:处理输入数据分布随时间发生的变化,这种变化会降低模型性能。例如,推荐引擎需要考虑客户需求和行为的变化。 某些模型生成缓慢:像扩散模型这样的模型在生成输出时可能需要大量时间,而且速度较慢。 高斯过程和大型数据集:随着数据集的增长,使用高斯过程进行推理的速度会越来越慢。 增加防护栏:在生产模型中实施制衡措施,防止出现不良结果或误用。 在封闭源模型中增加哪些防护措施,这对于确保不出现偏差至关重要。 2.4 LLM 面临的挑战 大型语言模型面临许多挑战。不过,由于这些问题受到了相当多的关注,我们在此仅作简要介绍。 LLM 不提供参考文献,但可以通过检索增强生成(RAG)等技术来缓解没有参考文献等问题。 幻觉:产生无意义、虚假或无关的输出。 训练运行需要很长时间,而且数据集重新平衡的边际值很难预测,这就导致了缓慢的反馈循环。 很难将人类的基本评估标准扩展到模型所允许的吞吐量。 量化在很大程度上是需要的,但其后果却鲜为人知。 下游基础设施需要随着模型的变化而变化。在与企业合作时,这意味着长时间的发布延迟(生产总是远远落后于开发)。 不过,我们想重点介绍论文《沉睡代理:训练通过安全训练持续存在的欺骗性 LLMs》一文中的一个例子。作者训练的模型会在提示年份为 2023 年时编写安全代码,但在提示年份为 2024 年时插入可被利用的代码。他们发现,这种后门行为可以持续存在,因此标准的安全训练技术无法将其清除。这种后门行为在最大的模型中最持久,在经过经训练产生思维链路以欺骗训练过程的的模型中也最持久,甚至就算思维链路已经消失也一直存在。 图 40 后门示意图。如果是 2024 年,模型的训练表现为 "正常",但如果是 2024 年,则策略表现不同。资料来源:本文图 1 模型训练过程的透明度至关重要,因为即使是开源模型,也可能被训练出只在特定情况下使用的后门。例如,想象一下,将一个有资金的钱包连接到一个人工智能代理,结果却发现了一个后门。然后,这个代理就会将所有资金转移到一个特定的地址,或者以不同的身份恶意行事。 在本章中,我们讨论了机器学习领域的许多挑战。显而易见,研究的巨大进步解决了许多此类问题。例如,基础模型为训练特定模型提供了巨大优势,因为您只需根据使用情况对其进行微调即可。此外,数据标注不再是全手工过程,使用半监督学习等方法可以避免大量的人工标注。 本章的总体目标是先让读者对人工智能领域的问题有一些直观的了解,然后再探讨人工智能与密码学的交叉问题。 报告外读物 3.1.1 Gensyn 网站: https://www.gensyn.ai/(opens new window) 一句话简介: 去中心化机器学习计算协议,实现人工智能开发民主化。 描述: 旨在通过将全球所有计算能力整合到一个全球超级集群中,彻底改变人工智能和加密货币领域。该网络专为机器学习计算协议设计,任何人都可以随时访问,从而推动机器学习的发展。通过利用区块链技术,Gensyn实现了人工智能训练过程的去中心化,允许点对点、低成本高效率地访问计算资源。这就消除了对云寡头和大型科技公司的依赖,为人工智能开发提供了一个更加民主和无许可的环境。Gensyn的协议使世界各地的设备(包括未充分利用的硬件)都能为去中心化计算网络做出贡献,为任何人、任何地方都能实现人工智能潜力的未来铺平了道路。 简短描述什么是数据类别中的公司,最好使用第 2 章中的框架进行细分。 3.1.2 Axiom 网站: https://www.axiom.xyz/(opens new window) 一句话简介: Axiom利用零知识证明,实现对以太坊历史的无信任链上查询和计算,适用于数据丰富的动态的去中心化应用。 描述: 为人工智能和加密货币的交叉领域铺平了道路,它使开发人员能够在以太坊上创建智能合约,这些合约可以通过零知识(ZK)证明对区块链数据的整个历史进行访问和计算。这一点至关重要,因为它为动态DeFi应用、定制化的预言机和链上忠诚度计划开辟了新的可能性,允许协议根据历史链上活动进行调整,而无需依赖外部预言机或修改已部署的合约。此外,该协议还旨在将 ZK 技术用于人工智能应用,例如通过确保数据完整性和无信任计算,Axiom可以验证在线内容并检测深度伪造。这使得Axiom成为以太坊上未来安全、数据丰富应用的关键参与者,利用人工智能和加密货币的优势,创建一个更加透明、高效和用户驱动的生态系统。 来源:金色财经
lg
...
金色财经
2024-02-22
为什么是AGI的又一个里程碑时刻?
go
lg
...
世界,还能生成稳定的角色,再配合自家的
GPT-5
,一个纯AI生成的、数千平方公里、活跃着各色生物的地图,听上去已经不是异想天开。当然,画面是否能实时生成,是否支持多人联机,这些都是很现实的问题。但无论怎么说,新的游戏模式已经呼之欲出,至少用Sora生成一个《完蛋我被美女包围了》变得毫无问题了”,陈希道。 第二类是基于模拟世界的能力,在更多领域中创造出新的事物。 爱丁堡大学的博士生Yao Fu表示:“生成式模型学习生成数据的算法,而不是记住数据本身。就像语言模型编码生成语言的算法(在你的大脑中)一样,视频模型编码生成视频流的物理引擎。语言模型可以视为近似人脑,而视频模型近似物理世界。” 学会了物理世界中的普遍规律,让具身智能也更加接近人的智能。 例如在机器人领域,以前的传导流程为,先给到机器人大脑一个握手的指令,再传递到手这个部位,但是由于机器人无法真正理解“握手”的含义,所以只能把指令转化为“手的直径缩小为多少厘米”。若世界模拟器成为现实后,机器人就可以直接跳过指令转化的过程,一步到位理解人的指令需求。 跨维智能创始人、华南理工大学教授贾奎向光锥智能表示,显式的物理模拟将来就有可能应用到机器人领域,“Sora的物理模拟是隐式的,它展示出了只有其内部对物理世界理解和模拟才能生成出来的效果,要对机器人直接有用,我觉得还是显式的才行。” “Sora能力还是通过海量视频数据,还有recaptioning技术,实现出来的,甚至也没有 3D 显式建模,更不用说物理模拟了。虽然其生成出来的效果,已经达到/接近了通过物理模拟实现的效果。但物理引擎能做的事情不仅仅是生成视频,还有很多训练机器人必须有的其他要素”,贾奎表示道。 虽然Sora还有许多局限性,但在虚拟和现实世界之间已经建立了一个链接,这让无论是头号玩家式的虚拟世界,还是机器人更像人类,都充满了更大的可能性。 来源:金色财经
lg
...
金色财经
2024-02-19
中国电信中部智算中心正式运营,AI人工智能ETF(512930.SH)涨超1%
go
lg
...
建设给出较为乐观的中长期指引。随着今年
GPT-5
、Llama3与GeminiPro等模型基座的重磅升级以及多模态技术的发展,除微软之外的云厂商也有望开始加码AI算力建设,全球AI算力建设进程有望持续加速。 AI人工智能ETF(512930.SH)紧密跟踪中证人工智能主题指数,中证人工智能主题指数从沪深市场中选取50只业务涉及为人工智能提供基础资源、技术以及应用支持的上市公司证券作为指数样本,以反映人工智能主题上市公司证券的整体表现。 数据显示,截至2023年12月29日,中证人工智能主题指数(930713)前十大权重股分别为海康威视(002415)、科大讯飞(002230)、韦尔股份(603501)、金山办公(688111)、中际旭创(300308)、澜起科技(688008)、中科曙光(603019)、紫光股份(000938)、用友网络(600588)、大华股份(002236),前十大权重股合计占比47.28%。 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
2024-01-30
大涨之后,谨慎对待AMD
go
lg
...
特尔竞争。OpenAI希望开发更强大的
GPT-5
LLM,以保持其市场领导地位,相信像AMD这样的“镐和铲子”公司将会从中受益。 回到前面的问题:“问题是,投资者在当前水平上保持谨慎的时机是否已经到来?”AMD最新的远期EBITDA市盈率为62.4倍,远高于其10年平均水平38倍。在考虑其对25财年的预期时,AMD 25财年的EBITDA为30倍,这表明市场在未来两年将出现显著的增长拐点。换句话说,AMD预计到2025年将继续大幅增加市场份额,大幅提升其盈利增长,正如其25财年EBITDA倍数所示。虽然还没有观察到AMD的明确卖出信号,但随着投资者开始消化未来两年盈利增长的拐点,人工智能被过度炒作的可能性已经增加,这可能会增加执行风险。 英伟达是GPU领域的强大玩家,其CUDA软件生态系统加强了它的护城河。此外,AMD还面临着来自超大规模厂商的竞争,这些厂商设计的芯片有可能提高总成本,并为其云计算客户提供更具吸引力的价值主张。因此,AMD并没有类似英伟达的护城河,很难像它因英特尔过去的失误而抢夺英特尔在数据中心的领导地位那样迅速。英伟达首席执行官黄仁勋在人工智能芯片竞争中保持领先地位的能力和承诺表明,AMD可能会在一段时间内继续扮演次要角色。虽然AMD获得更多市场份额的能力不应被低估,但以目前的水平买入,并反映出其估值在两年内的大幅增长变化,在目前的水平上似乎有些过于激进。 观察AMD长期价格走势图相当容易理解。它仍处于长期上升趋势中,方向偏向于在重要回调时购买,包括2022年底的回调。 因此,购买者对AMD保持上行趋势的能力保持信心。最近重新测试其2021年高点并创下新高,证实了AMD的长期投资论点。 尽管如此,有必要了解2021年前的增长可能与AMD在数据中心CPU市场取得重大进展的能力有关。然而,随着英特尔自2023年触底以来的复苏,市场对其执行力越来越有信心,AMD可能会发现,要想获得在新冠疫情前积累的收益,难度越来越大。 这并不认为AMD在未来两年内会经历“绝望”回调。尽管如此,当前水平的风险回报比可能不适合大幅度加仓。实际上,AMD最近的激增在没有摆脱最近的FOMO后期买家的抛售,为积攒更具吸引力的机会提供了不可持续的可能性。 需要理解的是,这并不是卖出信号,表明短期内上行动能可能会持续一段时间。然而,过去三个月内价格急剧上涨,基于投资组合和价格行为的原则,投资者需要谨慎对待最近的狂热。激增的速度也表明现在是更加谨慎的时候。 $美国超微公司(AMD)$
lg
...
老虎证券
2024-01-24
人工智能投资潜力备受全球关注,AI算力持续超预期,AI人工智能ETF(512930.SH)连续4个交易日实现资金净流入!
go
lg
...
益增长的需求并降低对英伟达的依赖。对于
GPT-5
,山姆·奥尔特曼表示,
GPT-5
将是一个多模态模型,支持语音、图像、代码和视频,并在个性化和定制化功能方面实现重大更新,具备更强的推理能力和更高的准确性。此外,他还点明,AI的进步将极大地加快科学发现的速度。 申港证券表示,人工智能将继续是接下来一年最值得关注的主线。国内AI应用将逐步进入集中落地期,教育、办公、创意产业等场景可能率先迎来实质性的商业化落地。 AI人工智能ETF(512930.SH)紧密跟踪中证人工智能主题指数,中证人工智能主题指数从沪深市场中选取50只业务涉及为人工智能提供基础资源、技术以及应用支持的上市公司证券作为指数样本,以反映人工智能主题上市公司证券的整体表现。 数据显示,截至2023年12月29日,中证人工智能主题指数(930713)前十大权重股分别为海康威视(002415)、科大讯飞(002230)、韦尔股份(603501)、金山办公(688111)、中际旭创(300308)、澜起科技(688008)、中科曙光(603019)、紫光股份(000938)、用友网络(600588)、大华股份(002236),前十大权重股合计占比47.28%。 以上内容与数据,与界面有连云频道立场无关,不构成投资建议。据此操作,风险自担。
lg
...
有连云
2024-01-22
奥特曼在达沃斯:未来的AI将看人下菜碟
go
lg
...
首要任务就是推出新模型,很可能被称为“
GPT-5
”。 奥特曼承认,他对AI对今年世界各地选举的影响感到紧张,但对OpenAI在这一领域的投资持辩护态度。近几周,OpenAI宣布将加大力度,减少与2024年全球60多场选举相关的错误信息和对其模型的滥用。 去年11月,奥特曼曾遭公司董事会罢免。数日后奥特曼回归,而参与这一行动的OpenAI联合创始人Ilya Sutskever随后离职。奥特曼对此表示,没有关于Sutskever是否会重返公司担任高级职位的最新消息。确切而言,他甚至不确定Sutskever在公司的合同状态。 针对OpenAI遭《纽约时报》起诉一事,奥特曼称,OpenAI不需要《纽约时报》的内容来建立成功的AI模型。相反,OpenAI与美联社和Axel Springer等主要出版商签署了内容授权协议。
lg
...
金融界
2024-01-18
OpenAI创始人:目前的首要任务是推出新模型
go
lg
...
前的首要任务是推出新模型,很可能被称为
GPT-5
。
lg
...
金融界
2024-01-17
2024 年 AI「魔盒」还能开出什么?
go
lg
...
OpenAI 再次让人惊掉了下巴,而
GPT-5
的商标申请已经在册。根据美国专利商标局展示的信息,
GPT-5
提供的功能包括自然语言处理、文本生成、理解、语音转录、翻译、预测和分析等。 OpenAI 提交了
GPT-5
的商标申请 在 OpenAI 官方的蓝图中,他们之后还会上线 GPTs 商店,支持用户上架自己训练的机器人并提供给其他用户付费使用,由此建立一个新的商业形态。短短不到两个月的时间,用户通过自定义 GPTs 构建的特定领域 ChatGPT 助手已超过数十万个,其欢迎程度可见一斑。 2024 年,OpenAI 若开放 「GPT 商店」,又一波应用热潮将席卷互联网。 应用爆发 OpenAI 成功如同哥伦布发现新大陆一样,他告诉了所有人:这条路走得通。也就在这短短的一年时间内,ChatGPT 直接刺激了全球科技公司之间的人工智能军备竞赛。 数据显示,截至今年 10 月,在不到一年时间,中国拥有 10 亿参数规模以上大模型的厂商及高校院所就超过了 250 家,这里还不包含国外大模型的数量。AI 应用更是喷涌而出,Sensor Tower 报告显示,仅在 2023 年上半年,AI 应用下载量同比增长 114%,突破 3 亿次,超出 2022 年全年水平。与此同时,AI 应用内购收入同比激增 175%,逼近 4 亿美元。 激烈的竞赛中,成千上万个大模型进化出了文生图、图生图、文生视频、图生视频等强大的多模态能力。人们刚刚还惊讶于 ChatGPT 的能说会道,眨眼间,Bard、Clude 等识网梗的模型就出现了。 此外,一些垂直领域也杀出了「独角兽」。 在图片生成上,Midjourney 一马当先,成为最强的文生图工具。从出生到现在,短短半年,Midjourney 已经更迭至 V6 版本,从最初的文生图向图生图、AI 扩图多能力发展。 更令人惊叹的是,在 Midjourney 背后,是仅成立 2 年的 11 人的团队。随着 Midjourney 的蹿红,团队已经扩展至 40 人,仅在今年就实现了 2 亿美元的营收,早早就实现了经济独立。 与大多数追求风投的初创公司不同的是,Midjourney 没有拿 VC 一分钱,「客气一点的说法是,他不需要 VC 进入他的生活。」微软旗下风投基金 M12 的合伙人 Michael Stewart 表示。 AI 应用发展速度之快可用「日更」形容。 Midjourney 走红后不久, Runway 公司的 Gen-2 在视频领域接棒,与其初代产品 Gen-1 相差仅仅 1 个月。最新版本的 Gen-2 不仅可以仅根据一句提示词就可以生成 18 秒的视频,且能熟练运用电影镜头语言。就在最近,Gen-2 新增了图生视频的功能,只需「涂抹」图片中的某个区域,就可以让它动起来。 AI 卷向视频赛道,Pika1.0、Stable Video Diffusion 等后起之秀奋起直追,各类 AI 视频工具「斗法」,进化速度越来越快。其中,刚刚推出没多久的 Pika1.0 的文生视频能力已经可以和 Gen-2 相媲美,甚至首次将 AI 扩图能力带到了视频界。 2024 年,大模型的多模态潜力还将被这些独角兽继续发掘,甚至产生新的独角兽。文本、图片、音频、视频这些代表人类自然语言的产物仍会被 AI 工具精耕细作,而工具将很可能在规模化下变得更加趁手和便宜。 芯片瓶颈 科技大公司卷大模型,小公司卷应用,竞争之外,「卖水者」英伟达赚得盆满钵满。数据显示,英伟达最新第三财季营收达 181 亿美元,同比增长 206%;净利润 92 亿美元,同比增长高达 1259%。而引发这场竞赛的「领头羊」OpenAI 的 2023 年营收仅达到 13 亿美元。在去年,OpenAI 的营收也才 2800 万美元。 2023 年,英伟达无疑坐稳了 AI 的风口,芯片价格一路水涨船高,即便价格高涨,芯片仍是「一卡难求」,有消息称,英伟达 H100 的交付周期长达 36 周至 52 周不等,如此长的交付周期明显无法满足 AI 产品发展的需求。这也可能是
GPT-5
长时间未到来的原因。 算力作为驱动 AI 发展的三驾马车之一,芯片的短缺直接影响了大模型的进化速度,OpenAI、谷歌下场自研芯片,以补充自家大模型训练的缺口。 英伟达的竞争者们也抢着分「蛋糕」,英特尔和 AMD 分别推出 Gaudi3 和 Instinct MI300X 高性能 AI 芯片,微软公布 AI 加速芯片 Azure Maia 100,亚马逊则发布了面向 AI 系统的升级款加速器芯片 Trainium2。 与此同时,美国的芯片制裁进一步加剧了中国芯片短缺的危机。为保市场,英伟达只能推出一些性能缩水的「阉割版」芯片。 为了不再让硬件上被「卡脖子」,华为着力研发 AI 芯片,昇腾 AI 芯片成为了国内支撑,应用方科大讯飞表示,华为昇腾 910B 已经基本做到可对标英伟达 A100。 行至 2023 年末,无论国内还是海外,仍未出现一款可以媲美英伟达 H100 的芯片,尽管芯片厂商已经开足马力,但短期内,芯片资源紧缺的情况仍会持续。或许只有等到 AI 芯片资源问题被解决,
GPT-5
以及更加先进、丰富的产品才能更快到来。 但从安全角度来看,这也并非完全是坏事。在这短暂的喘息之际,人类可以为人工智能的发展方向做一个更佳的选择。 要知道,GPT-4 刚刚发布时,一封上千名科技精英的联名信将 AI 安全问题推至聚光灯下,他们联名请求「暂停训练比 GPT-4 更强大的 AI 系统」,用 AI 领域的专家 Gary Marcus 的话说:「用百分之一的人类毁灭风险换取和机器对话的乐趣,这值得吗?」 的确,ChatGPT 刚刚推出时,其颠覆性的创造力确实让人震撼,微软的创始人比尔·盖茨也强调过 AI 失控的可能性是存在的。 今年初,网络还充满着「AI 抢饭碗」「AI 取代人类」的担忧,甚至出现了「碳奸」的梗。但一年过去了,现在大家对去 AI 的态度已经回归理智。 我们还没有真的看到「打工人」因为 AI 而大规模失业,至少在国内,AI 被普遍运用到工作中仍是未来进行时。与此同时,OpenAI 等代表性企业的 AI 安全措施也不得不跟上,各个国家的 AI 安全审查机构相继成立。 AI 的前进是必然的,「火」到底怎么用还在于人类的选择,一席人在制造控制火苗的炉子,另一些人着力火苗还能点亮哪些荒漠。 2024 年,安全仍将是 AI 发展的主题之一,芯片则是生产力能否进一步提升的关键,唯一可以确定的是,AI 将如同互联网一样,将成为未来必不可少的人类工具。 来源:金色财经
lg
...
金色财经
2024-01-02
调整后迎布局期,文娱传媒ETF(516190)涨超2%,持仓股中文在线、上海电影涨超10%
go
lg
...
型性能较年初有明显提升,2024年,以
GPT-5
为代表的国外大模型有望继续引领全球大模型迭代升级的浪潮,国内大模型如星火认知大模型、文心一言模型将继续积极赶超国外领先厂商,预计国内将出现更多优秀的多模态和垂类模型。 硬件端,英伟达于11月公布最新人工智能超级计算机芯片H200,三星、vivo 等手机厂商公布移动端搭载大模型成果,2024年,国外厂商在AI硬件领域预计将有较大进展,联想 AI PC 预计24年9月后上市,英伟达下一代Blackwell-GPU也有望于24年至25年推出,硬件端设备升级将显著加速模型在端侧布局的进程。 应用端,在模型能力升级的推动下,AI在内容、创意生成领域的落地成果丰富,2024年AI应用新周期有望开启。 在行业底部周期,回购有利于稳定市场信心,更大逻辑在于技术变革驱动行业未来发展,AIGC/XR等新技术运用将有效推动游戏、影视、广告营销、数字媒体、出版等细分方向商业模式进步,对于行业降本增效有显著推动作用,推荐关注华夏中证文娱传媒ETF (516190)。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-12-29
每日人工智能动态汇总
go
lg
...
1.
GPT-5
、开源、更强的ChatGPT!OpenAI公布2024年计划。 2. 苹果“追赶”AI热,寻求直接在iPhone上运行AI。 3. 经济日报:生成式人工智能应用需严格规范。 4. 美媒:OpenAI估值有望不低于1000亿美元。 5. 2027年全球AI耗水或达66亿立方米。 6. 国际航空电信协会:生成式AI和电动空中出租车驱动航空旅行与运输业变革。 7. 郭明錤:苹果明年春季发布会AI服务或无显著更新。 8. 抖音内测“AI搜”功能?抖音相关负责人:相关功能还在测试中,目前尚不成熟。 9. 科大讯飞:近期来业界各类评测较多,公司当前研发重点围绕主要业务场景推动规模化落地。 10. 谷歌介绍“交通疏导”AI模型研究成果:平均缩短7分钟拥堵时间、提升30%交通效率。 11. 夸克App升级健康搜索,推出健康大模型应用“夸克健康助手”。 12. 昆仑万维AI Agents开发平台“天工SkyAgents”Beta版全网测试。
lg
...
金融界
2023-12-26
上一页
1
•••
9
10
11
12
13
•••
17
下一页
24小时热点
特朗普会不会又变卦?!中美达成关税协议后,中国官媒积极、但社交平台质疑声高涨
lg
...
中美报复性关税几乎都取消了!全球彻底疯狂:美股暴涨、黄金崩跌、人民币直线拉升
lg
...
特朗普重大发声!未来几天或与习近平通话 中国坐到谈判桌前的原因在这
lg
...
中美关键信号!《纽约时报》:习近平一直等待的贸易冲突出现了……
lg
...
中美“休战”证明一件事!《纽约时报》:特朗普彻底退缩 习近平报复决定正确
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
32讨论
#链上风云#
lg
...
97讨论
#VIP会员尊享#
lg
...
1952讨论
#CES 2025国际消费电子展#
lg
...
21讨论