全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
晚间必读 | Cosmos 对传统区块链的威胁
go
lg
...
:生成式人工智能领域的 4 个突破点
大型
语言
模型
(LLMs)已经成为科技行业的热点,为我们提供了一些令人称奇的体验——从几秒钟内编写一周的代码,到生成比与人类进行的对话更富有共情的对话。通过使用成千上万个GPU进行数万亿令牌的数据训练,LLMs展示了出色的自然语言理解能力,并改变了文案和代码等领域,将我们推进了全新、令人兴奋的生成式AI时代。与任何新兴技术一样,生成式AI也受到了一些批评。尽管这些批评在一定程度上反映了LLMs当前能力的局限性,但我们将这些阻碍视为进一步创新的机会,而不是技术本质性的缺陷。点击阅读 4.LSDfi群雄割据 谁将成为“汉中王”? 如今,LSDfi 是捕获 Binance 目光的最新叙事,这里有一个潜在的价值 169 亿美元的市场,并且在三周内已经增长了 102%!在这场 LSDfi 战争中,谁将获胜?Mochi 使用 DuneAnalytics 的数据进行分析,帮助大家找出答案!点击阅读 5.Cosmos 对传统区块链的威胁 单一块链在它们存在的时候确实很好,然而,它们最终遇到了区块链三难(去中心化、可扩展性、安全性)问题,因为它们试图在每个节点上完成所有事情(共识、数据可用性、结算和执行)。使用模块化区块链来避免这个问题,是通过将区块链的许多角色分割成不同的层次来完成。因此,区块链可以以一种最小化权衡的方式来扩展。点击阅读 来源:金色财经
lg
...
金色财经
2023-06-25
中美科技霸权争夺战:这一领域可能成为“新战场”!
go
lg
...
据的训练才能工作。生成式AI基于所谓的
大型
语言
模型
,这意味着它需要用大量语言训练,才能了解并响应用户的提问。 这些数据的处理需要大量的计算能力,而这些计算能力是由特定的半导体驱动的,比如美国公司英伟达(Nvidia)销售的半导体,该公司被视为此类芯片的市场领导者。 美国目前的部分限制措施旨在阻止中国获得英伟达的一些关键芯片,从而可能会阻碍中国的人工智能发展。 美国也正在展开境外投资审查,这将为美国对外国公司的投资制定规则。 Triolo说:“即将出台的境外投资审查行政命令将包括限制美国对一些AI相关技术的投资,这将是拜登政府最后两年美国技术控制方向的一个重要标志。”
lg
...
天马行空
2023-06-23
Etherscan AI工具Code Reader官方教程
go
lg
...
生成答案:这些响应由 OpenAI 的
大型
语言
模型
(LLM) 生成,仅供参考。始终验证它们的准确性,不要仅仅依赖它们作为证据或提交漏洞赏金。 生成提示:要使用该工具,你需要有效的OpenAI API 密钥和足够的 OpenAI 使用限制。此工具不存储你的 API 密钥。 聊天完成模式:该工具目前仅支持一次性提示,不允许连续对话。 Code Reader 5步使用法 1、首先输入你的 OpenAI API 密钥。 2、粘贴你想探索的合约地址。 3、该工具将自动获取与提供的合约相关的所有文件。 4、检索到合约文件后,你可以选择要通读的特定源代码文件。此外,你可以在与 AI 共享之前直接在 UI 中修改源代码。 5、根据选定的源代码,你可以生成 AI 提示与代码进行交互并提出问题以加深理解。 用例示范 代码概述:为特定部分代码或函数生成 AI 提示,让你更深入地了解那部分代码。利用有针对性的问题获得 AI 生成的解释,使你能够深入研究代码的内部工作原理。当第一次与智能合约交互时,此功能特别有价值,因为它提供了对其操作和功能的透彻理解。此外,利用此功能生成文档以供参考。 检索读/写函数:获取与读写以太坊数据相关的智能合约函数的完整列表,以及它们各自功能的详细说明。有了这些信息,你可以就如何直接在相应的合约地址页面上的“读取合约”或“写入合约”选项卡下与这些功能进行交互做出明智的决定。 探索 dApp 集成:深入研究代码,全面了解如何将所选智能合约与你的去中心化应用程序 (dApp) 无缝集成。 代理合约的限制 粘贴代理合约地址时,工具不会自动获取执行合约的合约文件。要访问相关的执行合约,你可以进入代理合约的地址页面,勾选“Read/Write as Proxy”选项卡并复制地址: 如果“Read/Write as Proxy”选项卡不可用,你可以导航至下方按钮,在Proxy Contract Verification页面点击“Verify”,复制找到的实现地址: 单击“这是代理吗?” 按钮 来源:金色财经
lg
...
金色财经
2023-06-20
人工智能遇上大麻烦了! 产出内容全是“垃圾” 科学家警告AI训练AI将产生“模型崩溃”
go
lg
...
溃”。 ChatGPT和OpenAI等
大型
语言
模型
通常被认为是基于从互联网上获取的大量数据进行训练的,而这些数据直到最近都是主要由人类生成的。 但随着我们对这些工具的使用增加,人工智能生成的内容正在大规模地添加到未来语言模型将学习的在线数据池中。 科学家们表示,经过几代的训练,这意味着错误和无意义的情况将会不断增加,使得后续的人工智能无法区分事实和虚构。这些人工智能将会“开始错误地解释他们认为是真实的事物,从而强化他们自己的信念”。 Anderson使用莫扎特及其不那么有才华的同时代作曲家安东尼奥·萨列里的作品来说明这个问题。他写道:“如果你用莫扎特训练一个音乐模型,你会得到一些有点像莫扎特但缺乏亮点的输出结果—我们称之为'萨列里'。如果现在由萨列里训练下一代,依此类推,第五代或第六代会是什么样子?” 论文的首席作者、牛津大学的Ilia Shumailov博士表示,问题出在AI在之前的AI上进行训练后对概率的理解。不太可能发生的事件在其输出中越来越不太可能反映出来,这限制了下一代AI在理解上一代AI输出的可能性。 论文中给出的一个例子是,将一个由人类生成的关于中世纪建筑的文本输入到一个AI语言模型中,然后使用该模型的输出来训练后续几代的AI。 原始文本中对竞争的建筑理论进行了熟练的处理,经过多次循环后,第九代的文本变成了无意义的内容。 Anderson将其比喻为大规模的污染,写道:“正如我们将海洋填满了塑料垃圾,大气层充斥着二氧化碳一样,我们即将用无聊的内容填满互联网。” 人工智能生成的内容已经大规模地在网上出现。在线虚假信息监测机构NewsGuard在5月份警告称,他们发现了49个新闻网站,看起来完全是由人工智能编写的。 而根据《华盛顿邮报》的报道,营销和公关机构越来越多地将它们的文案交给聊天机器人,使人类作家失去了工作机会。 但是,在Shumailov和Anderson的研究结果出来之后,希望不被AI超越的人类作家们还不能太过自满。 Shumailov表示,人类生成的数据并不是训练AI所必需的绝对要素,人类生成的数据之所以有用,是因为它们包含了自然变化、错误和不太可能的结果。“所以人类肯定会提供帮助,但同时也不意味着人类数据是一个重大要求。”
lg
...
楼喆
2023-06-20
到了2030年 GPT会发展成什么样?
go
lg
...
很快成具备超级智能。这两项工作都利用了
大型
语言
模型
的大型上下文窗口,现在这个规模已经超过 100000 token 并且还在增长。 更一般而言,机器学习模型的技能情况跟人类不一样,因为人类与机器学习适应的是非常不同的数据源(人类通过进化,机器学习通过海量互联网数据)。当模型在视频识别等任务上达到人类水平时,它们很可能就能在许多其他任务(如数学、编程以及黑客攻击)中表现出超人水平。此外,由于模型变得更大数据变得更好,随着时间的推移可能会出现其他的强大功能,预期模型功能“维持”或低于人类水平没有充分的理由。虽然当前的深度学习方法有可能在某些领域达不到人类水平,但它们也有可能会超越人类,甚至显著超越人类水平也说不定,尤其是在人类在进化上不擅长的数学等领域。 2. 推理速度 (感谢 Lev McKinney 为本节运行性能基准测试。) 为了研究机器学习模型的速度,我们测量了机器学习模型生成文本的速度,以每分钟 380 个单词的人类思维速度为基准。使用 OpenAI 的chat completions API,我们估计 gpt-3.5-turbo 每分钟可以生成 1200 个单词 (words per minute,wpm),而 gpt-4 是 370 wpm(截至 2023 年 4 月初)。规模较小的开源模型,如 pythia-12b ,用 A100 GPU 跑用开箱即用的工具,至少可达到 1350 wpm,通过进一步优化似乎可以再翻一番。 因此,如果以截至 4 月份的 OpenAI 模型为参照,人工智能的速度要么大约是人类速度的 3 倍,要么等于人类速度。我预测模型在未来的推理速度会更快,因为在加速推理方面存在很大的商业与实践压力。事实上,根据 Fabien Roger 的跟踪数据,在这篇文章发表之前的一周,GPT-4 的速度已经增加到约 540wpm(12 个token/秒);这表明存在持续的改进空间与意愿。 我的预测中值是模型的 wpm 将是人类的 5 倍(范围:[0.5x, 20x]),因为这之后会出现边际收益递减的情况,尽管有一些考虑会指向更高或较低的数字。 重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以以吞吐量减少 k 倍为代价将速度提高 k 平方倍(换句话说,一个模型 k 立方倍的并行副本可以替换为速度快 k 平方倍的一个模型)。这可以通过并行平铺法来实现,理论上甚至适用于比 k 平方还要大的情况,可能至少是 100 甚至更多。因此,通过把 k 设为 5 的话,可以将 5 倍于人类速度的模型加速到 125 倍于人类速度。 重要提醒,速度与质量未必匹配:如第 1 节所述,GPT 2030 的技能组合跟人类不一样,机器在某些我们认为很容易的任务上会失败,而在某些我们感觉困难的任务却很精通。因此,我们不应把 GPT 2030 看作是“高速版人类”,而应将其看作是具有违反直觉的技能的,“高速版员工”。 尽管如此,把加速因素纳入考虑仍然很有参考意义,尤其是当加速值很大时。如果语言模型获得了 125 倍的加速,假设其处于 GPT 2030 的技能范围内,需要我们一天时间的认知动作,GPT 就可以在几分钟内完成。以前面的黑客攻击为例,机器学习系统可以快速建立起对我们来说生成速度较慢的漏洞利用或攻击。 3. 吞吐量与并行副本 模型可以根据可用的计算和内存情况任意复制。这样任何可以并行化的工作都可以快速完成。此外,一旦一个模型被微调到特别有效,改变就可以立即传播到其他实例。模型也可以针对专门的任务进行提炼,从而跑得更快、成本更低。 一旦模型经过训练,可能就会有足够的资源来跑模型的多个副本。这是因为训练一个模型需要运跑它的很多个并行副本,而训练这个模型的组织在部署的时候仍将拥有这些资源。因此,我们可以通过估算训练成本来降低副本数量。 举个例子说明一下这种逻辑,训练 GPT-3 的成本足以让它执行 9 x 10^11 次前向传播。换句话说,人类每分钟的思考量是 380 个单词,一个单词平均为 1.33 个 token,因此 9 x 10^11 次前向传播相当于以人类速度工作约 3400 年。因此,用人类的工作速度该组织可以跑 3400 个模型的并行副本一整年,或者以 5 倍于人类的速度跑相数量的副本 2.4 个月。 我们接下来为未来的模型设计同样的“训练悬垂”(训练与推理成本的比率)。这个比率应该会更大:主要原因是训练悬垂与数据集大小大致成正比,而数据集会随着时间的推移而增加。随着自然产生的语言数据被我们用完,这种趋势将会放缓,但新的模式以及合成或自生成的数据仍将推动它向前发展。我预测 2030 年的模型可使用足够的资源进行训练,去执行相当于人类速度 1800000 年的工作[范围:400k-10M]。 请注意,Cotra (2020) 与 Davidson (2023) 估计的数量相似,得出的数字比我得预测更大;我想主要区别在于我对自然语言数据耗尽所产生影响得建模方式不一样。 上面的预测有些保守,因为如果组织购买额外的计算资源的话,模型可使用得资源可能会多于训练时所用资源。粗略估计表明,GPT-4 使用了全球计算资源的约 0.01% 进行训练,不过我预计未来的训练占用全球计算总量的份额会更大,因此在训练后进一步扩展的空间会更小。尽管如此,如果组织有充分理由去扩展资源的话,仍然可以将所运行的副本数量提高到另一个数量级。 4. 知识分享 (感谢 Geoff Hinton 首先向我提出了这个观点。) 模型的不同副本可以共享参数更新。比方说,ChatGPT 可以部署到数百万用户那里,从每次交互中学到一些东西,然后将梯度更新(gradient updates)传播到中央服务器,在做过平均处理后再应用到模型的所有副本上。通过这种方式,ChatGPT 在一个小时内观察到的人性比人类一辈子(100 万小时 = 114 年)看过的东西还要多。并行学习也许是模型最重要的优势之一,因为这意味着它们可以快速学习任何自己缺失的技能。 并行学习的速率取决于一次跑多少个模型副本,它们获取数据的速度有多快,以及数据是否可以高效地并行利用。最后这一点,即使是极端的并行化也不会对学习效率造成太大影响,因为数百万的批量大小在实践中很常见,并且梯度噪声尺度(McCandlish 等人,2018 年)预测学习性能在某个“临界批量大小”以下劣化程度最小。因此,我们将聚焦在并行副本和数据采集上。 我会提供两个估计,这两个估计都表明以人类的速度并行学习至少约 100 万份模型是可行的。也即是说,机器一天的学习量相当于人类学 2500 年,因为 100 万天 = 2500 年。 第一个估计用到了第 3 节中的数字,得出的结论是训练模型的成本足以模拟模型 180 万年的工作(根据人类速度进行调整)。假设训练运行本身持续了不到 1.2 年(Sevilla 等人,2022 年),这意味着训练模型的组织有足够的 GPU 以人类速度运行 150 万个副本。 第二个估计考虑了部署该模型的组织所占市场份额。比方说,如果一次有 100 万用户向模型发起查询,则组织必然有资源来服务 100 万个模型副本。大致而言,截至 2023 年 5 月,ChatGPT 拥有 1 亿用户(并非同时全部活跃),截至 2023 年 1 月,其每天有 1300 万活跃用户。我假设典型用户的请求量相当于模型几分钟的生成文本,因此 1 月份的数字可能意味着每天大概只有 5 万人日的文本。不过,未来的 ChatGPT 式的模型似乎很可能会达到其 20 倍之多,日活用户可以达到 2.5 亿更多,因此每天将会有 100 万人日的数据。相比之下,Facebook 的日活用户数是 20 亿。 5. 多模态、工具与执行器 从历史上看,GPT 风格的模型主要是基于文本和代码进行训练,除了通过聊天对话之外,与外界互动的能力有限。然而,这种情况正在迅速改变,因为模型正在接受图像等其他模态的训练,正在接受使用工具的训练,并开始与物理执行器交互。此外,模型不会局限于文本、自然图像、视频和语音等以人类为中心的模态——它们也可能会接受网络流量、天文图像或其他海量数据源等人类不熟悉的模态的训练。 工具。最近发布的模型开始利用了外部工具,如 ChatGPT 插件等。文本与工具使用相结合足以编写出可执行的代码,说服人类让机器替他们采取行动,进行 API 调用,交易,甚至执行网络攻击都有可能。工具的使用具备经济用途,因此会有进一步发展这种能力的强烈动机。 ChatGPT 是被动的:用户说 X,ChatGPT 回应 Y。风险存在但有限。很快就会有主动系统 - 一个助手会替你回复电子邮件,代表你采取行动等。这样风险会更高。 - Percy Liang (@percyliang) 2023 年 2 月 27 日 新模态。现在有大型开源视觉语言模型,如 OpenFlamingo,在商业方面,GPT-4 和 Flamingo 都接受了视觉和文本数据的训练。研究人员还在试验更多奇异的模态对,例如蛋白质和语言(Guo 等人,2023 年)。 我们应该期望大型预训练模型的模式会继续扩展,原因有二。首先,在经济上,将语言与不太熟悉的模态(如蛋白质)配对有它的用处,这样用户就可以从解释并有效地进行编辑中受益。预测会用蛋白质、生物医学数据、CAD 模型以及与主要经济部门相关的任何其他模态进行多模态训练。 其次,我们将开始用完语言数据,因此模型开发人员得搜索新类型的数据,从而可以继续受益于规模。除了传统的文本和视频之外,现有数据源当中天文数据(很快将达到每天艾字节得规模)和基因组数据(大约 0.1 艾字节/天)是规模最大之一。这些以及其他得海量数据源可能会被用于训练 GPT 2030。 使用外来模态意味着 GPT 2030 可能会具备非直觉的能力。它可能比我们更了解恒星和基因,即尽管它现在处理基本的物理任务都比较困难。这可能会带来惊喜,比方说设计出新的蛋白质,这是我们基于 GPT 2030 那种“一般”智能水平预料不到的。在思考 GPT 2030 的影响时,重要的是要思考由于这些奇异的数据源而可能形成的超人能力。 执行器。模型也开始使用物理的执行器:ChatGPT 已经用于机器人控制,OpenAI 正在投资一家人形机器人公司。不过,在物理域收集数据要比在数字域收集数据昂贵得多,而且人类在进化上也更适应物理域(因此机器学习模型与我们竞争的门槛更高)。因此,与数字工具相比,我预计人工智能掌握物理执行器的速度会更慢,而且我不确定我们是否该在 2030 年之前做到这一点。量化而言,我认为在 2030 年实现自主组装一辆按比例复制的法拉利的概率是 40%。 6. GPT-2030 的影响 接下来我们将分析像 GPT 2030 这样的系统对社会意味着什么。具备 GPT 2030 特征的系统至少会显著加速某些领域的研究,同时被滥用的规模也大得很。 我会从分析 GPT 2030 的一些一般优势和局限性开始,然后用来作为分析加速和滥用的视角。 优势。GPT 2030 代表的是一支庞大、适应性强、高产出的劳动力队伍。回忆一下吧,多个 GPT 2030 副本并行工作,按照 5 倍于人类的运行速度,可以完成 180 万年的工作。这意味着我们可以(受到并行性的限制)模拟 180 万个代理,每个代理在 2.4 个月内即可完成一年的工作。如上所述,对于 FLOP (浮点运算),我们可以开出 5 倍的费用,从而换取额外 25 倍的加速(这将达到人类速度的 125 倍),因此我们还可以模拟出 14000 个代理,这些代理每个都能在 3 天内完成一年的工作。 限制。利用这种数字劳动力存在三个障碍:技能情况、实验成本以及自主性。首先,GPT 2030 将拥有与人类不同的技能组合,导致它在某些任务上表现更差(但在其他任务上表现更好)。其次,模拟人工仍然需要与物理世界对接,以便收集数据,这个本身需要时间和计算成本。最后,在自主性方面,如今的模型在被“卡住”之前只能通过思维链生成几千个 token,进入到没法生成高质量输出的状态。在将复杂任务委托给模型之前,我们需要显著提高其可靠性。我预计可靠性会提高,但并非没有限制:我(非常粗略)的猜测是 GPT 2030 可以稳定运行数天(与人类等效的时间),然后就得重新设置或交给外部反馈控制。如果模型以 5 倍的速度运行的话,这意味着它们每隔几个小时就需要人工监督的介入。 因此,GPT 2030 影响最大的任务应该具备以下特性: 利用了 GPT 2030 相对于人类具备优势的技能。 只需要外部经验数据(收集应该很轻松快速,与昂贵的物理实验相反)的任务。 可以先验分解为可靠执行的子任务,或者具有清晰且可自动化的反馈指标来帮助引导模型的任务。 加速。有项任务这三条标准都很容易满足,那就是数学研究。首先,GPT 2030 可能具备超人的数学能力(第 1 节)。这第二条和第三条,数学可以纯粹通过思考和写作来完成,而且什么时候定理得到证明我们是知道。此外,全球的数学家总共也没多少(比方说美国就只有 3000 人左右),因此 GPT 2030 也许每隔几天模拟一次产出就能超过所有数学家的年产。 机器学习研究的一些重要部分也符合上述标准。GPT 2030 在编程方面能力超人,其中包括实施和运行实验。鉴于 GPT-4 擅长以通俗易懂的方式解释复杂的主题(并且市场对此也有很大需求),我猜它也能很好地呈现和解释实验结果。因此,届时机器学习研究可能会简化成构思出好的实验来运行,并与高质量(但可能不可靠)的结果报告进行交互。因此,到 2030 年时,研究生拥有的资源堪比今天带领几名优秀学生的教授手上的资源。 部分社会科学也可以得到显著加速。很多论文大部分的工作是对具备科学有趣性的数据源进行追查、分类和标记,并从中析取出重要模式。这满足了第 3 条要求,因为分类和标记可以分解为简单的子任务,并且也满足第 2 条要求,只要数据在互联网上能找到,或者可以通过在线调查收集到即可。 滥用。加速只是一方面,另一方面也会存在严重的滥用风险。最直接的案例是表现出网络攻击性的黑客能力。检查特定目标是否存在特定类型的漏洞可能会得到可靠执行,并且很容易就能检查漏洞利用是否成功(前提是能够与代码交互),因此第 3 条要求是都可以满足的。在第 2 条要求上,GPT 2030 需要与目标系统交互去了解漏洞利用是否有效,这会带来一些成本,但不足以构成重大瓶颈。此外,该模型可以在本地设计好,以开源代码作为训练数据源,去测试漏洞利用,因此它可以提前练好黑客攻击技能,然后再与外部系统进行交互。也就是说,GPT 2030 可以针对大量并行目标快速执行复杂的网络攻击。 滥用的第二个来源是操纵。如果 GPT 2030 同时与数百万用户进行交互的话,那么它在一个小时内获得的人机交互体验比人一生(100 万小时 = 114 年)获得的交互体验都要多。如果它利用这些交互来学习如何操纵,那么它就可以获得远超人类的操纵技能——打个比方,骗子擅长欺骗受害者,因为他们之前已经在数百人身上练习过,而 GPT 2030 可以将这项技能提高几个数量级。因此,它可能非常擅长在一对一对话中操纵用户,或者擅长撰写新闻文章来影响公众舆论。 因此,总而言之,GPT 2030 可以将几乎所有的数学研究以及其他研究领域的重要组成部分自动化,并且可能成为网络攻击和说服/操纵等滥用行为的强大载体。其大部分影响将受到“监督瓶颈”的限制,因此如果人工智能可以长时间自主运行的话,那么它的影响可能会更大。 来源:金色财经
lg
...
金色财经
2023-06-19
“对冲基金新王”格里芬:美国躲不过衰退 中国前景更加乐观
go
lg
...
ot。 然而,格里芬表示,当前这一代的
大型
语言
模型
对Citadel的交易策略“尚未产生有意义的影响”。 格里芬在多个场合谈到了人工智能的潜力,并表示他的公司正在就OpenAI的ChatGPT工具的企业范围许可进行谈判。 自去年11月推出以来,ChatGPT已经成为一种全球现象,几乎可以为任何类型的问题提供详细的答案。格里芬的对冲基金和电子做市商长期以来一直处于自动化和其他技术进步的前沿。 亚洲的机会 在其他华尔街公司评估投资之际,格里芬的公司一直在亚洲扩张。Citadel在亚太地区拥有近200名员工,Citadel Securities拥有250多名员工。 自疫情爆发以来,格里芬首次访问香港,会见了香港金融管理局总裁和证券及期货事务监察委员会首席执行官,讨论了香港作为国际金融中心的未来。他说,监管机构致力于“鼓励国内外公司的资本形成和参与”。 去年,他的公司在该市为一个不断扩大的团队抢购了额外的办公空间,而当时其他金融公司在疫情封锁和政治收紧期间纷纷撤退。 香港是Citadel和Citadel Securities在亚太地区最大的办事处,两家公司都有超过100名员工。 该公司正在等待监管机构批准在日本设立对冲基金业务。该公司计划将一些现有人才转移到该国,但也将在当地招聘,因为十多年前,该公司在全球金融危机期间关闭了在该国的业务。 Citadel Securities去年在东京开设了一家办事处,销售美国固定收益产品。 “从长远来看,我们的球队是由当地人才组建的,”格里芬说。
lg
...
忆芳
2023-06-15
AMD发布全新AI芯片:用更少的GPU训练更多模型
go
lg
...
越来越大,就需要多个GPU来运行最新的
大型
语言
模型
,而随着AMD芯片内存的增加,开发人员将不再需要那么多数量的GPU。此外,苏姿丰还表示,数据中心人工智能加速器的潜在市场总额将从今年的300亿美元增长到2027年的1500亿美元以上。
lg
...
金融界
2023-06-14
吵起来了?美国政府考虑加强人工智能监管,谷歌与微软意见不一
go
lg
...
他“不反对”设立一个新的监管机构来监督
大型
语言
模型
的许可,但他表示,政府应该“更全面地”看待这项技术。他说,国家标准与技术研究院已经做好了带头的准备。 谷歌和微软在监管问题上看似截然相反的观点表明人工智能领域的争论日益激烈,争论的范围远远超出了应该对这项技术进行多少监管,而是涉及到组织物流应该如何运作。 “有一个问题是,是否应该成立一个专门负责人工智能的新机构?”乔治城大学安全与新兴技术中心主任Helen Toner表示:“是应该与在特定领域工作的现有监管机构一起处理这个问题,还是应该对所有类型的人工智能进行集中管理?”
lg
...
Sue
2023-06-14
从提高生产力到噩梦场景:加密货币和人工智能可能重叠的10个领域
go
lg
...
难?) Qureshi 说,人工智能的
大型
语言
模型
使其“更容易攻击智能合约”。 与此同时,他补充说,也许人工智能也可以让智能合约“更容易防御”。 他还不知道会向哪个方向倾斜——没有人知道。 唯一可以肯定的是,AI 将被坏人武器化,被防御者用作盾牌;究竟谁赢了是一个悬而未决的问题。 然后是骗子。 “涉及人工智能的加密诈骗要复杂得多,”技术研究员和加密怀疑论者Pete Howson说。“例如,名人代言的‘深度造假’视频正在鼓励傻瓜投资下一个垃圾币。” 这不仅仅是猜测,它已经发生了。 Howson 继续说道:“2022 年 11 月,一个经过验证的 Twitter 账户冒充 Sam Bankman-Fried 发布了一段深度伪造视频,向 FTX 用户提供‘损失赔偿’,这是一个旨在耗尽他们加密钱包存款的网络钓鱼骗局。 欺诈者正在使用人工智能平台创建虚假交易网站。” 7.人工智能可以刺激元宇宙的发展 恕我直言 Apple 的 Vision Pro,元宇宙的基础设施仍然是一个有问题的半成品。 该空间需要更好的用户界面、更好的图像、更好的内容、更好的社区。 人工智能可以帮助解决所有这些问题,人工智能将大幅缩短构建沉浸式世界所需的时间,它甚至可以让这些世界充满类似人类的角色。 Nvidia 最近在游戏开发者社区中融入了面孔,例如,通过展示 AI 如何为与 NPC(非玩家角色)的实时对话提供动力,从而释放了构建世界的各种潜力。 “AI 可以帮助这些游戏变得更吸引人、更快,”Yilmaz 说。 8.人工智能可能会加剧加密货币对环境的担忧 好吧,也许这不是为了让任何事情“变得更好”,但我们应该承认环境影响的担忧和风险。 “就像加密货币一样,生成式人工智能平台也会消耗大量的能量”Howson 说。 “ChatGPT 的训练每小时消耗 1,287 兆瓦的电力,产生 550 吨二氧化碳。 这相当于一个人在纽约和旧金山之间往返 550 次。” 9. 人工智能代理可以使用加密货币 这是我最喜欢的。 Qureshi 设想,在未来,随着像 ChatGPT 这样的机器人变得更加先进,它们基本上将可以充当您的个人助理或代理。 他们可以为您预订航班、为您下即时购物车订单,或者在恰到好处的时候召唤您的 Uber。 (三年前,我采访了一位 Web3 企业家 Dele Atanda,他正是描述了这种情况。) 当然,其中一些可能适合当前的财务框架,但是当我的 AI 代理开始与您的 AI 代理进行交易呢? 或者,如果 AI 代理花钱的方式变得太复杂以至于法律或银行无法跟上怎么办? “他们需要钱,”Qureshi说,“摩根大通要为人工智能开设银行账户的想法是无稽之谈。” Qureshi 怀疑“法律不会及时跟上”,但加密货币已经是一种可以立即实施的功能性解决方案。 Whittemore也说过类似的话。他给出了一个假设:想象一下,你想开一家乐队标志钥匙扣的在线商店,而 AutoGPT(或你的 AI“代理”)设计了一组任务,其中一个可能是弄清楚它是如何变成 3D 的 打印钥匙扣。 “它可以将比特币发送到在后台自主运行的 3D 打印 AI 代理吗?” 如果 3D 打印代理遍布全球——这种情况经常发生——那么比特币将是比美元更优雅的解决方案。 因此,最终,经过多年寻求“采用”之后,第一个在大众市场使用加密货币进行交易的可能不是人类,而是机器。 10. 人工智能可以利用加密来实现噩梦场景 我们将讨论另一种不太乐观的可能性。 (“不太乐观”是轻描淡写。) 如果你一直对 AI 充满好奇,那么现在你可能已经听说过一个令人振奋的统计数据,即在一项针对 AI 研究人员的调查中,超过一半的人认为 AI 至少有 10% 的机会消灭人类。 (旁注:这个统计数据有点夸张,而且有些被误报,因为调查回复率仅为 4%,并不是真正具有代表性的科学家样本。但无论是 1% 的机会还是 10% 的机会,“噩梦场景” ”在很大程度上仍然是一个场景。) 加密货币可以在这场噩梦中发挥作用。 “随着对数字资产的更大依赖,人工智能代理可以轻松地改变金融机构,影响管理机构,或者在任何人都不知道的情况下推翻政府,”未来学家 Raczynski 说,他还认为人工智能可以在元宇宙中造成严重破坏。 Raczynski 担心人工智能的进步将使其很快超越人类的能力,“而区块链是一个推动因素。” 最后的想法 让我们总结一些不太像世界末日的事情。 尽管 AI 现在得到了风投的青睐,但与我交谈过的专家并不担心资金对 Web3 的影响。 “担心是一件愚蠢的事情,”Qureshi 说,他承认大量资金正以“天价”涌入 AI,但预计这不会对 Web3 生态系统造成实质性损害。 “美国有很多资本,”Qureshi 补充说,没有人可以直截了当地说,“我们没有足够的钱”。 最终,从更有希望的角度来看,Ahmed 认为人工智能和加密货币不存在竞争,而只是“工具箱中的工具”。 他们是免费的。 “他们之间并没有互相争斗,”Ahmed说。 “最终他们将被连接起来,就像电力被用来为互联网提供动力一样。” 来源:金色财经
lg
...
金色财经
2023-06-13
云服务巨头甲骨文公布第四季度财报 收入及预测均超华尔街预期 盘后股价一度飙升5%
go
lg
...
过20亿美元的甲骨文第二代云容量,用于
大型
语言
模型
(LLM)开发," 甲骨文董事长兼技术主管Larry Ellison表示该公司将推出一项与初创公司Cohere合作的生成式人工智能云服务,并使用Oracle的云基础设施。微软与初创公司OpenAI合作,提供Azure OpenAI服务,允许组织部署
大型
语言
模型
以接收人类输入并生成类似人类的回复。 Larry Ellison表示:“这项新服务保护我们企业客户的训练数据的隐私,使这些客户能够安全地使用自己的私有数据来训练自己的专业
大型
语言
模型
。”他表示,甲骨文已经开始在内部使用这个工具。 在本季度,甲骨文表示其更多的云服务已获得美国国防和情报机构的批准供其使用。 除了盘后交易的波动外,甲骨文股票今年迄今已上涨近43%,而标普500指数上涨约13%。 该股票在常规交易中上涨6%,为一年来表现最佳的一天,此前Wolfe Research分析师根据改善的财务状况以及公司在人工智能领域的地位,将该股票的评级从“持有”提升为“买入”。
lg
...
埃尔文
2023-06-13
上一页
1
•••
80
81
82
83
84
•••
108
下一页
24小时热点
特朗普就伊朗政权突然语出惊人!美国务院发布全球警报 黄金、原油开盘大涨
lg
...
中美突传重磅!华尔街日报独家:美国准备针对盟友的在华芯片工厂采取行动
lg
...
伊朗的杀手锏:恐封锁霍尔木兹海峡!全球市场严阵以待,鲍威尔本周驾到
lg
...
政府收入下降!中国卖地收入创十年新低,预算赤字扩大
lg
...
不要光盯着中东!本周这两件大事势必引爆黄金行情 FXStreet分析师金价走势分析
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论