全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
没有AI的Web3没有灵魂 ZKML如何重塑AI与区块链的关系
go
lg
...
艰巨的。这些挑战涵盖了多个方面,从保护
大型
语言
模型
(LLMs)输入的版权,到避免其输出中出现错误的偏见,再到我们目前无法准确区分真实内容和由人工智能创造的虚假信息所带来的“说谎者红利”。要确保人类不受人工智能的负面影响,没有简单的解决方法可言。任何解决方案都不能依赖于过时的20 世纪监管和技术框架来解决这些问题。我们迫切需要一个去中心化的治理系统,以应对在这个新时代如何生产、验证和分享信息的挑战。 无论目前的Web3是否能提供所需的解决方案,区块链技术确实在解决这些问题方面发挥了一定的作用。不可篡改的账本使我们能够追踪图像和其他内容的来源,从而防止深度伪造。这种技术也可以用于验证机器学习人工智能产品数据集的完整性。加密货币提供了一种无边界的数字支付方式,可用于向全球为人工智能培训做出贡献的人们提供报酬,如Bittensor等项目正在努力建立代币化的区块链-政府社区,以激励人工智能开发者构建对人类友好的模型。与此相反,私营公司拥有的人工智能系统通常将股东利益置于用户权益之上。 在这些想法能够实现并规模化之前,我们还有很长的路要走。我们将需要整合一系列其他技术,例如零知识证明(ZK)、同态加密、安全计算、数字身份和去中心化凭证(DID)、物联网等。此外,我们还需要解决隐私保护、惩罚不良行为、鼓励以人为本的创新智能以及多方立法监管等诸多挑战。 二、ZKML如何架起AI和区块链的桥梁 近期,源自零知识证明和机器学习的新兴结合体ZKML被广泛讨论。目前,机器学习(ML)的部署变得越来越复杂。很多企业主要依赖于亚马逊、谷歌、微软等服务提供商来部署复杂的机器学习模型。然而,这些服务变得越来越难以审计和理解。作为AI服务的消费者,我们如何相信这些模型所提供预测的有效性呢? ZKML作为人工智能和区块链之间的桥梁,解决了AI模型和输入的隐私保护问题,同时确保了推理过程的可验证性。它提供了一种解决方案,使得可以在验证私有数据时使用公共模型,或在验证私有模型时使用公共数据。通过添加机器学习功能,智能合约能够变得更加自主和动态,使其能够根据实时链上数据而不是静态规则进行处理。这样一来,智能合约将更具灵活性,能够适应更多场景,甚至是那些在最初创建合约时可能没有预料到的场景。 当前,机器学习算法在区块链上广泛采用的困难之一是其高昂的计算成本。由于百万级别的浮点运算无法直接在以太坊虚拟机(EVM)上执行,因此在链上运行这些模型成为一个挑战。另外,机器学习模型的信任问题也是一个障碍,因为模型的参数和输入数据集通常是私有的,而模型的算法和运行过程又如同一个不透明的“黑匣子”,这可能引发模型拥有者和模型使用者之间的信任问题。然而,通过ZKML技术,我们可以克服这些问题。ZKML允许任何人在链下运行一个模型,并生成一个简洁且可验证的证明,证明该模型确实产生了特定的结果。这个证明可以在链上发布,并由智能合约进行验证。这意味着模型使用者可以验证模型的结果,而无需了解模型的具体参数和运行细节,从而解决了信任问题。 通过上述图表,我们可以看到ZKML技术兼具计算完整性、启发式优化和隐私保护等特点。这种技术在Web3领域有着广泛的应用前景,并且正在快速发展。越来越多的团队和个人加入了这个领域,推动着各种潜力巨大的ZKML项目的开发。 三、ZKML项目分析 以下是一些潜力ZKML项目。 1 、Worldcoin Worldcoin正在应用ZKML,试图建立一个保护隐私的人格证明协议。World ID 用户将能够在他们的移动设备的加密存储中自我保管其生物特征(如虹膜),下载用于生成 IrisCode 的 ML 模型并在本地创建零知识证明,接收的智能合约可以证明其 IrisCode 已成功创建。 然后,可用于执行有用的操作,如成员资格认证和投票。他们目前使用具有安全enclave的可信运行环境来验证摄像头签名的虹膜扫描,但他们最终的目标是使用ZKP来证明神经网络对加密级别安全保障的正确推理,并且保证ML模型的输出不会泄露用户的个人数据。 2 、Modulus Labs Modulus Labs是ZKML领域中最多样化的项目之一,致力于相关研究的同时也在积极构建链上AI应用范例,Modulus Labs通过RockyBot(链上交易机器人)和Leela vs. the World(一种国际象棋游戏,所有人与经验证的Leela国际象棋引擎实例对决)展示了zkML的用例。该团队还涉足研究领域,撰写了The Cost of Intelligence(智能的成本)一文,对不同大小模型的各种验证系统的速度和效率进行了基准测试。 3 、Giza Giza是一种可以以一种完全无需信任的方法在链上部署AI模型的协议。它使用的技术栈包括用于机器学习模型的ONNX格式,用于将这些模型转换为Cairo程序格式的Giza Transpiler,用于以可验证和确定性的方式执行模型的ONNX Cairo Runtime,以及用于部署和执行链上模型的Giza Model智能合约。Giza总体上属于机器学习模型到证明的链上编译器,为链上AI的发展提供一个替代路径。 4 、Zkaptcha Zkaptcha 专注于 Web3 中的机器人问题,为智能合约提供captcha(验证码)服务,保护智能合约免受机器人攻击,使用零知识证明来创建抗女巫攻击的智能合约。目前,该项目使终端用户通过完成captcha验证码来产生一个人类工作的证明,captcha由链上验证者验证,并通过几行代码由智能合约访问。未来,Zkaptcha 将继承 zkML,推出类似于现有的 Web 2 验证码服务,甚至可以分析鼠标运动等行为,以确定用户是否为真人。 目前看来,zkML赛道还处于初级阶段,但我们有理由相信会 zkML 的力量可以给 crypto 带来更好的前景和发展,也期待该领域能出现更多样的产品,zk 技术和 crypto 为 ML 的运行提供安全可信的环境,而未来除了产品的创新之外,还可能会催生 crypto 商业模式的创新,因为在这个狂野和无政府的 Web 3 世界中,去中心化、crypto 技术和信任才是最最基础的设施。 结语 在日益复杂和不确定的数字世界中建立信任,一直是人工智能和Web3所面临的核心挑战。然而,将人工智能与Web3相融合却为建立一个信任、安全的去中心化未来带来了巨大希望。对于开发者、技术专家、政策制定者和整个社会而言,共同塑造人工智能和Web3的未来至关重要,我们或许可以创造出一个超乎想象的智能互联网时代。 Reference https://worldcoin.org/blog/engineering/intro-to-zkml#motivation-and-current-efforts-in-zkml https://github.com/worldcoin/awesome-zkml https://www.coindesk.com/consensus-magazine/2023/05/19/why-web3-and-the-ai-internet-belong-together/ 版权声明:如需转载欢迎加小助理微信沟通,未经允许转载、洗稿、我方将保留追究法律责任的权利。 免责声明:市场有风险,投资需谨慎。请读者在考虑本文中的任何意见、观点或结论时严格遵守所在地法律法规,以上内容不构成任何投资建议。 来源:金色财经
lg
...
金色财经
2023-06-11
没有AI的Web3没有灵魂 ZKML如何重塑AI与区块链的关系
go
lg
...
艰巨的。这些挑战涵盖了多个方面,从保护
大型
语言
模型
(LLMs)输入的版权,到避免其输出中出现错误的偏见,再到我们目前无法准确区分真实内容和由人工智能创造的虚假信息所带来的“说谎者红利”。要确保人类不受人工智能的负面影响,没有简单的解决方法可言。任何解决方案都不能依赖于过时的20世纪监管和技术框架来解决这些问题。我们迫切需要一个去中心化的治理系统,以应对在这个新时代如何生产、验证和分享信息的挑战。 无论目前的Web3是否能提供所需的解决方案,区块链技术确实在解决这些问题方面发挥了一定的作用。不可篡改的账本使我们能够追踪图像和其他内容的来源,从而防止深度伪造。这种技术也可以用于验证机器学习人工智能产品数据集的完整性。加密货币提供了一种无边界的数字支付方式,可用于向全球为人工智能培训做出贡献的人们提供报酬,如Bittensor等项目正在努力建立代币化的区块链-政府社区,以激励人工智能开发者构建对人类友好的模型。与此相反,私营公司拥有的人工智能系统通常将股东利益置于用户权益之上。 在这些想法能够实现并规模化之前,我们还有很长的路要走。我们将需要整合一系列其他技术,例如零知识证明(ZK)、同态加密、安全计算、数字身份和去中心化凭证(DID)、物联网等。此外,我们还需要解决隐私保护、惩罚不良行为、鼓励以人为本的创新智能以及多方立法监管等诸多挑战。 二、ZKML如何架起AI和区块链的桥梁 近期,源自零知识证明和机器学习的新兴结合体ZKML被广泛讨论。目前,机器学习(ML)的部署变得越来越复杂。很多企业主要依赖于亚马逊、谷歌、微软等服务提供商来部署复杂的机器学习模型。然而,这些服务变得越来越难以审计和理解。作为AI服务的消费者,我们如何相信这些模型所提供预测的有效性呢? ZKML作为人工智能和区块链之间的桥梁,解决了AI模型和输入的隐私保护问题,同时确保了推理过程的可验证性。它提供了一种解决方案,使得可以在验证私有数据时使用公共模型,或在验证私有模型时使用公共数据。通过添加机器学习功能,智能合约能够变得更加自主和动态,使其能够根据实时链上数据而不是静态规则进行处理。这样一来,智能合约将更具灵活性,能够适应更多场景,甚至是那些在最初创建合约时可能没有预料到的场景。 当前,机器学习算法在区块链上广泛采用的困难之一是其高昂的计算成本。由于百万级别的浮点运算无法直接在以太坊虚拟机(EVM)上执行,因此在链上运行这些模型成为一个挑战。另外,机器学习模型的信任问题也是一个障碍,因为模型的参数和输入数据集通常是私有的,而模型的算法和运行过程又如同一个不透明的“黑匣子”,这可能引发模型拥有者和模型使用者之间的信任问题。 然而,通过ZKML技术,我们可以克服这些问题。ZKML允许任何人在链下运行一个模型,并生成一个简洁且可验证的证明,证明该模型确实产生了特定的结果。这个证明可以在链上发布,并由智能合约进行验证。这意味着模型使用者可以验证模型的结果,而无需了解模型的具体参数和运行细节,从而解决了信任问题。 通过上述图表,我们可以看到ZKML技术兼具计算完整性、启发式优化和隐私保护等特点。这种技术在Web3领域有着广泛的应用前景,并且正在快速发展。越来越多的团队和个人加入了这个领域,推动着各种潜力巨大的ZKML项目的开发。 三、ZKML项目分析 以下是一些潜力ZKML项目。 1、Worldcoin Worldcoin正在应用ZKML,试图建立一个保护隐私的人格证明协议。World ID 用户将能够在他们的移动设备的加密存储中自我保管其生物特征(如虹膜),下载用于生成 IrisCode 的 ML 模型并在本地创建零知识证明,接收的智能合约可以证明其 IrisCode 已成功创建。 然后,可用于执行有用的操作,如成员资格认证和投票。他们目前使用具有安全enclave的可信运行环境来验证摄像头签名的虹膜扫描,但他们最终的目标是使用ZKP来证明神经网络对加密级别安全保障的正确推理,并且保证ML模型的输出不会泄露用户的个人数据。 2、Modulus Labs Modulus Labs是ZKML领域中最多样化的项目之一,致力于相关研究的同时也在积极构建链上AI应用范例,Modulus Labs通过RockyBot(链上交易机器人)和Leela vs. the World(一种国际象棋游戏,所有人与经验证的Leela国际象棋引擎实例对决)展示了zkML的用例。该团队还涉足研究领域,撰写了The Cost of Intelligence(智能的成本)一文,对不同大小模型的各种验证系统的速度和效率进行了基准测试。 3、Giza Giza是一种可以以一种完全无需信任的方法在链上部署AI模型的协议。它使用的技术栈包括用于机器学习模型的ONNX格式,用于将这些模型转换为Cairo程序格式的Giza Transpiler,用于以可验证和确定性的方式执行模型的ONNX Cairo Runtime,以及用于部署和执行链上模型的Giza Model智能合约。Giza总体上属于机器学习模型到证明的链上编译器,为链上AI的发展提供一个替代路径。 4、Zkaptcha Zkaptcha 专注于 Web3 中的机器人问题,为智能合约提供captcha(验证码)服务,保护智能合约免受机器人攻击,使用零知识证明来创建抗女巫攻击的智能合约。目前,该项目使终端用户通过完成captcha验证码来产生一个人类工作的证明,captcha由链上验证者验证,并通过几行代码由智能合约访问。未来,Zkaptcha 将继承 zkML,推出类似于现有的 Web 2 验证码服务,甚至可以分析鼠标运动等行为,以确定用户是否为真人。 目前看来,zkML赛道还处于初级阶段,但我们有理由相信会 zkML 的力量可以给 crypto 带来更好的前景和发展,也期待该领域能出现更多样的产品,zk 技术和 crypto 为 ML 的运行提供安全可信的环境,而未来除了产品的创新之外,还可能会催生 crypto 商业模式的创新,因为在这个狂野和无政府的 Web 3 世界中,去中心化、crypto 技术和信任才是最最基础的设施。 结语 在日益复杂和不确定的数字世界中建立信任,一直是人工智能和Web3所面临的核心挑战。然而,将人工智能与Web3相融合却为建立一个信任、安全的去中心化未来带来了巨大希望。对于开发者、技术专家、政策制定者和整个社会而言,共同塑造人工智能和Web3的未来至关重要,我们或许可以创造出一个超乎想象的智能互联网时代。 Reference https://worldcoin.org/blog/engineering/intro-to-zkml#motivation-and-current-efforts-in-zkml https://github.com/worldcoin/awesome-zkml https://www.coindesk.com/consensus-magazine/2023/05/19/why-web3-and-the-ai-internet-belong-together/ 来源:金色财经
lg
...
金色财经
2023-06-10
Outlier Ventures Base Camp加速器最新一期6个项目速览
go
lg
...
terr Assisterr是一个使用
大型
语言
模型
和GPT模型的AI助手,通过社交、新闻、链上和金融数据源生成用户定制的研究报告和市场洞察,专注于为经验丰富的交易者生成加密市场分析和定制的投资组合市场表现报告。他们的技术利用
大型
语言
模型
和GPT模型,从社交、新闻、链上和金融数据源获取信息,生成用户定制的研究报告和市场洞察。他们提供免费和付费的服务模式,为标准、高级和专业交易者提供不同层次的软件即服务。 Bubble Bubble是一个连接Web3社区与各种Web3应用和通信协议的通信层。他们的全渠道方法使社区管理人员能够通过Web3应用、钱包、市场以及Web2平台(如电子邮件、Twitter和Discord)向其社区广播消息,包括社区公告、抽奖和发行信息等。他们专注于商业模式。 Continuum Continuum是一个通过短期课程和奖励使职业学习变得快速、有趣和社交化的学习平台。Continuum与Web3品牌合作,在其网站上构建和发布引人入胜的教育内容。学习者可以在与品牌相关的领域提高自己的技能,并以加密货币、代币和NFT的形式获得奖励。这种方法结合了教育、游戏化和激励机制,鼓励学习者参与内容并在链上发展他们的技能。 OkTY OkTY是一个数据驱动的平台,为品牌逆转用户流失、提高转化率并增加用户黏性;同时帮助其Z世代用户将数据变现,用于购买他们喜爱的品牌的产品和服务。为了实现这一目标,OkTY创建了一套产品,包括独特的以你的数据支付的工具,为品牌提供更高的投资回报率。OkTY能够无缝集成到在线商店和订阅合作伙伴中,让客户选择分享他们的数据并将其转化为价值(现金/数字货币),用于在其偏爱的零售商、创作者或订阅平台进行购买。通过这样做,OkTY优化了品牌的广告支出,最大限度地提高了客户参与度,并增加了销售业绩。 Contented Contented为品牌提供了一种更好、更快、更经济高效的方式来吸引和奖励创作者。它的去中心化生态系统促进合作,利用人工智能增强创意才能,并将更多的权力和利润交到专业和新兴创意人才手中。这个社区驱动的平台将成为买家、创意人和Web3建设者的首选内容平台。 Neuron Neuron是一个Web3协议,允许软件应用发现和连接物联网设备。该协议奖励设备贡献者,降低开发者进入门槛,并旨在符合所有社区成员的利益。 来源:金色财经
lg
...
金色财经
2023-06-08
微软宣布为美国Azure政府平台客户提供GPT-4及GPT-3两种人工智能模型
go
lg
...
平台客户现在可以使用OpenAI的两种
大型
语言
模型
,包括这家初创公司最新、最强大的模型GPT-4及通过微软Azure OpenAI服务的早期模型GPT-3。 总部位于华盛顿雷德蒙德的OpenAI公司计划于周三发布一篇博客文章,尽管没有透露预计在发布会上使用
大型
语言
模型
的具体美国机构的名字,但国防部、能源部和美国国家航空航天局都是Azure政府平台的联邦政府客户。 国防技术信息中心是国防部的一部分,专注于收集和分享军事研究,将通过微软的新产品对OpenAI模型进行试验,一名DTIC官员证实。 微软已经向其商业客户提供了OpenAI模型,最近几个月Azure OpenAI服务增长迅速。微软5月份表示,该服务的客户从上一季度的2500个大幅增加到4500个,其中包括沃尔沃(Volvo AB)、宜家(Ikea)、梅赛德斯-奔驰集团(Mercedes-Benz Group AG)和壳牌(Shell Plc),周三宣布的这一举措是一家大公司首次将聊天机器人技术广泛应用于美国政府。 自2022年底OpenAI的ChatGPT聊天机器人公开发布以来,人们对
大型
语言
模型
的兴趣激增。
大型
语言
模型
是在大量互联网数据上进行训练的,这样它们就可以预测并对用户提示产生类似人类的反应。从那以后,大大小小的科技公司开始向用户提供功能强大的聊天机器人,国会也爆发了关于是否以及如何监管人工智能的讨论。 微软的Bill Chappell在博客中写道,联邦、州和地方政府的客户可以使用OpenAI的GPT-4和GPT-3模型来完成诸如生成研究问题的答案、生成计算机代码和总结现场报告等任务。一位微软发言人证实,虽然他们将能够使用具有聊天界面的模型,但Azure政府用户将无法访问ChatGPT。ChatGPT通常通过Azure OpenAI服务提供,Chappell此前曾在美国国防高级研究计划局(DARPA)工作。 微软在商业云计算空间中托管OpenAI模型,这与Azure政府平台客户使用的云是分开的,Azure政府平台遵守各种特定的安全和数据遵从规则。 Chappell写道,由于微软在Azure基础设施中托管这些模型,发送给它们的任何数据都保留在Azure OpenAI服务中,并补充说,来自Azure政府客户的数据不会用于训练人工智能模型。
lg
...
Sue
2023-06-08
a16z创始人万字长文:为什么AI会拯救世界
go
lg
...
现在还有像ChatGPT这样的人工智能
大型
语言
模型
,而且从现在开始,它将迅速加速——如果我们允许的话。 在我们的人工智能新时代中: • 每个孩子都将拥有一个无穷耐心、无穷同情、无穷知识、无穷帮助的人工智能导师。这个人工智能导师将在每个孩子的成长过程中一直陪伴在他们身边,帮助他们充分发挥自己的潜力,提供无尽的爱。 • 每个人都将拥有一个无穷耐心、无穷同情、无穷知识、无穷帮助的人工智能助手/教练/导师/训练师/顾问/治疗师。这个人工智能助手将在人生的各种机遇和挑战中一直存在,最大程度地提高每个人的成果。 • 每个科学家都将拥有一个能够大大扩展他们科学研究和成就范围的人工智能助手/合作者/伙伴。每个艺术家、工程师、商人、医生和护理人员的世界也将如此。 • 每个领导者——CEO、政府官员、非营利组织主席、运动教练、教师——也将如此。领导者的更好决策所产生的放大效应是巨大的,因此智能增强可能是最重要的。 • 整个经济的生产率增长将大大加速,推动经济增长、新产业的创造、新工作的创造和工资增长,从而实现地球上物质繁荣的新时代。 • 科学突破、新技术和新药物将大幅扩展,因为人工智能帮助我们进一步解码自然法则并将其用于我们的利益。 • 创意艺术将进入黄金时代,因为受到人工智能增强的艺术家、音乐家、作家和电影制作人能够以比以往更快、更大规模实现他们的愿景。 • 我甚至认为人工智能将改善战争,当它不得不发生时,通过大大降低战时死亡率。每场战争都以非常有限的人类领导者在极度压力和信息有限的情况下做出可怕的决策为特征。现在,军事指挥官和政治领导人将有人工智能顾问,帮助他们做出更好的战略和战术决策,最小化风险、错误和不必要的流血。 • 简而言之,人们今天用自己的自然智能做的任何事情,通过人工智能都能做得更好,我们将能够接手那些没有人工智能无法解决的新挑战,从治愈所有疾病到实现星际旅行。 • 而且这不仅仅涉及智能!人们最低估的人工智能质量也许是它的人性化。人工智能艺术给那些本来缺乏技术技能的人自由创作和分享他们的艺术思想。与富有同理心的人工智能朋友交谈确实能提高他们应对逆境的能力。而且,与人类对比,人工智能医疗聊天机器人已经更富同情心。无限耐心和同情心的人工智能将使世界变得更加温暖、更加友好。 这里的利害关系重大,机遇深远。人工智能很可能是我们文明有史以来最重要、最好的事物,至少与电力和微芯片不相上下,甚至可能更超越它们。 发展和普及人工智能——并远离我们应该害怕的风险——是我们对自己、对我们的孩子和对我们的未来的道义义务。 我们应该生活在一个有了人工智能的更好的世界,现在我们可以实现这个目标。 那么,为什么会引发恐慌? 与这种积极的观点相反,目前关于人工智能的公众对话充斥着恐慌和偏执。 我们听到各种声称人工智能将毁灭我们所有人、破坏我们的社会、夺走我们的工作、导致严重的不平等,并使坏人做出可怕的事情。 为什么在潜在的结果中存在着这种从接近乌托邦到可怕的反乌托邦的分歧呢? 从历史上看,每一项重要的新技术,从电灯到汽车、从收音机到互联网,都引发了道德恐慌——一种社会传染,让人们相信新技术将摧毁世界,或者社会,或者两者都会毁灭。悲观主义档案馆的优秀人员已经记录了这些几十年来由技术驱动的道德恐慌事件;他们的历史清晰地显示出这种模式。事实证明,现在对于人工智能的恐慌甚至不是第一次出现。 现在,确实有许多新技术导致了不良后果——通常是那些对我们福利有巨大好处的技术。所以,并不是说道德恐慌的存在就意味着没有任何需要担心的事情。 但是,道德恐慌本质上是非理性的——它将可能是合理关切的问题夸大成一种歇斯底里的程度,讽刺的是,这使得我们更难以面对真正严重的问题。 现在我们正处于对人工智能的一场全面的道德恐慌中。 这场道德恐慌已经被多种行为者利用为推动政策行动——推动制定新的人工智能限制、规定和法律。这些行为者正在公开发表关于人工智能危险的极端戏剧化的言论——它们以此滋养并进一步煽动道德恐慌——它们都自诩为无私的公益捍卫者。 但他们真的是这样吗? 他们是对还是错? 人工智能的浸礼会和私酒贩子 经济学家观察到,在这类改革运动中存在一种长期以来的模式。这些运动中的行动者可以分为两类——“浸礼会”和“私酒贩子”,这是基于20世纪20年代美国禁酒令的历史例子: • “浸礼会”是真正的信徒社会改革者,他们深深而情感上(尽管不一定是理性上)相信,需要采取新的限制、规章和法律来防止社会灾难。对于禁酒令来说,这些行动者通常是真诚的基督徒,他们认为酒精正在破坏社会的道德结构。对于人工智能风险来说,这些行动者是真正相信人工智能会带来一种或另一种生存风险的人——如果将他们绑在测谎仪上,他们是真心相信的。 • “私酒贩子”是自利的机会主义者,他们在新的限制、规章和法律实施后可以从中获利,并使自己免受竞争对手的影响。对于禁酒令来说,这些人是指那些在合法酒类销售被禁止时,通过非法销售酒精赚取巨额财富的走私者。对于人工智能风险来说,这些人是指那些如果建立起一种由政府批准的人工智能供应商组成的垄断联盟,并受到新创企业和开源竞争的保护,那么他们可以赚更多钱的首席执行官们——这是“太大而不能失败”的银行的软件版本。 愤世嫉俗的人可能会认为,一些表面上的浸礼会也是私酒贩子——特别是那些受他们的大学、智库、活动组织和媒体机构支付薪水或获得拨款来攻击人工智能的人。如果你获得薪水或拨款来煽动人工智能恐慌,你很可能是个走私者。 私酒贩子的问题在于他们会取得胜利。浸礼会是天真的意识形态信奉者,私酒贩子是愤世嫉俗的运作者,因此,这类改革运动的结果通常是私酒贩子得到了他们想要的——获得监管控制、免受竞争的保护、形成垄断,而浸礼会则对社会改善的推动感到困惑。 我们刚刚经历了一个令人震惊的例子——2008年全球金融危机后的银行改革。浸礼会告诉我们,我们需要新的法律和规章来解散“太大而不能失败”的银行,以防止类似危机再次发生。因此,美国国会通过了2010年的多德-弗兰克法案,这被宣传为满足洗礼者目标的法案,但实际上被走私者——大银行——利用了。结果是,2008年那些“太大而不能失败”的银行现在变得更加庞大。 因此,在实践中,即使浸礼会是真诚的,即使浸礼会是正确的,他们也会被狡猾和贪婪的走私者利用,以使自己受益。 这正是当前推动人工智能监管的情况。 然而,仅仅识别行动者并对其动机进行指责是不够的。我们应该根据浸礼会和私酒贩子的论点进行评估。 AI风险 1:人工智能会杀死我们吗? 第一个和最早的人工智能末日风险是人工智能将决定杀死人类的担忧。 我们对技术自身将会崛起并摧毁我们的恐惧在我们的文化中根深蒂固。希腊人通过普罗米修斯神话表达了这种恐惧——普罗米修斯给人类带来了破坏性的火焰力量,更一般地说是技术("techne"),因此普罗米修斯被神永远地折磨。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》中为现代人创造了我们自己的这个神话版本,其中我们开发了永生的技术,然后这个技术崛起并试图摧毁我们。当然,关于人工智能的恐慌报纸报道中必不可少的是詹姆斯·卡梅隆的《终结者》电影中一个闪闪发光的红眼杀人机器人的静止图像。 这个神话的假设进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但是,就像火同时也是现代文明的基础一样,用来保暖和保护我们在寒冷和充满敌意的世界中,这个神话忽视了大多数甚至可能所有新技术的更大优势,并实际上引起了破坏性情绪而不是理性分析。只因为古人像这样恐慌不安,并不意味着我们也要恐慌;我们可以运用理性。 我认为人工智能会决定杀死人类的想法是一个深刻的范畴错误。人工智能不是经历了数十亿年演化来参与适者生存之争的活生生的存在,如同动物和我们自己。它是数学——代码——计算机,由人类构建、拥有、使用和控制。认为它会在某个时刻发展出自己的思想,并决定它有导致它试图杀死我们的动机是一种迷信的挥手。 简而言之,人工智能没有意愿、没有目标,它不想杀死你,因为它不是活的。人工智能是一台机器——不会比你的烤面包机更有生命。 现在,显然,有些人对人工智能杀手深信不疑——浸入它们的可怕警告的媒体报道突然疯狂增加,其中一些人声称他们研究这个主题已经几十年了,现在对他们所了解的内容感到恐惧不安。其中一些真正相信者甚至是技术的实际创新者。这些人主张对人工智能实施各种离奇而极端的限制,从禁止人工智能的发展一直到对数据中心进行军事空袭和核战争。他们主张,因为像我这样的人无法排除人工智能未来可能造成的灾难性后果,我们必须采取一种预防性的立场,可能需要大量的实体暴力和死亡,以防止潜在的存在风险。 我的回应是,他们的立场是非科学的——有什么可测试的假设?什么样的事实可以证明这个假设是错误的?我们如何知道我们何时进入了危险区域?这些问题基本上得不到回答,除了"你无法证明它不会发生!"实际上,这些浸礼会的立场是如此非科学和极端——一个关于数学和代码的阴谋论——他们已经呼吁实施物理暴力,所以我将做一件我通常不会做的事情,质疑他们的动机。 具体而言,我认为有三件事情正在发生: 首先,回想一下约翰·冯·诺伊曼对罗伯特·奥本海默关于他在创造核武器方面的担忧的回应——这有助于结束了第二次世界大战并阻止了第三次世界大战。他说:"有些人为了声称他们的罪行而承认罪行。"什么是以夸张的方式声称自己工作的重要性而不显得过于自夸的最好方式呢?这解释了那些实际上正在建造和资助人工智能的浸礼会的言行不一致——观察他们的行动,而不是他们的言辞。(杜鲁门在与奥本海默会面后更加严厉地说:"别让那个爱哭鬼再进来。") 其次,一些浸礼会实际上是私酒贩子。有一个完整的职业称为"人工智能安全专家"、"人工智能伦理学家"、"人工智能风险研究员"。他们的工作是成为末日预言者,并且应该适当地对待他们的陈述。 第三,加利福尼亚州以众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。其中许多,尽管不是所有,邪教是无害的,甚至为在其中找到归宿的疏离感的人提供了帮助。但有些非常危险,邪教往往很难在导致暴力和死亡的那条线上徘徊。 而现实情况是,显然对湾区的每个人都很明显,"人工智能风险"已经演变成一个邪教,突然出现在全球媒体的关注和公众讨论中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它发展出了一套完整的邪教行为和信仰。 这个邪教不是什么新鲜事——有一个长期存在的西方传统称为千禧年主义,它产生了启示录邪教。"人工智能风险"邪教具有千年主义启示录邪教的所有特征。从维基百科来看,我做了一些补充: "千禧年主义是一种由一组或运动[人工智能风险预言者]相信社会即将发生根本性转变[人工智能的到来]的信仰,在此之后,一切都将改变[人工智能的乌托邦、反乌托邦或世界末日]。只有戏剧性的事件[对人工智能的禁令、对数据中心的空袭、对非受控人工智能的核打击]被认为能够改变世界[阻止人工智能],而这种变革被认为将由一群虔诚和忠诚的人带来或幸存下来。在大多数千禧年主义情节中,即将到来的灾难或战斗[人工智能的启示或预防]将在之后紧随着一个新的、洁净的世界[人工智能的乌托邦]。” 这种世界末日教派的模式是如此明显,以至于我很惊讶为什么更多的人没有看到。 不要误会,教派是有趣的,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上也很有魅力。但是他们的极端信仰不应决定法律和社会的未来-显然不应如此。 AI风险2:AI会摧毁我们的社会吗? 广为流传的第二个AI风险观点是,AI将通过产生“有害”的结果(以此类末日论者的说法)来毁灭我们的社会,即使我们并非真正被杀害。 简而言之:如果机器杀手没有伤害我们,仇恨言论和错误信息也会伤害我们。 这是一个相对较新的末日论关注点,它从上面我描述的“AI风险”运动中分支出来,并在一定程度上占据主导地位。实际上,AI风险的术语最近从“AI安全”(由那些担心AI会真正杀死我们的人使用的术语)变为“AI对齐”(由那些担心社会“危害”的人使用的术语)。原始的AI安全人士对这种转变感到沮丧,尽管他们不知道如何将其收回,但他们现在主张将实际的AI风险主题更名为“AI不杀伤所有人主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。 AI社会风险主张的提示是其自己的术语“AI对齐”。与什么对齐?人类价值观。哪些人类价值观?哦,这就是事情变得棘手的地方。 恰好,我亲眼目睹了类似情况——社交媒体“信任和安全”战争。显而易见的是,多年来,社交媒体服务一直受到政府和活动家的巨大压力,要求他们禁止、限制、审查和压制各种内容。而且“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的担忧直接从社交媒体背景转移到了“AI对齐”的新领域。 我从社交媒体战争中学到的重要经验是: 一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将至少某些内容视为非法。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力,几乎被几乎所有社会普遍认为是禁区的内容——无论其是否合法。因此,任何促进或生成内容-言论-的技术平台都将有一些限制。 另一方面,滑坡效应不是谬见,而是必然。一旦建立了对甚至极为糟糕的内容进行限制的框架——例如对仇恨言论,对某些有伤害性的词汇,或对错误信息,显然虚假的主张(比如“教皇去世了”)——各种政府机构、活动家压力团体和非政府实体将迅速行动起来,要求越来越大的审查和压制对他们认为对社会和/或他们个人偏好构成威胁的言论。他们会以包括公然犯罪在内的方式这样做。这种循环在实践中似乎可以永远进行下去,得到我们精英权力结构中充满热情的官方监控员的支持。社交媒体领域的这种情况已经持续了十年,并且除了某些例外情况外,这种情况也在不断加剧。 因此,现在“AI对齐”周围形成了这种动态。其拥护者声称拥抱对社会有益的工程化AI生成的言论和思想的智慧,并禁止对社会有害的AI生成的言论和思想。其反对者声称,思想警察极度傲慢和专横,并且通常是公然犯罪,至少在美国是如此,并且实际上试图成为一种新的由政府-企业-学术融合的权威言论独裁,直接来到乔治·奥威尔的《1984》。 由于“信任和安全”以及“AI对齐”的支持者都集中在以美国沿海精英为特征的全球人口非常狭窄的一部分中,其中包括许多在科技行业工作和撰写文章的人。因此,我的很多读者会发现自己有条件争辩,认为需要对AI输出进行大规模限制以避免破坏社会。我现在不会试图说服你们,我只会简单地说这就是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你们胜利。 如果你不同意当前通过不断加剧的言论规范对社交媒体和AI施加的狭窄道德观念,你还应该意识到,AI被允许说什么/生成什么的斗争将比对社交媒体审查的斗争更重要,远远更重要。AI极有可能成为世界上一切的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一小撮孤立的党派社会工程师正在试图在追求保护你的旧说辞的掩护下决定现在的AI应该如何操作。 简而言之,不要让思想警察压制AI。 AI风险3:AI会抢走我们所有的工作吗? 由于机械化、自动化、电脑化或人工智能等各种形式的机器取代人力劳动,人们一直担心失去工作的问题。这种担忧已经持续了数百年,自从出现了机械织布机等机械装置以来。尽管每一项新的重大技术在历史上都会带来更多的高薪工作,但每一波恐慌的出现都伴随着“这一次与以往不同”的说法——这一次会发生,这一次是技术终将给人类劳动以致命打击的时候。然而,这种情况从未发生过。 在最近的过去,我们经历了两次技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多传媒人士、专家和甚至技术行业高管都不断敲打桌子,声称大规模失业即将来临,但在2019年年底——也就是COVID爆发之前——世界上的工作机会比历史上任何时候都要多,而且工资也更高。 然而,这个错误的想法却不会消失。 果不其然,它又回来了。 这一次,我们终于拥有了能夺走所有工作并使人类劳动变得无关紧要的技术——真正的人工智能。当然,这一次历史不会简单重复,这一次是:人工智能将导致大规模失业,而不是经济迅速增长、就业机会增多和工资水平上升。对不对? 不是这样,这种情况肯定不会发生,如果允许人工智能在整个经济中得以发展和推广,它可能会导致有史以来最激动人心和持续时间最长的经济繁荣,相应地带来创纪录的就业机会和工资增长——恰恰与人们的担忧相反。原因如下。 自动化杀死就业论者一直在犯的核心错误被称为“劳动总量谬误”。这种谬误是指在任何特定时间内经济中需要完成的劳动量是固定的,要么由机器完成,要么由人类完成,如果由机器完成,那么人们就没有工作可做。 劳动总量谬误是自然而然地从直觉产生的,但这种直觉是错误的。当技术应用于生产时,我们获得了生产力增长——通过减少输入产生的产出增加。结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——从而为被机器替代的人们创造了新的工作机会。结果是经济规模扩大,物质繁荣增加,产业增加,产品增加,就业机会增多。 但好消息不仅如此。我们还获得了更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力确定报酬。在技术融入的行业中,一名工人的生产力比传统行业的工人更高。雇主要么会根据工人的提高生产力而支付更多的钱,要么另一家雇主会出于纯粹的自利而这样做。结果是,引入技术的行业不仅会增加就业机会,而且会提高工资。 总之,技术使人们能够更加高效地工作。这导致现有商品和服务的价格下降,工资上涨。这反过来又促进了经济增长和就业增长,并激励了新的工作和新产业的创造。如果市场经济能够正常运行,技术能够自由引进,这将是一个永无止境的向上循环。正如弗里德曼所观察到的那样,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。拥抱技术的市场经济是我们更接近实现每个人都可以想象到的一切,但永远无法完全实现的方式。这就是为什么技术不会摧毁就业岗位,永远不会。 对于那些尚未接触过这些想法的人来说,这些都是令人震惊的思想,可能需要一些时间来理解。但我发誓我并没有编造它们——实际上,你可以在标准经济学教科书中阅读到所有这些观点。我推荐亨利·哈兹利特《一课经济学》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏的讽刺性作品《蜡烛制造商的请愿书》,这些蜡烛制造商因太阳对照明产业进行了不公平竞争而抗议太阳。我们也有我们这个时代的现代版本。 但你可能会认为这一次与以往不同。这一次,随着人工智能的出现,我们拥有了可以替代所有人类劳动的技术。 但是,按照我上面描述的原则,想象一下如果所有现有的人类劳动都被机器取代会意味着什么。 这将意味着经济生产力增长的起飞速度将是绝对天文数字,远远超过任何历史先例。现有商品和服务的价格将全面下降到几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和工人来满足所有新的需求。 假设人工智能再次取代了这些工人呢?这个循环将重复,推动消费者福利、经济增长和就业与工资增长更高。这将是一种直线式的向上螺旋,将人们带向亚当·斯密和卡尔·马克思从未敢于梦想的物质乌托邦。 我们应该如此幸运。 AI风险4:人工智能是否会导致严重的不平等? 谈到卡尔·马克思,对于人工智能夺走工作岗位的担忧直接引出了下一个声称的人工智能风险,那就是,好吧,Marc,假设人工智能确实夺走了所有的工作,无论是出于好还是出于坏。那么,作为人工智能的所有者获得了所有的经济回报,普通人一无所获,这难道不会导致巨大而且严重的财富不平等吗? 恰好,这是马克思主义的一个核心论点,即生产资料的所有者——资产阶级——不可避免地会从实际劳动的人们——无产阶级——那里窃取所有的社会财富。无论现实如何一再证明这是一个错误,这个谬论似乎永远无法消亡。但让我们无论如何驳斥它。 这个理论的缺陷在于,作为一件技术的所有者,保留不分享它并不符合你自身的利益——事实上恰恰相反,你的利益是将它销售给尽可能多的客户。世界上最大的市场是全世界的市场,包括80亿人口。因此,在现实中,每一项新技术——即使开始时是向高薪大公司或富裕消费者销售——都会迅速普及,直到它落入尽可能大的大众市场的手中,最终覆盖整个地球上的人。 这个经典的例子是埃隆·马斯克在2006年发布的所谓“秘密计划”——他当然公开发布的——关于特斯拉的计划: 第一步,制造[昂贵的]跑车; 第二步,用第一步挣的钱造一辆价格实惠的车; 第三步,用第二步挣的钱造一辆更实惠的车。 这当然是他所做的事情,结果成为世界首富。 最后一点是关键的。如果今天他只卖车给有钱人,马斯克会更富有吗?不会。如果他只为自己造车,他会比现在更富有吗?当然不会。不,他通过销售给尽可能大的市场全世界,来最大化自己的利润。 简而言之,每个人都能够拥有这个东西,正如我们过去在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎等领域所看到的。制造这些技术的公司高度积极地降低价格,直到地球上的每个人都能够负担得起。这正是人工智能领域已经发生的事情——这就是为什么你今天可以在微软Bing和谷歌Bard等形式的免费或低成本的最先进的生成式人工智能上使用它——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而恰恰是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。 因此,发生的情况与技术推动财富集中的理论相反——技术的个体用户,最终包括地球上的每个人,反而被赋予权力,并获得了大部分产生的价值。与之前的技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将竞相努力使这一点成为现实。 马克思当时错了,现在也错了。 这并不是说不平等在我们社会中不是一个问题。它是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制、政府干预最多以阻止采用人工智能等新技术的经济部门驱动的,具体来说是住房、教育和医疗保健。人工智能和不平等的实际风险不在于人工智能会导致更多的不平等,而在于我们不允许使用人工智能来减少不平等。 AI风险5:人工智能是否会导致坏人做坏事? 到目前为止,我已经解释了五个最常提出的人工智能风险中有四个实际上并不真实的问题——人工智能不会活过来杀死我们,人工智能不会摧毁我们的社会,人工智能不会导致大规模失业,人工智能不会导致破坏性的不平等增加。但是现在让我们来讨论第五个,这也是我实际上同意的一个:人工智能会让坏人更容易做坏事。 从某种意义上说,这是一个循环论证。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于好的或坏的目的。可以理解。而人工智能会让罪犯、恐怖分子和敌对政府更容易做坏事,毫无疑问。 这让一些人提出,好吧,既然这样,那么在这种情况下,让我们在坏事发生之前禁止人工智能。不幸的是,人工智能不是一种难以获得的玄妙物质,比如钚。恰恰相反,它是世界上最容易获得的材料——数学和代码。 显然,AI猫已经出了包。你可以通过数千个免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有杰出的开源实现在不断增加。人工智能就像空气一样——它将无处不在。为了抓捕它,所需要的极权压迫程度将是如此严厉——一个监视和控制所有计算机的世界政府?戴着黑色直升机的武装警察突袭流氓GPU?——我们将没有一个社会来保护。 因此,我们有两种非常直接的方式来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。 首先,我们已经制定了法律来让使用人工智能干坏事的大多数行为犯罪化。黑入五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们只需专注于在可能时预防这些犯罪,并在不能时予以起诉。我们甚至不需要新的法律——我不知道是否有一个已经被提出的恶意利用人工智能的实际案例不是已经是非法的。如果发现了新的坏用途,我们禁止那些用途。证毕。 但是你会注意到我刚才提到的——我说我们应该首先专注于在坏事发生之前防止人工智能辅助犯罪——这难道不意味着要禁止人工智能吗?好吧,还有另一种方法可以防止这样的行为,那就是将人工智能作为一种防御性工具。让拥有坏目标的坏人具备能力的人工智能,同样也在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。 例如,如果你担心人工智能生成虚假人物和虚假视频,答案是构建新的系统,使人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。 因此,第二个方法是,让我们大力利用人工智能进行善意、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为保护自己、社区和国家所做的一切其他方面利用人工智能。 当然,政府内外已经有许多聪明人正在做这样的工作——但是如果我们将目前那些专注于无效的禁止人工智能的努力和智力用于使用人工智能来防止坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天生活的世界更加安全。 不以最大力量和速度开展人工智能的真实风险 还有一个最终而真实的人工智能风险可能是最令人恐惧的: 人工智能不仅在相对自由的西方社会中得到开发,也在中国得到开发。 中国对人工智能有着与我们截然不同的愿景。他们对此甚至并不保密,他们非常明确地表示,他们已经在追求他们的目标。而且,他们不打算将人工智能战略限制在中国境内——他们打算在他们提供5G网络、提供“一带一路”贷款、提供像TikTok这样的友好消费应用作为他们集中控制和指挥的人工智能前端的地方,将其传播到全世界的每一个角落。 人工智能的最大风险就是中国在全球人工智能主导地位上取得胜利,而我们——美国和西方——却没有取得胜利。 我提出了一个简单的策略来应对这个问题——事实上,这也是罗纳德·里根总统在与苏联赢得第一次冷战时采取的策略。 “我们赢,他们输。” 与其被围绕着关于人工智能杀手、有害人工智能、破坏就业岗位的人工智能和产生不平等的人工智能等毫无根据的恐慌放在被动位置,我们美国和西方应该尽可能全力投入人工智能。 我们应该争取全球人工智能技术优势的竞赛,并确保中国不会取得胜利。 在这个过程中,我们应该尽可能快速、尽可能大力地将人工智能引入我们的经济和社会,以最大化其对经济生产力和人类潜能的利益。 这是抵消真正人工智能风险和确保我们的生活方式不被中国愿景所取代的最佳方式。 我们该怎么办? 我提出了一个简单的计划: • 大型人工智能公司应该被允许尽快、尽可能激进地构建人工智能——但不能实现监管垄断,不能建立一个由政府保护的卡特尔,由于对人工智能风险的不正确宣称而免于市场竞争。这将最大限度地发挥这些公司惊人能力的技术和社会回报,它们是现代资本主义的宝石。 • 初创人工智能公司应该被允许尽快、尽可能激进地构建人工智能。它们既不应该面对大公司获得政府授予的保护,也不应该获得政府援助。它们应该只被允许竞争。如果初创公司不成功,它们在市场上的存在也将不断激励大公司发挥出色——我们的经济和社会无论如何都是赢家。 • 开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源没有战胜公司,其广泛可用性也对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生们是一个福音,并确保无论他们是谁、有多少钱,人工智能都对他们可用。 • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应该积极参与潜在风险领域的每一个方面,利用人工智能最大化社会的防御能力。这不应仅限于人工智能风险,而是包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以是解决问题的极其强大的工具,我们应该将其视为这样的工具。 • 为了防止中国取得全球人工智能主导地位的风险,我们应该充分利用我们的私营部门、科研机构和政府的力量,共同推动美国和西方人工智能在全球范围内的绝对主导地位,最终甚至在中国境内也如此。我们赢,他们输。 这就是我们如何利用人工智能拯救世界。 是时候行动了。 传奇与英雄 我以两个简单的陈述来结束。 人工智能的发展始于上世纪40年代,与计算机的发明同时开始。第一篇关于神经网络的科学论文——即我们今天拥有的人工智能的架构——发表于1943年。在过去的80年中,整个一代人的人工智能科学家出生、上学、工作,很多情况下去世,他们没有看到我们现在所获得的回报。他们是传奇,每一个人。 如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能背后思想的创造——正努力将人工智能变为现实,尽管有一堵试图将他们描绘成鲁莽的恶棍的恐慌和悲观主义的墙。我不认为他们鲁莽或者是恶棍。他们是英雄,每一个人。我和我的公司非常高兴支持尽可能多的他们,我们将100%地支持他们和他们的工作。 "多年来,千年主义者经常[人工智能风险预言者不断地]试图预测这种未来事件的确切时间,通常是通过各种标志和先兆的解释。然而,历史上的预测几乎都以失败告终[目前没有可靠的证据表明人工智能会杀死人类]。然而,他们的[人工智能风险预言者的]粉丝通常会试图修正解释,以便与事件发生时[人工智能未来的潜在风险]相对应。" 那些热衷于"人工智能风险"邪教的人可能会不同意我的观点,他们可能会坚称他们是理性的、基于科学的,并且我是一个被洗脑的追随者。但请注意,我并没有声称"人工智能绝对不会成为人类的威胁"。我只是指出,迄今为止没有证据支持"人工智能将杀死我们"这一论点。我们应该根据现有的证据进行理性的评估,而不是沉溺于邪教般的恐慌和反应。 来源:金色财经
lg
...
金色财经
2023-06-07
Coinbase 表示 加密货币和区块链技术可能是帮助防止 AI 失控的关键工具
go
lg
...
ChatGPT 等聊天机器人提供动力的
大型
语言
模型
的出现而出现的五个问题,以及区块链和加密货币可能能够解决的每个问题的解决方案: 1.对数据资源的需求 ——由于生成式 AI 依赖于庞大的通用数据库来为其
大型
语言
模型
提供动力,“令牌激励和惩罚系统可以确保数据满足这些模型所需的足够质量标准。” 2.对计算资源的需求 ——生成式人工智能需要大量的计算能力,而区块链可以通过创建一个资源共享的系统来提供帮助。“去中心化的计算能力网络可以奖励那些自愿使用闲置 GPU 来帮助减轻部分计算负担的用户。” 3.错误信息和虚假信息——对人工智能驱动的错误信息活动的恐惧已经上升,因为
大型
语言
模型
有可能消化虚假声明并将其作为事实吐给用户。“区块链和不可替代令牌 (NFT) 技术可以通过确定图像、视频、音乐和其他媒体的来源来帮助解决这个问题。” 4.可审计性 ——人工智能决策对普通用户来说可能是不透明的,其算法也难以理解。“将区块链技术集成到人工智能模型中可以帮助使这些过程更加透明,并允许用户仔细检查人工智能产生的结果的逻辑和可靠性。” 5. 人工智能开发和使用民主化 ——最后,Duong 写道,加密货币可以让人们更大规模地参与人工智能的使用和开发,从而使人工智能更容易获得。“加密平台可以帮助获得更多样化的贡献,并重新分配访问权限,以便更多用户可以利用它的好处(例如医疗保健建议或电子商务)。” 声明:潮外音编译作品,内容仅代表作者立场,且不构成任何投资建议,请谨慎对待,如文章/素材有侵权,请联系官方客服处理。 来源:金色财经
lg
...
金色财经
2023-06-07
黄岳:人工智能催化不断,芯片、游戏怎么投?
go
lg
...
效果。因此,人工智能领域已经发展到基于
大型
语言
模型
的架构,再结合我们自己细分产业的小型模型。这样一来,对算力和其他要求的需求就不那么高了,我们可以更好地满足具体的业务需求。 1、降低成本 就游戏制作而言,图像是人工智能可以替代的最大业务场景之一。许多行业都有类似的特点,比如律师、金融分析等,他们都有一个大哥指导一群人去完成工作。类似的情况也存在于广告、媒体和游戏等领域。大哥充当架构师或领导者,提供创意,包括广告、视觉效果、音效以及剧情等方面。 在这个过程中,又会有专注于各个细分领域的专家提供创意。创意确定后,便需要一群码农去实现,将创意付诸实践。在这个过程中,不断进行迭代。 在广告领域,我们经常会听到关于客户版本的笑话,如1.0版、2.0版、3.0版,甚至可能一直修改到10.0版,最后又回到1.0版。这些环节都可以被人工智能替代,但大哥是不可取代的,因为他负责提供创意,并且拥有丰富的经验。然而,人工智能在大哥的创意落地这一环节可以极大地降低成本,而且人工智能不会编写一些讽刺客户或制造笑话的内容。 在游戏中,视觉创造和剧情创造等方面都可以借助人工智能完成。大哥可能会提供一些场景需求,如阴冷的色调和悲伤的气氛,同时需要悲伤的音乐。这时,人工智能可以创造相应的视觉和音效场景,并且通过对话形式进行进一步加工和修改,这种沟通成本非常低。因此,在游戏领域中,人工智能主要体现在降低成本和提高研发效率方面。 2、提升游戏体验 此外,人工智能还有可能提升某些游戏的体验,例如游戏中的非玩家角色(NPC)和对话机制。 现有游戏中的NPC和对话机制基本上都是基于预设脚本运行的,但未来我们完全可以使用人工智能进行互动,这将带来创造性的互动体验,符合元宇宙的理念。 元宇宙的核心理念是在虚拟场景中能够进一步创造新的虚拟场景,而不仅仅基于预设脚本。未来,我们有可能通过人工智能的方式实现更加生动活泼的互动体验,这将是一种本质上的区别,即预测性和非预测性之间的区别。 因此,我认为当前游戏领域最成熟、最明显的应用是降低成本。至于我之前提到的进一步应用在互动领域或其他领域,我认为还有待挖掘,但我们也可以看到它们的一些远期目标。 主持人:那么是否会出现游戏公司在降低成本和提高效率后加速内卷的情况,类似于光伏行业出现的情况,包括成本降低后带来的问题?在面对这种情况时,哪些游戏公司具有更高的竞争力,能够更好地应对这种情况? 黄岳:我认为有两个方面。首先,那些能够加速应用新技术的公司在短期内会具备竞争优势,因为它们的研发效率和成本都大幅度降低。所以这些公司在短期内会更具竞争力。 但更重要的是,我认为游戏和影视等创意产业最核心的部分仍然是创意。也就是说最核心的是人,而我之前也提到过,人是无法被人工智能取代的。 包括我们国内的游戏技术,比如视觉技术和游戏引擎等核心领域,与国际上的龙头当然有差距,但是的差距可能没有大家想象的那么大。尽管国内游戏产业还没有出现像国际上的AAA级游戏巨头,除了最近一些非上市公司推出了一些优秀的游戏。但我认为我们与国外游戏巨头的差距其实主要还是在创意和人才方面,这些是无法被取代的。 所以我觉得人工智能无需过度担心,就像光伏行业竞争加剧一样,我认为短期内加剧的是效率上的竞争,即降低成本。比如,过去可能同时只能支持3个或4个项目的研发,但成本降低后,我可能同时支持10个或20个项目的研发,毫无疑问,我具备了自己的优势。 然而,最终哪个项目能够成功,实际上仍然取决于核心人才、创意、细节甚至运营等因素,这些很难被人工智能所取代,这才是该行业最本质的部分。 六、游戏板块如何投资 主持人:目前投资者比较关注的是游戏行业已经涨得相对较多了,现在还能否进入?此外,人工智能还有其他板块可以让我们更从容地布局吗? 黄岳:好的,整个人工智能相关的板块,我觉得涨势都比较强劲。如果一个板块涨得不多,那说明它并不是核心板块,这是毫无疑问的。 我们可以看到,在人工智能领域最早被炒作的是计算机,因为大家都在关注应用方面。但后来发现,目前还没有哪个应用能够真正做出来,而且大多数应用可能与人工智能结合的场景并不像大家想象的那么多。因此,市场开始炒作算力(芯片领域),但很快发现国内的芯片并不行,于是又开始炒作通信板块,然后又回到了应用方面。因为游戏作为应用领域最具观察性,人工智能在游戏应用领域取得了成功。 所以我认为市场反应是非常有效的,如果一个板块涨得不多,那肯定不是最核心的板块。我们也可以这么来理解为什么游戏以及其他与人工智能相关的板块涨幅比较大。 首先,我觉得它们绝对不是一年就能完成炒作的行业,可以拿新能源汽车做个对比。它们基本上需要三四年的大行情。第二,我们需要考虑我们的策略,就是在这样的大行情中,我们如何入场和布局? 1)我们需要看一下自己之前是否已经有仓位,如果已经有仓位,我觉得你就可以静观其变,不需要再进行调整。这是第一点,因为虽然短期涨幅很大,但如果你看月线图,会发现它自2015年起已经下跌了8年,现在才迎来一个季度内非常大幅度的反弹。你可以看月线图,或者看年线图,相比于2015年甚至是2016年、2017年,它的高度远远没有恢复,所以我觉得你更多的是对日线图上的高点开始担心。然而,这也是因为经历了长达7到8年筹码的出清,整个估值的下降,才以换来这么大幅的反弹。所以,如果是长周期的投资者,而且也已经有持仓的,完全没有必要去折腾了,这是第一类。 2)第二类投资者是指那些没有持仓或者持仓成本较高的人。对于这些投资者,我觉得他们不需要太着急,可以稍作等待。 因为在这个季度,行业已经上涨了90%,如果你调整了30%到40%甚至更多,这是很正常的。即使未来预期是3倍或5倍的涨幅,但如果在一个季度已经达到了1倍的涨幅,调整30%到50%是非常正常的。 但如果你在高位买入,调整了50%,那你需要上涨100%才能回本,上涨和下跌是不对称的。 所以我认为如果你看好这些板块,可以分批购买,而且不要在它已经涨了很多的时候再去买入。比如说计算机和通信板块,它们从顶部回调的幅度已经相对较大,而游戏板块从顶部调整的幅度相对较小,大概只有10%到20%的范围。 从中长期的角度来看,我觉得你是可以购买的,但在短期内应该分批购买。我们可以先买入一部分试水,因为毕竟长周期的行情需要先试水,然后逐步增加仓位。 那么关于加仓的周期,你可以设置为一个季度,或者3个月,或者6个月。将资金在3个月或者6个月的时间区间内分批购买,可以每个月购买一点,或者每周购买一点,平均分配购买。不要试图准确把握它的拐点,因为我觉得这非常困难。所以如果你现在还没有入场,或者已经被套住并且希望降低成本,我认为这种方式比较适合,也不要太激进。可以关注游戏ETF(516010)、游戏沪港深ETF(517500)。 七、新能源赛道还有机会吗 主持人:感谢黄总的解答。目前市场上有三个热点板块,分别是人工智能、中特估和新能源。这三个板块相互关联,可以说是彼此的血包。 很多投资者之前可能在新能源的配置相对来说比较多,而在人工智能的配置相对较少。在下半年,我们对于人工智能的配置是否需要逐渐提高,同时新能源的配置是否需要降低,请问黄总怎么看这个问题? 黄岳:从一季度报告中可以看出,新能源配置比例正在下降,而人工智能相关配置比例在上升,这种资金流向的趋势可能是中长期的趋势,而非短期的。 目前来看,新能源的估值水平相对较低,具有相对较高的性价比。属于跌出来的性价比。虽然新能源可能具有一定的周期性,但它仍然是周期中中增长较高的板块。 在整个A股市场,要找到每年增长百分之二三十甚至更多的板块是非常困难的,所以其实新能源的标的还是比较稀缺的。而且新能源板块具有良好的景气度和政策支持,这种板块非常稀缺。包括其内部的储能和光伏等领域,未来的需求仍然很好。而且随着马斯克在中国的合作,储能很可能成为未来与中国政府合作的一个重要领域。 总体来说,新能源在经历了一轮大幅下跌后,我认为都是可以买入和配置的。但新能源这个板块要走出趋势性行情也比较困难,不是因为这个板块不好,而是因为从博弈的角度来看,它的筹码结构不好。 目前公募基金仍然在新能源板块中有很高的配置比例。我觉得如果新能源要走出下一波强势的趋势性行情,可能需要等待公募基金在新能源板块的配置比例至少降低到普通水平,才有可能出现强势的趋势性行情。但是没有趋势性的行情,并不代表这个板块没有机会。 对于新能源汽车板块来说,往往是一个超跌反弹的机会。就像白酒板块一样,白酒在2021年左右达到指数高点时也面临了很多负面信息,包括政策和库存等方面的负面信息。尽管在2021年之后,白酒整体呈下降趋势,但每次反弹的空间和时间都相当长。 因此,我认为新能源汽车仍然是一个具有较强操作性的标的。然而,要走出趋势性机会比较困难,它更多的可能是在估值较低、经历了长时间下跌且下跌幅度较大之后逐渐配置尝试一下,然后在反弹后逐渐减仓。可以关注新能源车ETF(159806)。 八、中特估板块如何配置? 主持人:最后跟我们聊聊中特估这个板块。 黄岳:对于中特估这个板块,我认为它主要反映了两个维度。 首先,它在一定程度上对标了海外的ESG(环境、社会和公司治理)概念。海外的ESG发展包括社会、企业治理和环境等方面,虽然与企业盈利似乎没有直接关系,但它实际上是基于共同的价值观形成的理念。 在形成理念之后,大量机构资金开始实践这一理念,例如保险资金和养老金强制要求配置,也发行了大量的指数基金并购买相关标的。在购买之后,它反而成为了一个阿尔法因子,成为了有效的分析工具。 因此,我认为中特估未来是否能够真正成为中国特色的估值体系,可能需要参考海外的ESG概念。例如,我们的养老金和保险机构是否会强制要求按照这一价值观进行配置,或者至少按照这一价值观筛选标的。 在被动指数基金方面,今年以来中特估相关的指数基金发行数量不少,过去几年也有很多。然而,中特估能否真正成为中特估,我认为还需要观察两个方面:一是共识,二是是否有真金白银的增量资金流入。 短期来看,当经济的不确定性较高时,人们更关注企业的盈利能力。整体而言,国有企业的盈利能力相对于民营企业来说在周期下行时更具抗压能力,因此它们有自己的一定价值。 在中特估中,我建议大家关注一些盈利能力较好的中特估,比如炼化和运营商等,它们都属于盈利能力突出的中特估公司。然而,对于一些具有博弈成分或者盈利持续性不太明显的中特估,我认为可能需要稍微谨慎一些。因为这些公司除非它们的估值已经上升,如果它们的估值没有上升,并且无法看到盈利或盈利的持续性,我认为它们可能就没有那么可靠。 因此,我认为还是要关注中特估中具有盈利能力的板块。可以关注央企共赢ETF(517090)。 此外,还有一些成长类的板块,大家可以关注军工。军工本质上也是中特估的一个板块,但军工今年以来一直没有什么出色表现。最近也有一些中特估和央企科技成长类的指数基金要发行,其中包含了40%的军工成分股,因此势必会带来一定的增量资金。可以关注军工ETF(512660)。 总体而言,我认为大家可以关注偏科技类的中特估,包括与运营商、算力相关以及数据资产相关的板块,这些板块具有业绩预期。另外,军工也是可能吸引增长资金的板块。 在传统行业领域,我认为中特估可以关注炼化,相对而言资产质量较好。炼化方面,我们从俄罗斯采购原油相对于市价是打折的,成本降低了,这将利益转移给了我们的炼化企业。因此,我认为重点关注这些方面可能会比较有利。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-06-05
报告:预计到2032年人工智能市场规模料达到1.3万亿美元
go
lg
...
2%,首先是由训练基础设施驱动,然后由
大型
语言
模型
推理机、广告和其他服务推动。 “全球在未来十年料将看到生成式AI领域呈爆炸式增长,有望从根本上改变科技领域的运作方式,”Singh周四在一份声明中说,“随着该技术的发展,它将成为IT支出、广告支出和网络安全日益重要的组成部分。” 自去年年底ChatGPT发布以来,对生成式AI的需求已加速,因为这项技术料将颠覆从客户服务到银行业的一切。生成式AI使用通常从互联网上收集的大量数据样本来学习如何回应提示,使其能够创建逼真的图像和似乎来自真人的回答。 该报告称,亚马逊的云部门、谷歌母公司Alphabet Inc.、英伟达,以及在OpenAI上已投资数十亿美元微软,可能位列人工智能热潮的最大赢家。
lg
...
金融界
2023-06-02
C3.ai FY2023Q4业绩电话会议记录
go
lg
...
AI 的问题之一是——您可以使用这些
大型
语言
模型
的数据源数量有限,通常是文本、HTML,有时是代码。并且
大型
语言
模型
将直接与数据进行交互。但问题之一是你得到的是随机答案。每次你问这个问题,你都会得到不同的答案。如果两个人有一个问题并得到不同的答案。 而且 - 没有可追溯性。它没有告诉你答案来自哪里,好吗?最后,如果它不知道答案,它会自己编一个。这就是他们所说的幻觉。所以它不知道它只是一种翅膀,它构成了一个答案。所以我们利用了——我们正在使用整个 C3 平台。我们这样做的方式是——正如你们所知道的那样,我们非常擅长将企业数据、额外价格数据、代码、图像、文本、传感器数据等整合到一个统一的联邦形象。当我们这样做时,这些数据被深度学习模型读取,它们恰好存储在矢量数据库中,我们在矢量数据库和
大型
语言
模型
之间有一种防火墙。现在我们的客户使用他们想要的任何语言模型,无论是 ChatGPT,还是 Home,无论是困难, 现在,我们在
大型
语言
模型
和数据中构建了防火墙。所以它会——每次——我的意思是真正的——每次你问这个问题,它都会给你同样的答案。好吧,如果两个人问同一个问题并且他们有权限,那么他们每次都会得到相同的答案。与答案相关联,它为您提供可追溯性,看看他们是否点击它,您可以准确地看到数据的来源,好吗?非常重要的是,没有 LLM 成本数据泄露的风险,请参阅三星了解详情,他们发现他们所有的专有信息都没有在 Internet 上发布,好吗? 最后,没有 LLM 成本幻觉的风险。它不知道答案,它告诉不知道答案而不是编造答案。因此,对于这些,您认为是一种筹码,它们是任何大型商业或政府设施的筹码,这是真正区分 C3 生成产品的东西。这也是我们看到非常高的兴趣的原因之一。 桑吉辛格 感谢你们把我挤进这个问题。汤姆,本周早些时候,你们宣布了一份关于 C3 生成人工智能套件在亚马逊市场上可用的新闻稿。这让我开始思考未来的销售动议会是什么样子?正如您提到的那样,生成式人工智能正在以相当大的方式渗透到董事会和最高管理层。当我们考虑将这种兴趣转化为交易并最终转化为收入时。这其中有多少会像飞轮式的基于消费的自助式市场类型的交易,而不是你与合作伙伴合作以获得更多的顾问,并帮助这些大型企业客户,在某种程度上,在生成人工智能的世界中真正创造价值? 汤姆西贝尔 好问题,桑吉特。因此,我们现在发展的前三个约定将是——我们的组织的收入约为 1000 亿美元或更多,好的,并且已经——我们将在 12 周内启用该应用程序。我们没有这样做——我们有大约三个人参与这个项目,所以这很简单。 现在,从 6 个客户到 60 个客户再到 100 个客户的问题非常简单。我们知道该怎么做,好吗?真正的关键是,好吧,就吹掉这件事的大门而言,我们能否从 6 个客户增加到 60 个客户再到 6,000 个。因此,对于 6,000 人,现在我们必须利用这些渠道,例如今天提供产品的 AWS 市场,以及今天提供产品的 Google 市场。但就可用性而言,它需要与 Apple iPhone 配套使用。你打开盒子,取下手机,打开它,它就可以工作了。所以现在我们 - 下一代 - 下一代 - 我们现在正在对该产品进行的真正严肃的开发工作,有点涉及真正的产品设计,好吧,让它像苹果产品,你打开它,打开它,它就可以工作了。这就是摆在我们面前的挑战。我想我们可以做到,好吗?如果我们能够做到这一点,请持有您的股票。 桑吉辛格 我喜欢这种颜色,汤姆。然后也许是一个后续行动。也许这也适用于 Juho 和 Tom。这在某种程度上与全年的指导有关。我正在尝试像真正推动明年指导的内容一样进行背景化?因为我们即将结束一年,21 财年,我认为你们增长了 30%、33%、34%。在过去的一年里,你们增长了中个位数。最初的指导要求在高端的中点增长 20%。而且我想了解,就像你看到的加速一样,你正在经历更艰难的一年,你的支出环境更加困难,销售重组,这些类型的东西与生成人工智能真正在财政上线24 年。那么有没有什么办法可以,有点, 汤姆西贝尔 让我解决这个前提,好吗?在我们所有人开始迎接更艰难的一年、更艰难的一年、更艰难的一年之前。我想我们在面向所有听众的电话会议中进行了 4 次。好吧,让我们记住,好吗?当我们现在过渡到基于消费的定价时,好吧,我们非常清楚这将对收入增长产生短期和中期的负面影响。这实际上是一团糟。任何知道如何使用电子表格的人都可以解决这个问题。如果我们要完成 50 万美元的交易,而不是 1000 万美元、2000 万美元、3000 万美元、4000 万美元、5000 万美元的交易,那么对收入的短期影响就是抑制收入增长。所以我不确定这是否如此艰难。好的,这基本上就是我们实际上得到了我们设定的计划。所以这件事完全走上了正轨。 现在,当你运行这三年的一个额外的电子表格模型时,你点击了回车,好吧,你运行了几年——几个季度,你可以做数学,你知道会发生什么。但我不是——所以我认为我们所做的事情完全符合计划。我们进行了投资。我认为这是一个伟大的决定。这是一项很好的投资。现在,在 24 和 25 财年,我们将从该投资中获得回报。 汤姆西贝尔 好问题,约翰。现在,我的意思是,就将 AI 应用于企业而言,我们处于第一局的上半场,而第一批人,好吧。所以这是一个胚胎市场。我的意思是,我们看到最大的吸收媒体。首先,它在 SmartGrid 中,好的。为什么选择 SmartGrid,因为他们已经投资了 2 万亿美元,好吧,在全球范围内升级了基础设施,使 SmartGrid 中的所有设备都可以远程机器寻址,成为一个巨大的物联网星座。这就是我们首先看到它的地方。 下一个大市场——我们在过去一年看到的,最大的市场是人工智能可靠性,基本上是预测性维护。所以他们可以调动军队,他们称之为准备就绪,好吧,或者在平均水平部门,他们称之为可靠性。因此,基于人工智能的预测性维护是当今最大的部分。这将如何演变?我的意思是,很明显,我们将把人工智能应用于所有业务流程、生产优化、需求预测、供应链风险管理、随机优化、供应链 CRM 等。我认为商业运营的任何方面都不会或 - 医学,好的,研究以及科学和文学,娱乐都不会通过使用 AI 来加速。所以我们只需要 - 我们一起去兜风,我们' 迈克西科斯 大家好。感谢您在这里提出问题。也许第一个会去 Juho。所以我知道你们引用了本季度完成的 43 笔交易,其中 19 笔是试点交易。你能为我们进一步完善吗?也许这只是我们为此使用的分类或名称。但是,这些试点中有多少是纯粹基于消费的,而可能仍在旧定价模式下进行的试点呢? 朱霍·帕基宁 迈克,这些都是——这些都将遵循新的基于消费的方法。这些根本不在旧模型之下。 迈克西科斯 好的。所以我想我的后续行动是 19 项基于消费的交易,我知道你们已经取消了——对不起,你们关闭或发起的 19 项试点是消费本季度的基础以及我们在前几个季度决定的其他试点项目。我们是否知道这些试点中有多少现在已经转为生产?一旦这些消费交易投入生产,我们是否有衡量 vCPU 的标准? 朱霍·帕基宁 这是一个很好的问题。所以迈克尔,在第一季度,我们宣布这将是第二季度,显然,你需要六个月的时间,我们将在第四季度末结束。所以我们在转换中很早就开始了。我们支持模型假设,即无论我们在三个季度前提供的是什么,预计每个试点都有 70% 的可能性转化为后续消费交易。但我要说的是,在消费之前的第一季度,我们真的会在本季度开始看到更多的消费,因为我们在第二季度末进入了那些最初的试点安排。 迈克西科斯 明白了。明白这一点。感谢那。如果可以的话,然后只是一个快速跟进。但我只想增加专业服务收入。我知道你只是比我们一直在谈论的典型 10% 到 20% 的范围高一点。我只是想看看,10% 到 20% 是否仍然是我们应该考虑的合适范围?或者当你们参与其中时,这些飞行员是否有更多的手持设备?或者它可能是潜在的联邦部门客户的代言人?就像我们如何看待第四季度更高的专业服务收入与你们明年的想法相比? 朱霍·帕基宁 我认为在前进的基础上,我们预计会在 10% 到 20% 的范围内。总会有我们的客户想要的这些类型的项目,而且很难预测未来收入的具体情况,但我们认为在未来的基础上 10% 到 20% 是合适的。 布拉德西尔斯 嘿,太好了。谢谢。这是 Brad Sills 的 Adam Bergere。所以你在当前市场中处于非常有利的位置,只是考虑到 AI 用例正在成为焦点。很好奇它是否完全改变了您的研发投资节奏? 汤姆西贝尔 嗯,这是汤姆。我的意思是,很明显,我们在过去 14 年中所做的投资正在得到回报,好吧,因为我们有 40 多个应用程序,而且人们想要应用程序。我认为我们是世界上唯一一家公司,但那是针对应用程序的。我认为 - 我认为我们最近所做的唯一改变是我们对 C3 生成 AI 的反应感到有点震惊。我的意思是——我们对此有点不知所措。但这是一个很大的机会。所以现在我们刚刚离开飞机平均水平,我们决定真正大力投资该产品类别,因为很难估计该市场,但它非常大。 亚当贝格尔 是的。很公平。然后对于到目前为止的生成人工智能用例和解决方案,我想,首先是你对它的第一次尝试。但是,在您看来,您是否看到某些垂直领域的任何超额吸收或预期任何超额增长?谢谢。 汤姆西贝尔 这是个好问题。似乎每个人都对此感兴趣。他们想要——在首席执行官或经营制造的人和经营销售的人的层面上,他们基本上想要一个类似谷歌的界面,在那里他们可以进入一个类似网络浏览器的界面,在那里他们可以询问有关他们业务的任何问题,好的?我们的供应链哪里出了问题?如果我是参谋长联席会议的主席,我准备好到什么程度,他们有 35 个左右的象限,在中欧。我的意思是,这就是我们所说的 DoD 谷歌,但他们的开放倡议可以让国防部长或参谋长联席会议主席在几秒钟内回答这个问题。现在,他或大多数人实际上需要一周的时间才能得到这些答案。所以我不 不知道有哪个行业不会使用这项技术。这真的很神奇。 亚当贝格尔 好吧。我很欣赏这个观点,汤姆。谢谢。 操作员 谢谢。[操作员说明]我们的下一个问题来自Needham公司的Mike Cikos。你的线路是开放的。 迈克西科斯 大家好。感谢您回来,我只进行了一次快速跟进。也许基于 Sanjit 之前提出的问题,但从不同的角度而不是看收入,让我们谈谈盈利能力。但很明显,你们现在正在发布指导,如果我们回到一个季度前,这可能低于街道和你们最初标记的水平,也许是针对 Juho。您能否帮助我们考虑您必须采取的额外措施,以确保 C3 以非 GAAP 盈利能力实现其退出财政 '24 的目标? 汤姆西贝尔 在我们回答之前,迈克。我确实想稍微戳一下前提,好吧。我认为我们的指引与华尔街的预期非常一致,一旦你拿出一个或两个异常值。因此,我们目前的指引与华尔街的指引一致。我对此很有信心。现在 Juho 的另一个问题是你如何确定你会盈利? 朱霍·帕基宁 正确的。所以迈克,我在准备好的发言中提到的一件事是我们计划对生成性进行投资,将生成性投资与供应商费用相结合,我认为我们可以在年底前控制支出,如果出于某种原因,预期收入不会从那些发生。但我们非常看好生成人工智能的机会。 迈克西科斯 知道了。非常感谢。 汤姆西贝尔 我们一般不需要生成 AI 的纯度,生成 AI 可以为零,好吗?而且我们仍将在第四季度开展现金盈利业务。嗯,你有一个非常非常详细的计划,所有成员和管理团队都[音频不清晰]。他们都有很大的预算。他们知道这将会运作,你可以期待它在第四季度成为现金积极的盈利业务非 GAAP 亲业务,困难的东西。 诺亚·哈曼 很高兴看到协议的平均销售周期下降了,我认为,同比下降了大约 1、3 个月。是什么真正推动了这一点?您认为可持续的销售周期在哪里基本得出结论,也许会考虑今年余下的时间? 汤姆西贝尔 好吧,我认为基于消费的定价模型正在推动它变得非常容易做到。我们不会以 50 万美元的价格在六个月内投入生产的大型企业 AI 应用程序。我的意思是,就引入 Accenture 或 IBM 或其他人试图引入其中之一的成本而言,这不算什么,几年后将达到数百万美元。所以这是一个非常容易的销售。这是一个更短的销售周期。所以我不确定它会在哪里结束,但随着我们更多地进入我们的产品,进入 AWS 市场、谷歌市场和其他类似的杠杆渠道。所以我们希望看到它变得更短。 操作员 谢谢。女士们,先生们,今天的会议到此结束。谢谢大家的参与。您现在可以断开连接。祝你有美好的一天。
lg
...
老虎证券
2023-06-01
第一个AI员工诞生!美国运通:审查客户财务状况 决定核卡、信用额度和评级
go
lg
...
级等工作。但该公司强调,不会推出自己的
大型
语言
模型
(LLM),而是直接和成熟企业合作。 Venturebeat指出,美国运通计划将AI技术用于验证交易、批准信贷额度、分析及预测客户财务状况等多个领域。该公司将采用的模型与OpenAI的ChatGPT,以及谷歌的Bard聊天机器人一样,都属于
大型
语言
模型
。 (来源:Venturebeat) 美国运通数字实验室高级副总裁Luke Gebb表示:“我们目前的规划是,我们更适合使用合作伙伴的LLM。我并不认为,美国运通会从头开始搭建我们自己的LLM。” 我们知道当客户在申办信贷额度、信用卡的时候,银行会透过联征中心来查询申办者的信用评分,检查是否有信用瑕疵、负债、日常还款状况等。未来引入AI或许会加速此流程,但要如何确保安全与正确性,还有待进一步评估,Gebb也认为如何好好使用AI会是一个重要命题。 他写道:“我对AI的看法就像我们对客户体验的看法一样,我们应该如何通过它使人们的生活更轻松,客户体验更好?” 尽管美国运通当前并没有透露将于哪家AI开发商开展合作,但值得注意的是,美国运通曾在2023年2月的报告中表明,他们正在与微软合作开发基于云计算的AI技术。基于上述缘由,美国运通或有可能与微软重金投资的ChatGPT合作,还有待进一步确认。#ChatGPT火爆全网# 有趣的是,周二出现一封包括OpenAI首席执行官Sam Altman在内的联署公开信,有350位AI领域的权威专家共同签署,呼吁人们重视正在开发的AI技术,可能会对人类生存构成重大威胁。 在美国非营利AI安全网站Safe.ai的公开连署信中,并没有太多叙述,只有一句简单的声明:“减轻人工智能灭绝人类的风险,应该与与其他社会规模的重大风险,例如流行病和核武战争一样,成为全球优先事项。” 参与签署的知名业界领导人包括Google DeepMind首席执行官Demis Hassabis、有AI教父美称的Geoffrey Hinton和Yoshua Bengio等,再再都凸显出人工智慧的发展,可能对人类社会所造成的潜在威胁。 Sam Altman在5月早些时候出席由美国参议院隐私、技术和法律小组委员会召开的人工智慧听证会,他在听证会上就对执法者们作出警告,表示AI技术可能操控信息,并对明年进行的美国大选造成影响。 “这些大型AI语言模型更容易大规模在一对一互动中操纵、说服和提供某种虚假资讯,鉴于我们明年即将开展的选举活动,我认为这是一个值得关注的领域。” 他当时还呼吁成立一个美国或全球规模的机构,对能力超过一定规模的AI企业颁发许可证,并拥有取消的权限,以确保该技术发展符合安全标准。
lg
...
颜辞
2023-05-31
上一页
1
•••
81
82
83
84
85
•••
108
下一页
24小时热点
特朗普就伊朗政权突然语出惊人!美国务院发布全球警报 黄金、原油开盘大涨
lg
...
中美突传重磅!华尔街日报独家:美国准备针对盟友的在华芯片工厂采取行动
lg
...
政府收入下降!中国卖地收入创十年新低,预算赤字扩大
lg
...
不要光盯着中东!本周这两件大事势必引爆黄金行情 FXStreet分析师金价走势分析
lg
...
【直击亚市】警惕伊朗报复行动:盯紧霍尔木兹海峡!油价惊现过山车行情,中美再传紧张消息
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论