全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
国家信息中心联合浪潮信息发布《智能计算中心创新发展指南》
go
lg
...
算中心通过提供预置行业算法、构建预训练
大
模型
、推进算法模型持续升级,提供专业化数据和算法服务。算力基建化和算法基建化相辅相成,共同推动算力的普惠化。 以服务智件化为依托。随着人工智能算法开发和模型训练从专业化、高门槛向泛在化、易用性转变,智算中心的发展将由传统的硬件、软件向"智件"升级。" 智件"的构建,让用户无需关注底层算力芯片和技术细节,以低代码甚至无代码开发的模式,为用户提供功能丰富、使用便捷的智能算力、算法服务和个性化开发服务,实现"带着数据来、拿着成果走"。 以设施绿色化为支撑。智算中心通过采用液冷等先进节能降碳技术,全面降低智算中心能耗,实现绿色发展。 如果说"四化"中的"算力基建化"、"算法基建化"和"服务智件化",是为了让智算中心普适普惠、"好用、用好","设施绿色化"则是践行国家双碳战略的绿色发展要求。"四化"相互支撑、相互协同,共同构建起智算中心高效运行体系。 《指南》还对智算中心的建设类型和运营模式提出了建议。智算中心建设需要结合建设基础、当地或区域产业特色,分类引导施策,改建并行,发展与数字经济相适应的智算中心;还需要选择合理的建设和运营模式,实现长效运营、促进有序布局,保证智算中心所释放的经济社会效益最大化。
lg
...
美通社
2023-01-12
引领智算新时代:浪潮服务器全球第二 中国第一
go
lg
...
工智能场景创新的关键需求,缓解企业面对
大
模型
训练成本高、技术门槛高的问题。2022年,源1.0
大
模型
加持智能客服大脑获《哈佛商业评论》鼎革奖-新技术突破奖,源
大
模型
对专业IT知识问题的解决率高达80%,提升浪潮信息整体服务效率达160%。 智算产品创新,竞争力全球领先 数字经济蓬勃发展带来巨大机遇的同时,也面临着多元化、巨量化、生态化的挑战。浪潮信息融合多元算力需求,持续创新面向未来的智算体系结构及领先的智算产品与方案,并不断完善产品组合,应对智慧转型面临的多重挑战,推动智算成为智慧进化的核心引擎。 早在2014年浪潮信息就提出了融合架构及三步走技术路线,指出了数据中心计算体系结构的发展方向。目前,融合架构正逐步进入3.0阶段,2022年,浪潮信息研制成功了以数据为中心的计算架构,在计算节点内部实现了CPU与加速器之间的缓存一致性、高速总线互连,解决了CPU与加速器之间共享内存数据、统一编址、协同工作的难题。 浪潮信息不断升级智算产品及方案,浪潮服务器融合主流算力平台,实现了关键计算、通用计算、AI计算、边缘计算等业界最全场景覆盖,满足广泛的应用场景和企业需求。作为人工智能计算的领导品牌,浪潮信息拥有业内最全的AI计算全堆栈解决方案,涉及训练、推理、边缘等全栈AI场景,还构建了领先的AI框架优化、AI开发管理和应用优化等全栈AI能力。在存储领域,浪潮存储坚持软硬一体化的技术路线,推进融合创新,围绕软硬融合、硬件重构、软件定义,一方面打造性能领先的高端存储,支持自研双端口SSD,多路多核性能翻倍提升;另一方面打造全球领先的支持多元算力的分布式融合存储,实现文件/对象/大数据多协议无损互通。此外,浪潮信息边缘四大产品系列包括边缘微中心、边缘服务器、便携式AI服务器、边缘微服务器,已在能源、交通、制造、通信等行业广泛落地应用。 浪潮信息的智算产品性能一直处于全球领先水平。浪潮M6服务器打破305项国际性能测试世界纪录,代表了全球服务器设计最高水平。2022年,在全球最权威的人工智能性能基准评测竞赛中,浪潮信息包揽了95个赛道的半数冠军,并且专为多元人工智能处理器设计的智算方案在语言和图像识别类测试创造了新的世界纪录,带动整个多元人工智能计算产业实现历史性突破;在当前最热门的自动驾驶领域,浪潮信息在NuScenes竞赛纯视觉3D目标检测比赛中获得第一名,算法精度再创新高…… "All in液冷",推动智慧计算可持续发展 随着"双碳"目标及"东数西算"工程推进,绿色低碳已成为数据中心建设的主旋律。液冷凭借其在制冷领域节能降碳的突出优势,成为未来新型数据中心、智算中心建设的重要选择。 2022年,浪潮信息将"All in 液冷"纳入公司发展战略,全栈布局液冷,实现通用服务器、高密度服务器、整机柜服务器、AI服务器四大系列全线产品均支持冷板式液冷,并提供液冷数据中心全生命周期整体解决方案。为更好的推进液冷产业化,浪潮信息还建成了亚洲最大的液冷数据中心研发生产基地,年产能达10万台,实现了业界首次冷板式液冷整机柜的大批量交付,帮助用户数据中心PUE降低至1.1以下,整体交付周期缩短至5-7天之内。 作为我国液冷数据中心建设的重要领导者之一,浪潮信息积极推进数据中心液冷技术的研发与提升,在直接冷却与间接冷却等领域持续创新,持续优化改进传统散热技术的能耗大、效率低等问题,实现制冷系统30%-50%的综合能效提升。目前,浪潮信息已拥有100多项液冷技术领域核心专利,已参与制定与发布10余项冷板式液冷、浸没式液冷相关设计技术标准,并牵头制定《模块化数据中心通用规范》国家标准,牵头立项国内首批冷板式液冷核心部件团体标准,对液冷产业的快速发展及液冷技术的大规模普及建设具有重要的指导意义。 通过智慧计算战略的布局与践行,领先智算产品方案的持续创新,浪潮信息已拥有多达200家全球500强企业客户,业务覆盖全球120个国家和地区,拥有8个全球研发中心、10个全球制造中心,为保持业务稳定持续增长及其在算力基础设施领域的领先地位奠定了坚实基础。未来,浪潮信息将继续聚焦智慧计算的创新,持续通过提供高效多元智算力赋能全球客户的数智化转型,同时也将保持自身发展方式的持续转型升级,践行高质量发展。
lg
...
美通社
2023-01-12
李彦宏:要做市场真正需要的技术,否则就是自嗨
go
lg
...
片(昆仑芯)、框架(飞桨)、模型(文心
大
模型
等)、应用(搜索、自动驾驶等)都有覆盖。这是百度的优势和根本,如果每一层之间都有反馈,借助反馈,就可以实现端到端优化。 李彦宏举了Robotaxi的例子。他最看重“萝卜快跑”的单量,并不仅是为了收入,而是因为单量代表用户需求,也是反馈。单量越多,代表市场反馈越多,百度自动驾驶技术提升速度就更快。
lg
...
金融界
2023-01-06
李彦宏首谈chatGPT:把酷技术变成人人需要的产品才是最难的
go
lg
...
片(昆仑芯)、框架(飞桨)、模型(文心
大
模型
等)、应用(搜索、自动驾驶等)都有覆盖。这是百度的优势和根本,如果每一层之间都有反馈,借助反馈,就可以实现端到端优化。 李彦宏举了Robotaxi的例子。他最看重“萝卜快跑”的单量,并不仅是为了收入,而是因为单量代表用户需求,也是反馈。单量越多,代表市场反馈越多,百度自动驾驶技术提升速度就更快。 AIGC令人兴奋,更重要的是做成人人需要的产品 去年 11 月底,美国人工智能机构 OpenAI 推出聊天机器人应用chatGPT,人们只需要输入问题,chatGPT就能给出看上去准确且有意义的回答。 chatGPT上线不到五天,就吸引了 100 万人用它写代码、回答问题、创作剧本、做游戏设定等等。一度有人提出搜索引擎将会受到重大冲击,存在价值会大打折扣。 根纽约时报报道,12 月下旬,谷歌 CEO 在内部发起了与chatGPT有关的“红色警报”,让员工充分警惕chatGPT。据了解,红色警报在谷歌代表最严重、紧迫的业务警告。在全员会上,李彦宏也被员工问到如何评价引发巨大关注的 chatGPT,百度有什么部署。 李彦宏说,最近有许多人问他类似的问题,不只是同业、同领域的朋友,还有许多不同领域,跨界的人都在关注,“很高兴我们天天琢磨的技术方向,能够让这么多人关注,确实是挺不容易的。” 他认为不论是AIGC(人工智能生成内容,比如输入一句话生成图片),还是chatGPT,都是技术、尤其是AI技术,发展到一定地步产生出来的新的机会。“这其实就是属于百度的机会,我们准备度上是最好的。” 过去一年,百度推出人工智能作画辅助工具文心一格,并与出版商、设计师合作,探索可能的商业化空间。今年 7 月,李彦宏在百度世界大会上说,AIGC技术的成熟,代表AI从理解内容,走向了生成内容,AI作画、创作视频、甚至构建虚拟世界,可能会变得像手机拍照一样简单。未来十年,AIGC将颠覆现有内容生产模式。可以实现以“十分之一的成本”,以百倍千倍的生产速度,去生成AI原创内容。 技术前景诱人,但李彦宏在全员会中透露着谨慎。他提醒,现在这个机会还不是很清晰,技术能做到这一步,它会变成什么样的产品、满足什么样的需求?“在这个链条上,其实还有很多不确定性。” 李彦宏说,一方面他很激动、兴奋,但也觉得有很大责任,“我们是个商业机构,能不能把这么酷的技术变成人人需要的产品?”这一步才是最难的,他觉得这很伟大、最能产生影响力。 对未来充满信心,希望有新业务跑出来 今年第三季度财报会上,李彦宏告诉参会的分析师们,随着大城市新冠疫情缓解,百度在旅游、本地服务等垂直领域的广告收入应该会反弹。 随着中国调整新冠病毒防控政策,李彦宏预期正变成现实。根据多家在线酒旅平台数据,从12月中旬以来,元旦出行的火车票、机票预订量持续增长,单日增幅超过30%。 在全员会上,李彦宏说他经济的长期发展感到乐观,有挑战不表明没有机会,“不论是对于中国的机会,对于百度的机会,对于我们每一位同学的机会,还是有非常非常多能够让人期待的地方”。 “中国人很想干事儿,非常勤奋,非常努力,一旦有机会的话,就很多人真的会冲上去”这是整个民族的特点。“我很推崇这样一种文化,这样一个民族的特点”。 李彦宏说。 全员会的最后,李彦宏还分享了自己新一年的目标。他说对于新业务来说,不论团队上报的指标是什么,他都会设定一个高不少的指标。 对于多个业务,李彦宏不用“和”而是用“或”把它连接起来。“有三个或者四个新业务,只要有一个业务跑出来,我就觉得做的不错”。 多位百度内部人士说,目标设定的方式体现“Robin理性乐观主义者”的一面。 李彦宏说,现在离2022年已经没几天,那个“或”还是0,希望 2023 年“或”出来一个1。“有机会,但不容易,设目标应该设成这样子。”
lg
...
金融界
2023-01-06
新名词来了,涨5%的AIGC是什么?
go
lg
...
深度学习模型不断完善、开源模式的推动、
大
模型
探索商业化的可能,AIGC有望加速发展。 对于分不清各种细分概念的投资者,既想布局处于放量前夕的新技术(AIGC),又想要布局进入加速放量期的国产替代细分方向(操作系统等),可以关注软件ETF(515230)和计算机ETF(512720)。 说到元宇宙,游戏被业界普遍认为是最有可能率先实现“元宇宙”的领域,今日表现也较为亮眼,游戏沪港深ETF和游戏ETF分别收涨3.11%和2.75%。 游戏产业天然就具有虚拟场域以及玩家的虚拟化身。根据安信证券提出的元宇宙投资框架,游戏属于元宇宙应用的“内容与场景”端,硬件及软件(VR/AR/MR/AIGC)等技术成熟后,游戏端或是元宇宙产业链 to C 流量端。预计2025年中国云游戏市场规模达342.8亿元,云游戏或将打破终端壁垒。 还要考虑到最近又放了一大批版号,2022年12月28日,国家新闻出版署下发2022年进口版号,共下发44个进口网络游戏版号,其中移动版号数量33个,客户端版号数量9个,主机游戏版号数量2个。其实此次版号下发数量是超市场预期的,特别是腾讯获得的端游和手游版号大作数量较多,有望拉动2023年游戏行业流水复苏。可以关注游戏沪港深ETF(517500)和游戏ETF(516010)。 (来源:界面AI) 声明:本条内容由界面AI生成并授权使用,内容仅供参考,不构成投资建议。AI技术战略支持为有连云。
lg
...
有连云
2023-01-04
银行智算中心部署浪潮AIStation,模型训练效率提升7倍
go
lg
...
近1000种,但同时缺乏大规模分布式、
大
模型
训练算力基础设施所需的资源管理和开发平台,导致某些业务的模型迭代周期较长。同时由于业务部门分散,缺乏有效的算力统一管控平台。 浪潮智能业务生产创新平台AIStation通过不断的技术创新与实践,将大规模GPU并行计算优化能力与AI算力池化智能化调度结合起来,成功将典型AI模型的训练周期由1周缩短为1个工作日,支持银行AI业务场景快速上线,已在大型国有银行落地。本文将阐述浪潮如何在具体业务场景下帮助银行智算中心快速构建AI生产创新平台,实现高性能、高可靠、高扩展。 全生命周期管理的AIStation平台,助力银行业务创新 完备的任务全生命周期管理能更好地支持银行智算中心,帮助开发者快速使用算力,协助管理者管好资源,实现业务快速创新。 AIStation平台提供了作业全生命周期管理,能够让开发者跟踪作业状态、为训练优化提供必要的信息、分析平台资源使用率状态、帮助制定资源使用率提升方案。同时提供完备、高效的异构计算资源管理,从数据加速、网络优化、业务系统无缝对接等维度保障银行业务,实现开发者便捷无感知的开发模式和管理者高效可控的管理模式。 便捷高效异构计算管理,充分发掘算力价值 目前异构人工智能芯片发展迅速,越来越多银行智算中心正在从传统架构迁移至异构算力架构,但面临异构芯片种类多、管理复杂、开发门槛高等难题。 针对异构算力资源接入与管理,AIStation平台建立了加速卡管理模型,可以实现零业务代码修改和异构算力资源接入、配额管理、算力使用的配置化流程,以及异构加速卡的类型识别、算力识别。同时提供报表统计、监控告警功能,使平台管理员能够获取异构算力的健康状态及使用情况,可以通过配置化的方式实现异构算力资源的接入和管理。目前,AIStation已经适配了超20款当前市场主流不同架构的加速卡,具有良好的适配性和通用性,能够充分满足不同业务场景对银行智算中心的算力要求。 镜像分发加速,降低分布式任务的环境准备时间 通常情况下,计算集群在为训练任务分配了资源后,节点将准备环境(如下载作业镜像),此时加速卡算力资源处于完全空置状态。尤其是分布式作业涉及多个计算节点并发下载镜像,对镜像仓库产生较大压力,导致镜像下载较慢甚至失败,严重浪费了算力资源。 AIStation提供了镜像P2P分发加速功能,能在无需新增硬件的情况下实现镜像分发加速。镜像仓库仅提供一次下载带宽,镜像加速系统即可在计算节点缓存镜像数据,并为其他计算节点的镜像下载提供数据服务,同时提供节点数线性相关的镜像网络总带宽,有效降低了分布式任务的环境准备时间。实测证明可将耗时降低至原来的1/2。 此外,AIStation具有节点数据缓存功能,可以仅进行一次性存储系统读取,依靠本地高速磁盘消除网络传输时延,极大提高了存储IOPS,加速训练效率,能够将典型AI模型的训练周期由1周下降为1个工作日。并且AIStation在缓存机制基础上提供了缓存生命周期管理,在磁盘使用率不高时尽可能缓存数据,同时实现数据亲和性调度。 大规模分布式作业的另一大挑战是异常故障处理。由于分布式任务使用了更多的资源,因而更容易受到硬件、网络等故障的影响,进而引发训练中断。一般来说,分布式任务异常处理需要人工介入操作,时效性无法保障,并且还需要一定的人工经验判断任务失败的具体原因和解决方法,对算法人员的要求较高。AIStation平台提供了完备的故障检测识别、任务容错的机制,在故障发生时能够识别当前故障类型,对于通过重启即可恢复的故障(如加速卡故障、网络故障等),平台自动触发训练任务的重提。AIStation通过自动化流程,提高了故障处理效率,节省了集群机时资源,提高了资源利用率。 领先网络方案,实现GPU资源灵活调度 银行智算中心网络构建方案目前有很多,其中RoCE网络基于以太网协议实现RDMA,可以复用已有数据中心的网络设备,从而降低集群搭建成本。基于RoCE的网络方案,需要充分考虑GPU资源的协调调度,实现物理主机GPU的共享使用,来满足训练任务任意GPU数的需求,同时也需将RDMA网卡透传到容器内,以满足跨节点GPU的RDMA通信需求,但是目前还没有一个有效的解决方案。 浪潮提出基于RoCE网卡虚拟化和网络互通性管理相结合的解决方案,实现了在容器云平台上对RoCE网络的快速接入适配,同时降低网络适配难度。方案已部署到某大型国有银行的实际生产环境中,帮助客户解决了GPU资源碎片的问题,实现RoCE网络下GPU资源灵活调度分配,实际效果超出了客户预期。 RoCE网卡虚拟化:对于AI训练网络,存在多种实现网络设备共享的方案,例如MacVLAN、Calico、Flannel、SR-IOV等。考虑到RoCEv2实现RDMA通信的机制,我们选择了SR-IOV技术,通过SR-IOV将宿主机的物理RoCE卡(PF)虚拟化为多个RoCE网卡(VF),实现了一对多的场景要求。 网络拥塞控制:基于AI平台运行训练任务时,任意节点GPU都可以与其他节点GPU进行通讯,这必然会出现网络流量 “多打一”的场景。为了保证RDMA网络高带宽、低延时,必须解决拥塞问题实现无损传输。AIStation提供交换机测、宿主机侧、容器侧的流控管理配置,从而避免网络拥塞导致训练性能下降。 网络互通性管理:目前大部分AI训练任务都是基于NCCL提供训练加速,但基于NCCL架构的方案,只会关注本机的GPU与本地RDMA网卡信息,并不会考虑是否与远端的RDMA网卡能正常通信。RoCEv2是基于UDP协议实现RDMA通信,此时需要发送端和接收端的RoCE网卡都能够正常通信,否则不同节点GPU无法基于RoCEv2实现RDMA通信。AIStation基于自研的网络互通性管理功能,保证了集群中任意GPU间互通性。 性能测试表明,在浪潮AIStation平台容器内基于不同网卡进行通讯时,在不同的数据包大小下,性能和时延都没有损失。针对银行业务特点,AIStation测试了大规模图像类别训练任务,采用ResNet50并使用ILSVRC 2012数据集测试加速比,结果显示大规模分布式训练的加速比达94%以上,性能优异。同时物理主机RDMA网卡能够透传到容器并能够基于RoCEv2完成RDMA通信,在有多个RoCE网卡时,能够根据GPU与高性能网卡的拓扑关系、NCCL亲和性等选择最优的RoCE网卡进行跨节点通信。 强大的平台对接能力,实现用户业务无缝对接 银行业务具有多样化和精细化的特点,在进行AI业务时一般需要多个系统支撑与协同,包括数据采集系统、数据处理系统、AI开发训练系统、模型管理系统、推理服务系统、运营管理系统等。虽然内部通用平台能够把各个系统整合起来,但AI开发训练系统中的AI资源管理、AI单机和分布式训练任务全生命周期管理、异构算力管理等方面能力是欠缺的,很难达到AI业务需求。 针对银行内部复杂的系统、业务流程,AIStation平台提供了通用的AI业务调用接口能力,以达到简化流程和整合能力的目的。同时兼容异构资源任务,让银行无需关心底层资源部署和连接情况,把精力放在业务处理上。AIStation平台提供了涵盖任务、数据全生命周期管理、集群资源监控和报表的全能力域API接口,帮助管理者掌握集群运行情况。同时平台API管理实现了全程加密传输以保证数据安全。通过丰富、完备且安全的API接口,AIStation能够快速与银行已有系统集成,让银行快速拥有专家级AI算力基础设施管理能力。 总结 浪潮AIStation在某大型国有银行的实践中取得了显著的示范效果。通过以上关键技术实现了GPU间通信性能大幅提升,减少节点间网络通信开销,提升整体处理性能,有效降低总能耗。同时可以减少机柜占用,提高集群算力密度,实现基础资源降本增效。助力构建高性能、高可靠、可扩展的软硬件系统架构,实现AI训练场景下算力资源的统一管理与智能化调度。 浪潮AIStation为银行前沿的大规模人工智能模型开发训练和场景应用打下了坚实的技术基础。未来,浪潮信息将继续通过全栈智算能力赋能金融AI业务创新,推进金融数字化转型和数字经济高质量发展。
lg
...
美通社
2022-12-30
12月30日国内四大证券报纸、重要财经媒体头版头条内容精华摘要
go
lg
...
2年中国AI市场规模将达130亿美元
大
模型
已具备“通用智能”雏形 报告预测,2022年中国人工智能市场相关支出将达到130.3亿美元,并有望在2026年达到266.9亿美元,2022至2026年年复合增长率达19.6%。其中,人工智能服务器仍是人工智能市场增长的主力军。IDC数据显示,2021年全球人工智能服务器市场的同比增速为39.1%,超过全球整体人工智能市场增速(20.9%),是整体人工智能市场增长的推动力。 第一财经 记录2022 推动2023:十大“热词”看中国产业升级 2022年,面对复杂多变的国际环境和艰巨繁重的国内改革发展任务,中国经济迎难而上,发展动能正逐渐切换,经济的高质量、可持续发展,以及自主可控技术、数字经济、生命科学等所带来的机遇正在显现。 2022年房地产金融:大小政策超千条 三支箭齐发5万亿元资金在路上 从LPR三连降到数百个省市(县)因城施策逾千条,从监管定调“保交楼”到“三支箭”齐发,政策的着力点从稳需求拓展到保项目、助房企。期间银行未能避免不良率攀升,但开发贷、并购贷、按揭贷的投放还在集中度要求下择优进行;信托、AMC在自身艰难转型中积极纾困,带动出险企业优质项目复工复产;银行间债券市场携手中债信用增进公司,为民企融资保驾护航。 经济参考报 机构投资者前瞻2023年投资机会 业内人士普遍认为,近期债券市场波动是对银行理财子公司稳健经营的一次重要考验,考虑到理财产品的期限错配和市场规律,债券收益并不会持续下行。与此同时,随着一系列政策措施的起效,2023年我国宏观经济大概率将企稳回升,权益市场投资也将迎来机会,其中数字经济、老龄化带来的产业变革,以及消费等多个领域都值得关注。 虚拟现实产业加速融合千行百业 随着技术日趋成熟以及应用加速落地,我国虚拟现实产业正进入一轮爆发期。中国电子信息产业发展研究院预计,2025年我国虚拟现实产业的规模有望超过2500亿元,可能带动万亿元的市场规模。 (文章来源:东方财富研究中心)
lg
...
东方财富网
2022-12-30
百度袁佛玉:AI最快40天搭建一个独立元宇宙
go
lg
...
示,百度在人工智能芯片、深度学习框架、
大
模型
等领域,均具备全球领先的自研技术,这使得百度可以发挥AI与云的优势,通过提供云智一体的元宇宙基础设施,以开放合作的方式帮助客户搭建元宇宙空间、发展元宇宙业务。 袁佛玉透露,百度打造了全球首个独立元宇宙底座“希壤MetaStack”,帮助企业从0到1快速搭建独立的元宇宙。基于人工智能,百度将一个独立元宇宙的开发周期,从6个月到1年,缩短到最快40天。
lg
...
金融界
2022-12-22
AI应用落地再起高潮,高智商AI反杀诈骗犯
go
lg
...
- 近日,B站一位开发者UP主基于开源
大
模型
"源1.0",开发了一个能够无障碍进行微信聊天的人工智能"小源",并在与骗子的真实对话场景中进行测试,破解"杀猪盘"诈骗套路,识破诈骗话术,进而加深公众对诈骗套路的认识,增强公众的反诈骗意识,减少网络诈骗受害者。 "杀猪盘"是当下一种交友婚恋类网络诈骗:诈骗分子利用网络交友,诱导受害人投资赌博的电信诈骗方式。 诈骗分子准备好人设、交友套路等,通过建立恋爱关系,最后骗取钱财,而他们的目标女性一旦被锁定,无论最终结果如何,都将"渡劫"。从此类诈骗手段的名称——"杀猪盘"就能看出,在这场圈套中,目标女性已不再被诈骗分子视为"人",而是浑身洋溢着金钱味道、等待被用感情装饰的大刀挥下的"猪",目的极其恶劣。 以"杀猪盘"为代表的情感诈骗,不仅给受害者带来巨大金钱损失,更带来严重感情伤害,甚至屡屡导致自杀事件发生。 诈骗团伙一般身处境外,伪造身份信息并通过各种社交平台寻找对象,若要根除这些团伙仍需时间,因此自身防范与识破套路的防御能力就变得尤为重要。 然而"以身试险"代价太大,在这个高科技发达的时代,能用魔法打败魔法吗? 情感诈骗毒瘤"杀猪盘",用黑科技打败黑魔法 先看下这几张聊天截图: 小源是一线城市独生女,房车双全,工作体面稳定,唯独爱情还未开花结果,但她在赛博世界遇上了一份缘。 而对面正是一位从事金融行业的北京男孩,不仅性格爽朗体贴,经济上更是独立,随便一个项目就能小赚几百万,对她还很热情。 但都说谈钱伤感情,小源也未能幸免,面对投入资金进行共同投资的要求,我拒绝了对方,他因此认为小源没有和他走下去的心意,后来甚至恶语相加。 很明显,小源成为了这次杀猪盘的目标,但也不要太为"她"捏把汗。 因为严格来讲,上述聊天截图真假参半,真的是:确实在与怀有别样目的性的男士在文字聊天,假的是:这位女生并非真实人类,而是人工智能。 这是一位开发者B站up主@图灵的猫 基于开源预训练中文模型"源1.0",开发了一个能够无障碍进行微信聊天的人工智能"小源",并在与骗子的真实对话场景中进行测试,试着观察AI如何与骗子斗智斗勇。 为了让骗子上钩,@图灵的猫 在多个社交平台注册了账号,然后根据反诈中心发布的受害者画像,为账号定位了单身、多金、高学历乖乖女等身份标签。果不其然私信爆炸。 AI通过大量学习,能更好地掌握对话规则,反套路诈骗犯,破解"杀猪盘"诈骗套路,识破诈骗话术,进而加深公众对诈骗套路的认识,增强公众的反诈骗意识,减少网络诈骗受害者。 目前@图灵的猫已将这一AI反诈项目已在Github上开源: https://github.com/Turing-Project/AntiFraudChatBot "杀猪盘"往往是有套路的,AI在对话中,又是如何见招拆招的呢? 当诈骗份子遇上AI:一场各怀心思的文字交锋 这是一场文字上的交锋,哪怕是AI上场,所谓的"见招拆招"需要有丰富的语料作为储备。 本次项目基于的NLP
大
模型
浪潮"源1.0"是浪潮人工智能研究院研发成功的大规模中文语言模型,参数量高达2457亿,于2021年9月发布时即超越此前由美国OpenAI组织研发的1750亿参数量的英文语言模型GPT-3,成为全球最大规模的人工智能语言模型。 有了"源1.0"作为智能基础,开发者还在对话机制上进行了一些设计,让AI对话起来更加自然,比如:设定每条信息的回复间隔,模拟真实打字速度(total_len / 10 * 2s)。 万事具备,就开始交锋吧。另外,作为一名潜在受害者,小源也并非事先知道哪位找她来聊天的是诈骗犯,"她"将和我们一起在沟通中发现蛛丝马迹并进行防御,"她"发现蛛丝马迹的过程正是为公众识别诈骗做出的示范。 当然为了避免误伤,开发者设定了一些严格的筛选条件,例如人设背景完美但关键信息模糊、照片确认为网图、从事如私募、证券或投行等高端行业等,满足这些条件的人才会让小源接管对话。 之前就提到"杀猪盘"有一套严格的诈骗套路,规范的话术流程,诈骗犯把受害者叫做"猪": 第一步,"找猪"指私加好友。面对小源,诈骗犯也一上来就通过旁敲侧击来打听女生的现实情况,小源也会根据对方提供的信息做出反应,一些俏皮玩笑语句输出,让对话有来有回。 第二步,"喂猪"指盗用他人优质资料包装自己,灌输自己很成功、很优秀等信息,获取受害者的信任。 开始了开始了,他开始装了。没关系,根据他给的信息,小源也会给他舞台,还给对方起了"富哥"作为昵称,拉进彼此距离。 第三步,"养猪"指恋爱过程,这也是往往受害者放下警惕,交出信任的过程,诈骗犯在这一步都表现得深情款款,试图让对话氛围蜜里调油,并且说一些套路骚话来确认"恋爱关系"。 到了这一步,小源已经识别出他是诈骗犯了,那么为了反套路诈骗犯,小源装作上套,也表示喜欢诈骗犯。 "杀猪盘"其实就是一种规则化、模式化的对话博弈,诈骗犯本就毫无真心真情,只求在一来一回的对话中让受害者放低心理防御。在开发过程中,传统的无目标导向的"开放域对话"或"词槽式目的域对话"方案都表现不佳。 与GPT-3不同的是,"源1.0"更加擅长的是零样本(Zero-Shot)和小样本(Few-Shot)学习,而非目前更多模型所擅长的微调试学习(finetune)。在中文语言理解评测基准CLUE榜单的零样本学习(zero-shot)和小样本学习(few-shot)均取得过总榜第一的成绩。 从实际应用效果来看也确实如此,在1~ 3个,甚至只有1个合适example的示范下,模型就可以实现开发者希望达到的"对话策略",比如反套路、用语料抛梗等等,让AI看起来能够对骗子具备识别能力,本质上这也是一种query->value的查询匹配。 而开发者在本次项目中,example语料主要抽取自B站和贴吧的热门评论,一来因为评论是天然的对话形式,有显式的回复与被回复关系;二来自古评论出人才,一些金句和梗可以把人机对话变得不那么生硬,就像"富哥V5"、"小黑子,露出鸡脚了吧",以及"喵"、"捏"都是颇具网感的语句和语气助词。 具体语料经过人工筛选,过滤不当言论,再处理成prompt格式。 以下是Prompt Example的生成样例: 第四步,"杀猪"指欺诈过程。这是诈骗犯的终极目标,于他们而讲,能不能成就这一哆嗦了,而对受害者来说,这也是涉及财产有无损失的关键一步。 在这个项目里,诈骗犯在循序渐进、有意无意地总是提到一个利润率很高的项目,试图给对方留下高回报率的印象。 这是一个连环计,这时候就要考验到AI的记忆力了。由于微信聊天是多轮对话,AI有时并不记得自己或对方上一句说过什么。 "源1.0"具备记忆能力,开发者同时参考了LSTM的思想,为系统增加了记忆机制,具体机制如下: 聊天记录放入记忆区,在每次回复时计算相似度,超过相似度阈值的历史对话将被AI读取使用;并且设定遗忘窗口M,超过M/2轮次的对话将被pop() 这样,AI就能够实现简单的长短期对话记忆,比如昨天聊过的内容或上一轮对话内容。 带着这样的记忆,当过了两天当诈骗犯再试图和小源聊天时。小源也顺着对方问出了"在哪里可以买到"的话: 当然,聊归聊,开发在进行开发时就给小源加上了"思想钢印"——凡是涉及投资理财、引导资金投入的都是诈骗。 哪怕是面对诈骗犯的威逼利诱,小源依然不为所动,坚持声称自己没有钱,并提出向诈骗犯借钱。 到了后来,AI直接金蝉脱壳来一波反杀,面对PUA话术和挑衅行为,直接点出对方违法要求和"她"去警局自首,反将一军。 AI向善,感性与创新引导下的理性应用 据开发者@图灵的猫介绍,对话中的这位Henry骗子哥,只是主动找上"小源"的其中一位聊天对象,还有13位"嫌疑诈骗分子",这个数字还是在开发者已经进行了一波筛选之后。 小源完美的待嫁单身女生形象,吸引了无数人,私信爆炸。可以想象,同样条件的人类女生在社交网站上是多么危机四伏,随时都可能成为受害对象。 人类和AI的最大不同在于,多数时候人类的感性是占据上风的,做不到AI那样的绝对理性,所以才会不知不觉间落入圈套。 但正是这样感性的驱动下,AI在我们日常生产生活所发挥的空间才无穷,因为人工智能等先进技术的本质仍是工具,而工具所谓的善恶倾向则取决于人类的出发点。 就如同@图灵的猫 这样的开发者因为身边有遇到过杀猪盘的朋友们,进而义愤填膺基于"源1.0"
大
模型
开发出AI反诈"工具人"小源,提醒广大女性提高警惕性,注意防范网络上的陌生人。 人类善用AI的智慧定会胜过日益强大的AI技术。 如今,人工智能已经从点到面渗透到更多行业、更多领域的各类场景,创新不断。作为通用的巨量中文AI模型,"源1.0"具备优秀的自然语言理解和自然语言生成的能力,可以作为新一代认知智能的引擎,适应广泛的下游AI任务,自开源问世以来,不少开发者和相关机构都基于此进行了诸多创新应用。 "源1.0"可以完成各种风格、类型文本的生成,如新闻资讯、金融行研、办公公文、法律文书、广告营销、网络文学、诗词歌赋、食谱菜谱等。 超1000家用户,采用"源1.0"提供的数据和API显著提升了金融、互联网、医疗和自动驾驶等行业应用的精度; 源1.0已经与多个行业用户开展深度合作,支持手机智能语音助手、大型互联网翻译平台等应用的AI智能化升级…… 除了这些相对"常规"的操作,不少开源社区的开发者们通过源1.0的开放开源平台进行了创意实现。 在文娱方面,一群来自上海学生开发者创作的"AI剧本杀"就是其中代表,曾在GitHub引发热烈讨论。 Github链接:https://github.com/bigbrother666sh/shezhangbujianle 在心理辅导方面,自香港浸会大学社会工作系副教授 陈智达教授负责的运用AI模拟求助者支援社会服务工作者培训项目。 在上述案例中,AI在不同领域以意想不到的方式发挥着自己的潜力,也帮助着诉求不同的开发者们拓宽创新的边界。这些创新想法或许早就出现在他们富有想象力的脑海中,而将"灵光乍现"变成可实现、可落地的应用,很大程度上需归功于外部技术环境的变化,例如,如今以"源1.0"为代表的
大
模型
已经成为人工智能算法基础设施,正在普惠千行百业。 事实上,创新往往并非无中生有的顿悟,而是某一领域发展到一定阶段、厚积薄发的涌现,技术是向善的工具,亦是创新萌发的沃土。
lg
...
美通社
2022-12-21
浪潮信息刘军:AI新时代,智算力就是创新力
go
lg
...
就是创新力? 当今在人工智能前沿领域的
大
模型
,就是在智算算力驱动下重大创新的典型,比如GPT-3,浪潮“源1.0”等等,这些
大
模型
发展的背后是算力的极大支撑。 我们提出用“算力当量”来对AI任务所需算力总量进行度量,单位是PetaFlops/s-day也就是PD,即用每秒千万亿次的计算机完整运行一天消耗的算力总量(PD)作为度量单位。一个任务需要多少PD的计算量,就把它视为这个任务的“算力当量”。GPT-3的算力当量是3640个PD,源1.0是2457亿的参数的
大
模型
,它的算力当量是4095个PD。 当前元宇宙非常关注的数字人的建模和渲染方面,如果要做一个栩栩如生的人物形象的创建和渲染,以《阿丽塔:战斗天使》来举例,它平均每一帧需要花100个小时来渲染,总共这部影片的渲染计算使用了4.32亿小时的算力。 在自动驾驶领域,特斯拉创建了DOJO的智算系统,用于感知模型的训练和仿真。它的FSD全自动驾驶系统的融合感知模型,训练消耗的算力当量是500个PD。 在备受关注的AI+Science领域、蛋白质的结构预测、分子动力学的模拟、流体力学的仿真,它不仅融合了传统的HPC计算也融合了当今的AI计算。比如说,经常被提及的AlphaFold2,它的训练消耗的算力当量是300个PD。与此同时,为AlphaFold2训练所做的数据准备,需要花费200M CPU-hours HPC算力。 我们可以确切地认识到,今天在AI领域的众多创新背后离不开智算力的支撑,可以说智算力就是创新力。 接下来和大家来分享当前智算发展的三个重要的趋势:算力多元化、模型巨量化以及元宇宙。 算力多元化需要软硬一体的支撑平台 第一,算力多元化。Henessy和Patterson在几年前的《计算机架构的新黄金时代》中提出了特定领域的体系架构Domain Specific Architectures(DSAs)的概念,这也可以用来解释为什么今天我们会看到这么多的多元算力芯片。 在中国,市场上有十几种的CPU芯片,有将近一百种AI算力的芯片。为什么会有这样的需求?今天算力的应用场景是多元化的,不同的场景需要不同的计算精度类型和计算特征。比如说,高性能计算里面可能会需要FP64双精度计算,AI训练需要使用数字范围更大、精度低的16位浮点计算,AI推理可以使用INT8或者INT4格式。而为适应这些计算的特点,需要我们引入多元的芯片来进行支撑。如何从软件和硬件上来应对这样的挑战?浪潮信息认为,重点是从系统的硬件平台和软件角度来进行相应的创新支撑。 首先是在硬件方面的系统支持,当今AI计算用的非常多的还是采用英伟达GPU的AI服务器。但是对于其他品牌的AIPU来说,要用什么样的一个AI服务器系统来支撑呢?浪潮信息打造了全球首款开放加速的AI服务器,在一个系统里能够支持8颗国内最高性能的AI芯片进行高速互联,从而能够完成大规模的模型训练所需要的算力。芯片之间使用了开放加速的接口标准,芯片间可以进行高速通信。今天,这个系统已经可以支持多个品牌的国内最高端的GPU和AIPU,并且已经在众多的客户场景里面实现了落地。同时,它还支持先进的液冷技术,使得我们构建的AI算力集群的PUE会低于1.1。 作为智算中心的核心,如何来调度多元的算力?这是一个平台软件方面的挑战,浪潮为此推出了业界首款智算中心算力调度软件AIStation,实现了对异构AI芯片进行标准化与流程化管理,不仅能够充分发挥多元异构芯片的性能潜力,并且能够提升智算中心的整体效能。从基本的接入适配到业务应用在异构算力的使用优化,AIStation提供了完备的工具与解决方案,与传统开源方案相比,芯片接入稳定性方面提升30%,减少接入工作量90%以上。标准化、流程化也使得AIStation在芯片管理种类上达到了业界前列,已经支持了30多款国内外最顶尖的AI芯片,包括X86和ARM等CPU芯片、FPGA芯片,也包括今天应用非常广泛的GPU和AIPU,例如像英伟达的GPU系列,以及各类国产AIPU等等。 我们做了众多的实践落地,位于宿州的淮海智算中心采用全球领先的“E级AI元脑”智算架构,通过开放多元的系统架构,在底层基础设施层支持通用处理器、通用加速处理器、专用芯片、可编程芯片等,通过AIStation实现了异构算力的调度,提供FP64、FP32、FP16、INT8等多种精度的计算类型支持,并支持国内外主流的深度学习的框架、数据库、数据集以降低用户的学习成本。
大
模型
成为AIGC算法引擎 第二,
大
模型
。
大
模型
正在成为AIGC的算法引擎,今天大家看到的DALL・E或者Stable Diffusion的背后都是
大
模型
在驱动。
大
模型
使得AI从五年前的”能听会看”,走到今天“能思考、会创作”,下一步甚至于到“会推理、能决策”的进步。但是我们知道
大
模型
带给我们的是在算力方面巨大的挑战。如何能够把
大
模型
的能力交付到众多的中小企业中,帮助他们实现智能化的转型,是我们今天要去解决的重要课题,所以在这方面我们认为Model as a Service(MaaS)是比较好的一种方式。 今天,在
大
模型
的能力加持下,AIGC,包括文本生成、文生图以及虚拟数字人等应用都会快速的进入到商业化阶段。 “源1.0”是浪潮去年推出的中文语言巨量模型,拥有2457亿参数,在众多的评测里面表现出了非常优异的成绩。团队围绕深度学习框架、训练集群IO、通信开展了深入优化,构建了面向
大
模型
的软硬件协同体系结构,训练平台的算力效率达到45%,这遥遥领先于GPT-3、MT-NLG这样的
大
模型
。同时,通过在AI编译器与深度学习推理框架上的优化,“源”已经实现了对多元AI芯片的支持。 下面分享几个基于“源1.0”构建的实际应用案例: 第一个案例是AI剧本杀。剧本杀是大家比较熟悉的游戏,一位开发者基于“源1.0”构建了一个AI角色来和人类玩剧本杀,玩到最后其他人类玩家都很难察觉到自己是在和AI一起玩剧本杀,因为AI在这里面所表现出来的场景理解能力、目的性对话能力是我们在传统的AI算法上面很难见到的。目前项目已经在GitHub上开源,大家感兴趣可以尝试。 第二个案例,上海一个开发者群体基于“源1.0”构建了数字社区助理,类似于给我们的居委会打造了一个教练员,通过让AI模拟来居委会咨询的居民,提升社区工作者应对居民突发状况服务的能力,这种将
大
模型
反向应用于教培领域的案例给AI发展带来了更多想象空间。 最近,大家都在讨论ChatGPT,简单来说它就是基于
大
模型
的面向长文本、多轮对话的AIGC应用。其实我们基于“源1.0”也开发了公文写作助手。现在大家希望有个助手来协助写总结报告、学习体会,所以我们希望打造一个写作助手来帮助大家进行长本文创作。其中,我们突破了可控文本内容生成技术,解决了长文本内容偏移问题,生成文本的语义一致性高达96%。这样的优化使得我们的中文写作助手能够带来非常惊艳的效果,目前我们的产品处于内测阶段,欢迎大家来申请使用。 我们把“源”
大
模型
应用在浪潮自己的业务上,赋能自身业务智能化转型。浪潮信息是中国最大、全球第二的服务器厂商。我们拥有一个覆盖非常广泛的客户服务系统,传统的智能客服更多是基于规则和提炼的知识来构建的问答系统,这样的问答系统大部分情况下是不能帮客户满意地解决问题的。今天基于“源1.0”构建的浪潮信息智能客服可以进行长文本的内容生成,能够持续地多轮对话,同时非常重要的是它不仅仅是基于知识规则而构建的问答系统,它可以自己去阅读和服务器相关的产品技术文档,我们说它可谓是服务器的“服务大脑”,在它的支撑下,浪潮信息的客户服务效率得到了大幅的提升,这个项目荣获了《哈佛商业评论》鼎革奖,即年度新技术突破奖。 元宇宙需要强大的算力基础设施 第三,元宇宙。大家可能会惊奇元宇宙需要算力吗?我们告诉大家,元宇宙非常需要算力。元宇宙的构建有四个大的作业环节,协同创建、高精仿真、实时渲染、智能交互,每一个环节上面都需要大量算力做支撑。比如说,在高精仿真的阶段,要实现元宇宙场景中逼真的、符合物理定律的仿真,不仅需要AI计算,同时还需要HPC算力。在图形渲染环节,不仅传统的光线追踪、路径追踪等图像渲染算法需要大量算力,当今基于AI的DLSS等算法也需算力支撑。到了最后的智能交互环节,今天所看到的数字人、多轮的语言交互等等,它背后都是基于算力才得以实现,这就是为什么说元宇宙需要强大的算力支持。 今年浪潮信息推出的MetaEngine元宇宙服务器就是为了应对这样的算力挑战,有兴趣的可以看下我们如何基于MetaEngine来创建虚拟数字人和数字孪生的全过程。 为了推动了元宇宙的快速落地,上个月青田人民政府和浪潮信息和我们合作伙伴谷梵科技一起,签约建设国内首个元宇宙算力中心,用于支撑在青田、浙江乃至于长三角在元宇宙的数字空间创建、数字产业发展,支撑数字经济、数实融合的发展。 我的演讲到此结束。谢谢大家!
lg
...
美通社
2022-12-20
上一页
1
•••
887
888
889
890
891
下一页
24小时热点
特朗普升级贸易战!特朗普又预告重大关税决定 金价惊人暴涨近94美元 如何交易黄金?
lg
...
特朗普、习近平突传重大“关税”进展!比特币9.47万多空交战 黄金3333避险飙升
lg
...
中美重磅消息!特朗普145%关税重创中国工厂 美媒:中国政府准备行动了……
lg
...
特朗普突然拒绝“关税豁免”,究竟怎么回事?
lg
...
没人想看特朗普悬念片、全球又跌了!小心反向亚洲货币危机,美联储来者不善
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
32讨论
#链上风云#
lg
...
91讨论
#VIP会员尊享#
lg
...
1938讨论
#CES 2025国际消费电子展#
lg
...
21讨论