全球数字财富领导者
财富汇
|
美股投研
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
SFFE2030
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
到了2030年 GPT会发展成什么样?
go
lg
...
特定任务上表现出超人的水平,包括编码、
黑客
攻击和数学,以及潜在的蛋白质设计(第 1 节)。 GPT 2030 可以快速“工作”和“思考”: 按照每分钟处理的单词数计算 [范围:0.5x-20x],我估计它的速度会是人类的 5 倍,并且如果 FLOP(每秒浮点运算次数)多付 5 倍价钱的话,还可以提高到 125 倍(第 2 节)。 GPT 2030 可以任意复制,并行运行。训练 GPT 2030 的组织会有足够的计算能力来并行跑多个副本:我估计在调整到人类的工作速度后,一年足以执行 180 万年的工作 [范围:40万-100万 年](第 3 节)。 考虑到前一点的 5 倍加速,这项工作可以在 2.4 个月内完成。由于具有相同的模型权重,GPT 2030 的副本可以共享知识,从而让快速并行学习成为可能:我估计它 1 天的学习量可相当于人类学习 2500 年(第 4 节)。 GPT 2030 将接受文本和图像以外的其他模态的训练,这可能包括违反直觉的模态,比方说分子结构、网络流量、低级机器代码、天文图像以及脑部扫描。因此,它可能对我们经验有限的领域有很强的直觉理解,包括能形成我们没有的概念(第 5 节)。 这些能力至少会加速许多研究领域的发展,同时也会造成严重的滥用(第 6 节)。在滥用方面,GPT 2030 的编程能力、并行化与速度将让它成为强大的网络攻击威胁。此外,它的快速并行学习能力可以用来研究人类行为,进而利用数千“年”的实践来操纵和误导。 在加速方面,主要瓶颈之一会是自主性。在像数学研究这样可以自动检查工作的领域,我预测 GPT 2030 的表现将胜过大多数专业数学家。在机器学习方面,我预测 GPT 2030 可独立执行实验并生成图表和文章,但研究生和研究科学家将提供指导并评估结果。在这两种情况下,GPT 2030 都将成为研究过程不可或缺的一部分。 如果用今天的系统作为参照,我对 GPT 2030 具备哪些属性的预测没那么直观,而且也可能是错误的,因为机器学习到 2030 年会发展成什么样子仍存在很大的不确定性。但是,上面的特性 (第 1 点到第 5 点) 是我的预测中值,不管 GPT 2030 会发展成什么样,我都不会相信它“只是比 GPT-4 好一点而已”。 如果我是对的,那么无论人工智能会产生什么样的影响,影响都不会小。我们现在应该为这些影响做好准备,问问在最大范围内会发生什么(大约在价值 1 万亿美元、影响 1000 万人的生命,或对社会进程造成重大破坏的程度上)。最好是现在就被吓到,而不是在系统已经推出的 7 年后才感到惊讶。 1. 特殊能力 我预计 GPT 2030 会具备超人的编码、
黑客
攻击与数学能力。我还预期,在阅读和处理大型语料库,找到模式和洞察,以及回忆事实方面,它将具备超人的能力。最后,由于 AlphaFold 和 AlphaZero 在蛋白质结构预测与玩游戏方面具有超人的能力,GPT 2030 也可以做到这些,比方说,如果它用的是跟训练 AlphaFold/AlphaZero 模型相似的数据上进行多模态训练的话。 编程。在训练中断后 GPT-4 在 LeetCode 问题上的表现优于人类基线,它还通过了几家主要科技公司的模拟面试(图 1.5)。改进的速度仍然很快,从 GPT-3 到 4 一下子就到提升了 19%。在更具挑战性的 CodeForces 竞赛上,GPT-4 表现不佳,但 AlphaCode 与 CodeForces 竞争对手的中位数持平。在更具挑战性的 APPS 数据集上,Parsel 又比 AlphaCode 更胜一筹 (7.8%->25.5%)。展望未来,预测平台 Metaculus 给出了到中位数年份 2027 年时人工智能在 80% APPS 上都将胜出,也就是说,除最优秀的人类以外,人工智能已经超过人类了。
黑客
攻击。我预期在一般编码能力加持下
黑客
攻击能力也会得到改善,而且机器学习模型用于搜索大型代码库漏洞,其扩展性和细致程度都要超过人类。事实上,ChatGPT 已经被用来帮助生成漏洞。 数学。Minerva 在一项竞赛数学基准测试 (MATH) 上已经达到了 50% 的准确率,这比大多数人类竞争对手都要好。进展速度很快(1 年内 >30%),并且通过自动形式化、减少算术错误、改进思维链与更好的数据,可以获得唾手可得的显著成果。Metaculus 预测到 2025年,AI 对 MATH 测试的准确率将达到 92%,并且到了 2028 年(中位数),人工智能将能赢得国际数学奥林匹克竞赛金牌,与全球最好的高中生不相上下。我个人预计, GPT 2030 在证明“良定义定理”方面会比大多数专业数学家都要好。 信息处理。事实回忆和处理大型语料库是语言模型的记忆能力以及大型上下文窗口的自然结果。根据经验,GPT-4 在 MMLU (MMLU 是一项范围很广的标准化考试,包括律师考试、MCAT 以及大学数学、物理、生物化学和哲学)上达到了 86% 的准确率;即便考虑到可能会出现 train-test contamination(训练集和测试集的交叉污染),这大概也已经超出任何活人的知识范畴。关于大型语料库,Zhong 等人(2023) 曾用 GPT-3 开发过一个系统,后来这个系统在大型文本数据集里面发现了几个之前不知道的模式,并且描述了出来,后来 Bills 等人的相关工作(2023)又扩展了这种趋势,这表明模型将很快成具备超级智能。这两项工作都利用了大型语言模型的大型上下文窗口,现在这个规模已经超过 100000 token 并且还在增长。 更一般而言,机器学习模型的技能情况跟人类不一样,因为人类与机器学习适应的是非常不同的数据源(人类通过进化,机器学习通过海量互联网数据)。当模型在视频识别等任务上达到人类水平时,它们很可能就能在许多其他任务(如数学、编程以及
黑客
攻击)中表现出超人水平。此外,由于模型变得更大数据变得更好,随着时间的推移可能会出现其他的强大功能,预期模型功能“维持”或低于人类水平没有充分的理由。虽然当前的深度学习方法有可能在某些领域达不到人类水平,但它们也有可能会超越人类,甚至显著超越人类水平也说不定,尤其是在人类在进化上不擅长的数学等领域。 2. 推理速度 (感谢 Lev McKinney 为本节运行性能基准测试。) 为了研究机器学习模型的速度,我们测量了机器学习模型生成文本的速度,以每分钟 380 个单词的人类思维速度为基准。使用 OpenAI 的chat completions API,我们估计 gpt-3.5-turbo 每分钟可以生成 1200 个单词 (words per minute,wpm),而 gpt-4 是 370 wpm(截至 2023 年 4 月初)。规模较小的开源模型,如 pythia-12b ,用 A100 GPU 跑用开箱即用的工具,至少可达到 1350 wpm,通过进一步优化似乎可以再翻一番。 因此,如果以截至 4 月份的 OpenAI 模型为参照,人工智能的速度要么大约是人类速度的 3 倍,要么等于人类速度。我预测模型在未来的推理速度会更快,因为在加速推理方面存在很大的商业与实践压力。事实上,根据 Fabien Roger 的跟踪数据,在这篇文章发表之前的一周,GPT-4 的速度已经增加到约 540wpm(12 个token/秒);这表明存在持续的改进空间与意愿。 我的预测中值是模型的 wpm 将是人类的 5 倍(范围:[0.5x, 20x]),因为这之后会出现边际收益递减的情况,尽管有一些考虑会指向更高或较低的数字。 重要的是,机器学习模型的速度不是固定的。模型的串行推理速度可以以吞吐量减少 k 倍为代价将速度提高 k 平方倍(换句话说,一个模型 k 立方倍的并行副本可以替换为速度快 k 平方倍的一个模型)。这可以通过并行平铺法来实现,理论上甚至适用于比 k 平方还要大的情况,可能至少是 100 甚至更多。因此,通过把 k 设为 5 的话,可以将 5 倍于人类速度的模型加速到 125 倍于人类速度。 重要提醒,速度与质量未必匹配:如第 1 节所述,GPT 2030 的技能组合跟人类不一样,机器在某些我们认为很容易的任务上会失败,而在某些我们感觉困难的任务却很精通。因此,我们不应把 GPT 2030 看作是“高速版人类”,而应将其看作是具有违反直觉的技能的,“高速版员工”。 尽管如此,把加速因素纳入考虑仍然很有参考意义,尤其是当加速值很大时。如果语言模型获得了 125 倍的加速,假设其处于 GPT 2030 的技能范围内,需要我们一天时间的认知动作,GPT 就可以在几分钟内完成。以前面的
黑客
攻击为例,机器学习系统可以快速建立起对我们来说生成速度较慢的漏洞利用或攻击。 3. 吞吐量与并行副本 模型可以根据可用的计算和内存情况任意复制。这样任何可以并行化的工作都可以快速完成。此外,一旦一个模型被微调到特别有效,改变就可以立即传播到其他实例。模型也可以针对专门的任务进行提炼,从而跑得更快、成本更低。 一旦模型经过训练,可能就会有足够的资源来跑模型的多个副本。这是因为训练一个模型需要运跑它的很多个并行副本,而训练这个模型的组织在部署的时候仍将拥有这些资源。因此,我们可以通过估算训练成本来降低副本数量。 举个例子说明一下这种逻辑,训练 GPT-3 的成本足以让它执行 9 x 10^11 次前向传播。换句话说,人类每分钟的思考量是 380 个单词,一个单词平均为 1.33 个 token,因此 9 x 10^11 次前向传播相当于以人类速度工作约 3400 年。因此,用人类的工作速度该组织可以跑 3400 个模型的并行副本一整年,或者以 5 倍于人类的速度跑相数量的副本 2.4 个月。 我们接下来为未来的模型设计同样的“训练悬垂”(训练与推理成本的比率)。这个比率应该会更大:主要原因是训练悬垂与数据集大小大致成正比,而数据集会随着时间的推移而增加。随着自然产生的语言数据被我们用完,这种趋势将会放缓,但新的模式以及合成或自生成的数据仍将推动它向前发展。我预测 2030 年的模型可使用足够的资源进行训练,去执行相当于人类速度 1800000 年的工作[范围:400k-10M]。 请注意,Cotra (2020) 与 Davidson (2023) 估计的数量相似,得出的数字比我得预测更大;我想主要区别在于我对自然语言数据耗尽所产生影响得建模方式不一样。 上面的预测有些保守,因为如果组织购买额外的计算资源的话,模型可使用得资源可能会多于训练时所用资源。粗略估计表明,GPT-4 使用了全球计算资源的约 0.01% 进行训练,不过我预计未来的训练占用全球计算总量的份额会更大,因此在训练后进一步扩展的空间会更小。尽管如此,如果组织有充分理由去扩展资源的话,仍然可以将所运行的副本数量提高到另一个数量级。 4. 知识分享 (感谢 Geoff Hinton 首先向我提出了这个观点。) 模型的不同副本可以共享参数更新。比方说,ChatGPT 可以部署到数百万用户那里,从每次交互中学到一些东西,然后将梯度更新(gradient updates)传播到中央服务器,在做过平均处理后再应用到模型的所有副本上。通过这种方式,ChatGPT 在一个小时内观察到的人性比人类一辈子(100 万小时 = 114 年)看过的东西还要多。并行学习也许是模型最重要的优势之一,因为这意味着它们可以快速学习任何自己缺失的技能。 并行学习的速率取决于一次跑多少个模型副本,它们获取数据的速度有多快,以及数据是否可以高效地并行利用。最后这一点,即使是极端的并行化也不会对学习效率造成太大影响,因为数百万的批量大小在实践中很常见,并且梯度噪声尺度(McCandlish 等人,2018 年)预测学习性能在某个“临界批量大小”以下劣化程度最小。因此,我们将聚焦在并行副本和数据采集上。 我会提供两个估计,这两个估计都表明以人类的速度并行学习至少约 100 万份模型是可行的。也即是说,机器一天的学习量相当于人类学 2500 年,因为 100 万天 = 2500 年。 第一个估计用到了第 3 节中的数字,得出的结论是训练模型的成本足以模拟模型 180 万年的工作(根据人类速度进行调整)。假设训练运行本身持续了不到 1.2 年(Sevilla 等人,2022 年),这意味着训练模型的组织有足够的 GPU 以人类速度运行 150 万个副本。 第二个估计考虑了部署该模型的组织所占市场份额。比方说,如果一次有 100 万用户向模型发起查询,则组织必然有资源来服务 100 万个模型副本。大致而言,截至 2023 年 5 月,ChatGPT 拥有 1 亿用户(并非同时全部活跃),截至 2023 年 1 月,其每天有 1300 万活跃用户。我假设典型用户的请求量相当于模型几分钟的生成文本,因此 1 月份的数字可能意味着每天大概只有 5 万人日的文本。不过,未来的 ChatGPT 式的模型似乎很可能会达到其 20 倍之多,日活用户可以达到 2.5 亿更多,因此每天将会有 100 万人日的数据。相比之下,Facebook 的日活用户数是 20 亿。 5. 多模态、工具与执行器 从历史上看,GPT 风格的模型主要是基于文本和代码进行训练,除了通过聊天对话之外,与外界互动的能力有限。然而,这种情况正在迅速改变,因为模型正在接受图像等其他模态的训练,正在接受使用工具的训练,并开始与物理执行器交互。此外,模型不会局限于文本、自然图像、视频和语音等以人类为中心的模态——它们也可能会接受网络流量、天文图像或其他海量数据源等人类不熟悉的模态的训练。 工具。最近发布的模型开始利用了外部工具,如 ChatGPT 插件等。文本与工具使用相结合足以编写出可执行的代码,说服人类让机器替他们采取行动,进行 API 调用,交易,甚至执行网络攻击都有可能。工具的使用具备经济用途,因此会有进一步发展这种能力的强烈动机。 ChatGPT 是被动的:用户说 X,ChatGPT 回应 Y。风险存在但有限。很快就会有主动系统 - 一个助手会替你回复电子邮件,代表你采取行动等。这样风险会更高。 - Percy Liang (@percyliang) 2023 年 2 月 27 日 新模态。现在有大型开源视觉语言模型,如 OpenFlamingo,在商业方面,GPT-4 和 Flamingo 都接受了视觉和文本数据的训练。研究人员还在试验更多奇异的模态对,例如蛋白质和语言(Guo 等人,2023 年)。 我们应该期望大型预训练模型的模式会继续扩展,原因有二。首先,在经济上,将语言与不太熟悉的模态(如蛋白质)配对有它的用处,这样用户就可以从解释并有效地进行编辑中受益。预测会用蛋白质、生物医学数据、CAD 模型以及与主要经济部门相关的任何其他模态进行多模态训练。 其次,我们将开始用完语言数据,因此模型开发人员得搜索新类型的数据,从而可以继续受益于规模。除了传统的文本和视频之外,现有数据源当中天文数据(很快将达到每天艾字节得规模)和基因组数据(大约 0.1 艾字节/天)是规模最大之一。这些以及其他得海量数据源可能会被用于训练 GPT 2030。 使用外来模态意味着 GPT 2030 可能会具备非直觉的能力。它可能比我们更了解恒星和基因,即尽管它现在处理基本的物理任务都比较困难。这可能会带来惊喜,比方说设计出新的蛋白质,这是我们基于 GPT 2030 那种“一般”智能水平预料不到的。在思考 GPT 2030 的影响时,重要的是要思考由于这些奇异的数据源而可能形成的超人能力。 执行器。模型也开始使用物理的执行器:ChatGPT 已经用于机器人控制,OpenAI 正在投资一家人形机器人公司。不过,在物理域收集数据要比在数字域收集数据昂贵得多,而且人类在进化上也更适应物理域(因此机器学习模型与我们竞争的门槛更高)。因此,与数字工具相比,我预计人工智能掌握物理执行器的速度会更慢,而且我不确定我们是否该在 2030 年之前做到这一点。量化而言,我认为在 2030 年实现自主组装一辆按比例复制的法拉利的概率是 40%。 6. GPT-2030 的影响 接下来我们将分析像 GPT 2030 这样的系统对社会意味着什么。具备 GPT 2030 特征的系统至少会显著加速某些领域的研究,同时被滥用的规模也大得很。 我会从分析 GPT 2030 的一些一般优势和局限性开始,然后用来作为分析加速和滥用的视角。 优势。GPT 2030 代表的是一支庞大、适应性强、高产出的劳动力队伍。回忆一下吧,多个 GPT 2030 副本并行工作,按照 5 倍于人类的运行速度,可以完成 180 万年的工作。这意味着我们可以(受到并行性的限制)模拟 180 万个代理,每个代理在 2.4 个月内即可完成一年的工作。如上所述,对于 FLOP (浮点运算),我们可以开出 5 倍的费用,从而换取额外 25 倍的加速(这将达到人类速度的 125 倍),因此我们还可以模拟出 14000 个代理,这些代理每个都能在 3 天内完成一年的工作。 限制。利用这种数字劳动力存在三个障碍:技能情况、实验成本以及自主性。首先,GPT 2030 将拥有与人类不同的技能组合,导致它在某些任务上表现更差(但在其他任务上表现更好)。其次,模拟人工仍然需要与物理世界对接,以便收集数据,这个本身需要时间和计算成本。最后,在自主性方面,如今的模型在被“卡住”之前只能通过思维链生成几千个 token,进入到没法生成高质量输出的状态。在将复杂任务委托给模型之前,我们需要显著提高其可靠性。我预计可靠性会提高,但并非没有限制:我(非常粗略)的猜测是 GPT 2030 可以稳定运行数天(与人类等效的时间),然后就得重新设置或交给外部反馈控制。如果模型以 5 倍的速度运行的话,这意味着它们每隔几个小时就需要人工监督的介入。 因此,GPT 2030 影响最大的任务应该具备以下特性: 利用了 GPT 2030 相对于人类具备优势的技能。 只需要外部经验数据(收集应该很轻松快速,与昂贵的物理实验相反)的任务。 可以先验分解为可靠执行的子任务,或者具有清晰且可自动化的反馈指标来帮助引导模型的任务。 加速。有项任务这三条标准都很容易满足,那就是数学研究。首先,GPT 2030 可能具备超人的数学能力(第 1 节)。这第二条和第三条,数学可以纯粹通过思考和写作来完成,而且什么时候定理得到证明我们是知道。此外,全球的数学家总共也没多少(比方说美国就只有 3000 人左右),因此 GPT 2030 也许每隔几天模拟一次产出就能超过所有数学家的年产。 机器学习研究的一些重要部分也符合上述标准。GPT 2030 在编程方面能力超人,其中包括实施和运行实验。鉴于 GPT-4 擅长以通俗易懂的方式解释复杂的主题(并且市场对此也有很大需求),我猜它也能很好地呈现和解释实验结果。因此,届时机器学习研究可能会简化成构思出好的实验来运行,并与高质量(但可能不可靠)的结果报告进行交互。因此,到 2030 年时,研究生拥有的资源堪比今天带领几名优秀学生的教授手上的资源。 部分社会科学也可以得到显著加速。很多论文大部分的工作是对具备科学有趣性的数据源进行追查、分类和标记,并从中析取出重要模式。这满足了第 3 条要求,因为分类和标记可以分解为简单的子任务,并且也满足第 2 条要求,只要数据在互联网上能找到,或者可以通过在线调查收集到即可。 滥用。加速只是一方面,另一方面也会存在严重的滥用风险。最直接的案例是表现出网络攻击性的
黑客
能力。检查特定目标是否存在特定类型的漏洞可能会得到可靠执行,并且很容易就能检查漏洞利用是否成功(前提是能够与代码交互),因此第 3 条要求是都可以满足的。在第 2 条要求上,GPT 2030 需要与目标系统交互去了解漏洞利用是否有效,这会带来一些成本,但不足以构成重大瓶颈。此外,该模型可以在本地设计好,以开源代码作为训练数据源,去测试漏洞利用,因此它可以提前练好
黑客
攻击技能,然后再与外部系统进行交互。也就是说,GPT 2030 可以针对大量并行目标快速执行复杂的网络攻击。 滥用的第二个来源是操纵。如果 GPT 2030 同时与数百万用户进行交互的话,那么它在一个小时内获得的人机交互体验比人一生(100 万小时 = 114 年)获得的交互体验都要多。如果它利用这些交互来学习如何操纵,那么它就可以获得远超人类的操纵技能——打个比方,骗子擅长欺骗受害者,因为他们之前已经在数百人身上练习过,而 GPT 2030 可以将这项技能提高几个数量级。因此,它可能非常擅长在一对一对话中操纵用户,或者擅长撰写新闻文章来影响公众舆论。 因此,总而言之,GPT 2030 可以将几乎所有的数学研究以及其他研究领域的重要组成部分自动化,并且可能成为网络攻击和说服/操纵等滥用行为的强大载体。其大部分影响将受到“监督瓶颈”的限制,因此如果人工智能可以长时间自主运行的话,那么它的影响可能会更大。 来源:金色财经
lg
...
金色财经
2023-06-19
美币公链MBK如何促进开放式金融生态发展?
go
lg
...
易信息,使得用户数据更加安全、不易受到
黑客
攻击。 2.智能合约保障交易的有效性 MBK公链还使用了智能合约技术来保障交易的有效性。在MBK公链中,智能合约不仅可以自动执行交易,还可以通过监测交易数据来防止欺诈和其他非法行为。这使得每一笔交易都能够得到保障,同时也有助于有效地减少风险。 3.多级安全防护预防
黑客
攻击 在MBK公链中,采用了多级安全防护机制预防
黑客
攻击。首先,在节点的选择上严格筛选,以确保节点的安全性。其次,在交易过程中,采用了双重认证机制,确保只有交易双方才能进行交易。最后,在网络通信时,使用了HTTPS加密技术来保护数据的隐私。 三、MBK公链的隐私保护机制 1.匿名交易保障交易信息安全 MBK公链中,用户的交易信息可以被任何人看到,但是没有人能够知道这些交易的背后是谁。MBK公链通过采用匿名交易技术来保护交易信息的安全,保护用户的个人隐私和数据。在匿名交易中,交易的信息会被加密,难以被窃听。 2.隐私保护保障用户数据安全 在MBK公链上,用户的个人信息被加密存储,并通过SHA-256算法生成唯一标识符来保护用户的数据。MBK公链通过引入隐私保护机制来保护用户的个人信息免受非法获取和滥用。 3.智能合约保护隐私 MBK公链的智能合约使用了零知识证明技术,使得智能合约能够执行特定操作时,不泄露任何用户的隐私信息。这种技术不仅保护了用户的隐私,还能保证智能合约的执行效率和准确性。 四、MBK公链应用案例 1.地方政府与MBK公链合作实行数字化货币支付 由于MBK公链的高效安全性,一些地方政府也与MBK公链合作,实现公共服务的数字化支付。MBK公链的匿名交易保证了交易信息的安全,同时也为公共服务支付提供了可靠的技术支持。 2.区块链游戏在MBK公链上实现 MBK公链还应用于一些区块链游戏中。由于MBK公链的安全和高效性,区块链游戏在MBK公链上实现也取得了很好的成绩。通过MBK公链,玩家可以更好地保护自己的游戏数据,确保用户的隐私和游戏数据的安全。 五、结论 综上所述,随着数字货币的发展,数字资产和个人信息的安全和隐私保护已经成为了重要的问题。MBK公链保障数字资产和个人信息的安全和隐私保护机制已经取得了很好的成绩,同时也应用于一些领域。相信随着MBK公链技术的不断发展,将会为更多领域带来无限的可能。 来源:金色财经
lg
...
金色财经
2023-06-19
盘点2023年Crypto领域五大
黑客
攻击事件
go
lg
...
每年,加密领域都会遭受 100 多起
黑客
攻击,导致个人损失超过 2 亿美元。这一数字让我们深感警觉,同时也给我们上了宝贵的一课。为了更好地了解这些事件,我整理了一个名为「 2023 年最大的五起攻击和
黑客
事件」的清单,下面让我来逐一介绍这些受害者。 1. Euler Finance—— 1.97 亿美元 今年三月,Euler Finance 遭到
黑客
攻击,成为 2023 年最大的攻击事件,损失高达 1.97 亿美元。该攻击是由于在捐赠和清算逻辑中存在缺陷所导致的。攻击者利用闪电贷从 Euler 借入大量 eDAI/dDAI,并通过将这些借来的 eDAI 捐赠给 Euler 进行清算,极大影响了兑换率,从而发生了
黑客
事件。PeckShield Inc. 对这一攻击过程做出了详细的分析,请务必阅读他的这篇推文。 2. Atomic Wallet—— 3500 万美元 仅仅 11 天前,Atomic Wallet 遭受了价值 3500 万美元的
黑客
攻击。被盗资金被转换为比特币,并发送到一个名为“http://Sinbad.io”的混币器,该工具经常被臭名昭著的朝鲜
黑客
组织“Lazarus Group”使用。尽管确切的攻击方式尚不清楚,但我还是推荐大家 Tay 所做的调查。 3. Yearn Finance—— 1154 万美元 两个月前,Yearn Finance 也因闪电贷的错误配置漏洞而遭受了价值 1154 万美元的
黑客
攻击。攻击者利用闪电贷变更余额并垄断 Curve 池,以明显失衡的价格交换稳定币。如果你想了解更多细节,可以查看 OtterSec 的推文以获取更详细的调查结果。 4. MyAlgo—— 920 万美元 由于一个受到攻击的 Cloudflare 密钥,MyAlgo 用户的加密资产损失超过 920 万美元。根本原因尚不清楚,但 ZachXBT 在其推文中对大致情况进行了很好的概述。 5. Safemoon—— 890 万美元 由于智能合约中的一个明显错误,价值超过 890 万美元的加密货币遭受
黑客
攻击。攻击者利用 Safemoon 合约中的销毁功能,销毁 SFM 代币并随着供应量减少提高其价格。然后,攻击者以过高的价格将所有的 SFM 抛售到 WBNB-SFM LP 池中,从而耗尽了整个 WBNB 池。DeFi Mark 对这一情况进行了很好的解释。 总结起来, 2023 年发生的许多超过 1000 万美元的攻击事件都是由于预言机和智能合约漏洞引起的。有趣的是,zkSync 在 2023 年遭遇了最多的跑路事件。 来源:金色财经
lg
...
金色财经
2023-06-18
区块链动态2023年6月18日早参考
go
lg
...
解决方案Midas Capital遭到
黑客
攻击,造成损失超过60万美元,原因是其借贷协议中的整数取舍问题(源自知名的Compound Finance v2代码库的分叉)遭到利用,同样的情况在之前Hundred Finance被攻击的事件中也被利用过。 3 . 6月18日消息,去年6月,Elon Musk收到一项内幕交易的集体诉讼,诉讼指控他参与了狗狗币的“pump-and-dump”活动,并损害了散户投资者,原告律师声称马斯克将Twitter的标志从蓝色小鸟改为狗狗币标志也是他所谓计划的一部分。然而,据《纽约邮报》获得的一封马斯克律师Alex Spiro的最新信函辩称,马斯克并非原告所说的所谓“DOGE鲸鱼”,并在写给原告律师的书面沟通中表示,马斯克拥有特定钱包的指控“毫无依据”,他表示:“您的主张唯一的依据是这些钱包在根据第三次修正起诉书所称,价格上涨时出售了狗狗币。” 4 . 6月18日消息,CZ在链上侦探ZachXBT的置顶推文下回帖,表示币安将捐赠5万美元,并留言“继续战斗,继续保持行业透明”。 此前链上侦探ZachXBT针对黄立成提起的诉讼筹集捐款,以支付法律费用,据Nansen数据显示,0x6eA1开头地址收到的捐款总价值目前总达846,641.76美元。 5 . 金色财经报道,法国银行行长François Villeroy de Galhau周五在巴黎举行的VivaTech活动上表示,需要国际合作来监管加密货币集团。 在一个司法管辖区监管一个法律实体是不够的,他补充说,在美国,加密货币公司有各种法律实体在不同的司法管辖区运作,因此需要国际合作。 虽然他强调欧盟在加密货币监管方面处于领先地位,但可能需要一个新版本的欧盟法规,即 "MiCA 2",以应对加密货币集团。 6 . 金色财经报道,三箭资本的清算人希望法官对联合创始人Kyle Davies处以每天1万美元的罚款,称由于Davies拒绝配合他们对该公司倒闭的调查,他们解除这个失败的加密货币对冲基金的能力受到了阻碍。 3AC清算人的律师在本周早些时候向纽约破产法庭提交的文件中说,这笔巨额罚款是合理的,因为Davies没有回应近5个月前的传票。Martin Glenn法官决定对其处以罚款,他在今年早些时候的一项裁决中说,如果Davies不遵守传票规定并继续缺席诉讼,他有可能被认定为藐视法庭。 7 . 金色财经报道,币安首席执行官赵长鹏在社交媒体发文称,尽管币安坚持认为美国证券交易委员会发布Emergency Relief的请求是完全没有根据的,但很高兴围绕这一请求的分歧并以双方都能接受的条款得到解决。此外,赵长鹏进一步强调称,用户资金在币安所有附属平台上一直是安全的,而且会永远安全。 8 . 6月18日消息,在美SEC对Coinbase的请愿书做出长时间的沉默和模糊回应后,Coinbase向联邦法院提出了正式请求,要求联邦法官迫使美SEC为数字资产行业制定更明确的规则和标准。 Coinbase的首席法律官PaulGrewal在推特上表示,我们不能等到下周的最后期限才处理美国证券交易委员会对第三巡回法院6月6日命令的回应,政府藐视联邦法院的直接问题是不寻常的。法院现在应该批准授权令,因为委员会已经决定不批准Coinbase的规则制定申请,并且正在损害该行业。至少,法院应该命令委员会在不超过60天内报告其行动,并在委员会届时仍未采取行动的情况下及时对授权请求作出裁决。 9 . 金色财经报道,据Dune Analytics最新数据显示,以太坊Layer 2扩容解决方案Arbitrum活跃账户数突破700万,本文撰写时为708.8万个,当前已创建总账户数达到840.6万个。 来源:金色财经
lg
...
金色财经
2023-06-18
MBK公链面临的挑战和机遇:如何实现可持续和稳定的发展?
go
lg
...
节点之间不具备信任关系,因此很容易受到
黑客
攻击。如果MBK公链无法在安全性方面得到保证,那么用户的利益将会受到巨大的损失,从而导致投资者的信心大幅下降。 2.应用落地挑战 区块链作为新兴的技术,虽然发展空间广阔,但应用落地仍是一个难题。MBK公链要想实现可持续发展,就必须不断地吸引应用开发商和用户,并推出更加优秀的应用场景。但是,目前区块链应用的普及度仍不够,这就对MBK公链的应用发展带来了不小的挑战。 3.竞争压力挑战 公链项目众多,市场竞争非常激烈。不仅有硬件设备的竞争,更有各种创新技术和应用场景层出不穷。MBK公链要想生存和发展,必须在竞争激烈的环境中崭露头角,否则就有被淘汰的危险。 二、MBK公链面临的机遇 1.技术积累机遇 MBK公链已经积累了丰富的技术资源,不断提高技术研发能力,并不断探索技术的应用领域,从而提供更加高效、可靠、安全和创新的区块链服务。如果MBK公链能够在技术上不断取得突破,并积极应用新技术,相信其前途必然光明。 2.用户需求机遇 随着区块链技术的普及和应用越来越广泛,MBK公链相信有越来越多的用户对安全性和稳定性有极高的要求。MBK公链要做好充分的市场分析,在产品设计和研发方面更好地满足用户需求,从而获得更多的市场占有率。 3.政策支持机遇 随着全球各个国家对区块链技术的重视程度不断提高,政府部门对区块链的行业政策支持也越来越明显。MBK公链可以充分利用政策支持的机遇,积极参与各种行业合作,共同推动区块链技术的发展。 三、如何实现可持续和稳定的发展? 1.技术创新 MBK公链应该始终坚持技术创新,不断推陈出新,拥抱各种新技术,从而提供更加完善、安全、可靠的产品和服务。 2.产品优化 MBK公链应该始终关注用户需求和市场变化,不断优化产品设计,提高用户体验,争取更多的市场占有率。 3.战略合作 MBK公链应该充分利用政策支持和市场机遇,加强战略合作,构建完善的生态体系,从而为用户和投资者提供更加全面的服务。 4.团队建设 MBK公链的团队是不可或缺的,团队的结构、文化和氛围都会对团队的运作产生很大影响。因此,MBK公链需要加强团队管理,提高团队凝聚力和创新力,从而实现可持续发展和稳定运营。 总之,MBK公链虽然面临着众多的挑战,但它也具有巨大的发展机遇。如果MBK公链能够始终坚持技术创新、产品优化、战略合作和团队建设,相信其一定能够在市场上获得更大的成功和发展。 来源:金色财经
lg
...
金色财经
2023-06-18
一窥LUNA2.0和Terra生态现状:崩溃还是复兴?
go
lg
...
,保护流动性提供者和质押人免受智能合约
黑客
和攻击的影响。 Risk Harbor 的核心信念是,每种加密资产都应该得到保护,而不需要可信的中介机构,从而实现真正无需许可的开放式金融系统,适用于所有人。 与其他去中心化的保护政策不同,Risk Harbor 采用参数化保护教学法。它的算法、透明和公正的解决方案消除了对预言机和第三方机构的需求,同时提供近乎即时的支付。 个人用户可以通过 Risk Harbor 购买所需的参数化保护。承销商使用预定义的参数创建风险管理池,买家选择要投资的池。预先支付总保费,并按比例将金额添加到相应承销商的池中。 4.Spectrum Protocol Spectrum Protocol 是一款去中心化收益优化平台,使用户能够在其流动性挖矿上获得复利。 Spectrum Protocol 通过使用智能合约保护和管理各种投资策略,自动最大化 Terra 生态系统中各种流动资金池和其他收益产品的回报。 Spectrum Protocol 的主要产品是 Vaults,您可以提供流动性或质押您的加密代币(SPEC,MIR,ANC,mAssets 等)。用户可以选择自动堆迭的投资策略,在该策略下,保险库自动通过将奖励回归到最初存入的 LP 中来增加已存入代币的数量,或者选择自动质押策略,在该策略下,保险库自动将奖励质押到相应的治理权益中以进一步增加奖励数量。 5.Mars Protocol Terra Luna 的崩溃使加密货币市场损失了 600 亿美元。像 Mars Protocol 等平台重新浮出水面,而像 Pylon Protocol 这样的平台却逐渐消失。 Mars 是 Terra Luna 的主要借贷方之一。 Mars Protocol 的新计划包括在 1 月 31 日启动一个独立的 Cosmos 应用程序链。其新功能将使其他 Cosmos 生态系统中的区块链更容易进行借贷。 合作伙伴关系 该项目的过去和现在有许多合作伙伴。从纯粹的研究角度来看,这些合作伙伴关系具有战略价值。Allina Health、The McKnight Foundation、AmeriCorps、Omaha Public Schools 和 Washington Nationals 只是其中的几个例子。该项目拥有超过 30 万个 Twitter 粉丝和扎实的社交媒体影响力。 随着 DeFi 总规模的增长,DeFi 稳定币的效用将会增加。LUNA 的总利用率很好,这使它们保持稳定。 此外,Terra 专注于去中心化金融,并需要更大幅度的用户采用率才能对主导的区块链构成真正的挑战。 Alliance:利用激励协调的力量 在对提案 4717 以压倒性投票通过后,LUNAtic 社区已成功将 Alliance 模块集成到 Terra 主网中,为增长和跨链协作开辟了一系列可能性。 Alliance 代表了去中心化经济扩展的范式转变。 值得注意的是,Migaloo 和 Kujira 等链已决定将其集成进来。 通过经济激励在不同参与者之间实现大规模协调的能力是互联网从 Web2 到 Web3 的过渡中出现的一个令人兴奋的功能。Alliance 是一个开源的 Cosmos SDK 模块,它通过允许区块链与相邻链、开发人员和用户协调激励来加强和扩展他们的生态系统,从而扩展了这一概念。 Alliance 的核心目标是作为一个经济工具,将去中心化经济的货币政策(即质押奖励)引导到期望的目标。通过允许用户在单个链上质押多个代币以获得原生质押奖励的一部分,从而实现此功能——这是 Web3 先前没有的。 Alliance 是一个可以随着生态系统需求变化而动态适应的工具。它可以将任何代币转换为 Alliance 资产,并通过链治理调整其奖励权重和收益率。用户和去中心化经济体都可以使用 Alliance 来: 多样化和增加质押收益——通过将收益率提高到 0% 以上,新的、低流动性的链可以用不相关、较不易波动且更流动的 Alliance 资产补充其原生质押收益。更大、更成熟的链可以通过将外部代币作为 Alliance 资产并设置高于 0% 的收益率来多样化其原生质押收益。用户可以通过在一个链上质押,将其 LSD 桥接到另一个链上再进行质押来实现多样化并增加他们的奖励,从而以该链的原生代币形式获得第二个收益。 吸引用户、流动性和开发者——通过将低收益率分配给 Alliance 资产,任何规模的链都可以吸引来自其生态系统内桥接和质押的新用户和流动性。质押产生了正反馈:更高的使用量导致更高的流动性,这又促使更多的开发者创建 dApps,进一步提高使用量和流动性,以此类推。 激励应用程序开发者——Alliance 可以向生态系统中的应用代币质押者提供 L1 质押收益,使最有前途的应用程序的用户可以直接从 L1 手续费和通胀中获得奖励。社区还可以使用 Alliance 来资助关键生态应用程序(例如 DEX、货币市场、NFT 市场等)或新型 DeFi 原语的开发。 加深基本代币对的流动性——链可以通过将 LP 代币作为 Alliance 资产并指定大于 0% 的奖励权重,增加所需代币对的流动性。 结论 考虑到其 UST 稳定币的崩溃,无法完全确定 LUNA 2.0 的未来。以前,LUNA 是一些非常受欢迎的 DeFi 项目的所在地,但现在很少有人提到它。 由于投资者、开发者和社区成员的大规模撤离,Terra 的新区块链难以获得足够的市场份额,其中许多人在去年 5 月原始 Terra 生态系统的崩溃中受到了严重的打击。 即使新的区块链不包括算法稳定币,也不会像旧生态系统的解锁一样导致其崩溃,但是对 Terra 项目的信任似乎已经不可逆转地受到损害,许多人预测 LUNA 最终将跌至零。然而,未来往往并不不能完全根据过去的事件进行预测。Terra LUNA 2.0 是否能够成功,取决于新链的表现是否足够优秀,从而重新获得投资者信任。 来源:金色财经
lg
...
金色财经
2023-06-17
Waterdrip Capital:分布式存储赋能下的DApp 我们距离信息互联还有多远?
go
lg
...
据可跨多位置复制并在多处被访问,减少了
黑客
通过单一节点攻击的安全性问题,能够有效进行数据确权和隐私保护,并使用户可以完全控制自己的数据。这样的安全性和隐私性是中心化网络所不具备的。 1.4 分布式存储的发展历程 作为 Filecoin 网络底层技术的 IPFS 是最早的去中心化存储方案,上线时间可以追溯到 2014 年,IPFS 的愿景是取代 HTTP,使上网、下载更快以及安全性更高。 而从规模上来看,去中心化存储的发展趋势也非常喜人:根据 Filecoin 基金会发布的 2022 年度报告,Filecoin 总存储容量接近 19 EiB,占全球总存储容量的 1% 。超过 300 PiB 数据通过社交层 Filecoin Plus 存储在网络上。已有近 4000 个存储供应商为 Filecoin 网络贡献数据容量。Filecoin 为加州大学伯克利分校 UnDergrounD Physics Group、Starling Lab 等个人、组织、政府机构提供存储服务,与 LockheeD Martin 公司合作计划在太空部署 IPFS。 根据 Web3 InDex 数据统计,Arweave 过去 90 天存储费用为 18.5 万美元,而 Storj 为 3.7 万美元。不难看出,无论是存储规模还是性能方面,去中心化存储仍然处于初创期。 第二章 去中心化存储介绍及基础技术 2.1 去中心化存储与“万物互联”的 DApp 随着Web3相关技术的发展,人们逐渐发现,数据所有权的问题愈来愈重要。 如今,对于一个用户而言,自己的数据往往被分散存储在了不同的应用中,由不同的红心话存储服务商所把持。一个 OG 可能在 Twitter,Youtube,知乎,微博都有自己的社交账号,同样的一条 Thread 的数据,在不同的社交平台却被不同的公司所控制,他们可以随意删除和修改自己的信息——用户数据的所有权似乎并不归用户所有。有没有办法能够让用户真正拥有数据所有权? 去中心化存储提供了这样的可能。在去中心化存储基础设施中,用户的数据不再由单一的服务提供商所拥有,而是分散后被网络中不同的节点所保存。在使用时,用户可以从不同的节点拿到“碎片”,并复原自己的数据。 利用去中心化存储基础设施,应用可以做到:不再把持或储存用户的数据,而是对用户发布在去中心化存储设施中的数据进行“索引”,并提供相应的服务。例如,Twitter 可以帮助用户发布自己的想法,并提供点赞和转发之类的服务功能,但数据仍然归用户所控制。这样的做法也并不和监管相对抗:当一条数据产生了恶劣的影响或者违背法律时,应用只需要不对该数据进行索引和展示即可,但数据本身仍然可以完整地保存在去中心化的系统中。 可以想像,利用上面的思路,一个用户可以让自己的数据在不同应用中流通,打破“数据的孤岛“。一言以蔽之,打造一个”万物互联“的 DApp 世界。 2.2 为什么需要去中心化存储 去中心化存储的发展,可以归因于两个动机: 2.2.1 数据所有权、安全性的需要 在存储领域,数据安全有三个重要的定义(CIA): 机密性(Confidentiality)。即用户的数据隐私不被泄漏。 完整性(Integrity)。即用户的数据不会被轻易的增删,用户可以拿到自己存储的完整数据。 可用性(Availability)。即用户可以随时拿到自己的数据,不会因为系统宕机或者被用户被禁止访问等原因,造成数据不可用的问题。 随着时间的推移,人们越来越意识到数据安全和数据所有权的重要性。在当前的中心化存储模式下,用户将个人数据上传到中心化存储服务中,很难避免隐私数据泄漏的问题。同时,云存储服务提供商可能会因为政治或者相关利益问题对用户的数据进行增删和修改。这样,用户数据的完整性往往和服务提供商的信用进行了绑定。而服务提供商的存储系统,面对越来越大的需求和性能压力,也可能出现宕机等问题,进而使得用户数据的可用性受到损害。 Bitcoin 第一次让人们去中心化系统的强大,在 Bitcoin 发行至今,整个网络几乎没有出现过宕机的情况。去中心化存储系统本身就有着更好的机密性和抗审查能力。人们开始畅想,去中心化存储是否能在数据所有权和安全性上提供更好的保障。 2.2.2 智能合约、DApp 的需要 自从 Ethereum 引入智能合约和 EVM 以来,区块链变成了去中心化的、可编程的分布式账本。智能合约的发明推动了 NFT、Defi 等场景和应用的萌芽。 作为图灵完备的编程语言,智能合约可以让不同的区块链节点执行相同功能的代码,并让他们对代码执行的结果产生共识。但是智能合约无法储存大量的数据。这是 Ethereum 等区块链本身的设计决定的。 Ethereum 数据存储设计图 在 Ethereum 中,各个账户的余额、Nonce 值等信息并不会直接存储在区块里,而是由各个节点计算整个世界状态树(包含各个账户的信息),并将状态树根的哈希值存储在区块中。而各个账户的信息,以及各个智能合约(智能合约是一种特殊的账户)存储的信息,就保存在状态树中。在 Ethereum 客户端的设计中,这些数据实际上是由各个节点保存在链下的 LevelDB 或者 RocksDB 中,由状态树根进行共识。因此,直接向区块链上的智能合约中存储数据是较为昂贵的。 实际应用中,我们需要安全可靠地保存一些关键数据。例如,在 NFT 应用中,我们可以在链上记录每个 NFT 的 ID 及其拥有者的对应关系,但是对于 NFT 本身的关键数据(metaData),却不能在链上进行持久化的存储,否则会带来大量的 Gas 开销。我们需要额外的方式对这些数据进行存储。 2.3 去中心化存储的基础技术 去中心化存储基础设施运用了多项密码学、分布式系统的关键技术来使得整个系统具有较高的可用性,同时保障存储的数据具有较高的机密性和完整性。 从整体上看,去中心化存储基础设施的核心思路是,将用户的一份文件,分成多个碎片,并对每个碎片进行多次重复,然后将结果分别存储在不同的节点或分区中。当用户需要获取原来的数据时,可以以一定的逻辑向全网的各个节点发起请求,恢复自己原来的数据。这其中可能用到的技术包括: 分布式哈希表(Distributed Hash Table,DHT):DHT 是一种分布式的键值存储系统,它可以在不同的节点之间高效地存储和检索数据。通过使用 DHT,去中心化存储可以在网络中找到数据的位置,实现快速访问。 数据分片(SharDing):为了提高存储效率和数据安全性,去中心化存储系统通常将数据分成多个碎片,并将这些碎片分布在不同的节点上。这可以降低单个节点的存储压力,提高数据的冗余性和可靠性。 数据加密:为了保护用户数据的隐私和安全,去中心化存储系统通常使用加密技术对数据进行加密。这样,即使数据在传输过程中被截获,攻击者也无法获取到原始的数据内容。 纠错码:它通过添加冗余信息来提高数据的容错能力。在去中心化存储中,纠删码可以帮助在数据丢失或损坏的情况下恢复数据,提高系统的可靠性。 此外,为了保证网络中数据的可用性,一般还需要对各个节点进行共识。而为了保证网络的去中心化,需要更多的节点参与数据的存储和共识,这又涉及以下的一些关键技术: 共识算法:去中心化存储通常使用区块链技术来实现自治和透明化。共识算法是区块链系统中的核心技术,它可以确保网络中的所有节点就数据的状态达成一致。 激励和惩罚机制:为了吸引更多的参与者加入去中心化存储网络,激励机制是至关重要的。通过设置合适的奖励和惩罚措施,激励机制可以鼓励参与者为网络提供更多的存储资源和带宽。例如,为了激励矿工进行稳定服务,Filecoin 网络要求矿工投入一部分区块奖励作为抵押品。如果矿工提前终止合约或下线,矿工将受到惩罚,抵押品将被烧毁,这个过程被称为 “惩罚”。而诚实的矿工则会因为工作而受到较里。这样一来,整个系统不仅可以激励矿工在第一时间存储数据,而且能激励矿工持久且正确地存储数据,并维护他们对用户和网络的承诺。 网络路由和数据传输:为了实现高效的数据存储和检索,去中心化存储系统需要一个优化的网络路由和数据传输机制。这可以降低网络延迟,提高数据访问速度。 第三章 去中心化存储基础设施 3.1 去中心化存储“三巨头” 去中心化存储本质上服务于Web3生态的应用层,因此在解决方案上更加倾向于满足终端用户的需求,也就是用更高效、更低成本的方式执行数据存储、计算与调用的需求。Arweave、Filecoin 和 Storj 已经形成了独立的三个头部去中心化存储网络。 3.1.1 Filecoin 作为一种去中心化存储系统,Filecoin 旨在为人类最重要的信息提供安全和可靠的存储。它采用了一种创新的激励机制,使网络参与者能够提供存储空间并获得相应的奖励。Filecoin 可以与各种 DApp 开发平台结合使用,为开发者提供高度可靠的存储解决方案,确保数据的安全性和可访问性。 Filecoin 和 IPFS 是两个独立的互补协议,均由 Protocol Labs 创建。 IPFS 允许对等点相互存储、请求和传输可验证的数据。Filecoin 旨在提供一个持久数据存储系统。它遵循时空证明和复制证明来保证矿工正确存储了他们承诺存储的数据。 Filecoin 上的去中心化存储已证明比 Web2 存储解决方案便宜 95% 以上。 Filecoin 的大型 Web3 用例之一是 NFT 数据的存储,超过 9000 万个 NFT 存储在 Filecoin 上,这主要是由于 Filecoin 与 IPFS 的交互,IPFS 通常是 NFT 数据存储的首选。 优点: 去中心化—Filecoin 不是将信息存储在一个地方的集中式网络,而是创建一个分散式网络,其中数据在多个位置复制并可从任何地方访问。 极低成本—Filecoin 正试图通过临时存储的极低成本替代方案来扰乱当前的存储市场。 可扩展性—将全球数百万台计算机聚集在一起,创建一个巨大的存储网络,并激励它们存储数据。 缺点: 付费方式—不支持一次性付费存储数据,而是仅支持基于月租合同的系统存储数据。 Filecoin 想租用世界各地服务器上多余的数据存储。 这些服务器的所有者可以将空间出租给你我,以便按月保存我们的数据。类似于 Airbnb 如何成为(有时)入住酒店的更便宜的选择,Filecoin 的目标是成为比云存储行业的大玩家更便宜的选择。 主要是 Filecoin 的经济模型:基于合约的存储可以更简单地认为是按需付费的模型。 用户支付一个节点网络来永久存储数据,并且它还可以不信任地保证有人在那里实际存储他们所说的数据,并在商定的时间内存储。 事实上,每个企业都有自己的替代用例,在那种情况下如果他们需要永久存储,并且只需要支付一次费用就可以永久存储数据,而不是像 filecoin 那样按月支付合同费用和固定时间来存储数据,那么 Arweave 就会派上用场。 3.1.2 Arweave Arweave 是一个基于区块链的去中心化存储平台,采用创新的可持续和永久的捐赠机制来支持数据存储。 它于 2018 年发布。他们创建了 Arweave 来为人们和企业提供永久、低成本和去中心化的存储。 为了激励矿工并为存储服务提供支付方式,Arweave 采用了一种名为 AR 的原生代币。 Arweave 向市场引入了一种全新的经济模型,这是在无许可加密网络出现之前从未有过的:永久存储。与 Arweave 交互的简单方法是使用 BunDlr,因为它是永久数据存储的,所以 Arweave(以及 BunDlr)不支持可变数据。 但是可以上传更新版本,因此可以构建一个系统来促进可变数据的出现,但具有永久的编辑历史记录。 Arweave 的一个很酷的特性是它强调数据持久性。 该平台旨在无限期地存储数据。确保它在未来几年内可供用户使用。 通过采用独一无二的数据存储系统,Arweave 通过网络复制每条存储的数据,几乎不可能丢失。通过 Arweave,开发者可以实现大规模、永久性的数据存储,无需担心数据丢失或篡改。它为开发者提供了一种可靠且长期存储数据的解决方案,为 DApp 的数据管理提供了持久性保障。 优点: Arweave 使用永久存储,用户只需支付一次性预付费用即可永久存储数据。该协议通过利用加密经济博弈论并创建捐赠基金来补偿矿工确保数据可用性、可靠性和持久性来实现这一点。 Arweave 首次使用经济学来激励人们长期存储数据。 这种组合使公共或私人数据永久化。 Arweave 区块链每秒能够处理超过 5, 000 笔交易。 缺点: Arweave 特性能应用于以 HTML 5 网页为主的数据保全,建立去中心化 H 5-APP,但在实际使用中,我们发行该存证的应用场景较窄,目前可以看到目前在 Arweave 上存储的最多的是推特的一些反政府言论的截图,明确的反政府应用增多是令人担忧的。 Arweave 的特性是永不可篡改,这在程序开发上显得尤为困难,因为开发者上传到 Arweave 的程序必须任何错误都不能有,如果有错误,哪怕是一个标点,之前上传的内容都要作废,需要重新上传,势必造成大量无用垃圾堆积。另外,由于区块链的开放性,Arweave 上传的内容都是面向全社会开放的,不适合上传个人内容。 Arweave 主打主打一次性付费并获得永久文件存储,该模式较为简单,有一定风险会引发同质化项目出现利用相同的存储概念并打响价格战。 3.1.3 Stroj Stroj 是一个去中心化的内容存储和分发网络,旨在提供快速、安全、低成本的 P2P 云存储服务, 主要针对企业级客户,对标 Amazon Web Services (AWS) S 3 。Storj 于 2014 年成立, 2017 年上线,Storj 目前运行的版本名为 Storj Next,于 2023 年 2 月启动,该版本引入了永久存储功能和代币存储奖励。Stroj 提供的去中心化存储服务,简单来说就是用户将需要存储的文件上传到网络,文件被分散存储到世界各地愿意贡献出存储空间的电脑中(存储节点),当用户需要使用文件时,再从网络中检索文件的位置,然后下载到本地电脑中。 然而不同于其他的去中心化存储网络,Storj 网络中不仅有用户和存储节点,还加入了卫星作为第三种角色,三者间形成了一种独立运作,又相互依存的关系。 用户:使用 Uplink 客户端进行内容传输,Uplink 负责数据加 / 解密及分片。 卫星:连接用户与存储节点,网络中的协调者。负责存储节点地址信息,元数据、维护节点声誉、支付及管理节点费用、审计节点、管理用户账户授权。卫星便会帮助用户寻找上传速度最快的节点,同时记录用户端和节点的支出和收益。 存储节点:为用户提供存储空间和网络带宽。 截至 2023 年 5 月,Storj 有 6 个稳定运行的卫星, 23600 个活跃节点,共储存 24.2 PB。Storj 是一个着重 SLAs 级服务的去中心化存储服务,相 Filecoin 的去中心化、Arweave 具备 Smartweave 智能合约系统,Storj 没有利用区块链技术,且在中心化上有妥协,但这也让它在商用落地上领先于其他同类项目。 优点: 高级别加密 快速数据检索 实惠的价格 易于使用的用户体验 缺点: Storj 自诩为去中心处存储中的 Uber , 在中心化上有所妥协 3.2 存储设施分类 首先对现有的去中心化存储基础设施进行调研,主要从其架构和特点,目前的使用量,以及使用的成本三个方面入手,分析哪些设施更适合让 DApp”栖息“在其中。根据基础设施本身是否依托于一条完整的区块链设计,我们将其分为 Off-chain 存储设施和 On-chain 存储设施两类: Off-chain 去中心化存储设施中,各个节点之间并非以组成一条区块链的形式存在,而是一个P2P的去中心化网络,数据直接被分散和存储在各个节点中。 On-chain 去中心化存储设施中,确实存在着一条区块链,存储着各个文件的证明。在区块链外,存在着诸多的存储服务提供商,来真正地存储文件和数据。 3.3 新的“挑战者们” 3.3.1 BNB Greenfield 三月份,Binance 发布了 BNB Greenfield。Greenfield 是一个区块链和存储平台,专注于促进分散的数据管理和访问,旨在通过简化数据的存储和管理,将数据所有权与 BNB SmartChain(BSC)上下文联系起来,从而改变数据经济。 作为 BNB 世界中“一币三链”的一环,Greenfield 与现有的中心化和去中心化存储基础设施的区别在于: 允许以以太坊兼容的地址形式创建和管理数据和资产。 允许以 BNB 作为基本资产,和 BSC 进行原生跨链,为 BSC 上的应用提供云存储。 为开发人员提供了与流行的现有Web2云存储类似的 API 原语和性能。 Greenfield 本质上是一条区块链,由区块链本身和存储服务提供商(Storage ProviDer)两层组成。 在链上,Greenfield 区块链维护用户账本,并将存储元数据作为通用区块链状态数据进行记录。其原生代币用于支付手续费和治理的是 BNB,从 BNB 智能链转移而来。用户向 Greenfield 发起的存储或提取文件请求,实际上会被包裹在区块中。 在链下,存储提供商(SP)是由使用 Greenfield 作为账本和唯一真实数据来源的组织或个人提供的存储服务基础设施。每个 SP 负责响应用户上传和下载数据的请求,同时还充当用户权限和身份验证的守门员。 BNB Greenfield 区块链和 SP 一起构成了一个去中心化的对象存储系统。值得一提的是,以 Greenfield 为存储基础设施的应用,可以很方便的和 BSC、BNB Beacon Chain 进行跨链。 由于,Greenfield 测试网刚刚发布不久,主网将在今年第三季度发布,所以暂时还没有较多的生态入驻。 在笔者看来,BNB Greenfield 存储设施主要是 BNB 相关社区的一环,肯定会对 BNB 的价值产生积极影响。Greenfield 使得 BSC 有着更好的使用体验,得到更高的认可。随着越来越多的项目和用户选择使用 BSC,BNB 和 Greenfield 的整体需求和价值将得到提高。通过跨链切换和整个生态系统的互联互通,BNB 可以在生态系统中的各种应用中得到更广泛的应用,构建一个互利共赢的生态系统。 3.3.2 Filswan 今年 1 月,Binance Labs 宣布启动第 4 季孵化计划,被选中的项目有机会获得 Binance Labs 提供的初始资金投资以及项目发展的多方面支持,其中 Filswan 成功入围第 4 季孵化,共获得了 300 万美元的融资。 FilSwan 近日宣布首款跨链产品 multichain.storage 成功上线 Polygon 主网。该产品使用户能够通过 Polygon 稳定币支付 IPFS/Filecoin 存储,成功地降低了操作门槛并简化了 Web3 存储中的 dApps 开发过程。 FilSwan 是一支来自加拿大的团队。从 2017 年起就深耕云计算和区块链行业,合作院校有加拿大的 Mcgill 大学,Concordia 大学等。多次获得加拿大政府,加拿大自然科学基金会关于区块链云计算方向的研发拨款,也是加拿大下一代网络卓越项目。FilSwan 致力于打造去中心化的存储和计算的方案。FilSwan 的产品服务通过边缘计算技术,IPFS/Filecoin 存储技术和去中心化账本技术得以大幅度增强。FilSwan 产品被广泛应用于大学院校,VR/AR 以及高性能计算公司等。FilSwan 的用户可以在距离自己最近的节点上以最低的成本执行计算任务。 3.3.3 OORT OORT:去中心化云服务+公链、Web3和元宇宙的基础设施、为用户提供企业级性能去中心化的底层基础设施云服务。OORT 可提供整套具有互联网规模的Web3数据解决方案,旨在为终端用户和开发者带来Web2原生般的用户体验。 优势:安全、开放、抗审查,抵御单点故障、抵抗数据泄露(全部数据都在边缘节点加密)网络攻击,互联网规模的可延展性、 99.99% +可用性 、超低延迟 、 99.99% +耐用性。 核心技术,优化闲置算力,增加 IDC 和各类矿工收益,多元物理机聚合器+多币种(比如:Storj、Filecoin、Chia、Crust、Swarm、Arweave、Ethereum、Helium 等各类去中心化存储、去中心化计算、去中心化节点网络矿币的存量和增量矿工)双挖兼容+(web2和web3)大规模商用订单利润收入、同赛道差异化竞争,同赛道赋能兼容、深挖Web2和Web3的需求端。 第四章 分布式存储赋能下的 DApp 现状 4.1 分布式存储对 DApp 的优势及作用 在 DApp 应用程序中,分布式存储通常用于存储智能合约代码、用户数据、交易数据、身份验证数据等等。对于开发人员来说,合理地应用分布式存储技术,除了具有安全性和可靠性,还可以带来一些其他的优势,例如: 1 )高可用性和安全性 由于数据存储在多个节点上,因此即使某个节点出现故障,数据仍然可以从其他节点中访问到。在分布式存储中,数据通常被分散存储在多个节点上,每个节点只存储数据的一部分,这样一旦有节点出现故障,其它节点也能够正常提供服务,确保了数据的可靠性。 2 )高性能和响应性 在传统的应用程序中,服务器需要处理大量的数据请求,容易导致性能瓶颈。而在 DApp 中,由于数据被分散存储在多个节点上,每个节点只需要处理自己所存储的数据请求,从而减轻了服务器的负载,提高了应用程序的性能。此外,由于分布式存储能够无限扩展,DApp 也能够无限扩展,从而提高了应用程序的扩展性。 4.2 DApp 开发框架及技术选型 Ethereum + IPFS:以太坊是当今最受欢迎的 DApp 开发平台,其具备高度可编程性和智能合约功能,成为构建去中心化应用程序的首选平台。IPFS(InterPlanetary File System)则是一种备受欢迎的去中心化存储系统,通过分布式协议解决了传统中心化存储的挑战。结合以太坊和 IPFS,开发者得以在强大的环境中构建可靠、安全且高度可扩展的去中心化应用。 Truffle Suite:Truffle Suite 是专为以太坊生态系统而设计的一整套开发工具。其中的 Truffle 是一种开发环境、测试框架和资产流水线,被广泛选择用于构建 DApp。通过与 IPFS 的集成,Truffle Suite 能够实现去中心化存储,为开发者提供全面的功能和便利。 Embark:Embark 是一个简化 DApp 开发和部署过程的框架。借助 Embark,开发者可以轻松创建和管理各个方面的 DApp,包括智能合约、前端界面以及存储和 Whisper 通信等功能。Embark 与 IPFS 等去中心化技术集成,为开发者提供便捷的存储和通信能力,进一步加强了 DApp 的去中心化特性。 HarDhat:HarDhat 是一个强大的开发环境,用于编译、部署、测试和调试以太坊软件。它提供全面的支持,使开发者能够高效地进行智能合约开发和调试工作。HarDhat 可以与 IPFS 或其他去中心化存储解决方案集成,满足 DApp 对可靠存储的需求。 Ganache:作为 Truffle Suite 的一部分,Ganache 是一个功能强大的工具,可用于创建私有的以太坊区块链。通过使用 Ganache,开发者可以在安全且确定性的环境中进行 DApp 的测试和调试工作。它提供了一种快速而可靠的方法,使开发者能够模拟不同的区块链场景,并确保 DApp 在各种情况下的稳定性和一致性。 Web3.js / Ethers.js:Web3.js 和 Ethers.js 是两个流行的 JavaScript 库,用于实现应用程序与以太坊区块链的交互。这些库提供了丰富的功能,包括与智能合约的交互、账户管理、数据查询等。无论是与 IPFS 还是其他去中心化存储系统结合使用,Web3.js 和 Ethers.js 都为开发者提供了强大的工具,使其能够轻松地构建基于以太坊的应用程序。 Moralis:Moralis 是一个全托管的后端服务,专为 DApp 开发而设计。它提供了强大的功能,使开发者能够将精力集中在前端开发上,而无需担心复杂的后端架构。Moralis 支持 IPFS 作为去中心化存储方案,为开发者提供了可靠的存储解决方案,使其能够轻松地将数据存储在 IPFS 网络中。 Arweave:Arweave 是一个去中心化存储网络,采用创新的可持续和永久的捐赠机制来支持数据存储。通过 Arweave,开发者可以实现大规模、永久性的数据存储,无需担心数据丢失或篡改。它为开发者提供了一种可靠且长期存储数据的解决方案,为 DApp 的数据管理提供了持久性保障。 Filecoin:作为一种去中心化存储系统,Filecoin 旨在为人类最重要的信息提供安全和可靠的存储。它采用了一种创新的激励机制,使网络参与者能够提供存储空间并获得相应的奖励。Filecoin 可以与各种 DApp 开发平台结合使用,为开发者提供高度可靠的存储解决方案,确保数据的安全性和可访问性。 Textile 是一个强大的工具集,旨在简化在 IPFS 上构建应用程序的过程,为开发人员提供更加简单和便捷的开发体验。Textile 的工具集包含了各种功能,帮助开发者克服在使用 IPFS 进行应用程序开发时可能遇到的复杂性和挑战。 4.3 分布式社交媒体平台 去中心化社交媒体平台的对web3的发展非常有意义,如果想要一个开放和免费的互联网,就需要开放和免费的社交媒体网络。大多数互联网用户将大部分时间花在主要社交媒体平台上。传统的交媒体平台决定了用户能看到什么和不能看到什么,有权审查他们不喜欢的内容/个人资料,并控制所有用户数据。web2 社交平台没有可移植性。每个人的个人资料、朋友关系和内容被锁定到特定网络并归网络运营商所有。并且随时可能发生封号等行为,正基于此,web3生态里催生了分布式社交媒体平台,可以为开发者解锁网络效应。对于主要的中心化平台来说,这是一条巨大的护城河。 Mask Network、RSS3、Lens Protocols 和 CyberConnect 是当前具有代表性的四个分布式社交媒体协议。它们都致力于为用户提供更安全、去中心化、高效的数据存储和访问服务。下面将从数据存储、数据访问、数据安全性、奖励机制四个角度对它们进行比较。 数据存储: Mask Network 运行在 Ethereum、Binance Smart Chain 和 Polygon 之上,并具有社区治理和去中心化数据存储功能。 RSS3使用了一种名为RSS3 Core 的数据格式,它基于 JSON-LD 语言,可以轻松地进行数据交换和共享,同时也支持其他数据格式。RSS3的数据存储则是采用去中心化的 IPFS 协议。 Lens Protocols 基于以太坊和波卡两个主要区块链平台,通过跨链桥将它们连接在一起。用户可以在两个平台之间自由地转移数字资产,实现跨链互操作性。 CyberConnect 使用了类似于 IPFS 和 Filecoin 的分布式存储协议来存储数据,同时还结合了智能合约和加密算法来确保数据的安全性。 数据访问: Mask Network 通过用户友好的 Chrome 扩展程序和社交媒体平台接口,可以方便地进行数据访问、共享和交换。 RSS3除了已接入以太坊、Polygon、BSC、Arbitrum、Flow 和 xDAI 等,还为 Mask Network、Polygon、Arweave、Misskey、ShowMe 等生态项目提供了数据索引与分发。 Lens Protocol 利用跨链桥连接以太坊和波卡,实现资产跨链转移。该跨链桥采用了多签名机制,确保了资产的安全性和可靠性。 CyberConnect 提供了一个名为 CyberConnect Gateway 的接口,用户可以通过这个接口来查找和访问存储在网络上的数据。 数据安全性: Mask Network 使用了加密算法和智能合约来保护用户数据的安全性,同时也支持多重签名等技术,以确保交易和存储的安全性。允许用户通过公钥密码学在社交媒体上加密和解密内容。 RSS3使用了分布式存储和加密算法来保护用户数据的安全性,同时还支持身份验证等技术,防止未经授权的访问。 Lens Protocol 为用户提供流动性池,使得用户可以进行资产交易和流动性提供。该协议支持 AMM 和定价模型两种流动性池。 CyberConnect 使用了类似于 IPFS 和 Filecoin 的分布式存储协议来确保数据的安全性,同时还使用了加密算法、智能合约和身份验证等技术。 奖励机制: Mask Network 用户可以在 Twitter 和 Facebook 上执行以下活动(无需离开网站或安装其他应用程序):通过 Uniswap DEX 交易代币;捐赠资金并通过红包发送加密货币;利用 Initial Twitter Offering (ITO) 筹集加密项目资金;借由去中心化文件存储服务上传和附加(可选加密)文件到你的贴文。 RSS3的奖励机制是基于RSS3代币的。RSS3代币主要用于激励用户分享和访问数据,还可以用于支持应用程序和社区的发展。用户可以通过分享自己的数据和参与社区治理等方式获得RSS3代币。 在奖励机制方面,这四个项目都采用了类似的方式,即通过代币激励用户参与社区建设和贡献,从而促进社区的发展和增强其稳定性。不同之处在于代币的名称、用途和获取方式不同,这反映了这些项目在设计奖励机制时的不同考虑和定位。例如,Mask Network 注重社区治理和决策,因此其奖励机制强调 MASK 代币的参与价值;RSS3注重数据分享和访问,因此其奖励机制主要围绕RSS3代币的获得和使用展开;Lens Protocol 注重数据存储和访问,因此其奖励机制重点放在提供存储和计算资源上;CyberConnect 同样注重数据存储和访问,但它强调了代币在社区治理中的作用。 4.4 分布式信息管理平台 4.4.1 Genaro Network Genaro Network 是一个基于区块链的存储网络,它提供了一个去中心化的平台,用户可以在上面存储和分享数据。 数据存储:Genaro Network 使用了一种名为 Genaro EDen 的分布式存储解决方案。这个解决方案类似于 IPFS 和 Swarm,但是它更加注重数据的安全性和可靠性。Genaro EDen 支持各种类型和结构的数据,包括文件、图片、视频等。 数据访问:Genaro Network 提供了一个用户友好的接口,用户可以通过这个接口方便地查找、检索和访问存储在网络上的数据。此外,Genaro Network 还提供了一种名为 Genaro Sharer 的应用,用户可以通过这个应用分享他们的数据。 数据安全性:Genaro Network 非常重视数据的安全性。它采用了一种名为 SPoR(Sentinel Proof of Retrievability)的技术,这种技术可以确保数据在存储和传输过程中的安全性。此外,Genaro Network 还采用了加密和身份验证技术来保护用户数据,防止未经授权的访问。 奖励机制:Genaro Network 有一个独特的奖励机制,通过这个机制激励用户共享数据、提供存储和访问服务。用户可以通过分享数据和提供存储空间来获得 GNX(Genaro Network Tokens)作为奖励。这个奖励机制有助于维护分布式网络的稳定性和安全性。 4.4.2 Mirror Mirror 是一个基于区块链的发布平台,它允许创作者创建、拥有和货币化他们的作品。 数据存储:Mirror 通过 Arweave 实现了数据的永久存储,包括创作者发布的内容及其所有相关更改、验证作者身份真实性所需的所有信息。Arweave 不仅提供永久性的数据存储功能,而且只需在第一次上传时支付一次费用。 数据访问:Mirror 提供了一个用户友好的网页界面,用户可以通过这个界面方便地查找、检索和访问存储在平台上的内容。此外,因为所有的内容都存储在区块链上,所以任何人都可以使用以太坊的工具来直接访问这些数据。 数据安全性:Mirror 使用了区块链的加密技术来保护用户数据的安全性。每个用户都有一个与其以太坊钱包关联的账户,只有通过这个钱包,用户才能发布或修改他们的内容。这确保了只有内容的真正所有者才能控制这些内容。 奖励机制:Mirror 有一个独特的奖励机制,通过这个机制激励用户创建和分享内容。用户可以通过发布内容和参与投票来获得 MIRROR 代币作为奖励。这个奖励机制有助于维护平台的活跃性和多样性。 4.5 总结讨论:我们距离信息互联还有多远? 信息互联是指通过网络实现各种设备、系统、软件、服务等的相互连接和通讯,是数字化时代的基础设施之一。在过去几十年的发展中,信息互联技术不断地进步和普及,促进了社会、经济、文化等领域的快速发展。但是,当前信息互联技术也存在一些不足之处。其中,数据中心集中化存储和云计算主导的服务模式是两个最明显的问题。 传统的“云端存储”,是指所有用户数据都被集中存储在少数的数据中心中。这样的存储方式存在单点故障风险,如果其中一个数据中心出现故障,将会对大量用户造成影响。此外,集中化存储还存在着数据隐私泄露和滥用等问题,用户的数据完全由中心化的服务提供商控制和管理。 云计算主导的服务模式则是指绝大多数的在线服务都是通过云计算来实现的,这些服务通常由少数几家大型互联网公司垄断。这种情况导致了数据的流通和处理主要由少数大公司掌控,造成了数据的垄断和掌握权集中化的问题。 随着区块链技术的发展和应用,分布式存储技术的应用也得到了更广泛的推广。以太坊和 IPFS 之间的集成让 DApp 的开发和使用变得更加简单和有效,也为信息互联的发展提供了新的思路和可能性。传统的中心化应用程序存在诸如隐私泄露、数据依赖、系统崩溃等问题,而 DApp 在去中心化的基础上,通过区块链技术和智能合约,使应用程序更加透明、安全、可靠和具有更高的去中心化程度。随着技术的不断进步和应用场景的不断扩展,DApp 在未来的发展中将会发挥更加重要的作用。 分布式存储在区块链应用层的创新通过内置的商业、推荐以及存储等机制,将重构以往Web2.0 时代下的企业商业模式和生产关系,从根本上解决的数据垄断、隐私安全和利润榨取等问题,或成为未来社交、内容和电子商务应用程序的支柱。 来源:金色财经
lg
...
金色财经
2023-06-17
年薪最高破37.5万美元!全球AI人才需求激增 美媒:42%首席执行官认同10年内毁灭人类
go
lg
...
接与客户合作。如果你拥有“富有创造力的
黑客
精神和热爱解决难题”,以及“热衷于让强大的技术安全并造福于社会”,那么旧金山的职位非常适合。 重点来了,该职务的预期薪资范围为28万至37.5万美元,同样也包含股权分红。福利包括为入职者和家人提供保险、4%匹配的401k、无限制带薪休假,以及搬到湾区的搬迁支持。 保险公司GEICO也在AI游戏中,他们正在招聘一位专注于自然语言处理的远程数据科学家,需要“在数据实验和营销的交叉点上拥有丰富的经验和对创新的热情”。公司设立的首选资格是3年以上的数据科学经验,强大的统计知识、贝叶斯学习、实验设计,以及聚类和分割方法专业知识。 薪酬范围为每年12万至19万美元,且GEICO提供无等待期的保险、带利润分享的401(k)、学费报销等福利。 此外,ShortList Recruitment正在寻找AI研究员。他们的客户是“美国领先的人工智能研究公司”之一,需要团队中有高技能的研究人员。远程角色的基本工资为20万至24万美元,需要3年以上的AI研究经验,专攻深度学习。 当然,微软(Microsoft)在名单中,他们正在招聘一名数据注释专家。不需要大学学位,但求职者必须说和写魁北克法语。该运营角色将帮助“通过生成高质量的转录来训练和改进微软产品和服务,从而构建下一代语音识别。受聘人员将使用内部工具转录和注释数据,审查内容的准确性和一致性,并评估转录工具。 42%首席执行官认同10年内毁灭人类 根据美国有线电视新闻网(CNN)独家分享的调查结果,本周在耶鲁CEO峰会上接受调查的42%的首席执行官表示,AI有可能在未来5到10年内摧毁人类。 这项调查是在Sonnenfeld首席执行官领导力研究所举办的一次虚拟活动中所进行的,发现人们对与AI相关的风险和机遇几乎没有达成共识。耶鲁大学教授Jeffrey Sonnenfeld在接受电话采访时提到这些发现时说:“它非常黑暗且令人担忧。” Sonnenfeld表示,该调查包括来自不同行业的119位首席执行官的回复,其中包括沃尔玛首席执行官Doug McMillion、可口可乐首席执行官James Quincy、施乐和Zoom等科技公司的领导人,以及制药、媒体和制造业的首席执行官。 就AI对文明的危害程度,商界领袖表现出明显的分歧。尽管34%的首席执行官表示AI可能会在10年内毁灭人类,8%的人表示这可能会在5年内发生,但58%的人表示这永远不会发生,他们“并不担心”。 在另一个问题中,耶鲁大学发现,42%的受访首席执行官表示,AI的潜在灾难被夸大了,而58%的人表示并没有被夸大。几周前,数十名人工智能行业领袖、学者甚至一些名人签署了一份声明,警告人工智能存在“灭绝”风险。 该声明由OpenAI首席执行官山姆·奥特曼、“人工智能教父”杰弗里·辛顿,以及谷歌和微软的高管签署,呼吁社会采取措施防范AI的危险。 “减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险,已共同成为全球优先事项,”声明说。
lg
...
颜辞
2023-06-17
耸人听闻!彭博社:华为间谍入侵丹麦企业获取情报,利用无人机监控侦查
go
lg
...
侵。澳大利亚人表示,来自中国间谍机构的
黑客
从澳大利亚电信系统复制了大量数据,并将其发送给中国。
黑客
攻击中使用的代码是通过华为的软件更新提供的,表明要么是华为批准了这次行动,要么是其技术人员被情报人员渗透。 随着丹麦的5G招标过程于2018年底开始,仍有一些有影响力的TDC高管和经理坚定地支持华为。而在丹麦政府内部,批准2013年合同的一些官员开始产生怀疑,一名前丹麦官员表示华为的设备和软件并没有被送到英国进行测试,原因是华为称在发送产品时出现了“行政延误”。 在2019年3月5日与Yang Lan的会面结束后,TDC高管Aalose立即下令调查公司泄密的来源。TDC的高管都是潜在的嫌疑人,这项调查异常敏感。调查人员最初怀疑是
黑客
入侵,在TDC内部工作的一名华为员工可能安装了恶意软件,为中国的
黑客
打开了大门,或者在TDC的网络上搜寻有关爱立信竞标的信息。 为了对调查的性质保密,TDC小组要求公司高管交出他们的手机和笔记本电脑。但搜索ca没有发现网络入侵的证据,没有恶意软件或其他迹象表明
黑客
已经获得了访问权限。安全团队认为,一定是TDC的某个人故意泄露了这些信息。调查人员开始检查公司的电子邮件账户,看看是谁发送了爱立信的文件,或者是谁与其他人讨论了这个问题。 一位高管曾多次前往中国与华为管理层会面,并使用了华为给他的一部华为手机。这位高管经常与Yang Lan交谈和吃饭,他还被介绍给一位年轻漂亮的华为女员工。泄密调查开始的几天内,TDC管理层决定不再与华为做生意。3月7日TDC 5G战略委员会决定接受爱立信的报价。 第二天,在哥本哈根一家酒店举行的早餐会上,TDC首席执行官Allison Kirkby向Yang Lan和华为在欧洲和亚洲的一些高级管理人员宣布了这一消息。Yang Lan情绪激动地说,“这个错误的决定可能会影响到其他丹麦公司未来与中国的合作。” 与此同时,调查团队正在锁定一名嫌疑人Dov Goldstein,他是一名来自丹麦的机械工程师,根据领英上的个人资料,他自2005年以来一直在TDC工作,领导了公司4G移动网络升级的谈判。2016年Goldstein被任命为特殊项目和成本优化计划负责人,向首席财务官Stig Pastwa报告。Goldstein没有使用华为的手机,也没有任何暗示他与华为员工有潜在的关系。但通过查看他的电话记录,调查人员发现他经常给Yang Lan打电话和发短信,经常帮助Yang Lan构思向TDC高层推销的方案,两人经常在Hotel d’angleterre共进晚餐,包括在2018年10月TDC收到华为第一次投标5G合同的第二天,他们吃了4个半小时的晚餐。 2019年2月26日在决定性的早餐会议前的一周半,TDC的5G委员会做出了将合同交给爱立信的初步决定。根据通话记录,第二天Goldstein给Yang Lan打了两次电话,并通过电子邮件邀请Yang Lan在3月4日喝咖啡,Yang Lan接受了邀请。 3月5日一大早,Goldstein打开了电脑上的一个文件夹,里面有5份为TDC董事会和5G委员会准备的PPT文件。他打开了一个文件,里面有爱立信的最终报价。Goldstein和他的主管Pastwa都不是委员会成员,但TDC的安全团队发现Pastwa有这些文件,并通过电子邮件发给了Goldstein。当调查人员要求公司安全部门提供闭路电视录像时,录像显示Goldstein和Yang Lan一起离开大楼去喝咖啡,腋下夹着一台笔记本电脑。在那次会面后的24小时内,Yang Lan提交了华为紧急修改后的报价,新报价仅略低于爱立信。 就在这个时候,安全小组开始怀疑有人也在监视他们。在公司的董事会里有多个远程麦克风,虽然与现有的音频会议设备兼容,但却不是原来系统的一部分,没有人知道是谁安装的,也不知道为什么安装。3月18日TDC公开宣布爱立信赢得合同的当天,安全团队搬进了公司律师事务所之一Plesner的办公室。 TDC团队进驻Plesner办公室的当天,该律所的IT系统就遭到了拒绝服务
黑客
攻击。一份内部报告称,在半小时多一点的时间里,“Plesner的网络几乎没有流量流出”。第二天晚上,当一名调查人员和朋友外出时,他注意到一名年轻女子在拍他。当他去质问她时,她匆匆走开了。然后另一名女子坐在他旁边,似乎在偷听他们的谈话。几天后的一个晚上,一个男人在他的公寓外试图窥视。就在那段时间,Aalose的度假屋被人闯入了。 3月20日凌晨12点20分,在Plesner办公室巡逻的一名保安注意到TDC团队工作的15楼房间外漂浮着灯光。透过耀眼的光线,他看到了一架大型无人机。无人机呆了10分钟,上下左右飞着。然后下降了,看不见了。在第二天早上得知这一事件后,TDC的调查人员意识到没有关闭办公室的窗帘。窗户对面有一块墙壁大小的白板,他们一直在上面追踪所有的线索,而且大家都能看到。 3月27日,在公开将5G合同授予爱立信一周多一点后,TDC宣布Goldstein的主管Pastwa将立即辞去首席财务官一职。到了6月,Goldstein也被解雇了。 熟悉调查的人士表示,TDC得出的结论是Goldstein向Yang Lan泄露了爱立信竞购的细节,Pastwa可能知道他的下属与华为的关系已经越界。但知情人士说,安全团队没有发现Pastwa知道Goldstein涉嫌泄露爱立信报价的证据。 在华为竞标失败的几周内,Yang Lan就离开了丹麦,去了华为在深圳的一个新职位。到了夏天,爱立信已经将其工程师和设备搬到了TDC,华为的员工也离开了。 丹麦政府于2021年颁布了一项立法,赋予情报官员阻止任何涉及与丹麦没有安全协议的国家供应商的国内电信交易的能力。丹麦与爱立信和诺基亚都有类似的协议,但与中国没有。今年4月TDC Net宣布,丹麦情报部门已下令将华为设备从其网络的光纤电缆部分移除。 2019年10月调查团队负责人之一Kirkby宣布结束在TDC的11个月任期,成为瑞典最大的电信运营商Telia Co.的首席执行官。宣布这一消息的一个月前,她与TDC保安团队的成员在一家餐厅共进晚餐,当时调查已经结束好几个月了,有人从落地窗往外看,发现有一只无人机正朝餐厅飞来。无人机在空中盘旋了几分钟,一名团队成员拍下了Kirkby指着它的照片。所有人都站了起来,看着无人机降落到街上,随后一辆白色面包车里的人把无人机接走,开车离开了。
lg
...
Sue
2023-06-17
中美消息!谷歌:中国
黑客
闯入全球数百家网络 近35%为多国政府官方机构
go
lg
...
周四(6月14日)表示,中国国家支持的
黑客
利用流行的电子邮件安全设备漏洞,闯入全球数百家公共和私营部门组织的网络,其中近35%是包括外交部在内的多国政府机构。该公司说,这项活动早在2022年10月就开始了。 (来源:Fortune) Mandiant首席技术官查尔斯·卡马卡尔(Charles Carmakal)在电子邮件声明中表示:“这是自2021年初大规模利用Microsoft Exchange以来已知、由与中国有联系的威胁行为者进行的最广泛的网络间谍活动。”回顾那次事件,
黑客
入侵全球数万台计算机。 在周四的博客文章中,谷歌旗下的Mandiant表示,“高度相信”利用梭子鱼网络电子邮件安全网关中的软件漏洞的组织,正在从事“支持中国的间谍活动”。它说,这项活动早在十月就开始了。 Mandiant也提到,
黑客
发送包含恶意文件附件的电子邮件,以获取对目标组织的设备和数据的访问权限。这些组织中,55%来自美洲,22%来自亚太地区,24%来自欧洲、中东和非洲,包括东南亚的外交部、台湾和香港的外贸办公室和学术组织。 Mandiant表示,美洲的主要影响可能部分反映了梭子鱼客户群的地理位置。 Barracuda于6月6日宣布,其部分电子邮件安全设备早在2022年10月就遭到
黑客
攻击,为入侵者提供了进入受感染网络的后门。
黑客
攻击非常严重,以至于加利福尼亚公司建议全面更换这些设备。 Mandiant解释说,在5月中旬发现它后,Barracuda发布遏制和补救补丁,但被Mandiant识别为UNC4841的
黑客
组织改变他们的恶意软件,旨在试图维持访问。然后,该组织“针对位于至少16个不同国家的一些受害者进行高频行动反击”。 随着中美局势陷入紧张,美国国务卿安东尼·布林肯(Antony Blinken)将在本周末启程前往中国,这是拜登政府为修复华盛顿与北京之间不断恶化的关系而努力的一部分。 他的访问最初计划在今年年初进行,但在中美气球门事件后被无限推迟。 Mandiant指出,针对组织和个人账户层面,重点关注对中国来说是高度政策优先事项的问题,特别是在亚太地区。它说,
黑客
搜索了为对中国有政治或战略利益的政府工作的人的电子邮件帐户,当时他们正在参加与其他国家的外交会议。 在周四的一份电子邮件声明中,Barracuda表示,其全球约5%的活跃电子邮件安全网关设备显示出潜在危害的证据。它表示,将免费为受影响的客户提供更换设备。 (来源:Mandiant) 外媒提到,美国政府指责中国是其主要的网络间谍威胁,中国
黑客
从私营和公共部门窃取数据。
lg
...
秉哥说市
2023-06-16
上一页
1
•••
244
245
246
247
248
•••
381
下一页
24小时热点
中美重磅!华尔街日报:习近平为与美国的冷战准备数十年 战略灵感来自于TA
lg
...
特朗普关税刚刚传来大消息!特朗普对金砖国家发出威胁 这些资产应声下滑
lg
...
黄金抛售潮突袭!金价自日内高点重挫20美元 特朗普刚刚就贸易协议最新发声
lg
...
特朗普关税突传大消息!美国商务部长卢特尼克:关税将于8月1日生效
lg
...
中国政府顾问释放“紧急”信号:安排习近平和特朗普会晤的时间“已不多了”
lg
...
最新话题
更多
#Web3项目情报站#
lg
...
6讨论
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
36讨论
#链上风云#
lg
...
109讨论
#VIP会员尊享#
lg
...
1989讨论
#CES 2025国际消费电子展#
lg
...
21讨论