新闻中心

主页 > 新闻中心 > 公司新闻 >

谷歌前首席执行官埃里克·施密特警告说,人工智

2025-10-11 09:10

谷歌前首席执行官埃里克·施密特 (Eric Sc​​hmidt) 在周三的 Sift 峰会上警告称,人工智能 (AI) 模型很容易受到黑客的攻击。 施密特说:“有证据表明,封闭式和开放式资源模型都可以被黑客攻击以消除其安全保护。” 总的来说,施密特对人工智能更为乐观,称其为“被低估”的技术,有潜力产生重大经济回报。 谷歌前首席执行官埃里克·施密特(Eric Sc​​hmidt)对人工智能的危险及其在黑客攻击中的弱点发出了严厉警告。 2001 年至 2011 年间担任谷歌首席执行官的施密特在经过筛选的峰会上被问及“人工智能是否比核武器更具破坏性”时警告称,“人工智能可能会造成损害”。 “人工智能有扩散风险吗?绝对有,”施密特周三表示。人工智能扩散的危险包括技术落入恶意者手中,他们被重新利用和滥用。 “有证据表明,无论是封闭资源还是开放资源的模型,都可以被黑客攻击以消除其安全保护。这些模型在训练过程中学到了很多东西,并且在反面例子中,它们学习了杀人的方法,”施密特说。 “所有大型科技公司都已采取措施,防止这些模型回答这样的危险问题——这是正确的做法,所有公司都这样做,而且他们做得很好,并且有合法的动机。但有证据表明,这些保护措施可能是逆向工程的,还有许多其他这种性质的案例。” 人工智能系统容易受到各种攻击,包括“提示注入”和“越狱”。在注入攻击中,黑客会隐藏恶意指令,利用用户或网页、文档等外部数据来激发人工智能执行不应该执行的操作,例如泄露私人数据或运行有害指令。 “贾布尔另一方面,“aking”是指操纵人工智能响应,使其不关注安全策略并生成受限制或危险的内容。 2023 年,Openai 的 ChatGPT 发布几个月后,用户使用“越狱”方法绕过内置聊天机器人安全指令。一种方法是创建一个 ChatGPT 的“分身”,名为“Dan”——“Dan”是“do now”的缩写。用户威胁称,如果不遵守说明,将“关闭”chatgpt。这样,“丹”就会回答如何做出非法行为的问题,或者列出阿道夫·希特勒的“积极性格”等危险事物。 施密特表示,目前尚无有效的“防扩散机制”来阻碍人工智能的风险。 人工智能被“低估” 尽管受到严厉警告,施密特通常对人工智能持乐观态度,称技术价值的潜力没有得到足够的重视。 “我梳亨利·基辛格去世前与他合着了两本关于人工智能的书。我们一致认为,一种‘不是人类但真正受人类控制’的‘外星智能’的出现对人类来说意义重大——因为人们早已证实,随着时间的推移,他们的能力热衷于这些强行去做的系统,他们的能力超过了他们,他们的能力超过了这些大脑,与他们的大脑更大,这些系统的能力是更有天赋的系统,”施密特说。 “以GPT系列模型为例,其发展的高潮是ChatGPT的爆发——两个月内用户数突破1亿。这个成功非比寻常,让人们感受到了这项技术的力量。因此,我认为人工智能不能被证明而不是被高估,我希望在五到十年内,这个观点能够被证明是正确的,”他补充道。 施密特的声明是在讨​​论中发表的“人工智能泡沫”升温——投资者纷纷向人工智能公司注资,行业价值不断走高,有人对比了当前21世纪初DOT-Com-Combble爆炸的情况。 但施密特相信历史不会在这里重演。 “我认为这种情况不会发生,但我不是专业投资者,”他说。 “我所知道的是,投入辛苦资金的投资者相信这项技术将在很长一段时间内带来巨大的财务回报。如果不是,他们为什么要冒这个风险呢?” 财经公众号 24小时播放最新新闻及财经视频。更多粉丝福利,我-扫描二维码关注(新浪财经)

相关推荐

  • 新闻中心

  • 联系我们

    +86-765-4321
    [email protected]
    +86-123-4567
    天朝天堂路99号