新闻资讯

约会谷歌CEO:AI可能知道杀人

日期:2025-10-12 09:37 浏览:
结合者:智动智|编辑:李水清|芯源智动智10月11日报道,周三在Sifted峰会的炉边谈话中,谷歌前首席执行官埃里克·施密特发出严厉警告,提醒人们关注重大的AI黑客和滥用风险。施密特曾于 2001 年至 2011 年担任谷歌 CEO。当被问到“人工智能是否比核武器更具破坏性”时,他警告说:“有证据表明,模型,无论是开放资源还是封闭资源,都可能被黑客破坏,以消除安全保护机制。”所有大公司都让这些模型无法回答此类问题,但有证据表明,模型可以是可逆的工程师。 ”施密特说。AI系统极易受到攻击,包括提示注入和越狱。在注入攻击中,黑客隐藏使用用户或外部数据(如网页、文档)的恶意指令,从而使AI不做事-AI做事-AI做事-人工智能来做事 -人工智能做事 -人工智能做事 -人工智能做事 -人工智能做事 -人工智能做事 -人工智能做事 -人工智能做事 -人工智能做事 -人工智能做事 -人工智能做事 -人工智能做事 -人工智能做事-人工智能来做事 -人工智能做事 -人工智能做事 -人工智能做事 它。例如私人数据或运行有害命令。 Chatgpt 的名字为“Dan”。Tan 威胁“如果不服从就删除它”。替身可以回答如何做出非法行为的问题,甚至列出了阿道夫·希特勒的“积极属性。施密特表示,有效的“防扩散制度”尚未建立,以阻止人工智能所带来的风险。尽管受到严重警告,施密特仍然深知应有的关注和热情。” 人类。因为人们习惯于情报链的顶端。从目前的情况来看,t他的断言已经被证明:这些系统的能力未来将超过人。”施密特说。ChatGPT的AB,短短两个月就拥有了1亿用户。这个增长速度令人惊讶,体现了AI技术的巨大力量。所以我认为AI是在震惊而不是过度炒作。我希望在五到十年内,这个判断被证明是正确的。”施密特的这番表态正值“人工智能泡沫”讨论之际。 “正在热身。投资者将资金投入人工智能公司,其价值被认为很高,与互联网泡沫的泡沫有很多比较。 “我不认为这种情况会再次发生,但我不是专业投资者。”或者,如果不是,他们为什么要冒这个风险? 》结论:AI能力不满足,需要防扩散机制阻碍AI风险。施密特对AI扩散风险的警告,为AI产业发展敲响了警钟。潘多拉盒子,这可能是恶意的,甚至是危险的,然而,作为一项技术的要点是人工智能的主要潜力被“低估”。重点关注如何为强大的新物种建立一个不显眼的“防扩散机制”,使其发挥其惊人的力量,同时确保其在安全可控的轨道上行驶。来源:CNBC 重返搜狐查看更多
首页
电话
短信
联系