首页

欢迎访问中国电子企业协会!

您现在所在的位置是:首页 >   > 正文

AI对人类威胁或堪比核武器 美政府实验室着手研究AI风险

2024-04-17

     参考消息网4月16日报道 据美国《华盛顿时报》网站4月9日报道,曾在二战期间帮助制造原子弹的一家美国政府实验室,现在把重点放在人工智能(AI)风险研究上,因为AI被一些人认为是当下可与原子弹威胁相当的新威胁。

      研制首批原子弹的曼哈顿计划80多年前催生了位于田纳西州东部的橡树岭国家实验室。这家政府实验室去年成立了一个新的AI安全研究中心,专门研究这项技术的前景和威胁。

     该中心创始人埃德蒙·贝戈利对记者说,他对无情而高效的AI系统带来的威胁感到担忧。

      他所担心的危险并不是AI会成为一种有意识伤害人类的恶意工具,而是担心AI无所不在,从而扩大了可能受黑客袭击的范围,而且无法轻易避开。

      贝戈利说:“它如果无处不在,就不能轻易从所有涉及它的网络中把它删除。这不是某个大野心家想杀死人类,而是一个能帮助人类完美完成一切的工具开始伤害人类,因为它出问题了。”

     在贝戈利的实验室之外,有关AI的安全研究也在蓬勃发展。

     研制了聊天机器人ChatGPT的开放人工智能研究中心(OpenAI)去年组建了自己的团队,研究一旦AI系统失控,可能导致人类毁灭的相关问题。去年7月,OpenAI警告说,一个潜在的超级AI系统可能存在威胁,如果该系统出现偏差,人类可能无法对其加以控制,因为它的聪明程度大大超过了人类。

      据报道,在过去6个月里,OpenAI的年收入已经超过20亿美元大关。研究AI风险的Anthropic公司2024年的年收入预计将达到8.5亿美元。

      据橡树岭国家实验室网站显示,该实验室每年的总预算——涵盖从核科学到先进计算的一切研究——约为24亿美元。

     隶属能源部的这个国家实验室与私营部门和学术界的研究动机不同。

     贝戈利说,私营企业专注于研究威胁企业产品的系统弱点,但他的实验室主要研究更广泛的危险。

      他说:“我们试图解决的问题是,我们前进的方向是否会真正对美国,对全人类构成威胁?而不是这是否对股票期权造成影响。”

      贝戈利的团队并不是唯一忙于调查人工智能对国家安全威胁的政府实验室。美国国家安全局去年创建了自己的人工智能安全中心,目标是验证AI工具的安全设计是否符合国家安全机构的使用要求。

      新成立的这个中心隶属于国家安全局网络安全合作中心。私营科技公司在这个合作中心内与国家安全局合作解决复杂的技术问题。

      据知情人士说,这个网络安全合作中心已经在短时间内急剧扩大,4年前只有一个合作伙伴,现在已经有1000多个。