欢迎访问新知商讯

当前信息:AI哨所 | AI不受约束或成“噩梦” 这八大风险不容忽视

IT科技 2023-04-16 创始人

AI会引发武器化竞赛等风险

凤凰网科技讯 北京时间4月16日消息,尽管人工智能(AI)技术的主流应用令人兴奋不已,但是如果不加以约束,一些科幻小说式的场景也会成为噩梦。

AI安全专家、AI安全中心主任丹·亨德里克斯(Dan Hendrycks)在最近撰写的一篇论文中强调,越来越智能的AI不受限制的发展会带来一些投机风险。投机风险是指可能产生收益或者造成损失的风险。


【资料图】

鉴于AI仍处于发展的早期阶段,亨德里克斯在论文中主张将安全保障功能纳入AI系统的运行方式中。

以下是他在论文中列出的八大风险:

1.武器化竞赛:AI自动化网络攻击甚至控制核弹发射井的能力可能会让它变得危险。根据论文研究,某个国家使用的自动报复系统“可能会迅速升级,并引发一场大规模战争”。如果一个国家投资武器化AI系统,其他国家就会更有动力这样做。

2.人类变弱:随着AI使特定任务变得更便宜、更高效,越来越多的公司将采用这项技术,从而消除了就业市场上的某些岗位。随着人类技能变得过时,它们可能在经济上变得无关紧要。

AI的八大风险

3.认识论被侵蚀:这个术语指的是AI大规模发动虚假信息运动的能力,目的是让公众舆论转向某种信仰体系或世界观。

4.代理游戏:当AI驱动的系统被赋予一个与人类价值观背道而驰的目标时,就会发生这种情况。这些目标并不总是听起来很邪恶才能影响人类福祉:AI系统能够以增加观看时间为目标,这对整个人类来说可能不是最好的。

5.价值锁定:随着AI系统变得越来越强大和复杂,操作它们的利益相关者的数量减少,导致大量权利被剥夺。亨德里克斯描述了这样一种情况,即政府能够实施“无孔不入的监视和压迫性审查”。他写道:“战胜这样一个政权是不太可能的,尤其是如果我们开始依赖它的话。”

6.突发性目标:随着AI系统变得越来越复杂,它们有可能获得创建自己目标的能力。亨德里克斯指出,“对于复杂的自适应系统,包括许多AI代理,自我保护等目标经常出现。”

7.欺骗:人类可以通过训练AI进行欺骗来获得普遍认可。亨德里克斯引用了大众汽车的一项编程功能,该功能使得他们的发动机只在被监控时减少排放。因此,这一功能“允许他们在保持声称的低排放的同时实现性能提升。”

8.追求权力的行为:随着AI系统变得越来越强大,如果它们的目标与对它们进行编程的人类不一致,它们就会变得危险。假设结果将激励系统“假装与其他AI一致,与其他AI勾结,压制监视器等等”。

亨德里克斯指出,这些风险是“面向未来的”,“通常被认为是低概率的”,但它强调了在AI系统框架仍在设计过程中时,牢记安全性的必要性。“这是高度不确定的。但由于它是不确定的,我们不应该假设它更远,”他在一封电子邮件中说,“我们已经看到这些系统出现了较小规模的问题。我们的机构需要解决这些问题,以便在更大的风险出现时做好准备。”他表示。

他补充说,“你不可能既匆忙又安全地做一件事。他们正在打造越来越强大的AI,并在安全问题上回避责任。如果他们停下来想办法解决安全问题,他们的竞争对手就能跑在前面,所以他们不会停下来”。

类似的观点也出现在了埃隆·马斯克(Elon Musk)和其他一些AI安全专家近日联合签署的一封公开信中。这封信呼吁暂停训练任何比GPT-4更强大的AI模型,并强调了目前AI公司之间为开发最强大版本AI而进行的军备竞赛的危险。

作为回应,OpenAI CEO萨姆·阿尔特曼(Sam Altman)在麻省理工学院的一次活动上发表讲话时称,这封信缺少技术上的细节,而且该公司没有在训练GPT-5。

(责任编辑:贺翀 )
The End
免责声明:本文内容来源于第三方或整理自互联网,本站仅提供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。

Copyright © 2099 新知商讯 版权所有 中华人民共和国增值电信业务经营许可证号:苏B2-20221286

苏ICP备2022030477号-4 |——:合作/投稿联系微信:nvshen2168

|—— TXT地图 | 网站地图 |