如何看待马斯克,Bengio等千位AI科技人士签署暂停巨型AI实验公开信?

因此,我们呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统(包括目前正在训练的GPT-5)至少6个月。人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家

展开公开信链接:Pause Giant AI : An Open – of Life 。内容如下:大量研究[1]表明并得到顶级AI实验室的认可,具有人类竞争智能的AI系统可能对社会和人类构成深远的风险。[2]正如广泛认可的 AI原则中所述,高级AI可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——都无法理解,预测,或可靠地控制。当代人工智能系统现在在一般任务上变得与人类具有竞争力,[3]我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的​​信息渠道。我们应该自动化所有的工作,包括令人满意的工作吗?我们是否应该人工智能签字识别,发展最终可能超过我们、超越我们、过时并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?不得将此类决定委托给未经选举产生的技术领导者。只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。

如何看待马斯克,Bengio等千位AI科技人士签署暂停巨型AI实验公开信?

这种信心必须有充分的理由,并随着系统潜在影响的大小而增加。最近关于通用人工智能的声明指出,“在某些时候,在开始训练未来系统之前进行独立审查可能很重要,并且对于最先进的努力来说,同意限制用于创建新系统的计算增长率楷模。”,我们同意。那一点就是现在。因此,我们呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统(包括目前正在训练的GPT-5)至少6个月。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并暂停。人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,无可置疑。[4]这并不意味着总体上暂停AI开发,只是从危险的竞赛中倒退到具有紧急功能的更大的不可预测的黑盒模型。人工智能研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。与此同时,AI开发人员必须与政策制定者合作人工智能签字识别,以显着加快开发强大的AI治理系统。这些至少应包括:专门负责AI的新的和有能力的监管机构;监督和跟踪高性能人工智能系统和大量计算能力;出处和水印系统,以帮助区分真实与合成并跟踪模型泄漏;强大的审计和认证生态系统;人工智能造成的伤害的责任;为技术人工智能安全研究提供强大的公共资金;以及资源充足的机构来应对人工智能将造成的巨大的经济和政治破坏(尤其是对民主的破坏)。

人类可以享受人工智能带来的繁荣未来。成功创建强大的AI系统后,我们现在可以享受“AI之夏”,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。社会已经暂停其他可能对社会造成灾难性影响的技术。[5]我们可以在这里这样做。让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天。签名人士包括: ,图灵奖获得者 ,伯克利计算机科学教授,教科书“人工智能:现代方法”的合著者Elon Musk,、Tesla和的首席执行官Steve ,苹果联合创始人后略

本文到此结束,希望对大家有所帮助。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至81118366@qq.com举报,一经查实,本站将立刻删除。发布者:简知小编,转载请注明出处:https://www.jianzixun.com/97814.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫

相关推荐

软文友链广告合作联系站长qq81118366