AI该如何监管?

我们看到人工智能已经在侵入式监控、说服和控制人群方面得到了应用,尤其是散布虚假信息。这非常糟糕,而且我们可能需要使用新型的隐私技术和人工智能系统来防止发生这种事。人工智能可被用于创造全自动武器,它们可以在没有人类监管和责任的情况下进行是否杀

人工智能对人类很多好处。其中一些已经实现,比如搜索引擎和机器翻译;另一些则即将实现,比如自动驾驶汽车。随着人工智能能力的增长,其也将带来越来越大的好处。但能力越大,被误用的可能性就越大:

我们看到人工智能已经在侵入式监控、说服和控制人群方面得到了应用,尤其是散布虚假信息。这非常糟糕,而且我们可能需要使用新型的隐私技术和人工智能系统来防止发生这种事。我们可能需要一些新的法律和更好的方法来捉拿做坏事的人。

人工智能可被用于创造全自动武器,它们可以在没有人类监管和责任的情况下进行是否杀戮的决策。因为这样的武器是可扩展的——所以它们是一种新型的大规模杀伤性武器,会损害国际安全。幸运的是,联合国正在制定一项禁止这种武器的条约。我喜欢中国能够支持这个条约的进程。

人工智能和机器人大规模替代人类工作如果没有明智的规划来为这样的改变做好准备,可能会给经济和社会带来巨大的冲击。通过预见性地发展新型的经济结构和经济系统模式识别与人工智能 sci,这样的转变所带来的痛苦可能会小得多模式识别与人工智能 sci,而且其最终状态可能会更适合每一个人。

更长期来看,人工智能系统将会变得比人类更强:它们将能在真实世界中做出更好的决策。我并不担心机器突然变得有意识或仇恨人类。相反,我担忧的是我们可能会给机器一些看起来无害的目标——比如“治愈癌症”——然后发现机器在使用整个人类种族来当小白鼠来进行癌症实验。一个目标错误的高智能机器可能是非常危险的。AI研究要遵循的原则: 1.机器的唯一目标是最大化人类价值的实现。 2.机器最初并不确定这些价值是什么。 3.人类行为能够提供关于人类价值的信息。

在这些简单的原则之下,有一些复杂的技术思想,我们的目标是使用这些思想来设计实际上有益于人类的人工智能系统——也就是说,我们可以证明有这些机器比没有它们更好。

本文到此结束,希望对大家有所帮助。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至81118366@qq.com举报,一经查实,本站将立刻删除。发布者:简知小编,转载请注明出处:https://www.jianzixun.com/99299.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫

相关推荐

软文友链广告合作联系站长qq81118366