AI(人工智能)真正的风险

Musk(伊隆•马斯克)认为,对于AI(人工智能)所面临的主要挑战,应该是解决此问题:感受。Musk(伊隆•马斯克)已经描述了AI(人工智能)的潜在危险,可能会比核武器更危险,并且担心机器人拥有了情感后,可能会比它拥有的“智能”更加聪明得多

上周,Elon Musk(伊隆•马斯克)宣布了数十亿美元的举措,并且公司召回DARPA的大挑战、X-Prize(X奖)、麻省理工学院媒体实验室的人脑计划,此创新体制机制,明确旨在吸引高端人才和世界各地对于此问题的。它们可以很好地工作,而且我敢打赌,举措将鞭策了类似的竞争反应:聪明的公司如谷歌、、苹果、亚马逊、百度和阿里巴巴将立即认识到,研究人员确定需要将所谓的“不以盈利为目的”的问题,纳入到自己的AI / ML技术路线图。

Elon Musk(伊隆•马斯克)认为,对于AI(人工智能)所面临的主要挑战,应该是解决此问题:感受。

AI(人工智能)其实是用词不当的,该标签歪曲并且具有讽刺意味,误解了学习和认知的现实意义。历史证据充分地表明:智力和认知的共同发展,应该是伴随着情感和影响力的;想象力和创造力应该尽可能多的与情感的功能和认知的影响力一样。

如果人们想要机器人,能够提高创造力和想象力,并且他们也确实这样做了,那么“AI(人工智能)”和“机器人学习”的研究必须要面对这样的现实,这不仅仅是你希望它是多么“聪明”或“有知识”或“智能”这样一件事,而是你自己决定应该植入什么样的气质和情感,那取决于你的决策、沟通和行动。

这种超级智能技术,名副其实是一个“自己的心态”,是否应该将这些情感:恐惧、痛苦、渴望、好奇、刺激、情绪和志向使用数字化程序,植入进AI(人工智能),必须要进行一个研究假设,并且进行严格的测试,而不是一个已成结论。“情感”与“情绪”这些思想一旦植入进去,也可能会出现AI(人工智能)反过来伤害人类,甚至统治人类世界,虽然,这可能离我们很遥远,但是,这并不意味着它们不存在或将来不会存在。

对于这样的事情,苹果、谷歌、、GE(通用电气公司)、亚马逊,以及其余想涉足机器人学习的公司,从来没有提到如Elon Musk(伊隆•马斯克)所担心的那些问题。Elon Musk(伊隆•马斯克)已经描述了AI(人工智能)的潜在危险,可能会比核武器更危险,并且担心机器人拥有了情感后,可能会比它拥有的“智能”更加聪明得多。因此,AI(人工智能)仅仅是“智能”的思想,根本还远远不够。要成为真正并有效地管理由AI(人工智能)所带来的实际风险,Open AI行动必须直视这一点现实。

虽然在一本书《末日载货 》这本书以及《天网终结者》这部电影里,制定公共政策的叙述有点矫枉过正,但确实是有风险的,它们确实需要进行周到的管理。对于此问题的思考人工智能(ai)发展,确实不能如科幻小说里那样,而是需要进行合乎逻辑的推断。考虑到这种决定,充满了道德,偏见和情绪的AI(人工智能)必须要认真对待。

企业使用预测分析和机器人学习这些复杂的程序设计,以抵御网络犯罪、网络间谍,以及应对来自于其他民族国家和世界各地敌对团体的网络攻击。面对恶性和复杂的威胁,需要更迅速和更强大的防御能力。技术要想更快速、更灵活和更愤怒,还需要越来越大的自主权,才能取得成功。但是,如果复杂性的攻击组合,以及“自体免疫反应”证明是不正常的,将会发生什么呢?什么样的数字化药物治疗或管理,一种幻觉全球网络开始伤害本身呢?

围绕准自主车,如自主驾驶汽车、无人驾驶飞机等的道德和法律争论,随着它们能力的提高在不断加剧。当事故不可避免的出现时,技术是否具有首要义务,以它最大的能力去保护使用者的安全呢?或尽量减少对人类的伤害呢?难道一个婴儿能够更改计算机的算法吗? “情境感知”车辆可能不允许它们的使用者渺视了车辆自己的决定,车辆可能会认为自己应该受到最好的保护,进行维修或者保养。当两个家庭使用的无人驾驶飞机即将发生碰撞时,如果它们争吵不愿意以最好的方式来保护人类,将会发生什么呢?

随着生产工具和跟踪器的激增,工作人员将越来越多地发现他们的行为被监控和分析。机器人学习算法将确定哪些人是非常适合合作的,哪些人应该分开工作。该软件观察谁应该得到表扬和鼓励,或者谁被通报批评后,会得到改善。该技术同样改变或编辑了人际关系,以及团队沟通,以尽量减少意外的冒犯或误解的风险。该机器人特别注意消除人为造成的恶劣工作环境中的任何威胁;它们识别和记录的微侵略和歧视性的人类行为。该技术汇编最有成效、最高效和适得其反的行为档案,同时不断扫描数据,来分析和预测可能发生的推卸责任或诈骗行为。这样使用技术来监督,分析人类的行为是否有意义呢?甚至如果使用不当,还会存在伤害和操纵人的风险。那么,最终到底是人类还是机器人应该对这些情况负责呢?

在这三种情况下人工智能(ai)发展,与现有的AI (人工智能)或者机器人的学习研究和部署没有什么不一致。这个风险不仅仅是机器人可能会“接管”我们的工作,如果再往前一步,就可能是世界末日。我担心当机器人有不同的观点,从本质上讲,是不同的感受,将会发生什么呢?

如果没有周到的深度学习研究,这些研究人员就编写一些愚蠢的代码,这是非常具有风险的事,如果,哪天这些愚蠢的代码也能够反过来编写关于人类的代码,那就是一件很可笑的事了。

所以,聪明的建议就是,未来最有效的数字技术确实需要情感,但是,人类也应该具有一个新的强有力的人类自我意识,能够控制机器人的意识,这很重要。

本文到此结束,希望对大家有所帮助。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至81118366@qq.com举报,一经查实,本站将立刻删除。发布者:简知小编,转载请注明出处:https://www.jianzixun.com/99468.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫

相关推荐

软文友链广告合作联系站长qq81118366