人工智能威胁论,评论区百家争鸣 (第2篇)

@哇哩机器人少儿编程:人工智能关键是人工,也就是它的智能是人类赋予的。@闻犬而来:说人工智能比人厉害,也是计算比人类厉害,就像你算开方算不过电脑是一样的,换了个人工智能的名字和算法就开始YY了。@飞舞的烤鱼:马斯克和扎克伯格都是研究人工智能

@大猴子:想象是有基础的。机械可重复的工作本身就可以被AI取代

@老王:我又没说现在就产生人这种东西都能产生出来,什么都不稀奇

@老实人设计师程序员何其正:现在人工智能顶多算个人工智障。

@己重置:就是无穷计算和匹配,根本不会像人类一样问为什么和解答为什么

@老实人设计师程序员何其正:就是,大力出奇迹很正常。

@彳~亍:你太小看科学的发展了,有足够的时间去探索,这种带个人意识的人工智能,很可能出现

@邦杰:霍金是西方人捧上神坛的,与其说他是个科学家,不如定义其为科普作家

@飞@飞:霍金让人类知道想象力有多么神奇,真正的宇宙之王,当然也是个无冕之王。宇宙学有排名的话,霍金至少前三。

@星嘉:我记得如果没有霍金的理论,人们还以为一个微型黑洞可以毁灭地球呢

@绯红的板砖:现阶段人工智能连智障都算不上,就是一个通过“特定算法大量运行修正参数”的程序。

@猪大肠的快乐:现在相当于把冰箱微波炉当机器人

@我是锤神:我用百度地图问它’为什么这么智障的时候’,它就说’瞎说什么大实话’.

@绯红的板砖:你说的这个就很能表明大众对AI的误解,语音助手只有语音识别部分可能用到了深度学习,其它所有的功能都是基于网络和数据库,和业内讨论的AI没有半毛钱关系。

@我是锤神:我认为这就是人工智能,如果这不是,那我可以肯定的是行业内说的人工智能就没有落地的产品。

@绯红的板砖:嗯嗯 你说的对 开心就好

@panf peter:ai小游戏,6个游戏小人分两方,一方负责攻一方负责守,在无数次是试错之后,攻的一方开始学会利用已有的道具,后来直接学会利用游戏的bug,防守的一方也是,最后双方发展到修改游戏来达到目标,你觉得呢?

@用户82:我是研究人工智能的,我觉得人工智能是人类灭亡的开始

@小熊猫:关键真正研究的人,他发现人工智能真的会威胁人类,他会告诉咱们吗?

他很有可能就把威胁隐瞒了,隐瞒的可能性非常大,因为这影响到他自身。

@狸猫:真正研究宇宙的人,他发现宇宙对于人类来说真的是太不友好了,他还会鼓励人们积极参与太空探索与开发吗?

@狸猫:真正研究核裂变的人,他发现核裂变对人类的威胁真的是太大了,他会把自己的研究成果告诉世人吗?

@广陵药师:人工智能都理解不了“我要过过过儿过过的生活”。它凭什么威胁人类?

@金生:逻辑简单才有易执行的危险

@广陵药师:错了,执行的危险性跟逻辑简单与否有啥关系,执行的危险性在于逻辑错误或漏洞。跟逻辑复杂程度关系不大

@金生:逻辑不分对错,越简单漏洞越少,

@广陵药师:逻辑不分对错?[捂脸][捂脸][捂脸][捂脸]。

上一条你说逻辑简单执行危险,这条又说逻辑简单漏洞越少。漏洞越少执行是不是越不危险?与你前一条是不是相悖的?这就是逻辑错误。[捂脸][捂脸]

@活着它不香么:你说这句话,本身就说明你不是科研工作者。在联合国所有的人工智能立法上,都是人工智能科学家推动的,限制人工智能使用

@:告诉你 人工智能分多个部分 中国都是弱AI 而霍金他们说的是强AI 这根本不是一个领域 你先分清这些[捂脸]

@淘米的巨人:只要不往智能机器人输入清除人类的程序,就不可能发生,除非有人故意的

@煵メ風:真正研究人工智能的人,就是靠人工智能吃饭的,你叫他们打翻自己的饭碗吗[尴尬][尴尬]

@用户:所以就该相信那些没研究过人工智能的人对人工智能的评价,就如同别去医院,医生不会砸自己的饭碗,都是骗我的

@煵メ風:你这人怎么就这么极端呢?一定要非此即彼吗?

@用户:所以啊,不完全拥抱人工智能的同时,不完全拒绝人工智能。当个渣男就好了啊,人工智能恐惧本身很可笑啊

@煵メ風:对新事物的恐惧有什么可笑的?恐惧是本能,所有人都会有

@平民百姓:人工智能不是非得有自主意识才能危害人类,很多意外都会造成危害,比如自动驾驶 直接导航导到沟里了。人类越依赖机器,这些意外伤害就越大。想想电风扇为什么扣个罩子。

@用户:错了,人类越依赖机器,这样的意外只会更少。因为人类依赖机器,所以才需要尽可能提升安全性,相反,正是因为依赖性低,所以才不重视,所以才会有更多的意外。意外不该看数量,而应该看比例

@风萧水寒:那难道所有手动驾驶都没意外?不用风扇你拿扇子在你睡着的时候扇风?意外和不完善永远存在,我们只能尽量减少意外

@喵那个喵:为什么要研究人工智能?不就是为了在某些领域取代人类?人工智能会越来越像人,但是他们却会有人没有的优势,所以说要谨慎发展

@哇哩机器人少儿编程:人工智能关键是人工,也就是它的智能是人类赋予的。

@许奥:解放生产力,蒸汽机,汽油机,电力,计算机等等的诞生也取代了人类很多,如果要说人工智能的危害应该去研究他,而不是自始至终在整理偏见

@刚好:智能控制的汽车,你开在一个悬崖边上,突然前面出现了一个人,这个时候刹车来不及了,这个时候智能是选择死路人还是车上的人

@苏春Suzan:如果前面出现了这个人,那么智能驾驶系统早就在人眼发现他之前就发现并减速了,刹车来不及这种事情并不会发生

@少有:如果真的研究出人工智能,那人工智能刚出生的时候就像一张白纸,但是先进的科学一般多为军事服务,所以为什么说人工智能危险?

@一天天的:所以说去买菜的时候一定要听卖菜的说好不好,那些买菜的意见不重要。

@东海之沉木:你听的是卖筷子的来谈菜的味道吧

人工智能威胁论,评论区百家争鸣 (第2篇)

@〈渝武机车联盟〉张扬:关键有人买了菜吗,你去问一个见都没见过菜的人

@你猜猜我是谁?:看留言,抖音大多数人属于科盲却自以为掌握了世界!

@:这就不对了,很多重大发明发现往往是非专业人士提前猜测或想象出的,专业的人在本领域肯定非常严谨会把预期想的非常靠后

@户方:外行因为不懂,所以只能进行哲学思考了。内行因为太懂,所以只绩效考核了。

@不知道你在说什么:[白眼]人工智能永远不可能取代人类,因为人类自己会完成机械飞升,而另一群分支就会在生化变种的路上越走越远,最后这两种人会为了谁比较优秀开始不停打仗.

@zhao:关键在于目前对大脑的认知少的可怜,改造器官可以,改造大脑就太遥远,人工智能发展可能远远领先对大脑的研究,最重要的是人脑有自然伦理,有死亡恐惧,怎么去随便改动呢

@凡哥:搞物理和宇宙学的,数学都比较好。他们用极限的思考方式看待人工智能,实话讲人工智能的上限确实比人类高。最终必然比我们强,那取代很可能发生

@Try :一个编程的人,如果在程序里植入了隐藏代码和算法,当启动的时候,如果他植入的是善意的那皆大欢喜,如果植入的是恶意的,不吓人?

@孟孟的小宝贝:那也是人类的造成的威胁,不是人工智能的威胁,不过是个工具

@Try :所以并不是不认可,而是在研发过程中也要考虑它的可控范围!人类但凡是遇到自己控制不了的都会形成恐惧,而恐惧的根源是怕受到伤害,有的人担心伤害的是自己,而有的是担心更多人受到伤害!

@孟孟的小宝贝:就像核弹一样,当年开始研制的时候不是一样有人有这样的担忧吗[抠鼻]现在又如何?造成人类毁灭的永远是人类自己,文明必然向前发展,既然会出现存在即为合理人工智能游戏编程真言,不是表达一下担忧就可以阻止研究的

@Try :再重申,这个宇宙不允许核战争的产生,避免重蹈覆辙!这一点应该共同默认的!

@孟孟的小宝贝:就好像一把刀,心存善意的拿来切水果,心有恶念的人拿来杀人,难道还是刀的错?

@闻犬而来:人工智能就是一系列的复杂算法,基本就是说外界通过传感器模数转换后,给了一些处理器,按照一定的算法给出相应的解,再通过数模转换送出一个信号,然后又反馈回来继续这个行为,他们本身没有意识。

@JYILY:生物是趋利避害进化自己,而人工智能是梯度下降优化自己。鉴于矩阵可以表达任何事物,我觉得人工智能和普通的生物没什么区别,现在的人工智能只是一个比较低级的生物而已,例如病毒或者单细胞生物。

@JYILY:未来如果能研究出更巧妙的结构,或者是人类脑科学取得突破,直接模仿脑结构,那一切都有可能。

@JYILY:其实人类也是一样。你可以把人脑当做处理器,其它一切器官看做外设,那么人类也是一种设备。现在的人工智能其实都是模仿人类的,例如CNN,LSTM,都是模仿了人类的一小部分机能,还模仿的不到位。

@闻犬而来:说人工智能比人厉害,也是计算比人类厉害,就像你算开方算不过电脑是一样的,换了个人工智能的名字和算法就开始YY了。

@正能量收藏家:现在人类的科技连一个人工细胞都做不出来,怎么去做有自主思维的物体,现在的人工智能都是把话题直接输入,就是一个人操控的傀儡,没有思想,怎么来的威胁

@用户:量变引起质变,等发展一定阶段机会产生质量,这时候就不是你能控制的了

@轩辕:目前人工智能只是一个机械和大数据运算的产物,真正的人工智能必须要等到类神经元突破以后,人工智能不只是代码,还有生物学,等到真正的人工智能出现后,你再来看!

@萧寒_MAX):再怎么优化,能突破其作为“人工”的底线吗?大概率!

@轩辕:名字而已何必当真?也可以叫宇宙智能不是吗?是人造的没问题,电脑也是人造的,你去跟他比一下运算速度和精度去,人工怎么了?我们都是父母在生物层面造出来的,是不是我们一辈子就不能赶超父母的能力和成就了?

@轩辕:再说一点,算法和代码只是人工智能第一次初始化时用到的,随着人工智能的慢慢成长,学习,知识输入,类神经元开始发挥作用,开始自我更新优化代码以及算法,使其不断的优化自己!

@用户88:人工智能确实对人类威胁相当大。第一是人工智能已经在部分领域超越人类智能,第二是人工智能由于参数繁多,具有不可测性,人类将来将无法验证算法的可靠性。换句话说,就是结果不可预测不可控。

@蛤?:怎么不可测?参数都是人设的。第二,你家计算器比你算数厉害,你害怕计算器吗?你用的互联网产品的算法甚至里面的,比如推荐算法(也属于人工智能领域算法)都很复杂,你觉得可怕吗?结果都是可预测的。

@用户88:GPT-3,1750亿个参数,你确定能知道每个参数都是否合理吗?而且这只是开始,接近人类思维的人工智能,节点要达到15t,如果穷举所有结果来测试其结果,你认为可能吗?外行无畏

@蛤?:而且gpt3依旧仅仅是一种暴力求解的模型,很多具有高速运算巨量数据的公司都试过,不过gpt3的模型和改进是最成功的。所谓的它能更接近于人类,就好比上续写冰与火之歌的项目,无非熟读成诵罢了。

@枫桦叶:变化有时候快有时慢,一些事情只需要一个契机,人们恐惧的不是人工智能本身,只是不可控的未来。科学并不会否认这种可能吧?

@:这个思路不对,切身研究人工智能的人都有利益趋势,正常人都不可能去否定自己在做的事业,只有旁观者或者无明显利益相关的人才能看出当局者迷

@黑色文艺:爱因斯坦当初也觉得核裂变无所谓。搞科研的别讨论人性。

@靈靈天线宝宝:人工智能消灭人类的可能性在哲学里面基本不需要讨论,因为逻辑很清楚啊。 搞人工智能的都觉得人工智能很弱,比人工智能强的单个单个的人之间也是竞争关系的。相当于人工智能和人之间的争斗。

@EVER:不是哲学,是现在的人工智能不是计算机那种模式了,是模拟人类大脑构建的,这个就比较可怕了,因为人类本身对大脑就不很了解。

@颜王柳都写:人工智能能有自我意识我认为是可能的,下棋的和情感ai以及保姆机器人ai 组合一下,再做针对训练不就成了?人的很多行为,都和一个大饼有关,其他的都是为了吃饭,人类简史就有说到过

@颜王柳都写:当机器人也开始会画大饼给别的机器人洗脑的时候,那他和人其实区别不大了

@ぃ21:为什么人工智能不会有取代人类的想法?你们连自己都控制不了还想控制另外一个物体?

@仍是惑者:时至今日,人的体力和智力发展几乎已经停止了;而人工智能在不停的进步,等到体力和智力都超过人类(指日可待),谁能确定人类能控制比自己更高等级的“生物”么。

@飞舞的烤鱼:马斯克和扎克伯格都是研究人工智能的,现在的ai连自己的ide都没有,所以所谓人工智能缺的是自己的哲学体系

@王:婴儿就是人工智能。大人老师教育培养,会自己主动学习,有自己想法了,不确定就产生了。

@任平生:怕的是输入程序的人,现在机器人已经出现在战场了。不一定是人工智能出现意识才会危险,真正危险的是操控人工智能的人,不要陷入思维盲区[灵机一动]

@轉世時我會記得妳:只能大家聊的说不在一个频率上,通常意义上人们所担心的人工智能是指未来拥有了自我意识后的机械生命,它们拥有人类的自私本性、创新思维和反抗精神以及远超人类的身体机能。

@用户64:[捂脸]人工智能学习越多,他的判断会高于我们人类,再加之互联网那么发达,当高于我们智慧的一联网,很有可能不可控,不可控是我们老百姓不敢想的。

@西戈:通过各种能用手段收集人类的行为数据(视觉、听觉、语言、姿势等),再用人工智能算法在大数据的基础上进行推算做出最优选择,这很像人类的决策路径,所以威胁人类我感觉不是危言耸听

@用户31:科学的可怕,是因为未知,比如核武器,谁也不能保证没有超核武,一发直接灭掉一个星系的那种,当科技实现几何倍数的爆炸,当然是在现实可行的前提下人工智能游戏编程真言,人工智能取代人类完全有可能

@用户9:人工智能我不懂,但是自动化生产线中的程序会有溢出的情况,这个在人工智能中有没有?如果有,这台人工智能失控后会咋样?

@:看大数据对社会的渗透就知道人工智能将来是小部分人的利剑

本文到此结束,希望对大家有所帮助。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至81118366@qq.com举报,一经查实,本站将立刻删除。发布者:简知小编,转载请注明出处:https://www.jianzixun.com/97044.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫

相关推荐

软文友链广告合作联系站长qq81118366