不用过于担心被ChatGPT淘汰:它还有四大致命短板

从目前来看,这几大致命短板几乎是短时间内很难通过数据喂养或优化解决,我们虽然不能低估,但是过于高估与神话也同样走入了另一个极端,目前来看,它是一个真正的基于AI的高质量的信息搜索与整合加工的工具,对传统搜索引擎发起了挑战,但事实上,基于专业

文/王新喜

很火,业内对它的评价非常高,令很多人感到了震撼,不少人认为,继续发展下去,会重塑人类的产业结构和工作模式,引领下一轮科技革命,它也将带来更多的失业问题业等。

是美国公司推出的人工智能聊天工具,从原理来看,对知识来源进行机器学习(消化、吸收),在算力支撑下形成知识关联、交互,最后生成文本,的文本追溯其来源是人类在互联网上积累的文本。

作为一个聊天机器人的表现来看,最大的好处是可能是帮助一些人节省了搜索引擎以及整理内容的时间,非常高效,非常强,适合做人类的助理,关于前景如何,我们暂不讨论。从它目前的表现来看,呈现了一些致命短板,导致它的前景可能并不会如大家想象中的好。

的内容与观点偏中庸常规,缺乏深度思考的能力

终究不是人,从当前的测试来看,提供的内容与观点其实偏中庸与常规的。比如询问怎么看待某个产业、国家的发展趋势,应该提升的方向,它能提供与罗列的是一些互联网已有的常规、没有超出人一般认知层面的内容。

比如你问:“未来哪只基金能赚大钱呢?”答案是“无法预测”,因为受制于各种因素的影响。

比如再问“未来哪个行业最可能上涨?”依旧是标准答案:“未来充满不确定性,没有任何人能准确地预测市场”。

你问他有没有看好的基金经理,它也表示无法提供,你要自己去考虑很多因素去了解。

其实我们看到,它提供的答案非常中庸与常规,没有个性化的思维,也不具备深度思考的能力。

如果是真正的基金行业专业人士给出专业建议,一般可能会基于你的投资倾向,列出一些他看好的行业领域以及适合你的投资方向,那么即便最终你的投资收益与未来的趋势与预期不符,但也是基于专业判断以及差异化的思考下的一种解决方案,而这种差异化与个性化以及专业层面的深度思考,是所提供不了。

深度思考是指超出一般人所能想到、现有互联网数据库中没有的内容,比如说新观点、新想法或者说超出常规的判断与思考。的能力仅在于对现有互联网数据库中的东西消化。没有进一步自己去独立思考能力以及提供新的观点与想法的能力。

因此,是否能让某个行业、某个专业的人失业,关键是看你的创造力与创新力。

如果你只有知识储备,没有举一反三的能力,无法将知识储备转化成你的专业认知与独立想法,那么你是危险的,如果你能将你的专业认知不断思考上升到一个新的层面,继而形成了你自己的东西,产生你个人的创造力与创新力,那么就颠覆不了你。

就拿做自媒体来说人工智能论文 确定性推理方法,比如针对“中国经济会超过美国吗?”这种话题写一篇文章,一个能提供独特观点的自媒体,有自己的深度独特见解,那么它会给一个偏向于某个国家的肯定的答复,然后基于各国的产业、人才、综合竞争力、科技发展前景、未来趋势等方面,告诉你为什么会超越,或者为什么不能超越,其前提是什么等,总之有自己的思考。

但是的回复,是不确定,谁超越谁,取决于中美经济发展趋势,目前还不能确定。这种回复非常浅层次与中庸,因为确实不知道,它没有主动与深度思考的能力,而问它哪个更有前景,它表示都有前景,取决于两国政府实施的政策以及各行业的竞争力。

那么这种观点有价值吗?其实没有任何价值,这就是说了等于没说的“正确的废话。”

总结可知,能回复一般性的观点与常规内容,列出一二三四,它的观点不具备新颖性,如果再挖掘的深一点,让他提供新的观点与思考,它就无能为力了。事实上,独立思考、深度总结,提供新的视角与想法,探索新的方向,这才是人类进化的核心竞争力所在。

作为某一领域的专业者,只要你的思考有独立性,有创造性,你能提供的东西是当前文献与互联网资料库中所有没有的创造性的内容,那么就达不到你的层次。

第二个短板,内容正确性、专业性无法保证

从目前大家的测试与内容的反馈来看,总结可以知道不仅缺乏人类的深度思考,也无法处理复杂与专业的语音结构以及回复更加专业性的问题,提供的内容,其内容的正确性是没有保障的,经常出现错误的答案,有知乎用户测试表示,会一本正经的编造文章内容。

此外有网友测试发现,只要你不断以反问、质疑的语气的去问,它就会不断修改答案。

比如有网友测试问孙中山的父亲是谁,然后不断以“你刚才说?”的语气不断质疑,的回复从孙楚贵到孙多郎再到孙应麟、孙传庭。可以知道,其实是经不起质疑的,答案有时候错漏百出,还很难说是一个合规的助理。

在过去,我们要知道某个行业数据,会去主动搜索行业第三方数据报告,主动求证,确保数据的准确性。而给到你的数据与内容你如果不去求证,为了偷懒而加以引用,可能导致你的论文错漏百出,数据的错误,可能会让你的推理与逻辑结构全面推翻。

因此,在在专业的论文(比如大学毕业论文、部分职场晋升需要撰写论文)、专业类文章、专业性行业分析报告撰写中,依赖让它给你提供数据内容与观点,可能出现致命性错误。

在升学升职的这种需要撰写论文、材料或者报告的关键转折点,如果盲目使用,一旦出现大量数据或者内容错误,可能会让你的人生转折点出现挫折。

这也是为何不是谷歌跑出来,因为搜索引擎公司的负担在于,如果它提供的内容如果错漏百出,会让业内质疑它的专业性与严谨性,所以对于该领域的探索小心翼翼。而其他公司其实就没有这方面的负担,它不是专业做搜索引擎,答错了,是可以通过算法纠正的,也是可以被原谅的。

第三个短板,可能会让抄袭泛滥,内容侵权案例高发

如前所述,其实在梳理现有数据库中的资料,并通过处理序列数据的模式将用户需求的答案整理优化,以对话的形式提供给用户。而其内容与资料的原创来源是不清晰的,很可能就是直接复制摘录某个作者的文章内容,某些文献的版权内容,这可能让内容侵权与抄袭泛滥。

事实上,正如美国语言学家诺姆·乔姆斯基所说,是一个高科技剽窃系统,从海量数据中发现规律,并依照规则将数据串连在一起,形成像人写的文章和内容。在教育界,已经引发了“让剽窃变得更加容易”的担忧。

如今,在国外,众多大学已经禁止学生使用该软件。巴黎政治大学已经宣布“禁止学生使用软件完成任何书面作业或演示文稿,除非是出于特定的课程目的,并有课程负责人监督”,并表示此举旨在防止学术欺诈和剽窃,使用相关软件的学生或面临被开除的惩罚,甚至可能会被逐出法国高等教育体系。

美国纽约市和西雅图的部分公立学校也已经禁止使用完成作业,一些美国大学则宣布计划增加手写论文和口头考试的比重。

日前,《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明。说明提到,暂不接受任何大型语言模型工具(例如:)单独或联合署名的文章人工智能论文 确定性推理方法,如果隐瞒使用情况将被退稿或撤稿,这也体现了国内C刊以及大学对可能导致抄袭泛滥的担忧与顾虑。

简单来说,如果进一步普及,它的一个重大影响就是可能导致各种论文、报告、文章抄袭泛滥,内容侵权案例高发。那么如果长期陷入内容侵权问题的官司之中,作为一个平台内容提供者,它在很多行业领域遭遇的争议与诉讼、抵制可能也将越来越多。

存在数学计算缺陷

测试可以发现,其实是偏文科的,它有很强的资料整合能力,但缺乏数学计算以及逻辑推理、引申能力,它可以编写像模像样的程序,如果解过GPT系列训练原理后,测试一下发现,它甚至不懂加法的原理的,做小位数的加法结虽然大概率是对的,但是对于大位数的加法正确率极低。

按现有的套路,加大模型升级,大位宽的加法问题的回答准确度,可能仍然会是无法跨越的障碍,泛化能力极差。这意味着堆砌资料并不能解决数学问题,语音模型训练方法上还需要进一步研究。

数学追求确定性,强调论证推理要保真,而根本做不到这个。

这个能力恰恰也是人类的长处。

从目前来看,这几大致命短板几乎是短时间内很难通过数据喂养或优化解决,我们虽然不能低估,但是过于高估与神话也同样走入了另一个极端,目前来看,它是一个真正的基于AI的高质量的信息搜索与整合加工的工具,对传统搜索引擎发起了挑战,但事实上,基于专业性的、深度的、高质量的内容与数据提供,传统搜索引擎的作用依然不能替代。

此外,缺乏人类的深度思考,缺乏逻辑推理以及数学计算方面的能力,也无法在复杂与专业内容上提供真正有启发性的、有干货的思考与观点,更无法无法把新知识纳入其中,它所回复的内容过于常规与陈旧,它更多是人类的助手,还不是代替者。

对的短板与弱点的总结我们知道,人类其实更应该自己的创造性思维、创新能力以及要随时更新自己的知识体系,举一反三,有独立思考的能力,总结逻辑推理与分析能力,这些能力是人们能够不断提升自己的重要竞争力,如果缺失了这些能力,可能真的就距离被淘汰不远了。

本文到此结束,希望对大家有所帮助。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至81118366@qq.com举报,一经查实,本站将立刻删除。发布者:简知小编,转载请注明出处:https://www.jianzixun.com/99350.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫

相关推荐

软文友链广告合作联系站长qq81118366