垃圾桶厂家
免费服务热线

Free service

hotline

010-00000000
垃圾桶厂家
热门搜索:
产品介绍
当前位置:首页 > 产品介绍

人工智能仍然只是一个梦:浅谈“深度学习”目前存在着的若干瓶颈

发布时间:2022-06-09 18:31:39 阅读: 来源:垃圾桶厂家
人工智能仍然只是一个梦:浅谈“深度学习”目前存在着的若干瓶颈 人工智能仍然只是一个梦:浅谈“深度学习”目前存在着的若干瓶颈

本文让你了解当下火爆的人工智能领域还存在着多少技术瓶颈。其实,我们离真正的人工智能之间的距离还很远。人工智能现在已经火的不能再火了。各种新闻机构都在不断地放出猛料,有的说现在IBM的Waston人工智能已经能够彻底取代劳动者了;还有的说现在的算法在医疗领域已经能够打败医生了。每一天,都有新的人工智能初创公司出现,每一家都声称自己在利用机器学习,彻底颠覆你个人的生活,商业性质的活动。还有一些大家平日里司空见惯的产品,比如榨汁机,无线路由器,一夜之间也都换上了全新的广告语:我们都是由人工智能技术所支持的!智能桌子不仅能知道你平日里工作时所需要的合适高度,甚至还能帮你点午餐!但事实是什么呢?那些报道新闻的记者,其实从来没有亲自去介入到一个神经网络的训练过程当中,而新闻源头的初创公司以及营销团队也有自己的盘算:都是想扩大自己的名声,获取到资本和人才的关注,哪怕它们压根没有解决一个现实中存在着的问题。也正是在这样的喧嚣气氛中,难怪在人工智能领域会出现那么多一知半解,其实大家都搞不清楚什么是AI能做的,什么是AI无法办到的。深度学习确实是一个让人心驰神往的技术,这无可辩驳。其实,神经网络这个概念自上个世纪60年代就已经出现了,只是因为最近在大数据、计算机性能上面出现的飞跃,使得它真正变得有用起来,由此也衍生出来一门叫做深度学习的专业,旨在将复杂的神经网络架构应用在数据建模上,最终带来前所未有的准确性。现在的技术开发成果也确实让人印象深刻。计算机现在可以辨识图片和视频里的东西都是什么,可以将语音转化成为文字,其效率已经超过了人力范畴。Google也将GoogleTranslate服务中添加了神经网络,现在的机器学习在翻译水平上已经逐步逼近人工翻译。现实中的一些应用也让人大开眼界,就比如说计算机可以预测农田作物产量,其准确性比美国农业部还高;机器还能更加精准的诊断癌症,其准确度也比从医多年的老医师还要高。DARPA(美国国防部高级研究计划局)的一名负责人JohnLauchbury形容如今人工智能领域内存在着三股浪潮:1、知识库,或者是类似于IBM所开发的深蓝和Waston专家系统。2、数据学习,其中包括了机器学习和深度学习。3、情境适应,其中涉及通过利用少量数据,在现实生活中中构建出一个可靠的,解释型的模型,正如人类能完成的程度一样就第二波浪潮而言,目前深度学习算法的研究工作进展的不错,用Launchbury的话来说就是因为流形假设的出现。(见下图) 但是深度学习也是存在着一些棘手问题的在最近在湾区召开的一次人工智能大会上,Google的人工智能研究人员FrancoisChollet强调了深度学习的重要性,它比一般的数据统计和机器学习方法都要更高级,是一款非常强大的模式辨别工具。但是,不可否认它是存在着严重局限性的,至少目前来说是这样。深度学习的成果是建立在极其苛刻的前提条件之上不管是监督学习(supervisedperception),亦或者是强化学习(reinforcementlearning),它们都需要大量的数据进行支撑,而且在提前计划上面表现的非常差,只能做某些最简单直接的模式辨认工作。相比之下,人就能够从极少数的例子上学到有价值的信息,并且善于在时间跨度很长的计划,在针对某个情境上有能力自己建造一个抽象模型,并利用这样的模型来做站在最高处的归纳总结。事实上,随便在街边上走着的一个路人所能做到的最为稀松平常的事,对于深度学习算法来说都是难如登天。还是举个例子好了:现在比如说我们要让机器来学会如何在路上走的时候避免被车撞到。如果你是采用的监督学习路径,那么你需要从汽车驾驶的情境中提取海量的数据,而且还要以明确标示出来的动作标签进行分类挑拣,比如停止、站住等等。再接下来,你还需要训练一个神经网络,使得它能够从眼下的情景和所与之相对应的行动之间构建因果联系;如果你是采用的强化学习路径,那么你应该给算法一个目标,让它能够独立地判断当下最优解(也就是最理想的行动)是什么,电脑在不同的情境之下,为了实现避免撞车的这个动作,它估计要宕机上几千次;Choliet总结道:你不可能就以今时今日的技术研发成果作为基础,就能实现某种一般意义上的智能。而人则不一样,你需要告诉他一次:你需要躲避车子走。然后我们的大脑就有能力从少数的例子中提取经验,有能力在大脑中想象出来被车碾压后的凄惨场景(在计算机那里被称之为建模),为了避免丧生或者缺胳膊少腿,绝大多数人都能快速地学习到不被车撞到的要领。虽然现在已经有了比较大的进展,一些神经网络可以从数据层面,在相当大的样本数量上给出一个惊人的成果,但是它们如果单独拿出一个出来,都是不可靠的,所犯的错误是人一辈子都不可能犯的,比如说错把牙刷当作篮筐。数据质量的不稳定性带来的是:不可靠、不准确,以及不公平。而且,你的结果,还得取决于输入的数据质量如何。神经网络中如果输入的数据是不准确的,不完整的,那么结果也会错的离谱,有些时候不仅造成损失,而且还会很尴尬。就比如说Google图片错把非裔美国人当作了猩猩;而微软曾经试着把一个人工智能放在Twitter上进行学习,几个小时之后,它就变得充满恶意,满口脏话,带有严重种族歧视。也许推特上的这个例子有些极端,但不可否认,我们输入的数据本身就存在着某种程度的偏见和歧视,这种带有主观性的,潜移默化的观念或者暗示,有时我们甚至自己都无法察觉。就比如说:word2vec是google推出的做词嵌入(wordembedding)的开源工具,从GoogleNews里提取了300万个词。这组数据传递出来的信息包括了爸爸是医生,妈妈是护士。这明显就带有性别上的歧视。这种歧视不仅仅是被原封不动地搬运到了数字世界,而且还会得到放大。如果医生这个词更多的指向男人而非女人,那么算法在面对一份公开的医生职位筛选的时候,它会将男性放在女性前面优先考虑。除了不准确、不公平,还存在着最大的风险:不安全。生成对抗式网络(GAN)的发明人IanGoodfellow提醒我们:现在的神经网络可以很容易被不轨之徒操纵。他们可以以一种人的肉眼无法识别的方式,篡改图片,让机器错误地辨识这个图片。 左边的是熊猫(机器的确认度是57.7%),加上中间的这层图片之后,机器的确认度上升到了99.3%,认为图片上出现的是长臂猿。不要小看这样的风险,这种恶意篡改人工智能系统的做法,会带来极大的危害,尤其是被篡改的图片和最初的图片在我们看来完全是一回事。比如说无人自驾驶汽车就会受到威胁。、以上就是深度学习所存在着的种种瓶颈,目前它要发挥作用所需要的前置条件太过苛刻,输入的数据对其最终的结果有着决定性的影响,另外,它存在着很多漏洞,安全性也无法得到保证。如果我们要驶向理想中的人工智能未来,这些瓶颈还有待于人们的进一步的突破与挑战。

方图海报
教育培训海报
卫生医疗海报