联系我们
- 地 址:北京市海淀区北四环西路9号 ,主 营:人脸识别,活体检测,身份证识别,银行卡识别,名片识别,车牌识别,OCR识别等及智能识别技术。
- 电 话:13146317170 廖经理
- 传 真:
- 邮 箱:398017534@qq.com
浅谈AI中的深度学习
浅谈深度学习
人工智能如今十分火了,各种新闻机构都在不时地放出猛料,有的说如今IBM的Waston人工智能曾经可以彻底取代劳动者了;还有的说如今的算法在医疗范畴曾经可以打败医生了。每一天,都有新的人工智能初创公司呈现,每一家都宣称本人在应用机器学习,彻底推翻你个人的生活,这些都是商业性质的活动。
还有一些大家素日里习以为常的产品,比方榨汁机,无线路由器,一夜之间也都换上了全新的广告语:“我们都是由人工智能技术所支持的!”智能桌子不只能晓得你素日里工作时所需求的适宜高度,以至还能帮你点午餐!
但事实是什么呢?那些报道新闻的记者,其实可能没有亲身去介入到一个神经网络的锻炼过程当中,而新闻源头的初创公司以及营销团队也有本人的算计:都是想扩展本人的名声,获取到资本和人才的关注,哪怕它们压根没有处理一个理想中存在着的问题。
也正是在这样的喧嚣氛围中,难怪在人工智能范畴会呈现那么多博古通今,其实大家没有完整搞分明什么是AI能做的,什么是AI无法办到的。
深度学习的确是一个让人心驰憧憬的技术,这无可辩驳。
其实,神经网络这个概念自上个世纪60年代就曾经呈现了,只是由于最近在大数据、计算机性能上面呈现的飞跃,使得它真正变得有用起来,由此也衍生出来一门叫做“深度学习”的专业,旨在将复杂的神经网络架构应用在数据建模上,最终带来史无前例的精确性。
如今的技术开发成果也的确让人印象深入。计算机如今能够辨识图片和视频里的东西都是什么,能够将语音转化成为文字,其效率曾经超越了人力范畴。Google也将GoogleTranslate效劳中添加了神经网络,如今的机器学习在翻译程度上曾经逐渐迫近人工翻译。
理想中的一些应用也让人大开眼界,就比方说计算机能够预测农田作物产量,其精确性比美国农业部还高;机器还能愈加精准的诊断癌症,其精确度也比从医多年的老医师还要高。DARPA(美国国防部高级研讨方案局)的一名担任人John Lauchbury形容往常人工智能范畴内存在着三股浪潮:
1、学问库,或者是相似于IBM所开发的“深蓝”和Waston专家系统。
2、数据学习,其中包括了机器学习和深度学习。
3、情境顺应,其中触及经过应用少量数据,在理想生活中中构建出一个牢靠的,解释型的模型,正如人类能完成的水平一样
就第二波浪潮而言,目前深度学习算法的研讨工作停顿的不错,用Launchbury的话来说就是由于“流形假定”的呈现。
但是深度学习也是存在着一些棘手问题的。
在最近在湾区召开的一次人工智能大会上,Google的人工智能研讨人员Francois Chollet强调了深度学习的重要性,它比普通的数据统计和机器学习办法都要更高级,是一款十分强大的形式区分工具。但是,不可承认它是存在着严重局限性的,至少目前来说是这样。
深度学习的成果是树立在极端苛刻的前提条件之上。
不论是“监视学习”(supervised perception),亦或者是“强化学习”(reinforcement learning),它们都需求大量的数据停止支撑,而且在提早方案上面表现的十分差,只能做某些最简单直接的形式识别工作。
相比之下,人就可以从极少数的例子上学到有价值的信息,并且擅长在时间跨度很长的方案,在针对某个情境上有才能本人建造一个笼统模型,并应用这样的模型来做站在最高处的归结总结。
事实上,随意在街边上走着的一个路人所能做到的最为稀松平常的事,关于深度学习算法来说都是难如登天。还是举个例子好了:如今比方说我们要让机器来学会如何在路上走的时分防止被车撞到。
假如你是采用的“监视学习途径”,那么你需求从汽车驾驶的情境中提取海量的数据,而且还要以明白标示出来的“动作标签”停止分类挑拣,比方“中止”、“站住”等等。再接下来,你还需求锻炼一个神经网络,使得它可以从眼下的情形和所与之相对应的行动之间构建因果联络。
假如你是采用的“强化学习途径”,那么你应该给算法一个目的,让它可以独立地判别当下最优解(也就是最理想的行动)是什么,电脑在不同的情境之下,为了完成防止撞车的这个动作,它估量要宕机上几千次。
Choliet总结道:“你不可能就以今时今日的技术研发成果作为根底,就能完成某种普通意义上的智能。”
而人则不一样,你需求通知他一次:你需求规避车子走。然后我们的大脑就有才能从少数的例子中提取经历,有才能在大脑中想象出来被车碾压后的凄惨场景(在计算机那里被称之为“建模”),为了防止丧生或者缺胳膊少腿,绝大多数人都能快速地学习到不被车撞到的要领。
固然如今曾经有了比拟大的停顿,一些神经网络能够从数据层面,在相当大的样本数量上给出一个惊人的成果,但是它们假如单独拿出一个出来,都是不牢靠的,所犯的错误是人一辈子都不可能犯的,比方说错把牙刷当作篮筐。
数据质量的不稳定性带来的是:不牢靠、不精确,以及不公平。
而且,你的结果,还得取决于输入的数据质量如何。神经网络中假如输入的数据是不精确的,不完好的,那么结果也会错的离谱,有些时分不只形成损失,而且还会很为难。就比方说Google图片错把非裔美国人当作了猩猩;而微软曾经试着把一个人工智能放在Twitter上停止学习,几个小时之后,它就变得充溢歹意,满口脏话,带有严重种族歧视。
或许Twitter上的这个例子有些极端,但不可承认,我们输入的数据自身就存在着某种水平的成见和歧视,这种带有客观性的,潜移默化的观念或者暗示,有时我们以至本人都无法发觉。就比方说:word2vec是google推出的做词嵌入(wordembedding)的开源工具,从GoogleNews里提取了300万个词。这组数据传送出来的信息包括了“爸爸是医生,妈妈是护士。”这明显就带有性别上的歧视。
这种歧视不只仅是被原封不动地搬运到了数字世界,而且还会得到放大。假如“医生”这个词更多的指向“男人”而非“女人”,那么算法在面对一份公开的医生职位挑选的时分,它会将男性放在女性前面优先思索。
除了不精确、不公平,还存在着最大的风险:不平安。
“生成对立式网络”(GAN)的创造人Ian Goodfellow提示我们:如今的神经网络能够很容易被不轨之徒支配。他们能够以一种人的肉眼无法辨认的方式,窜改图片,让机器错误地辨识这个图片。
左边的是熊猫(机器确实认度是57.7%),加上中间的这层图片之后,机器确实认度上升到了99.3%,以为图片上呈现的是长臂猿。
不要小看这样的风险,这种歹意窜改人工智能系统的做法,会带来极大的危害,特别是被窜改的图片和最初的图片在我们看来完整是一回事。比方说无人自驾驶汽车就会遭到要挟。
以上就是深度学习所存在着的种种瓶颈,目前它要发挥作用所需求的前置条件太过苛刻,输入的数据对其最终的结果有着决议性的影响,另外,它存在着很多破绽,平安性也无法得到保证。假如我们要驶向理想中的人工智能将来,这些瓶颈还有待于人们的进一步的打破与应战
还有一些大家素日里习以为常的产品,比方榨汁机,无线路由器,一夜之间也都换上了全新的广告语:“我们都是由人工智能技术所支持的!”智能桌子不只能晓得你素日里工作时所需求的适宜高度,以至还能帮你点午餐!
但事实是什么呢?那些报道新闻的记者,其实可能没有亲身去介入到一个神经网络的锻炼过程当中,而新闻源头的初创公司以及营销团队也有本人的算计:都是想扩展本人的名声,获取到资本和人才的关注,哪怕它们压根没有处理一个理想中存在着的问题。
也正是在这样的喧嚣氛围中,难怪在人工智能范畴会呈现那么多博古通今,其实大家没有完整搞分明什么是AI能做的,什么是AI无法办到的。
深度学习的确是一个让人心驰憧憬的技术,这无可辩驳。
其实,神经网络这个概念自上个世纪60年代就曾经呈现了,只是由于最近在大数据、计算机性能上面呈现的飞跃,使得它真正变得有用起来,由此也衍生出来一门叫做“深度学习”的专业,旨在将复杂的神经网络架构应用在数据建模上,最终带来史无前例的精确性。
如今的技术开发成果也的确让人印象深入。计算机如今能够辨识图片和视频里的东西都是什么,能够将语音转化成为文字,其效率曾经超越了人力范畴。Google也将GoogleTranslate效劳中添加了神经网络,如今的机器学习在翻译程度上曾经逐渐迫近人工翻译。
理想中的一些应用也让人大开眼界,就比方说计算机能够预测农田作物产量,其精确性比美国农业部还高;机器还能愈加精准的诊断癌症,其精确度也比从医多年的老医师还要高。DARPA(美国国防部高级研讨方案局)的一名担任人John Lauchbury形容往常人工智能范畴内存在着三股浪潮:
1、学问库,或者是相似于IBM所开发的“深蓝”和Waston专家系统。
2、数据学习,其中包括了机器学习和深度学习。
3、情境顺应,其中触及经过应用少量数据,在理想生活中中构建出一个牢靠的,解释型的模型,正如人类能完成的水平一样
就第二波浪潮而言,目前深度学习算法的研讨工作停顿的不错,用Launchbury的话来说就是由于“流形假定”的呈现。
但是深度学习也是存在着一些棘手问题的。
在最近在湾区召开的一次人工智能大会上,Google的人工智能研讨人员Francois Chollet强调了深度学习的重要性,它比普通的数据统计和机器学习办法都要更高级,是一款十分强大的形式区分工具。但是,不可承认它是存在着严重局限性的,至少目前来说是这样。
深度学习的成果是树立在极端苛刻的前提条件之上。
不论是“监视学习”(supervised perception),亦或者是“强化学习”(reinforcement learning),它们都需求大量的数据停止支撑,而且在提早方案上面表现的十分差,只能做某些最简单直接的形式识别工作。
相比之下,人就可以从极少数的例子上学到有价值的信息,并且擅长在时间跨度很长的方案,在针对某个情境上有才能本人建造一个笼统模型,并应用这样的模型来做站在最高处的归结总结。
事实上,随意在街边上走着的一个路人所能做到的最为稀松平常的事,关于深度学习算法来说都是难如登天。还是举个例子好了:如今比方说我们要让机器来学会如何在路上走的时分防止被车撞到。
假如你是采用的“监视学习途径”,那么你需求从汽车驾驶的情境中提取海量的数据,而且还要以明白标示出来的“动作标签”停止分类挑拣,比方“中止”、“站住”等等。再接下来,你还需求锻炼一个神经网络,使得它可以从眼下的情形和所与之相对应的行动之间构建因果联络。
假如你是采用的“强化学习途径”,那么你应该给算法一个目的,让它可以独立地判别当下最优解(也就是最理想的行动)是什么,电脑在不同的情境之下,为了完成防止撞车的这个动作,它估量要宕机上几千次。
Choliet总结道:“你不可能就以今时今日的技术研发成果作为根底,就能完成某种普通意义上的智能。”
而人则不一样,你需求通知他一次:你需求规避车子走。然后我们的大脑就有才能从少数的例子中提取经历,有才能在大脑中想象出来被车碾压后的凄惨场景(在计算机那里被称之为“建模”),为了防止丧生或者缺胳膊少腿,绝大多数人都能快速地学习到不被车撞到的要领。
固然如今曾经有了比拟大的停顿,一些神经网络能够从数据层面,在相当大的样本数量上给出一个惊人的成果,但是它们假如单独拿出一个出来,都是不牢靠的,所犯的错误是人一辈子都不可能犯的,比方说错把牙刷当作篮筐。
数据质量的不稳定性带来的是:不牢靠、不精确,以及不公平。
而且,你的结果,还得取决于输入的数据质量如何。神经网络中假如输入的数据是不精确的,不完好的,那么结果也会错的离谱,有些时分不只形成损失,而且还会很为难。就比方说Google图片错把非裔美国人当作了猩猩;而微软曾经试着把一个人工智能放在Twitter上停止学习,几个小时之后,它就变得充溢歹意,满口脏话,带有严重种族歧视。
或许Twitter上的这个例子有些极端,但不可承认,我们输入的数据自身就存在着某种水平的成见和歧视,这种带有客观性的,潜移默化的观念或者暗示,有时我们以至本人都无法发觉。就比方说:word2vec是google推出的做词嵌入(wordembedding)的开源工具,从GoogleNews里提取了300万个词。这组数据传送出来的信息包括了“爸爸是医生,妈妈是护士。”这明显就带有性别上的歧视。
这种歧视不只仅是被原封不动地搬运到了数字世界,而且还会得到放大。假如“医生”这个词更多的指向“男人”而非“女人”,那么算法在面对一份公开的医生职位挑选的时分,它会将男性放在女性前面优先思索。
除了不精确、不公平,还存在着最大的风险:不平安。
“生成对立式网络”(GAN)的创造人Ian Goodfellow提示我们:如今的神经网络能够很容易被不轨之徒支配。他们能够以一种人的肉眼无法辨认的方式,窜改图片,让机器错误地辨识这个图片。
左边的是熊猫(机器确实认度是57.7%),加上中间的这层图片之后,机器确实认度上升到了99.3%,以为图片上呈现的是长臂猿。
不要小看这样的风险,这种歹意窜改人工智能系统的做法,会带来极大的危害,特别是被窜改的图片和最初的图片在我们看来完整是一回事。比方说无人自驾驶汽车就会遭到要挟。
以上就是深度学习所存在着的种种瓶颈,目前它要发挥作用所需求的前置条件太过苛刻,输入的数据对其最终的结果有着决议性的影响,另外,它存在着很多破绽,平安性也无法得到保证。假如我们要驶向理想中的人工智能将来,这些瓶颈还有待于人们的进一步的打破与应战
上一条:手机文字OCR识别技术
下一条:移动端离线人脸识别算法