1969年,闵斯基和Seymour Papert指出了感知机算法的局限性,神经网络的研究进入“冰河期”;
3. 第一次低谷:期望越大,失望越大(1974~1980)
到了70年代初,研究者们渐渐发现仅仅具有逻辑推理能力远远不够实现人工智能,许多难题并没有随着时间推移而被
解决,很多AI系统一直停留在了玩具阶段。同时,由于计算机性能的瓶颈、计算复杂性的指数级增长、数据量缺失等
问题,一些难题看上去好像完全找不到答案。比如像今天已经比较常见的机器视觉功能,在当时就不可能找到一个足
够大的数据库来支撑程序去学习,机器无法吸收足够的数据量,自然也就谈不上视觉方面的智能化。
对外界来说,之前学界对人工智能过于乐观的估计使得人们期望过高,但又缺乏有效的进展,巨大的落差之下,许多
机构逐渐停止了对AI研究的资助。人工智能遭遇了第一次低谷。
4. 第二次高潮:知识工程时代(1980~1987)
在80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点。同
时,神经网络方面的研究也有了一定的进展。专家系统在商业领域的成功应用反过来促进了AI的繁荣发展,日本、英
国、美国等各国政府也先后为人工智能(尤其是专家系统)的研究提供大规模资助,人工智能研究又重新焕发生机。
这一时期的重要事件有:
1980年,专家系统商业化,美国卡耐基·梅隆大学为DEC公司制造出XCON专家系统,帮助DEC公司每年节约
4000万美元左右的费用;
1983年,John Hopfield发明Hopfield网络,解决了旅行商(TSP)问题(一个著名的NP难题),使得神经网
络重新受到人们的关注;
1986年,David Rumelhart重新发明了反向传播算法(Back Propagation,BP),解决了多层神经网络的学习
问题,神经网络模型得到广泛的应用;
5. 第二次低谷:知识工程的瓶颈(1987~1993)
从80年代末到90年代初,专家系统所存在的应用领域狭窄、知识获取困难、维护费用居高不下等问题逐渐暴露出
来。人们意识到,专家系统面临“知识工程瓶颈”,简单地说,就是由人来把知识总结出来再教给计算机是相当困难
的。
同时,若干年前各国制定的宏伟的人工智能计划也并未能实现,于是对AI研究的资助被大幅削减,人工智能研究再次
进入低谷。
6. 第三次高潮:统计学习时代(1993~2005)
90年代中期,计算机性能得到提升,大量数据的累积和AI研究者的不懈努力,使得人工智能在许多领域都取得了一定
成果,掀起新一轮高潮。在这一时期,“统计学习”闪亮登场并迅速占据主流舞台,代表性技术是支持向量机以及更一
般的核方法。但是另一方面,统计学习的兴起也使得神经网络模型难以调参、难以解释的缺陷进一步凸显,于是神经
网络的研究再次进入低潮。
这一时期的重要事件有:
1995年,Corinna Cortes和Vapnik等提出了支持向量机,以其为代表的统计学习方法逐渐兴起;
1997年,IBM公司的国际象棋电脑深蓝DeepBlue战胜了国际象棋世界冠军卡斯帕罗夫,使得人们重新认识到人
工智能的可能性;
7. 爆炸式发展:深度学习时代(2005~至今)
这个时期大家都很熟悉了,正是如今以深度学习为代表的人工智能技术大红大紫的时代。之所以将时间起点定在
2005年,是因为这一年被认为是大数据元年,标志性事件是之前在机器翻译领域从来没有技术积累、不为人所知的
Google,用海量数据来训练系统,以巨大的优势打败了全世界所有机器翻译研究团队,一跃成为这个领域的领头
羊。
评论0
最新资源