公司顺利通过CMMI5评估

本次评估由Margaret Glover担任评估组小组长,对我公司进行了为期一周的评估。评估小组全面考察了我司对CMMI 5的过程域的实践情况,对于公司的软件开发管理标准过程体系、过程改进实施情况、项目管理能力等都给予了充分的认可,一致认为我司已达到CMMI5级所有的目标。
CMMI5认证的顺利通过,与天源信科始终坚持规范化的管理,专注于行业信息化建设是分不开的。CMMI5的成功评估,标志着天源信科软件开发和管理模式已经与国际主流模式接轨,研发管理能力逐步成熟,在企业管理水平、软件过程管理能力、人员素质、产品与服务质量等方面全面与国际标准接轨。获得CMMI5级认证,是天源信科在行业解决方案和服务领域发展的重要里程碑,是公司创新发展、持续为客户提供高品质解决方案和服务的新起点。
目前,天源信科已将CMMI5管理体系全面应用于管理软件以及行业产品的研发全过程中。

(1)全体人员合影留念
1 1F61Q14G2545 - 公司顺利通过CMMI5评估 |天源股份 – 产业互联网推动者!

(2)主评估师Margaret Glover主持启动会并详细介绍评估规则
1 1F61Q14U2623 - 公司顺利通过CMMI5评估 |天源股份 – 产业互联网推动者!

贺圣诞迎新年祝福之夜PARTY

2017年12月23日,借着圣诞节到来之际,为感谢这一年来同事们的辛勤努力,让大家在繁忙之余好好放松一下,同时增进大家间的凝聚力,办公室特意策划贺圣诞迎新年祝福之夜PARTY活动,让大家暂时抛开工作的烦恼,释放自己,相聚于这个温暖的大家庭,一起欢乐,一起温暖过冬。

1 1G229133954142 - 贺圣诞迎新年祝福之夜PARTY |天源股份 – 产业互联网推动者!
PARTY在6点在公司附近的MR创意青年+馆举办,一进入馆内,映入眼帘的就是一大桌的点心、蛋糕、水果、饮料,大家纷纷带上了公司准备好的圣诞帽,浓郁的圣诞喜庆气氛马上洋溢起来。

欢快的心情蔓延在每个周五下班放假的人们脸上,缓缓流淌的祝福溢满了人们的手机里,馆内处处充满了喜迎圣诞节的气氛。
1 1G229101324H7 - 贺圣诞迎新年祝福之夜PARTY |天源股份 – 产业互联网推动者!

丰富的食物和饮料
1 1G229102I1F8 - 贺圣诞迎新年祝福之夜PARTY |天源股份 – 产业互联网推动者!

吃货现场
人群涌动,只为美味
1 1G229102U2444 - 贺圣诞迎新年祝福之夜PARTY |天源股份 – 产业互联网推动者!

没错,暖场活动永远少不了“数7游戏”,会玩的小伙伴已经精明的PASS了自己,可怜了下面的无辜同事们,只能来为大家表演节目了。
1 1G229103213532 - 贺圣诞迎新年祝福之夜PARTY |天源股份 – 产业互联网推动者!

当然少不了各部门代表参与的“蹲萝卜大赛”了,成员边做蹲起动作的同时边说“粉萝卜蹲,粉萝卜蹲,粉萝卜蹲完红萝卜蹲”,再次把气氛推向高潮。
1 1G229103419259 - 贺圣诞迎新年祝福之夜PARTY |天源股份 – 产业互联网推动者!

游戏过后,来到了圣诞交换礼物环节,各位同事都自备一份有圣诞节或新年寓意的小礼物,咦,为什么要备小礼物呢?哈哈,因为也有机会获得其他小伙伴的礼物。看看大家的创意礼物吧。

最后,22日也是“冬大过年”的冬至节日,公司还为大家准备暖心汤圆,希望大家在新的一年团结一致,以更加饱满的工作热情投入到自己的工作岗位中,为公司的蓬勃发展贡献自己的力量,为公司铸造辉煌!
1 1G2291036251T - 贺圣诞迎新年祝福之夜PARTY |天源股份 – 产业互联网推动者!

一文读懂AlphaGo背后的强化学习

作者 | Joshua Greaves
编译 | 刘畅,林椿眄

本文是强化学习名作——“Reinforcement Learning: an Introduction”一书中最为重要的内容,旨在介绍学习强化学习最基础的概念及其原理,让读者能够尽快的实现最新模型。毕竟,对任何机器学习实践者来说,RL(强化学习,即Reinforcement Learning)都是一种十分有用的工具,特别是在AlphaGo的盛名之下。

第一部分,我们将具体了解了MDPs (马尔可夫决策过程)以及强化学习框架的主要组成部分;第二部分,我们将构建并学习有关价值函数和Bellman (贝尔曼方程)的理论知识,它是强化学习中最重要公式,我们将一步一步地推导、解释,以揭开强化学习的神秘面纱。

当然,本文只是尽力用最快、最直观的方式带你来理解强化学习背后的理论,而要加深自己在该话题上的理解,Sutton和Barto所写的“Reinforcement Learning:An Introduction”肯定值得你用心读一读。此外,AlphaGo身后的大神David Silver在YouTube上所讲强化学习十课也值得你认真学一学。

监督学习VS评估学习

对于很多感兴趣的问题,监督学习的范例没有办法给我们提供所需要的灵活性。监督学习和强化学习这两者之间最主要的区别在于收到的反馈是评估性的还是指导性的。指导性的反馈告诉你如何达到目标,而评估性的反馈则告诉你将会把目标完成到什么程度。监督学习以指导性的反馈为基础来解决问题,而强化学习则是基于评估性反馈来解决问题的。图像分类就是用带有指导性反馈的监督学习解决问题的一个实际例子;当算法尝试分类一些特定的数据时,它将从指导性的反馈中了解到哪个才是真正的类别。而另一方面,评估性的反馈仅仅告诉你完成目标的程度。如果你用评估性反馈来训练一个分类器,你的分类器可能会说“我认为这是一个仓鼠”,然后它会得到50分。但是,由于没有任何语境信息,我们不知道这 50 分是什么。我们需要进行其他的分类,探索50分意味着我们是准确或是不准确。或许10000分是一个更好的分值,因此我们还是不知道它是什么,除非我们尝试去对其他数据再进行分类。

317f228694334beb905123f96783cf48 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
猜到是仓鼠就可以得到两个金色星星和一个笑脸,而猜沙鼠能得到一个银色星星和一个大拇指

在我们感兴趣的很多问题中,评估性反馈的想法是更直观的,更易实现的。例如,想象一个控制着数据中心温度的系统。指导性反馈在这里似乎没有任何用处,你怎样告诉你的算法在任意给定的时间步中每个零件正确的设置是什么?评估性反馈在这里就将发挥它的用处了。你能很容易的知道在一个特定的时间段用了多少电,或者平均温度是多少,甚至有多少机器温度过高了等数据。这实际上就是谷歌使用强化学习解决这些问题的方式。让我们直接来学习吧。

马尔科夫决策过程

假定我们知道状态 s,如果未来的状态条件独立于过去的状态,那么状态 s 就具有马尔科夫性质。这意味着s描述了所有过去的状态直到现在的状态。如果这很难理解,那我们就用一个例子来解释,让这个问题显得更简单一点。假设一个球飞过空中,如果它的状态是由它的位置和速度决定,并足以描述它当前的位置和接下来的位置(不考虑物理模型和外界影响)。因此,这一状态就具备马尔科夫性质。但是,如果我们只知道这个球的位置不知道它的速度,它的状态就不再是马尔科夫。因为现在的状态并不是所有以前状态的归纳,我们需要以前的时间点所得到的信息去构建合适的球的模型。

强化学习通常可以建模为一个马尔科夫决策过程,即MDP(Markov Decision Process)。MDP是一个有向图,它有节点和边的状态,可以描述马尔科夫状态之间的转变,下面是一个简单的例子:

fb62718922204775960a563f890cf184 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
一个简单的马尔科夫决策过程

这个MDP展示了学习马尔科夫决策的过程。在最开始你在一个“不理解”的状态中,接下来,你有两个可能的动作,学习或者不学习。如果你选择不学习,则有100%的可能性返回到不理解的状态里。但是,如果你选择学习,只有20%的可能性让你回到最开始的地方,即80%的可能性变成理解的状态。

实际上,我确定转换到理解状态的可能性超过80%,MDP的核心其实很简单,在一个状态你可以采取一系列的动作,在你采取行动之后,这里有一些你能转化去什么状态的分布。在采取不学习动作的例子中,这个转化也能被很好的确定。

强化学习的目标是去学习怎么花更多的时间在更有价值的状态上,为了有一个更有价值的状态,我们需要MDP提供更多的信息。

85f712bd1fb540bc9ca2e0c62d09c6b0 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
你不需要一个MDP来告诉自己饿了要吃饭,但是强化学习的机制是需要它的

这个MDP增加了奖励机制,你每转化到一个状态,就会获得一次奖励。在这个例子中,由于接下来状态是饥饿,你会得到一个负面的奖励,如果接下来状态是饿死,那会得到一个更负面的奖励。如果你吃饱了,就会获得一个正面的奖励。现在我们的MDP已经完全成型,我们可以开始思考如何采取行动去获取能获得的最高奖励。

由于这个MDP是十分简单的,我们很容易发现待在一个更高奖励的区域的方式,即当我们饥饿的时候就吃。在这个模型中,当我们处于吃饱状态的时候没有太多其它的选择,但是我们将会不可避免的再次饥饿,然后立马选择进食。强化学习感兴趣的问题其实具有更大更复杂的马尔科夫决策过程,并且在我们开始实际探索前,我们通常不知道这些策略。

形式化强化学习问题

现在我们有了很多我们需要的基础材料,接下来我们需要将目光转向强化学习的术语。最重要的组成是智能体(agent)和环境(environment)。智能体是被间接控制的,且存在于环境中。回顾我们的马尔科夫决策模型,智能体可以在给定的状态下选择一个对它有显著影响的动作。然而,智能体并不能完全的控制环境的动态,环境会接收这些动作,然后返回新的状态和奖励

37a8edb40a454e829516a9a717c4b6ba - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
来自Sutton和Barto的书“Reinforcement Learning: an Introduction”(这是强烈推荐的)的这张图,很好的解释了智能体和环境之间的相互作用。在某个时间步t,智能体处于状态s_t,采取动作a_t。然后环境会返回一个新的状态s_t+1和一个奖励r_t+1。奖励处于t+1时间步是因为它是由环境在t+1的状态s_t+1返回的,因此让它们两个保持一致更加合理(如上图所示)。

我们现在已经有一个强化学习问题的框架,接下来准备学习如何最大化奖励函数。在下一部分中,我们将进一步学习状态价值(state value)函数和动作价值(action value)函数,以及奠定了强化学习算法基础的贝尔曼(Bellman)方程,并进一步探索一些简单而有效的动态规划解决方案。

奖励与回报

正如前面所说的,强化学习中的智能体学习如何最大化未来的累积奖励。这个用来描述未来的累积奖励的词称为回报,通常用R表示。我们还使用下标t来表示在某个时间步骤下的返回值。数学公式的表示如下:

aa62850f41ab470a9b6a004ca8a865c9 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
如果我们让这个级数无限延伸,那么我们可能会得到无穷的回报,但这样的话使得这个问题的定义失去意义。因此,只有当我们期望得到的奖励是有限级的,这个等式才有意义。有终止程序的任务称为情景任务。纸牌游戏是情景性问题的好例子。情景的开始是向每个人发牌,并且不可避免地根据特定的游戏规则而结束。然后,下一轮另一个情景又开始,再次处理这些纸牌。

比起使用未来的累积奖励,更为常用地是使用未来累积折扣奖励:

fb3138f1b1794427a74d8c2e3961a796 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
在这里0<γ<1。以这种方式来定义回报值有两个好处:不仅能够以无限级数来定义回报值,而且还能为随后的回报赋予更好的权重,这意味着我们更关心即将到来的回报,而不是我们将来会得到的回报。γ的值越小,就越正确。在特殊情况下,我们令γ等于0或者1。当γ等于1时,我们就回到了第一个等式,我们关心的是所有的回报,而不是考虑到未来有多远。另一方面,当γ等于0时,我们关心的是当前的回报,而不考虑之后的任何回报。这将导致我们的算法缺乏长远性。它将学会采取最适合当前情况的行动,但不会考虑此行动对未来的影响。

策略

策略,被记为Π(s,a),描述了行动的一个方式。它是一个这样的函数:接受一个状态和一个动作,并返回在该状态下采取这个动作的概率。因此,对于一个给定的状态,它必须满足 。在下面的例子中,当我们饿时,我们可以在吃和不吃两个动作之间做出选择。

fe03d20aa428416fbd70bf1d09fa6a89 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
我们的策略应该描述如何在每个状态下采取行动。因此,一个等概率的随机策略就该像这样子: 其中E代表吃的行动, 代表不吃的行动。这意味着,如果你处于饥饿状态,你在选择吃或者不吃的概率是相同的。

我们使用强化学习的目标是为了去学习一个最优的策略Π*,它告诉我们如何行动以得到最大化的回报。这只是一个简单的例子,容易知道例子中的最优决策是饿了就吃 。在这个实例中,正如许多MDPs (马尔可夫决策过程)一样,最优的决策是确定性的。每一个最佳状态都有一个最佳行动。有时这被写成

Π*(s)=a,这是一个从状态到这些状态下最优决策行动的一个映射。

价值函数

我们利用价值函数来得到学习的最优策略。强化学习中有两种类型的价值函数:状态价值函数,表示为V(s);和行为价值函数,表示为Q(s,a)。

状态价值函数描述了在执行一个策略时的状态值。这是一个从状态s开始执行我们的策略Π所得到的预期回报:

214 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!

值得注意的是,即使在相同的环境下,价值函数也会根据策略而改变。这是因为状态的价值函数取决于你的行为方式,因为你在某一个特定的状态下的行为会影响你预期的回报。同样要注意的是期望的重要性。(期望就像一个平均值,就是你期望看到的回报)。我们使用期望的原因在于:当你到达一个状态时,会发生一些随机状况。你可能有一个随机策略,这意味着我们需要将我们所采取的所有不同行动的结果结合起来。同样地,过渡函数可以是随机的,也就是说,我们不能以100%的概率结束任何状态。记住上面的这个例子:当你选择一个行动时,环境将返回下一个状态。可能有多个状态可以返回,甚至是一个动作。更多的信息我们将会在Bellman方程(贝尔曼方程)中得到。期望将所有的随机性都考虑在内。

我们将使用另一个价值函数是动作价值函数。动作价值函数是指我们采取某一特定策略时,在某个状态下采取一个动作所产生的价值。这是在策略Π下,对给定状态和行动时所返回的预期回报:

275 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!

对状态价值函数的注释同样适用于动作价值函数。它将考虑到未来行动的随机性,以及从环境中返回状态的随机性。

贝尔曼方程

Richard Bellman是一位美国应用数学家,他推导了以下方程,让我们能够开始求解这些MDPs (马尔可夫决策过程)。在强化学习中,贝尔曼方程无处不在,必须了解强化学习算法是如何工作的。但是在我们了解贝尔曼方程之前,我们需要了解一些更有用的符号。我们P和R定义为如下:

307 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!

649 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!

是另一种表达我们从状态s开始,采取行动a,到状态s’的期望 (或平均) 奖励的表达方式。

最后,有了这些知识,我们准备推导Bellman方程 (贝尔曼方程)。我们将把状态价值函数考虑到Bellman方程(贝尔曼方程)之内。根据回报的定义,我们可以修改公式(1)为如下所示:

4b6628bdb2bd4142a1726105b74383a8 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
如果我们想从总和回报中提出第一个奖励,公式可以被改写为这样:

368ebb9fcb4549d7abd2840dbcee20e8 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
在这里期望可以被描述如果我们采取策略Π时,继续从状态s出发的期望回报。可以通过对所有可能的动作和所有可能的返回状态的求和来描述期望。接下来的两个方程可以帮助我们迈出下一步。

7335ce407d0c4726852f077f296454c0 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
通过对这两个部分分配期望值,我们就可以将我们的方程转化为如下形式:

2a8701168d1f437f81c3cbf51f9b6945 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
值得注意得是,方程(1)和这个方程的结束部分是一样的。因此,我们可以将其替换,得到如下:

9dec9675510a4e7297b2735b25584b55 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
Bellman方程(贝尔曼方程)的动作价值函数可以以类似的方式推导出来。感兴趣的人可以在文章的最后看到具体的步骤。其最终结果如下:

72439ddb077c4c1d832e71f39eb05ca4 - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
Bellman方程的重要性在于,它能让我们将一个状态的值表达成其他状态的值。这意味着当我们知道状态st+1的值时,我们可以轻松地计算出状态st的值。这为我们解决每个状态值的迭代计算问题打开了大门,因为如果我们知道下一个状态的值,我们就能知道当前状态的值。在这里,最重要的是要记住方程式的编号。最后,随着Bellman方程(贝尔曼方程)的出现,我们可以开始研究如何计算最优策略,并编写我们的第一个强化学习智能体程序。

下一步:动态规划

在下一篇文章中,我们将研究使用动态规划来计算最优策略,这将为更高级的算法奠定基础。然而,这将是第一个实际编写强化学习算法的机会。我们将研究策略迭代和值迭代以及他们的优缺点。在此之前,感谢您的阅读。

正如所承诺的:推导Bellman方程的动作价值函数(贝尔曼方程)

正在我们推导出Bellman方程状态价值函数的过程一样,我们用相同的推导过程得到了一系列的方程,下面我们从方程(2)开始继续推导:

832aec6ca3a84e6c84b7bc9041d3156a - 一文读懂AlphaGo背后的强化学习 |天源股份 – 产业互联网推动者!
转载声明:本网部分文章或图片来源于公开网络资料,本网转载使用出于传递更多信息和供人学习之目的。如转载涉及版权方面的问题,请作者及时与本网联系,本网将按法律规定予以及时删除或者采取其他方式妥善处理。

详解物联网发展的8大趋势

物联网(IOT)是一项科技革命,目标在于将短距离移动资料收发器嵌入到日常生活中的小工具或事物中,为信息通讯的技术领域带来新的发展面向。

Frost & Sullivan的研究报告提出物联网的八大发展趋势:

一、物联网将演变为认知工具

2017年物联网的发展将从IoT 0.0版的连接装置演变成IoT 2.0版的使用认知运算(cognitive computing)及预测运算(predictive computing)。

(一)、IoT 0.0即是机器对机器(Machine-to-Machine, M2M)特性包括:联机装置是透过手机或与其他网络、极少的数据数据有整合企业或消费者的应用程序、且重点放在嵌入式硬件和手机网络的“管道(plumbing)”方面。

(二)、IoT 1.0特性包括:云端运算、整合企业管理、支持新的商业模式,如产品即服务、装置与网络安全、大数据分析、聚焦于整合软件功能和应用程序。

(三)、IoT 2.0特性:指物联网将从数据运用至事件响应,再转变为使用知觉工具和认知运算(或预测运算)。

二、认知技术成为新的智慧

物联网正在快速地转向运用人工智能(AI)来改变智能装置,在没有人为干预的情况下,能直接对环境的变化做出反应。

2017年云端服务与AI的整合解决方案,能够整合APP、机器学习及AI,以提供完整的情境认知(situation awareness)、预测及规范功能,并帮助组织实现物联网的价值。

三、认物联网平台商品化

大型企业将持续致力于建设生态系统,并以最低成本提供各种组件(building blocks),借以促进创新和发展新物联网相关的解决方案与能力。

物联网平台的战争早已开始,包括:Amazon网络服务、微软Azure的物联网、IBM Watson云端运算、SAP的HANA,以及PTC的Thingworx等。拥有自己的物联网生态系统的AT&T、Verizon和Cisco等公司,将继续向更大型的平台供货商提供组件(building blocks),并开始将自己生态系统转移至更大的物联网生态系统。

四、无人机运输成真

Amazon于2016年12月7日第一次让无人机成功运输包裹。Frost&Sullivan预估无人机商业测试的法规将于2017年通过,2017年底将可提供无人机运输服务。此外,高通公司和AT&T也在测试无人机商业运输、无人机监控森林大火、移动通信基地台(cell tower)和电缆,同时继续游说立法者批准搭载传感器的无人机可用于商业用途。

五、物联网是国家网络安全的危机

不安全的装置和恶意软件恐成为物联网的安全隐患,2017年黑客入侵物联网装置而造成损失。例如:2006年10月DDoS攻击,黑客成功入侵无人监控的摄影机。目前有数十亿个网络设备正在运行,类似的黑客攻击会入侵电网基础设施、联网汽车(connected car),交通监视器、核电厂等等,将成为国家网络安全的危机。

六、智能汽车和智能家居的融合已经实现

物联网让移动装置和智能家居得以融合,能帮助消费者实现集中管理数字生活的梦想。其中包含:共享汽车、整合火车与飞机的行程、汽车租赁、响应需求的运输(TAXI、BRT)、都市内的大众交通、汽车能源管理、APP、旅程规划、大数据、动态停车、私人管家等等。

七、争取竞争优势的AI助理

Amazon、Google、Apple、Microsoft都在努力抢占个人助理的市占率,为争下家庭、消费者物联网和人工智能的市场大饼。在2017年AI个人助理的发展中,首先将现有服务和具备智能家居解决方案的AI个人助理进行整合;第二阶段则是与车联网进行整合;第三阶段是与自动驾驶整合;最后是小型公司大量引进AI个人助理,将会增加市场领导者的竞争压力。

八、云端运算普及化

高效的数据标准与雾运算(Fog Computing)将可支持端点智慧(Endpoint intelligence),将有助于物联网的未来部署。

点运算(Point computing)之特性:具有简单、基于私人云端的物联网部署;企业后端数据处理;以应用为中心的通讯等。

云端运算(Cloud computing)之特性:基于公共云端的物联网部署、协同物联网部署的新兴应用、以云端为中心的通讯。

雾运算(Fog Computing)之特性:在雾运算环境中,端点层级的数据管理、半自动化Semi-autonomous)的物联网应用、以数据为中心的通讯。

 

转载声明:本网部分文章或图片来源于公开网络资料,本网转载使用出于传递更多信息和供人学习之目的。如转载涉及版权方面的问题,请作者及时与本网联系,本网将按法律规定予以及时删除或者采取其他方式妥善处理。

整理:深度学习 vs 机器学习 vs 模式识别

pexels photo 317385 - 整理:深度学习 vs 机器学习 vs 模式识别 |天源股份 – 产业互联网推动者!

【编者按】本文来自CMU的博士,MIT的博士后,vision.ai的联合创始人Tomasz Malisiewicz的个人博客文章,阅读本文,你可以更好的理解计算机视觉是怎么一回事,同时对机器学习是如何随着时间缓慢发展的也有个直观的认识。

以下为正文:

本文我们来关注下三个非常相关的概念(深度学习、机器学习和模式识别),以及他们与2015年最热门的科技主题(机器人和人工智能)的联系。

5510f4de93adf - 整理:深度学习 vs 机器学习 vs 模式识别 |天源股份 – 产业互联网推动者!

图1 人工智能并非将人放入一台计算机中(图片来源于 WorkFusion 的博客)

环绕四周,你会发现不缺乏一些初创的高科技公司招聘机器学习专家的岗位。而其中只有一小部分需要深度学习专家。我敢打赌,大多数初创公司都可以从最基本的数据分析中获益。那如何才能发现未来的数据科学家?你需要学习他们的思考方式。

三个与“学习”高度相关的流行词汇

模式识别(Pattern recognition)、机器学习(machine learning)和深度学习(deep learning)代表三种不同的思想流派。模式识别是最古老的(作为一个术语而言,可以说是很过时的)。机器学习是最基础的(当下初创公司和研究实验室的热点领域之一)。而深度学习是非常崭新和有影响力的前沿领域,我们甚至不会去思考后深度学习时代。我们可以看下图所示的谷歌趋势图。可以看到:

1)机器学习就像是一个真正的冠军一样持续昂首而上;
2)模式识别一开始主要是作为机器学习的代名词;
3)模式识别正在慢慢没落和消亡;
4)深度学习是个崭新的和快速攀升的领域。

5510f50129889 - 整理:深度学习 vs 机器学习 vs 模式识别 |天源股份 – 产业互联网推动者!

2004年至今三个概念的谷歌搜索指数(图来源于 谷歌趋势 )

1. 模式识别:智能程序的诞生

模式识别是70年代和80年代非常流行的一个术语。它强调的是如何让一个计算机程序去做一些看起来很“智能”的事情,例如识别“3”这个数字。而且在融入了很多的智慧和直觉后,人们也的确构建了这样的一个程序。例如,区分“3”和“B”或者“3”和“8”。早在以前,大家也不会去关心你是怎么实现的,只要这个机器不是由人躲在盒子里面伪装的就好(图2)。不过,如果你的算法对图像应用了一些像滤波器、边缘检测和形态学处理等等高大上的技术后,模式识别社区肯定就会对它感兴趣。光学字符识别就是从这个社区诞生的。因此,把模式识别称为70年代,80年代和90年代初的“智能”信号处理是合适的。决策树、启发式和二次判别分析等全部诞生于这个时代。而且,在这个时代,模式识别也成为了计算机科学领域的小伙伴搞的东西,而不是电子工程。从这个时代诞生的模式识别领域最著名的书之一是由Duda & Hart执笔的“模式识别(Pattern Classification)”。对基础的研究者来说,仍然是一本不错的入门教材。不过对于里面的一些词汇就不要太纠结了,因为这本书已经有一定的年代了,词汇会有点过时。

5510f556a4ef4 - 整理:深度学习 vs 机器学习 vs 模式识别 |天源股份 – 产业互联网推动者!

图2 一个字符“3”的图像被划分为16个子块。

自定义规则、自定义决策,以及自定义“智能”程序在这个任务上,曾经都风靡一时(更多信息,可以查看这个 OCR 网页)

小测试:计算机视觉领域最著名的会议叫CVPR,这个PR就是模式识别。你能猜出第一届CVPR会议是哪年召开的吗?

2. 机器学习:从样本中学习的智能程序

在90年代初,人们开始意识到一种可以更有效地构建模式识别算法的方法,那就是用数据(可以通过廉价劳动力采集获得)去替换专家(具有很多图像方面知识的人)。因此,我们搜集大量的人脸和非人脸图像,再选择一个算法,然后冲着咖啡、晒着太阳,等着计算机完成对这些图像的学习。这就是机器学习的思想。“机器学习”强调的是,在给计算机程序(或者机器)输入一些数据后,它必须做一些事情,那就是学习这些数据,而这个学习的步骤是明确的。相信我,就算计算机完成学习要耗上一天的时间,也会比你邀请你的研究伙伴来到你家然后专门手工得为这个任务设计一些分类规则要好。

5510f5a57e7ea middle - 整理:深度学习 vs 机器学习 vs 模式识别 |天源股份 – 产业互联网推动者!

图3 典型的机器学习流程(图来源于 Natalia Konstantinova 博士的博客)。

在21世纪中期,机器学习成为了计算机科学领域一个重要的研究课题,计算机科学家们开始将这些想法应用到更大范围的问题上,不再限于识别字符、识别猫和狗或者识别图像中的某个目标等等这些问题。研究人员开始将机器学习应用到机器人(强化学习,操控,行动规划,抓取)、基因数据的分析和金融市场的预测中。另外,机器学习与图论的联姻也成就了一个新的课题—图模型。每一个机器人专家都“无奈地”成为了机器学习专家,同时,机器学习也迅速成为了众人渴望的必备技能之一。然而,“机器学习”这个概念对底层算法只字未提。我们已经看到凸优化、核方法、支持向量机和Boosting算法等都有各自辉煌的时期。再加上一些人工设计的特征,那在机器学习领域,我们就有了很多的方法,很多不同的思想流派,然而,对于一个新人来说,对特征和算法的选择依然一头雾水,没有清晰的指导原则。但,值得庆幸的是,这一切即将改变……

延伸阅读:要了解更多关于计算机视觉特征的知识,可以看看原作者之前的博客文章:“ 从特征描述子到深度学习:计算机视觉的20年 ”。

3. 深度学习:一统江湖的架构

快进到今天,我们看到的是一个夺人眼球的技术—深度学习。而在深度学习的模型中,受宠爱最多的就是被用在大规模图像识别任务中的卷积神经网络(Convolutional Neural Nets,CNN),简称ConvNets。

5510f5cdaa82f middle - 整理:深度学习 vs 机器学习 vs 模式识别 |天源股份 – 产业互联网推动者!

图4 ConvNet框架(图来源于 Torch的教程

深度学习强调的是你使用的模型(例如深度卷积多层神经网络),模型中的参数通过从数据中学习获得。然而,深度学习也带来了一些其他需要考虑的问题。因为你面对的是一个高维的模型(即庞大的网络),所以你需要大量的数据(大数据)和强大的运算能力(图形处理器,GPU)才能优化这个模型。卷积被广泛用于深度学习(尤其是计算机视觉应用中),而且它的架构往往都是非浅层的。

如果你要学习Deep Learning,那就得先复习下一些线性代数的基本知识,当然了,也得有编程基础。我强烈推荐Andrej Karpathy的博文:“ 神经网络的黑客指南 ”。另外,作为学习的开端,可以选择一个不用卷积操作的应用问题,然后自己实现基于CPU的反向传播算法。

对于深度学习,还存在很多没有解决的问题。既没有完整的关于深度学习有效性的理论,也没有任何一本能超越机器学习实战经验的指南或者书。另外,深度学习不是万能的,它有足够的理由能日益流行,但始终无法接管整个世界。不过,只要你不断增加你的机器学习技能,你的饭碗无忧。但也不要对深度框架过于崇拜,不要害怕对这些框架进行裁剪和调整,以得到和你的学习算法能协同工作的软件框架。未来的Linux内核也许会在Caffe(一个非常流行的深度学习框架)上运行,然而,伟大的产品总是需要伟大的愿景、领域的专业知识、市场的开发,和最重要的:人类的创造力。

其他相关术语

1)大数据(Big-data):大数据是个丰富的概念,例如包含大量数据的存储,数据中隐含信息的挖掘等。对企业经营来说,大数据往往可以给出一些决策的建议。对机器学习算法而言,它与大数据的结合在早几年已经出现。研究人员甚至任何一个日常开发人员都可以接触到云计算、GPU、DevOps和PaaS等等这些服务。

2)人工智能(Artificial Intelligence):人工智能应该是一个最老的术语了,同时也是最含糊的。它在过去50年里经历了几度兴衰。当你遇到一个说自己是做人工智能的人,你可以有两种选择:要么摆个嘲笑的表情,要么抽出一张纸,记录下他所说的一切。

结论

关于机器学习的讨论在此停留(不要单纯的认为它是深度学习、机器学习或者模式识别中的一个,这三者只是强调的东西有所不同),然而,研究会继续,探索会继续。我们会继续构建更智能的软件,我们的算法也将继续学习,但我们只会开始探索那些能真正一统江湖的框架。

转载声明:本网部分文章或图片来源于公开网络资料,本网转载使用出于传递更多信息和供人学习之目的。如转载涉及版权方面的问题,请作者及时与本网联系,本网将按法律规定予以及时删除或者采取其他方式妥善处理