现在和未来

| 翻译 |

【www.guakaob.com--翻译】

于我,过去,现在以及未来
现在和未来 第一篇

于我,过去,现在以及未来

英国诗人西格里夫〃萨松曾在人类文学史上留下一首著名的诗,诗名:《In me, past, present, future meet》,这句话翻译成中文是一句很浪漫很哲理的话:于我,过去,现在以及未来。

一句话代表一味人生。佛教有过去佛、现在佛、未来佛之说,分别暗指人生过去、现在、未来的三种状态。静心看来,‚于我,过去,现在以及未来‛这句话,与佛教偈语有异曲同工之妙。

谈及过去,往往沉浸于中。过去这个词,在佛语中意通‚前生‛,对于现在而言,过去就是从前,刚才,昨天,前天。这里,我突然想起了一个关于‚放下‛的小故事:从前,有个老和尚带着他的小徒弟游方,途遇一条河,见一妙龄女子正想过河,但无船无桥,没法渡行。犯难之际,老和尚主动背了那女子趟过河,然后放下女子,与小和尚继续赶路。小和尚闷头走了一路嘀咕了一路:师父怎么了?竟然背一女子过河?这可是犯戒呀?忍了半天,小和尚终于还是忍不住,他对师父说:师父,你刚才怎么可以背女子过河呢?这不是犯戒么?老和尚听后叹道:女子我早已放下,你怎么却还一直放不下呢!故事虽小,却不单有意思,也很有智慧。放下是过去,过去是放下。放下,指的是放下某些人,放下某些事,放下荣耀,放下伤感,放下心灵的重负,流逝的时

间虽然美好,但不可追回,对于往昔,不必太多缅怀,亦不必太多烦恼,当然更不用过于追思回忆。记住昨天,如果不是为了激励明天的进取,那就莫若放下和忘却。所以说,理一理心情,整一整思绪,紧一紧行囊,日子还长,这路,还是要继续走下去的。

对于现在,就是把握当下。我们所说的当下,追本溯源,其实来自于禅宗对于时间的一种描述。佛语中,1分钟有60秒,1秒钟有60个刹那,一刹那有60个当下。把时间切到很小很小的单位,当下就近似于永恒。把握当下,就是要抓住这瞬间的永恒,努力实现人生的追求,就是既要珍惜已拥有的,所在乎的,又要不畏艰难,不怕失败,主动尝试感兴趣的事物,主动追求所倾心的人。作家刘丙仁曾在《把握当下》书中写到:‚生命只有一次,然而‘过去之心不可得,现在之心不可得,未来之心不可得’,而我们能够拥有的只有呼吸之间的当下。打开心灵,体味当下,你会发现许多不曾注意到的事情竟是如此的美好。甚至就连深深地吸口气,直到心底,都会让你感动和满足。‛把握当下,过去不曾发生什么,未来不会发生什么,它只会发生在当下。这世上有三种人:一种人在过去中徘徊,另一种人在未来里憧憬,还有一种人活在当下,珍惜眼前。于我而言,我愿做这最后一种人,牢牢抓住现在的一分一秒一个当下,交三五好友,唱一路情歌,看几处风景,留点滴足迹,让这短暂的生命之旅

成为一曲震撼灵魂的交响乐章,此番,无悔我生,无愧我心。一万年太长,我只争朝夕。

说到未来,更多的,应该是一种憧憬和追求。西方有个关于‚未来‛的寓言是这么说的:一天,柏拉图问苏格拉底:‚老师,请问什么是未来?‛苏格拉底笑了笑,回答到:‚你刚刚问的是过去,你现在看到的是现在,你所等待的答案就是未来‛。对多数人而言,过去是已知的,现在是感知的,而未来,却是总是充满变数、充满未知的。未来既无法预见,也不可捉摸。但是,在我看来,时间是伟大的作者,它总能写出未来的结局,每一个未来都会变成一个现在,一个过去,未来看似毫无规律、琢磨不透,但仍与现在、过去息息相关,密切联系。2010年5月16日,澳大利亚16岁少女杰西卡〃沃森驾驶她的‚艾拉的粉红女郎‛号帆船,历时210天,独自完成了环球航海的壮举,总理陆克文盛赞她是英雄,沃森却说:‚我不是英雄,我只是一个追求梦想的普通女孩。‛对沃森而言,环球旅行的梦想似乎过于伟大,但她毫无畏惧,将梦想这么个摸不着、看不到的东西量化成一张张时间表、坐标轴、目标图,她将梦想编织成了未来,并将未来变成了现在、过去,变成了奇迹。美国浪漫主义诗人朗姆罗有句警句:‚不要老叹息过去,它是不再回来的,要明智的改变现在,以不忧不惧的坚决意志,投入扑朔迷离的未来。‛我对未来,向来信心百倍,斗志昂扬,豪情满怀。未来于我而言,是梦【现在和未来】

【现在和未来】

想,是追求,是创造,而我的未来,必将由我来书写!

西格夫里〃萨松在诗中还有句不朽名言:‚In me the tiger sniffs the rose‛, 余光中先生将这句话翻译成:‚我心中有只猛虎在细嗅蔷薇‛,个人以为很有诗意。

是时,夏至春去,蝉虫声不断。今夜,友邀我举杯小酌,因笔未落定,我故而言辞,望谅。夜风徐来,踱步归家,此刻此景,我心有猛虎,细嗅蔷薇。

2012年5月8日23时30分 有感而发

深度学习的现在和未来
现在和未来 第二篇

深度学习的现在和未来:DeepLearning、无监督

学习、NLP

原文摘要:深度学习可以让那些拥有多个处理层的计算模型来学习具有多层次抽象的数据的表示。这些方法在许多方面都带来了显著的改善,包括最先进的语音识别、视觉对象识别、对象检测和许多其它领域,例如药物发现和基因组学等。深度学习能够发现大数据中的复杂结构。它是利用BP算法来完成这个发现过程的。BP算法能够指导机器如何从前一层获取误差而改变本层的内部参数,这些内部参数可以用于计算表示。深度卷积网络在处理图像、视频、语音和音频方面带来了突破,而递归网络在处理序列数据,比如文本和语音方面表现出了闪亮的一面。

机器学习技术在现代社会的各个方面表现出了强大的功能:从Web搜索到社会网络内容过滤,再到电子商务网站上的商品推荐都有涉足。并且它越来越多地出现在消费品中,比如相机和智能手机。

机器学习系统被用来识别图片中的目标,将语音转换成文本,匹配新闻元素,根据用户兴趣提供职位或产品,选择相关的搜索结果。逐渐地,这些应用使用一种叫深度学习的技术。传统的机器学习技术在处理未加工过的数据时,体现出来的能力是有限的。几十年来,想要构建一个模式识别系统或者机器学习系统,需要一个精致的引擎和相当专业的知识来设计一个特征提取器,把原始数据(如图像的像素值)转换成一个适当的内部特征表示或特征向量,子学习系统,通常是一个分类器,对输入的样本进行检测或分类。特征表示学习是一套给机器灌入原始数据,然后能自动发现需要进行检测和分类的表达的方法。深度学习就是一种特征学习方法,把原始数据通过一些简单的但是非线性的模型转变成为更高层次的,更加抽象的表达。通过足够多的转换的组合,非常复杂的函数也可以被学习。对于分类任务,高层次的表达能够强化输入数据的区分能力方面,同时削弱不相关因素。比如,一副图像的原始格式是一个像素数组,那么在第一层

上的学习特征表达通常指的是在图像的特定位置和方向上有没有边的存在。第二层通常会根据那些边的某些排放而来检测图案,这时候会忽略掉一些边上的一些小的干扰。第三层或许会把那些图案进行组合,从而使其对应于熟悉目标的某部分。随后的一些层会将这些部分再组合,从而构成待检测目标。深度学习的核心方面是,上述各层的特征都不是利用人工工程来设计的,而是使用一种通用的学习过程从数据中学到的。

深度学习正在取得重大进展,解决了人工智能界的尽最大努力很多年仍没有进展的问题。它已经被证明,它能够擅长发现高维数据中的复杂结构,因此它能够被应用于科学、商业和政府等领域。除了在图像识别、语音识别等领域打破了纪录,它还在另外的领域击败了其他机器学习技术,包括预测潜在的药物分子的活性、分析粒子加速器数据、重建大脑回路、预测在非编码DNA突变对基因表达和疾病的影响。也许更令人惊讶的是,深度学习在自然语言理解的各项任务中产生了非常可喜的成果,特别是主题分类、情感分析、自动问答和语言翻译。我们认为,在不久的将来,深度学习将会取得更多的成功,因为它需要很少的手工工程,它可以很容易受益于可用计算能力和数据量的增加。目前正在为深度神经网络开发的新的学习算法和架构只会加速这一进程。

一、监督学习

机器学习中,不论是否是深层,最常见的形式是监督学习。试想一下,我们要建立一个系统,它能够对一个包含了一座房子、一辆汽车、一个人或一个宠物的图像进行分类。我们先收集大量的房子,汽车,人与宠物的图像的数据集,并对每个对象标上它的类别。在训练期间,机器会获取一副图片,然后产生一个输出,这个输出以向量形式的分数来表示,每个类别都有一个这样的向量。我们希望所需的类别在所有的类别中具有最高的得分,但是这在训练之前是不太可能发生的。通过计算一个目标函数可以获得输出分数和期望模式分数之间的误差(或距离)。然后机器会修改其内部可调参数,以减少这种误差。这些可调节的参数,通常被称为权值,它们是一些实数,可以被看作是一些“旋钮”,定义了机器的输入输出功能。在典型的深学习系统中,有可能有数以百万计的样本和权值,和带有

标签的样本,用来训练机器。为了正确地调整权值向量,该学习算法计算每个权值的梯度向量,表示了如果权值增加了一个很小的量,那么误差会增加或减少的量。权值向量然后在梯度矢量的相反方向上进行调整。我们的目标函数,所有训练样本的平均,可以被看作是一种在权值的高维空间上的多变地形。负的梯度矢量表示在该地形中下降方向最快,使其更接近于最小值,也就是平均输出误差低最低的地方。

在实际应用中,大部分从业者都使用一种称作随机梯度下降的算法(SGD)。它包含了提供一些输入向量样本,计算输出和误差,计算这些样本的平均梯度,然后相应的调整权值。通过提供小的样本集合来重复这个过程用以训练网络,直到目标函数停止增长。它被称为随机的是因为小的样本集对于全体样本的平均梯度来说会有噪声估计。这个简单过程通常会找到一组不错的权值,同其他精心设计的优化技术相比,它的速度让人惊奇。训练结束之后,系统会通过不同的数据样本——测试集来显示系统的性能。这用于测试机器的泛化能力——对于未训练过的新样本的识别能力。 当前应用中的许多机器学习技术使用的是线性分类器来对人工提取的特征进行分类。一个2类线性分类器会计算特征向量的加权和。当加权和超过一个阈值之后,输入样本就会被分配到一个特定的类别中。从20世纪60年代开始,我们就知道了线性分类器只能够把样本分成非常简单的区域,也就是说通过一个超平面把空间分成两部分。

但像图像和语音识别等问题,它们需要的输入-输出函数要对输入样本中不相关因素的变化不要过于的敏感,如位置的变化,目标的方向或光照,或者语音中音调或语调的变化等,但是需要对于一些特定的微小变化非常敏感(例如,一只白色的狼和跟狼类似的白色狗——萨莫耶德犬之间的差异)。在像素这一级别上,两条萨莫耶德犬在不同的姿势和在不同的环境下的图像可以说差异是非常大的,然而,一只萨摩耶德犬和一只狼在相同的位置并在相似背景下的两个图像可能就非常类似。【现在和未来】【现在和未来】

图1 多层神经网络和BP算法

1. 多层神经网络(用连接点表示)可以对输入空间进行整合,使得数据(红色和蓝色线表示的样本)线性可分。注意输入空间中的规则网格(左侧)是如何被隐藏层转换的(转换后的在右侧)

。这个例子中只用了两个输入节点,两个隐藏节点和一个输出节点,但是用于目标识别或自然语言处理的网络通常包含数十个或者数百个这样的节点。获得C.Olah (链接地址)的许可后重新构建的这个图。

2. 链式法则告诉我们两个小的变化(x和y的微小变化,以及y和z的微小变化)是怎样组织到一起的。x的微小变化量Δx首先会通过乘以∂y/∂x(偏导数)转变成y的变化量Δy。类似的,Δy会给z带来改变Δz。通过链式法则可以将一个方程转化到另外的一个——也就是Δx通过乘以∂y/∂x和∂z/∂y(英文原文为∂z/∂x,系笔误——编辑注)得到Δz的过程。当x,y,z是向量的时候,可以同样处理(使用雅克比矩阵)。

3. 具有两个隐层一个输出层的神经网络中计算前向传播的公式。每个都有一个模块构成,用于反向传播梯度。在每一层上,我们首先计算每个节点的总输入z,z是前一层输出的加权和。然后利用一个非线性函数f(.)来计算节点

的输出。简单期间,我们忽略掉了阈值项。神经网络中常用的非线性函数包括了最近几年常用的校正线性单元(ReLU)f(z) = max(0,z),和更多传统sigmoid函数,比如双曲线正切函数f(z) = (exp(z) − exp(−z))/(exp(z) + exp(−z)) 和logistic函数f(z) = 1/(1 + exp(−z))。

4. 计算反向传播的公式。在隐层,我们计算每个输出单元产生的误差,这是由上一层产生的误差的加权和。然后我们将输出层的误差通过乘以梯度f(z)转换到输入层。在输出层上,每个节点的误差会用成本函数的微分来计算。如果节点l的成本函数是0.5*(yl-tl)^2, 那么节点的误差就是yl-tl,其中tl是期望值。一旦知道了∂E/∂zk的值,节点j的内星权向量wjk就可以通过yj ∂E/∂zk来进行调整。

一个线性分类器或者其他操作在原始像素上的浅层分类器不能够区分后两者,虽然能够将前者归为同一类。这就是为什么浅分类要求有良好的特征提取器用于解决选择性不变性困境——提取器会挑选出图像中能够区分目标的那些重要因素,但是这些因素对于分辨动物的位置就无能为力了。为了加强分类能力,可以使用泛化的非线性特性,如核方法,但这些泛化特征,比如通过高斯核得到的,并不能够使得学习器从学习样本中产生较好的泛化效果。传统的方法是手工设计良好的特征提取器,这需要大量的工程技术和专业领域知识。但是如果通过使用通用学习过程而得到良好的特征,那么这些都是可以避免的了。这就是深度学习的关键优势。

深度学习的体系结构是简单模块的多层栈,所有(或大部分)模块的目标是学习,还有许多计算非线性输入输出的映射。栈中的每个模块将其输入进行转换,以增加表达的可选择性和不变性。比如说,具有一个5到20层的非线性多层系统能够实现非常复杂的功能,比如输入数据对细节非常敏感——能够区分白狼和萨莫耶德犬,同时又具有强大的抗干扰能力,比如可以忽略掉不同的背景、姿势、光照和周围的物体等。

反向传播来训练多层神经网络

在最早期的模式识别任务中,研究者的目标一直是使用可以训练的多层网络来替代经过人工选择的特征,虽然使用多层神经网络很简单,但是得出来的解很糟糕。直到20世纪80年代,使用简单的随机梯度下降来训练

本文来源:http://www.guakaob.com/yingyuleikaoshi/573196.html

    热门标签

    HOT