mutualinformation(如何用统计学的方法来选基金经理)

1. mutualinformation,如何用统计学的方法来选基金经理?

如果随机的抽取100名大学生,问他们最心仪的职业,可能很多人会把“基金经理”放在比较高的位置。那么今天我们就来详细谈谈这个职业。上图是福布斯统计的2014年全世界收入最高的10大基金经理。从他们的年收入(4亿美金到13亿美金不等)大家大概可以理解为什么基金经理是如此令人羡慕的行业的原因了。

总体来说,基金经理是一个比较特殊的群体。他们通常拥有骄人的简历,比如美国常春藤联盟的学位和华尔街银行多年的工作经验。他们看起来非常聪明,点评市场的时候经常一语中的。如果如此聪明的人中豪杰都无法战胜市场,那么还有谁可以呢?这可能就是为什么基金经理经常被投资者和大众追捧的原因之一。通过基金投资自己的积蓄,在当今的金融世界里是非常常见的。事实上,在美国,大多数投资者(50%以上)会聘请积极投资的基金经理来看管他们的退休储蓄。上图显示,到2014年,美国的退休养老金计划把约55%的资产放在共同基金(Mutual Fund)行业里。大家都知道共同基金的主要投资目的即为战胜市场(例如,S&P 500指数)。所以总体来说,应该还有相当多的人相信基金经理能够创造价值。大家如何想是一回事,事实是否如此则又是另一回事。

基金经理战胜市场到底是事实还是传说呢?在分析这个问题前,我想先举一个我五岁儿子的实际生活例子。在新加坡,家长送孩子去补习或上各种培训班是非常普遍的,这几乎已经成为新加坡国家文化的一部分。如果一个学龄前的孩子没有上任何课外补习班,大多数人可能会感到惊讶。而上补习班的目的,自然是让自己的孩子在接下来的考试中,比如英语,数学或者科学上面占得更大的优势。问题是,如果所有的孩子都被送去这些补习班,那么这就几乎等于每个孩子都不被送到任何补习班。这就是新加坡父母面临的难题:如果你不把孩子送去补习班,你可能会输给其他那些正在这么做的父母。但是,如果每个家长都选择这样做,那么大家除了从日常开支中多付出一笔额外的教育费用外,对孩子的帮助并不一定有多大。因为每个家庭的付出都互相抵消了。

这其中的主要的原因是,孩子间的竞争是相对的:最终决定孩子是否能够上好的大学的,并不是你的孩子知道多少,而是你的孩子跟其他孩子比起来谁知道地更多。因为说到底,优秀的中学和大学的空间有限,即使整个国家的孩子都成为爱因斯坦级别的神童,他们仍需要根据由相对分数决定高低的考试来做出区分,最后总有一些更“蠢”的或不幸的爱因斯坦可能会错过大学。为什么我会举出这个例子?因为基金管理行业面临着相似的窘境。要成为一个真正好的积极基金经理,关键并不是这个经理有多好,而是他和其他经理比起来是否更好。那么如何才能成为一个鹤立鸡群的基金经理呢?首先这位经理一定要聪明和勤奋,这是最基本的。但是每个经理都很聪明勤奋呢,这就需要其他辅助因素了,

比如:

1)良好的团队支持,包括证券分析,交易操作,后台执行等;

2)大量高品质的数据,无论是从Bloomberg,Reuters,Wind, 或者FactSet,MSCI等数据提供商得到的数据。如果经理能获得其他人没有的数据(比如覆盖到过去300年的分钟级别的股票交易数据),或同一时间比其他人处理更多的数据,或以上两者同时具备,那么该基金经理就能够获得一定的优势;

3)优秀的IT基础设施,能让经理在每分钟更快,更早的处理信息,等等。

4) 基金经理要想让更多的投资者知道自己的存在和业绩,不可避免的就需要花大力气和成本对自己提供的服务进行宣传。

很多人没有意识到的是,基金行业是广告行业的大金主。大家可能已经习以为常的在电视,报纸,杂志和网络上经常看到各种基金的名字和业绩,而事实上越是有名的基金在这方面的开销就越大。事实上,在基金经理这个行业周围,有一个巨大的产业群正在提供上面提到的那些服务来帮助这些经理在这日复一日的竞争中变得更高更快更强,而这些所谓的帮助可能是没有尽头的。

问题是,天下没有免费的午餐,要想获得这些帮助是要付出代价的。你要么需要聘请更好的人才,或者购买更多和更好的数据,或者投资更新你的的IT基础架构,或以上全部。所有这些资源都需要财力的支持才能够获得。那么谁来支付这些费用呢?钱不可能从天上掉下来。答案是:它必须来自于投资者。基金经理最后是要盈利的。如果基金经理持续亏钱,那他就会面临坐吃山空的危险,正所谓地主家也没有余粮呀。

在这种情况下,基金经理很可能会关门大吉。事实上,这正是基金行业内部的秘密之一:美国的基金行业平均每年大约有7%-15%的基金被关闭,同时每年也有差不多相同数量的新基金成立。正所谓铁打的营盘流水的兵,一个基金经理在2-3年以后关闭基金再另起炉灶几乎成为了很多经理的职业规律。

换句话来说,成功的基金经理靠投资人养着,失败的基金经理推倒再来,但无论是成功的还是正在搏上位的基金经理,都需要投资者供给资金以养活他们。而基金经理要想获得比同类更好的业绩,则他们就需要投入更多的资源以提升自己的团队,装备和宣传手段。而这就是基金经理们的致命弱点:如果所有的经理都配备了上面提到的那些各种资源,无论是更多的数据,更多的分析师,还是更先进的IT基础架构,那么他们的作用往往会相互抵消。因此大多数基金经理在扣除其成本之后只能向投资者提供及其平庸的回报。在这样的游戏中,只有“傻”钱才会去投资基金经理。例如,从上面Woodsford的Meta分析图表显示,大多数研究(只有少数例外)发现∶基金经理们的回报要么和一个被动的市场指数(比如上证50)回报差不多,要么还不如一个被动的市场指数。但是你可能会说,你上面提到的只是行业的总体和平均情况,这样的问题在我个人身上并不适用。在我自己的投资历程中,我就亲眼看到过很厉害的基金经理,或者甚至投资过明星级基金经理。如何识别一个基金经理是真的有水平还是只是运气好,这是一个很重要的问题。

打个比方, 截止2012年底, 美国有大约7238个基金,中国也有数以千计的基金,而且每个基金的经理都自称为最好的经理。那么我们如何才能将凤凰和野鸡做出区别呢?解决这个问题有很多种方法。很多投资者会依赖“历史经验”来帮助他们做出判断。比如他们会关注基金经理的背景:如学历,工作经验,投资经历或是公司历史和名声。不幸的是,大量的证据显示这类“历史经验”在选择优秀的基金经理时并不很有用。因此,大部分的投资人在选择基金经理时基本处于一个盲人瞎马的状态。

那么我们如何用更科学的方式解决这个问题呢?

首先,让我们先来问自己一个问题:如果一个基金经理的Information Ratio(IR)是0.5,我们需要观察多少年的投资数据来证实他是真正有水平的基金经理?如果你不熟悉这些专业词汇,请让我在这里先来解释下。一个基金经理的IR是依据下述公式计算出的:IR是指信息比率,分子中的α是指基金经理的超额收益(也就是基金经理高于某一个基准,例如上证180指数之上的收益),分母中的σ(也叫作超额误差)是指α的标准差。一个好的基金经理,超额收益应该大于零。毕竟,如果这位基金经理连大盘指数(比如上证50指数)的回报都无法超过,那么我们投资者基本就没有理由把自己的钱交给他管理了。

我们假设一个基金经理的年平均超额回报率为2%,波动率为4%,可得出信息比率IR为0.5。这个基金经理算是一个极佳的经理。各类研究表明,信息比率为0.3的基金经理排名就可以达到该国所有基金经理的前10%或前25%,因不同国家和时期的样本不同而有所差异。更别说IR达到0.5的基金经理了。但为方便讨论问题,我们先假设这个基金经理取得了0.5的信息比率IR。下一步是计算观察样本的数量。上过大学统计学课程的朋友们应该对上述公式不会陌生。为达到95%的置信水平,需要T检验的相应界值为1.96。因此,依据0.5的信息比率,需要的观察样本数量(N)大约是16。

换句话说,我们需要该基金经理过去16年的投资数据才有95%的信心确认该经理真正有投资水平而不只是运气好而已。现在您大约能了解为什么选择优秀的基金经理如此困难了,实在是因为极少有投资人能观察到基金经理过去16年甚至更长的真实投资回报。更不用说这只能给予投资者95%的把握,还有5%的可能是这个经理极其幸运所以达到了超额的回报。可以毫不夸张的说,选择基金经理是否成功,有很大一部分取决于投资者的运气。现在让我们看一些真实的例子。上述图表是富达麦哲伦基金(Fidelity Magellen)的历史回报。蓝色的柱状(左轴)代表该基金每年超过或者落后基准(标准普尔500指数)的回报数量。红色曲线(右轴)代表该基金管理的资金规模。横轴是年份。

麦哲伦基金是世界基金产业的巨人之一,曾经由彼得林奇(Peter Lynch)掌管。林奇先生从1978开始管理该基金,直至1990年退休。在这13年中,林奇先生以平均每年13.3%超过基准(标准普尔500指数,S&P500)的收益,年波动率大约13.3%。因此,林奇先生的信息比率IR是1。问题在于当投资者有充足交易记录足以证实林奇先生的投资能力时,他已经退休了。

我们可从上图看出,麦哲伦基金的规模在1990年之后迅速增长,在1999年到达巅峰总值约1000亿美元。在1991到2004年间,该基金的超额回报只有每年0.8%(超过标准普尔500指数(S&P500)),信息比率IR为0.12,看起来相当平庸。

我们可以从这个例子中学到什么?我来分享一下我的看法吧:这个世界上确实有出色的基金经理,但是投资者想要发现他们并且从中赚钱是十分困难的。在麦哲伦基金这个例子中,大部分投资者在1990年以后才开始陆续购买该基金,而他们得到的业绩是相当平庸的,和林奇先生在退休前达到的基金业绩判若两个世界。下面再来看看另外一个例子。上图记录的是美盛集团(Legg Mason)的价值信托基金(Value Trust Fund)的历史业绩。蓝色柱(左轴)代表该基金每年超过或者落后基准(标准普尔500指数)的回报数额,红线(右轴)则代表该基金管理的资金数量。该基金的经理比尔米勒(Bill Miller)先生是美国最优秀的基金经理之一。从1991至2005,他掌管的该基金连续15年超过其基准标准普尔500指数(S&P500)。这个业绩即使不是前无古人后无来者,也是十分罕见的。

截至2005年,米勒先生的价值信托基金(Value Trust Fund)凭借每年5%的超额回报,达到了0.84的信息比率IR。如此出色的成绩使米勒成为美国家喻户晓的名字。

问题在于当你发现米勒先生的天才时,已经错过了投资他的基金的最佳时机了。从上图可知,该基金的资产在2007年达到巅峰值200亿美元。2006到2011年的平均超额收益(米勒先生在2011年从价值信托基金退休)和基准标准普尔500指数(S&P500)相较,大约为每年负7.1%,信息比率IR为负数。如果分析从1991到2011的全部数据,其年平均超额回报为1.54%,信息比率0.16,实在不能算是多么出色的基金。

重要的话再说一遍:这个世界上确实有不少优秀的基金经理人,但是投资者想要通过发现优秀经理人来赚钱,是一件相当困难的事。

有读者问,你为什么不举几个中国基金经理的例子呢?这是一个好问题,回答也很简单:在中国有像彼得林奇和比尔米勒这样,拥有如此长时间真实超额回报的历史业绩的基金经理么?如果您觉得有,欢迎私信我,我们可以共同研究一下。

另外有个读者问:为什么要举彼得林奇和比尔米勒这样出色的基金经理人的例子?这也是个好问题,回答也很简单:如果广大投资者无法从像彼得林奇和比尔米勒这样的基金经理那里赚钱,那么他们通过投资其他基金经理来赚钱的概率有多高呢?在上世纪70年代的美国,大约有300多名基金经理供投资者选择。彼得林奇先生是他们其中的一员,这300多名基金经理每个人都试图说服投资者他是未来的彼得林奇。投资者投资基金取得超额回报的前提之一,是需要从这300多名经理中选出真正的明日之星。鉴于当时林奇只是管理区区2千万美元,我们大约可以得出结论那时候并没有多少投资者发现了林奇的天才。

事实上那些少数的投资者可比另外大部分没有投资彼得林奇先生管理的基金的投资者们幸运多了。今天,我们面对成千上万的基金经理,挑选出下一个彼得林奇或者比尔米勒的概率有多大呢?聪明的投资者们,需要仔细考虑一下这个问题。

mutualinformation(如何用统计学的方法来选基金经理)

2. found后面接什么?

1.Their marriage was founded on love and mutual respect.他们的婚姻建立在爱情和互相尊重的基础上。

2.The ancient civilizations of Central and Latin America were founded upon corn.古代中美洲和拉丁美洲的文明社会是建立在玉米之上的。

3.I found the information on the Web.我在万维网上找到了这条消息。

3. 你觉得通往未来的AI世界?

「机器学习研究不是关于 AI 应该具备哪些知识的研究,而是提出优秀的学习算法的研究。」

11 月 7 日,Yoshua Bengio 受邀来到北京参加第二十届「二十一世纪的计算」国际学术研讨会。会上以及随后受邀前往清华时,他给出了题为「深度学习通往人类水平 AI 的挑战」(Challenges for Deep Learning towards Human-Level AI)的演讲。

演讲中,Bengio 以去年发布在 arXiv 的研究计划论文「有意识先验」(The consciousness prior)为主旨,重申了他与 Yann Lecun 十年前提出的解纠缠(disentangle)观念:我们应该以「关键要素需要彼此解纠缠」为约束,学习用于描述整个世界的高维表征(unconscious state)、用于推理的低维特征(conscious state),以及从高维到低维的注意力机制——这正是深度学习通往人类水平 AI 的挑战。

虽然主题看起来比较广大,但实际上,Bengio 讨论了非常多的技术细节内容。

图:Bengio在清华。

Bengio 认为,直观上而言,目前的深度神经网络非常擅长于从文字图像等原始数据抽取高层语义信息,它们会直接在隐藏空间做预测,这就类似于在无意识空间做预测。但是实际上每一次预测所需要的具体信息都非常精简,因此实际上我们可以使用注意力机制挑选具体的信息,并在这种有意识空间进行预测,这种模型和建模方法才能真正理解最初的输入样本。

演讲

今天我将介绍我与合作者共同探讨的一些问题,关于深度学习研究的下一步发展以及如何通向真正人工智能。

在此之前,我想先纠正一个目前看来非常普遍的误解,即「深度学习没有理论依据,我们不知道深度学习是如何工作的。」

我的很多工作都围绕深度学习理论展开。这也是为什么我在大约 12 年前开始研究深度学习的原因。虽然深度学习仍然有诸多未解之谜,但现在我们已经对它的很多重要方面有了更好的理解。

我们更好地理解了为什么优化问题并不像人们想象中那样棘手,或者说局部极小值问题并不像 90 年代的研究者认为的那样是一个巨大障碍。我们更好地理解了为什么像随机梯度下降这样看起来非常「脑残」的方法实际上在优化和泛化方面都非常高效。

这只是我们在过去十年中学到的一小部分,而它们有助于我们理解为什么深度学习真正好用。数学家和理论研究者仍然对此展现出了极大的兴趣,因为深度学习开始在诸多领域变得极为重要。

从人类的两种认知类型解释经典 AI 与神经网络的失败

我今天演讲的主题是「通往人类水平的 AI」:我们试图让计算机能够进行人与动物所擅长的「决策」,为此,计算机需要掌握知识——这是几乎全体 AI 研究者都同意的观点。他们持有不同意见的部分是,我们应当如何把知识传授给计算机。

经典 AI(符号主义)试图将我们能够用语言表达的那部分知识放入计算机中。但是除此之外,我们还有大量直观的(intuitive)、 无法用语言描述的、不能通过「意识」获得的知识,它们很难应用于计算机中,而这就是机器学习的用武之地——我们可以训练机器去获取那些我们无法以编程形式给予它们的知识。

深度学习和 AI 领域有很大进步、大量行业应用。但是它们使用的都是监督学习,即计算机无需真正发掘底层概念、高级表征和数据中的因果关系。事实上,如果你用不同的方式攻击这些模型,就像很多对抗方法所做的那样,仅仅微调输入,也会使模型变得非常愚蠢。

举例来说,我们在一篇论文中改变图像的傅立叶频谱,变换后,图像的类别对于人类来说仍然很明显,但是在自然图像上训练的卷积网络的识别率则变得非常糟糕。

对我来说,现在的系统的失败之处在于,它们无法捕捉我们真正想让机器捕捉到的高级抽象(high level abstraction)。事实上,这是我和合作者希望设计出能够发现高级表征的学习机器的原因:这样的表征可以捕捉构成数据的根本因素。

我在大约十年前介绍过「解纠缠」(disentangle)这个概念,即在一个好的表征空间中,不同要素的变化应该可以彼此分离。(而在像素空间中,所有的变化都彼此纠缠着的。)十年之后,我们认为,除了解纠缠变量,我们还希望系统能解纠缠计算。解纠缠和因果的概念相关,而因果正是机器学习界需要重点关注的领域,我将在之后回到这个话题的讨论。

五年前,我在一篇综述论文提出,为了还原那些可以解释数据的根本要素,我们需要引入知识。我们不能只是从零开始学习,还需要对世界作出一些可能比较温和的假设。这对于解纠缠变量会有帮助。空间、时间以及边际独立性可能是一些过于强的假设,但也值得考虑。

一个先验是某些要素对应于世界的某些「可控层面」(controllable aspect)。例如我手上这个翻页器,它有一个三维坐标,而我可以通过移动它改变坐标。这种空间位置体系在我们的大脑中也明确存在,因为这是我们能控制的世界层面。

因此在世界的意图、动作、策略和层面的表征之间有着很强的联系。与其用最底层的像素表征关于世界的信息,对于智能体而言,用更高级的、可交互的、与控制相关的要素来表征信息会方便的多。

在谈及具体的深度学习工作之前,让我先介绍一下心理学家是如何划分人类认知活动的,这有助于我们理解当前深度学习的优势以及我们应该如何走向人类水平的 AI。

人类的认知任务可以分为系统 1 认知(System 1 cognition)和系统 2 认知(System 2 cognition)。系统 1 认知任务是那些你可以在不到 1 秒时间内无意识完成的任务。例如你可以很快认出手上拿着的物体是一个瓶子,但是无法向其他人解释如何完成这项任务。这也是当前深度学习擅长的事情,「感知」。系统 2 认知任务与系统 1 任务的方式完全相反,它们很「慢」。例如我要求你计算「23+56」,大多数人需要遵循一定的规则、按照步骤完成计算。这是有意识的行为,你可以向别人解释你的做法,而那个人可以重现你的做法——这就是算法。计算机科学正是关于这项任务的学科。

而我对此的观点是,AI 系统需要同时完成这两类任务。经典 AI 试图用符号的方法完成系统 2 任务,其失败的原因很多,其中之一是我们拥有的很多知识并不在系统 2 层面,而是在系统 1 层面。所以当你只使用系统 2 知识,你的体系缺少了一部分重要的内容:那些自下而上的有根源知识(Grounded knowledge)。有根源自然语言学习(Ground language learning)是 NLP 的一个子领域,研究者试图用除了文本之外的其他形式,例如图像、视频,去将语言与感知层面的知识联系起来,构建一个世界模型。

意识先验

我接下来将介绍意识先验,意识领域的研究正逐渐变成主流。我在这里将聚焦于意识的最重要问题:当你注意某些东西,或者在你的意识中浮现了某些东西的时候,你意识到了它的某些现实层面情景。

深度学习的表征学习关注信息如何被表征,以及如何管理信息。因此对于意识先验很基本的一个观察是,在特定时刻处于你意识中的想法(thought)是非常低维的。其信息量可能不超过一句话、一张图像,并且处于一个你可以进行推理的空间内。

你可以将一个「想法」看做是经典 AI 中的一条「规则」。每个想法只涉及很少的概念,就像一句话中只有几个单词。从机器学习的角度来看,你可以利用很少的变量进行预测,准确度还很高。这种具有良好性质的低维表征空间是非常罕见的,例如,尝试通过给定的 3 到 4 个像素来预测 1 个像素是不可行的。但是人类可以通过自然语言做到这一点。例如,如果我说「下雨时,人们更可能会撑伞。」这里仅有两个二值随机变量,是否下雨和是否撑伞。并且这种语句具备很强的预测能力。即使它仅使用了很少的变量,也能给出很高概率的预测结果。也就是说,根据很少的信息来执行预测。

因此,我将「意识」称作一个「先验」,是因为意识是一个约束条件、一个正则化项、一个假设:我们可以用非常少的变量进行大量的预测。

满足这些条件意味着我们需要好的空间表征。好的表征的一个特性是当把数据映射到该空间时,变量之间的依赖关系只需要用很少的概念表达(例如规则),且涉及很少的维度。

学习好的表征意味着可以将知识用两种方式表达:在编码器中,将原始数据映射到高级空间;通过规则将变量关联起来并执行预测。

因此我们有两种形式的解纠缠。我以前的论文仅考虑了解纠缠变量,现在我们还考虑了解纠缠规则。如果我们将这些变量看成是代表因果变量的因子,这对应着一种因果机制。因果变量是指在因果陈述中使用的变量,例如「下雨导致人们撑伞」。这些变量需要处在一个好的表征空间来作出因果陈述。像素空间并非能够进行因果陈述的合适表征空间:我们无法说某些像素的改变导致了其它像素的改变,而在因果空间中推理是可行的。

那么要如何实现这种表征呢?对此,注意力机制是一种很重要的工具。注意力机制在过去几年获得了很大的成功,尤其是在机器翻译中,它可以按顺序选取重点关注的信息。

更棒的是你可以使用软注意力来实现整个系统的端到端训练。我们不需要设计一个独立的系统来做这种选择。你可以将注意力机制作为在某些全局目标下端到端训练的更大系统的一部分。而这正是深度学习擅长的地方。

在架构方面,意识先验在「原始输入」和「某些更高级的表征」之外,还引入了第三个层次:这也就是有意识状态(conscious state)。

如上所示无意识状态通常是深度学习所考虑的表征,是模型将数据映射到的一些表示空间。这些隐藏表征通常有非常高的维度与稀疏性,因为任何时候都只有少数变量与输入相关。在此之外,我们还会使用注意力机制选择无意识状态(高维隐藏表征)的几个重要维度,并在有意识状态下表示它们。进入有意识状态的信息就像短期记忆,我们可以使用注意力机制选择一些重要的信息,并通过某种交互表示它们。

这个理论框架还有非常多的细节需要完善,去年我们主要关注其中的一个方面:目标函数。机器学习和深度学习中的标准训练目标函数都基于最大似然估计,而即使与最大似然无关的目标函数,例如 GAN 的一些目标函数,也是在像素级别进行构建的。然而,我们实际上想要在隐藏空间中表现出可预测性。

这很难做到,但我们其实可以训练一些不需要返回到像素空间的机器学习算法,例如主成分分析(PCA)。我们可以像自编码器那样用最小化重构误差训练 PCA:这是在像素空间中构造目标函数,但同时我们也可以在隐藏空间中训练它,例如我们希望降维后的表征每一个都有非常大的方差,从而捕捉到足够多的输入信息。

但我们不止想做 PCA,我们希望有更强大的模型。其中一个很好的扩展概念是互信息(mutual information),它允许我们在编码器输出的隐藏空间中定义目标函数。这个想法很早就已经提出来了,在联接主义的早期,Suzanna Becker 就认为我们应该「寻找数据变换的方法,使空间中的近邻特征拥有比较高的互信息水平」,以此进行无监督图像学习。我认为这是一个被遗忘的重要方向。

注:接下来 Bengio 沿着互信息这个方向介绍了很多研究论文,包括它们的基本过程、核心思想和技术等,这里只给出了研究论文列表,感兴趣的读者可以查看原论文。

Learning Independent Features with Adversarial Nets for Non-linear ICA,ArXiv:1710.05050

MINE: Mutual Information Neural Estimation,ArXiv:1801.04062

意识先验的现实意义:世界模型实现人类水平的语言模型

回到系统 1 和系统 2 认知任务,以及意识先验。这些概念的实际意义是什么?

首先,为了真正理解语言,我们要构建同时具有系统 1 和系统 2 能力的系统。当下的 NLP 算法与 NLP 产品,无论是机器翻译、语音识别、问答系统,还是根本不能理解任何东西的阅读理解,所有这些系统都仅仅是在大型文本语料库和标签上做训练而已。

我认为这样是不够的,你可以从它们犯的错误中发现这一点。举个例子,你可以对系统做个测试,看他们能否消除这些 Winograd 模式歧义句:「The women stopped taking pills because they were pregnant(怀孕).」这里的「they」指什么?是 women 还是 pills?「The women stopped taking pills because they were carcinogenic(致癌)」这句中的「they」又指代什么?事实证明,机器仅仅通过研究样本的使用模式是不足以回答这个问题的,机器需要真正理解「女性」和「药」是什么,因为如果我把「怀孕」换成「致癌」,答案就从「女性」变成了「药」。在人类看来这个问题非常简单,但是现有的机器系统回答起来比随机猜测好不了多少。

当我们想要构建能理解语言的系统时,我们必须问问自己,对于机器而言理解问题或文档意味着什么。如果它们需要相关知识,那么从哪里获取这些知识呢?我们又该如何训练那些具备特定知识的系统?

有一个个思想实验可以帮助我们看清仅在文本上训练模型的局限。想象一下你乘坐宇宙飞船到达另一个星球。外星人说着你听不懂的语言,这时如果你能够捕捉到他们在交流中传达的信息,或许你可以训练语言模型以理解外星语言。而那个星球与地球有一个区别:那里的通信通道不带噪声(地球上的通信通道是有噪声的,因此,人类语音为了在噪声中保持鲁棒性,包含了大量信息冗余。)

由于外星的通信通道没有噪声,因此传输信息的最佳方式是压缩信息。而信息被压缩后,看起来和噪声没什么区别:在你看来,它们交换的都是一些独立同分布的比特信息,语言建模和 NLP 工具也无法帮到你。

这个时候我们该怎么办呢?我们需要做更多工作。仅观察信息本身是不够的,你必须找出它们的意图,理解它们的语境和行为的原因。因此,在语言建模之外,你必须建模环境并理解原因,这意味着大量额外工作。AI 领域研究者「懒惰」又「贪婪」,他们不想进行额外工作,因此他们尝试仅通过观察文本来解决语言理解问题。然而很不幸,这并不会给出有效解决方案。

一种可行方法是先学习一个不错的世界模型,然后基于该模型解决语言问题,就像根据语言模型弄清楚某个单词的意义一样。我认为婴儿在一定程度上就是这么做的,因为婴儿并非一开始就使用语言进行学习,最初它们只是尝试理解环境。但是在某个时间点,将「学习语言模型」和「学习世界模型」两种学习模式结合起来是有益的。

语言可以提供良好表征。因为如果想弄懂这些语义变量,深度学习应该从感知器中提取出语义。比如你妈妈说「狗」,恰好这时你看到了一只狗,这就很有帮助,因为当你在不同语境中使用这个词时你的感官感知是不同的。这就是监督学习性能好的原因。

事实上,以监督学习方式训练出的深层网络的表征比无监督模型好很多,最起码对于目前的无监督学习来说。我认为应该将二者结合起来,不过你必须理解世界的运行方式。世界运行方式的一个方面是因果关系,机器学习目前对此缺乏关注。

具体而言,我们的学习理论在这方面仍然很匮乏。目前的学习理论假设测试分布与训练分布相同,但是该假设并不成立。你在训练集上构建的系统在现实世界中可能效果并不好,因为测试分布与训练分布不同。

因此我认为我们应该创建新的学习理论,它应该不会基于「测试分布与训练分布相同」这样生硬的假设。我们可以采用物理学家的方式,假设训练分布和测试分布的底层因果机制相同。这样即使动态系统的初始条件不同,底层物理机制仍然不会改变。

那么如何去做呢?事实上,构建好的世界模型令人望而生畏,我没有足够的计算能力对真实世界建模,因此我认为更合理的方法是利用机器学习,机器学习研究不是关于 AI 应该具备哪些知识的研究,而是提出优秀的学习算法的研究。优秀的机器学习算法理应在任何分布中都可以良好运行。

近年来深度学习社区涌现了大量关于搭建虚拟环境的研究,如在深度强化学习体系下,人们构建虚拟环境并在其中测试不同的智能体学习步骤。深度强化学习最酷的一点是便于做科学实验,我们可以借助虚拟环境测试理论,更快速地获取反馈。

在我实验室开始的一个项目,是 1971 年 Winograd 用 SHRDLU 系统进行 blocks world 实验的延伸。他们当初试图建立一个能够用自然语言执行任务的系统,比如「拿起一个红色的木块」,但他们试图用基于规则的经典 AI 来实现目标。这在某种程度上起作用了,但它和大多数规则系统一样非常脆弱。它无法扩展,因为你需要手动设计大量知识,像当前大多数脆弱且无法扩展的对话系统一样。我认为,除非我们真正做更多的基础研究,否则这种情况不会改善。

BabyAI 平台:模拟世界模型

所以我们构建了一个叫做 BabyAI(或 BabyAI game)的平台,其中设置了有一个「学习者」和一个「人类」的游戏或场景。

学习者就是「baby AI」,我们要为学习者设计学习算法,而其中的人类与学习者互动,并使用自然语言帮助它理解周围的环境。人类可以通过课程学习(curriculum learning)、为学习者设计正确的问题以及考虑学习者知道什么和不知道什么等等来帮助它。当然了,课程学习本身就是一个有趣的研究领域,因为如果我们能够构建出计算机与人类互动的更好系统,那也会非常有用。

所以我们在 2D 网格世界中构建了一个非常简单的环境,并能在其中使用类似「把蓝色钥匙放在绿色的球旁边」这种简单的自然语言表述。

在这个阶段,我们有 19 个学习者应该能够学习的难度级别和任务类型。我们还设计和训练了一个知道如何解决任务的启发式专家。当然,这个专家扮演的是人类的角色,因为在这个阶段,我们实际上还不想让人类参与进来。所以我们希望能够模拟人类,然后查看和测试不同的学习者表现如何。

我们有更大的版本,不同级别有不同的房间数量和不同类别的任务。我们定义了一系列的概念,比如房间和迷宫,也定义了一系列动作,如去某个地方、打开、捡、放等等,以及使用这些概念的不同任务。当你进阶学习更加复杂的任务,需要的概念也越来越多。

但是,我们目前尝试过的机器学习方法还做不到这一点。如果我们有真正的人类来教 baby,他们就不需要给 baby 提供成百上千的轨迹示例。

我们尝试了模仿学习和强化学习。在强化学习中,人类会提供奖励。在学习者收敛之前,他需要在数百万轨迹上提供数百万条奖励。但即使是效率更高的模仿学习(类似监督学习),如果要从模仿示例中学习,对于一个人来说,花时间训练这些系统还是远远超出了我们认为的合理范围。

我们还发现当前的系统可以非常快速地学习来做这样的工作,但要达到 99% 的正确回答率还需要大量训练。因此我们认为可以用这些基准来研究简单效率数据、不同学习程序效率

免责声明:本文作者:“游客”,版权归作者所有,观点仅代表作者本人。本站仅提供信息存储分享服务,不拥有所有权。信息贵在分享,如有侵权请联系ynstorm@foxmail.com,我们将在24小时内对侵权内容进行删除。
(18)
virginblue(哪些柔情的英文歌好
上一篇 2023年12月02日
whiteflag(flag造句简单七年
下一篇 2023年12月02日

相关推荐

  • helloworld.html(helloworld有番吗)

    动画电影,是SAO的动画导演伊藤智彦导演的动画片,由Graphinica担任动画制作,是一部原创动画片,19年的动画作品(日本上映),国内上线时间待定。...

    2023年11月08日
  • 1u(1u电源多重)

    1U服务器的重量一般10KG左右,看您添加多少硬盘以及是不是冗余电源的。如果是冗余电源的并且硬盘扩展到四块那么服务器的重量相对来说会重上一些。...

    2023年11月10日
  • 亲爱的我爱你吗(男情人说我非常爱你)

    意思是说明他心里非常的在意你,你在他心里是非常重要的。他觉得你各方面都是那样的优秀,也非常值得他去爱。他就是要跟你两个人一起去一生一世永远的来相爱,永生永世永远的来相伴了。他就是想跟你两个人能够恩恩爱爱,美美满满,幸幸福福,甜甜蜜蜜之只手,与...

    2023年11月12日
  • 鱼拓(鱼柘是用什么样的颜料制作的)

    制作过程:1冼鱼去粘液;2用橡皮泥固定鱼体;3调配颜色;4给鱼上色,一般头部背部重,腹部尾部淡;5附纸,把宣纸附鱼体上,按颜色的深浅在各个部位按压、拍打;6画画,用线笔画鱼眼,用毛笔画山水;7盖印完工。...

    2023年11月19日
  • 贝克曼温度计(贝克曼历史)

    贝克曼E.O.ErnstOttoBeckmann,1853~1923,德国有机化学家。曾在莱比锡大学随H·科尔和W·奥斯特瓦尔德等著名化学家学习,1878年毕业。...

    2023年11月19日
  • 李唐(对手大结局李唐判几年)

    为了李小满,李唐把所有的事情都揽到了自己身上,事先跟丁美兮串好台词,李唐在去大桥赴约的时候,估计把身上的追踪器拿掉,让段迎九认为自己就是就是杀人凶手,帮林彧用假死的事实摆脱段迎九追查,拼凑自己最后的胜利版图。...

    2023年11月21日
  • 姐姐词典(却被老实人狠狠教训的事吗)

    我小时候住的村子里,有个外号叫闷葫芦的男孩,这个男孩叫张小勇,平时太老实了,见到村子里的人,很少说话,都是低着头就走过去了,这村子里的人,就给他起了个外号叫闷葫芦,这个张小勇父亲去世的早,张小勇跟着母亲一起生活,娘俩没少受村子里的人欺负。因为...

    2023年11月29日
  • 姬川梨乃(浅川梨奈的代表作品)

    山王工业有人评价樱木花道抢篮板球的能力强,但是总体来看,樱木花道给山王全队的印象恐怕无非是很弱的小丑。...

    2023年12月01日
  • 俗不可耐反义词(为什么有人说那些在工地上写字在肉案上练书法的人写的不是书法)

    练习写字实际上就是一种爱好,作为我个人,就是纯属于玩玩的那一类。有些名人大师们对于我的字,有说是丑书的,有说是江湖的,还有的说是垃圾的。...

    2023年12月02日
  • begins(上课了classbegins为什么要加s)

    如果老师对学生们说:“上课!”就是:Classbegin,这是个祈使句,所以不加s。如果描述课程开始,则要加s。...

    2023年12月04日
返回顶部