分类目录归档:最新动态

炼丹感悟:On the Generalization of RL

转自 知乎 YukiRain


当今RL的问题很多,诸如收敛看运气效果看天命之类的,之前有很多大佬也有吐槽过,本渣也在某个回答里吐槽过(https://www.zhihu.com/question/369263409/answer/995669697)。根据个人经验来讲,目前大部分RL paper使用的主要benchmark,比如MuJoCo或者Atari,实际上都是偏弱的(更不用说前两年MARL用的multiagent-particle-envs),在偏弱的实验环境里,模型训练出来在那边跑一跑,看起来结果尚可,实际很多模型的本质问题暴露的不明显,暴露得不明显就不会引起community的广泛关注,相关的研究也就会比较少,难成体系。


很不幸,本文要讨论的RL泛化能力问题,就是这样的一个问题。

为啥RL需要泛化?

绝大多数RL的基础都是MDP,MDP和supervised learning最本质的区别,就是前者解决的是一个满足Markov性质的环境上的reward最大化问题,所以一开始问题的前提假设中就只有一个固定的环境,听起来,泛化能力问题似乎应该是一个独属于supervised learning的问题,至少在RL的理论层面,是不存在测试环境与训练环境不同的问题的。

继续阅读

浅谈学术论文rebuttal

转自 知乎 魏秀参

学术论文是发布自己或团队最新研究进展正式且最快捷的途径,也是和同行交流想法最方便、高效的方式。当同行评议(Peer review)作为学术成果正式发布的必经之路已运行200余年[1]时,用正确的姿势进行review rebuttal便成为提高论文录用机率甚至扭转乾坤的最后一搏。本文从“What is peer review?”、“How to rebuttal?”及“Does rebuttal matter?”三部分来聊聊学术论文(主要针对人工智能领域会议和期刊)rebuttal的那些事。

What is peer review?

要想写好rebuttal,必然要先了解peer review是怎么一回事。

Peer review是一种学术成果审查程序,即作者的学术著作或proposal被同一领域的其他专家学者评审,并根据评审意见决定是否予以录用(Accept)和后续正式发表(Publish)。对于计算机学科特别是人工智能领域的学术会议和期刊,其均有相对成熟和流程化的同行评议(即审稿)机制。

【会议审稿】

对于会议审稿流程而言,由于会议论文往往有比较严格的截止日期(Deadline),作者们通常会根据这一时间来rush自己的paper(关于论文写作的一些tips请戳笔者早年的《LaTeX写作新手须知》),所谓“Deadline就是第一生产力!”。待deadline一过,大会的程序委员会主席(Program Committee Chair或Program Chair)首先会剔除一批不符合会议投稿政策的论文,如:篇幅不合要求、一稿多投、未匿名、未注明Conflict Domain等,这些论文会直接作“Desk Reject”处理。处理之后的投稿(Submission)便为有效投稿。

这些稿件会由PC Chair根据一定规则(如TPMS[2]或bidding[3])分配给高级程序委员会委员(Senior PC,IJCAI/AAAI一般是这个叫法)或领域主席(Area Chair,CVPR/ICCV/ECCV一般用此称谓),这些人便是论文最终命运的判决者,也是在审稿最后时刻书写meta review的meta reviewer——一般会由领域内颇有建树、有判断力的专家学者担任。而后,这些meta reviewer会继续分配稿件给到实际操刀审稿、给出具体审稿意见的审稿人(Reviewer)。对于CVPR/ICCV/ECCV等CV领域会议,近几年每个AC负责的文章大约在30-50篇左右,而普通审稿人分配的稿件一般不超过10篇/人。以CVPR 2019为例,针对5160篇有效投稿,全球共召集了132位AC和2887位审稿人[4],一共提交了超过15000条审稿意见,做到了平均一篇文章至少3条,其中一篇文章甚至有7条审稿意见之多。

在reviewer各自独立提交审稿意见并经由AC检查质量之后,绝大多数会议会将首轮意见开放给作者(目前Data Mining领域的KDD、ICDM等仍保持不设rebuttal环节的传统),作者可根据意见内容进行rebuttal来更正审稿人理解的错误、解释/澄清审稿人的疑虑、提供更多方法和实验细节等信息。在收回作者rebuttal之后,同一篇文章的首轮意见、作者rebuttal信息均会开放给所有审稿人和责任AC,进入paper discussion环节。

Discussion时,AC会主持每篇文章的讨论,每位审稿人根据其他审稿人意见和作者rebuttal会留言给其他审稿人。经过几天系统线上讨论,所有审稿人需更新自己最终意见。更新的意见以及整个讨论过程,再加上AC自己的判断会作为AC给予每篇论文生杀予夺的重要依据:若多数审稿人在rebuttal后提高了论文得分或保持accept认为可以接收,则文章有较大概率可被录用;若多数审稿人在rebuttal后降分或保持reject,则这篇文章命运便岌岌可危。可以看到,rebuttal在整个论文录用过程中起到了举足轻重的作用——优秀的rebuttal能力挽狂澜;无力的rebuttal则于事无补甚至会画蛇添足、过犹不及。

特别的,CV领域的会议如CVPR/ICCV/ECCV等在AC给予最终决定时,有开线下AC meeting的传统,即在paper discussion之后会选在某个城市线下召集所有AC共同决定了投稿的最终命运。一般而言,一篇文章是否录用由三位(有时两位)没有conflict domain的AC共同决定,称作“AC Triplet”。到此,每篇会议论文最终结果(录用与否以及oral、poster、spotlight)便盖棺定论,等待着PC Chair公布给如坐针毡的作者们。

继续阅读

兰德公司发布《思维机器时代的威慑》报告

转自 中国新一代人工智能

前言

我们期望人工智能和自主系统将极大地改变未来的战场。世界各地的军队正将人工智能和自主性技术纳入其组织过程、指挥控制系统、后勤系统以及武器系统本身,目的是尽可能地利用商业技术最前沿的发展。随着人工智能和自主系统在战场上的扩散,一个重要的问题出现了:人工智能和自主系统的扩散将如何影响或改变“威慑”?到目前为止的威慑主要是针对人类的,因为其涉及的是试图影响决策演算和其他人感知的人类,但若决策的过程不再完全只受人类控制时会怎样呢?报告提出了一些初步的考虑,并提出了有关威慑如何在人工智能时代和自主时代改变的想法。

报告目录

第一章   引言

第二章   主要威慑概念

第三章   人工智能和自主系统

第四章   人工智能和自主系统世界中的未来

第五章   人工智能和自主系统的兵棋推演

第六章   兵棋推演洞察和辩论

第七章   威慑的影响

第八章   决策的影响

第九章   结论和进一步研究

附录    一般形态分析

报告摘要

人工智能和自主系统具有改变未来战争的潜力。战场上越来越多无人系统的使用,商业领域人工智能技术取得的突破,以及更多国家对军事领域人工智能和军事应用自主系统的浓厚兴趣,使此类系统有可能在未来冲突中得到广泛应用。但当可以用机器速度做出决策及国家可以使更少人处于危险中时,威慑和升级也受到了相应影响。 在不稳定冲突与危机的环境下,更多地采用人工智能和自主系统将有可能影响到国家之间的威慑战略和军备升级。威慑的一方总是试图劝阻其他方采取特定的军事行动,当这些决策思考过程不再纯粹由人类做出,当决策后的行动以机器量级速度实施,人工智能和自主系统将对各国武力的暗中使用产生巨大影响,同时也将带来潜在误判和意料之外的后果。 本报告讨论了关键的威慑概念,提供了人工智能和自主技术的简要背景,确定了随着这些系统的使用而可能影响威慑和升级的关键因素,提出了一场战争游戏,其中一些拥有人工智能和先进自主系统的国家面临着彼此提供了这些技术对威慑和升级的潜在暗示,并明确了需要进一步研究的领域。

主要发现

智能化自主性兵棋推演发现

  • 有人系统可能比无人系统更有利于威慑。虽然在这种情况下,美国和日本的系统是无人驾驶的,但中国有一些载人平台。中国平台上的人类使美日两国在使用武力时更加犹豫,并可经常将寻找方案以避免进一步升级的责任推到美日身上。
  • 用无人系统取代有人系统可能不会被视为降低了安全承诺。尽管在威慑程度方面,载人系统可能比无人系统要好,但用无人系统取代有人系统并不总是被视为美国减少对该地区盟国承诺的标志。
  • 自主系统的速度确实导致了战争的意外升级。设置为自主模式的系统对人类不打算使用武力的意外情况作出了使用的武力反应。
  • 其他见解。距离仍然重要,人工智能在决策中的存在创造了混淆玩家和将不确定性插入动态的机会,推演中的国家在不同层次上混合了不同的人和机器架构,且玩家可以显著高估对手在人工智能等不可观察领域的现代化程度。

威慑的影响

  • 自主和无人系统会影响延伸性威慑以及我们向盟国兑现承诺的能力。
  • 广泛的人工智能和自主系统可能导致意外的升级和危机不稳定。
  • 人类与智能代理的不同组合可能会影响两者之间的升级动态。
  • 机器在理解人类威慑性方面可能会更差,甚至削弱之。
  • 传统的威慑主要是关于人类试图理解其他人,而在这个新时代,威慑包括许多额外的途径理解
  • 自主系统无意攻击目标的过往案例可能提供关于先进系统的技术故障的见解。

报告建议

进一步研究威慑理论及其他框架,思考研究人工智能和自主系统的潜在影响。

  • 进一步研究威慑理论及其他框架,思考研究人工智能和自主系统的潜在影响。
  • 评估新系统的升级潜力。
  • 评估新作战概念的升级潜力。
  • 在作战和战略层面对其他场景开展兵棋推演。

扩展:兵棋推演相关情况

我们对此主题进行验证的核心是一场兵棋推演,该过程涉及美国、中国、日本、韩国和朝鲜,是一个在未来世界中拥有人工智能和自主部队的战争。该战争场景中,中国是全球大国,美国、日本和韩国仍然是与中国对抗的盟友。推演的目的不是为测试或发现使用这些技术的玩家如何能与其他人抗衡,而是在操作框架中进行有条理的对话,讨论人工智能和自主技术如何随着事件的发展影响局势升级和威慑的方式。

推演进程概要

该兵棋推演始于中国试图对该地区实施更大的控制,美国和日本抵制这一企图。推演在几个方面进行了冲突升级,先是无人系统之间的冲突,最终演变成中美军事人员被杀的冲突。有意及无意加剧方面。美国和日本进行联合演习,故意挑衅中国。为了对日本某些港口实施封锁,中国采取了逐步升级的步骤,宣布进行无限制的潜艇战争,并击沉了一艘日本无人货船。美国和日本的反潜战装备随后击沉了一艘中国载人潜水艇,这是该游戏中的第一艘载人潜水艇。美国和日本在这一点上无法缓和局势。中国以导弹袭击美国和日本的舰队作为报复,也造成了人员伤亡。推演结束时,危机仍在升级。

机器学习是如何借鉴物理学思想的?从伊辛模型谈起(万字长文)

转自 大数据文摘

物理和机器学习,这两个听起来不相关的领域,居然有着千丝万缕的联系!

文摘菌第一次听说时也吓了一跳。

而就真有这样一个神奇的模型,将物理和机器学习紧密联系到了一起——它就是伊辛模型。

伊辛模型——一个描述物质磁性的简单模型——会帮助阐释两个领域之间的广泛联系。

今天,文摘菌会先从简单物理直觉谈谈这个模型,然后导出物理学中著名的变分原理,从而严格推出这个模型。

然后我们就会发现,正是这个变分原理打开了机器学习的窗口。我们将玻尔兹曼分布归为指数组,使一一对应透明化,并且通过变分原理来证明近似后验推断与大量的数据之间的关系。

如果你有物理学基础的话,我希望看了这篇文章后会对机器学习有更好的认知,并且可以读懂相关领域的论文。如果你专攻机器学习,我希望你看了这篇文章之后可以看得懂统计物理学中平均场论和伊辛模型的论文。

物理学中的伊辛模型

现在我们来思考一个自旋向上或者向下的晶格:

什么样的特性会促使这个系统变成一个可靠的磁性模型呢?

想想你玩磁铁的情景——如果你把两块磁铁放的很近,它们会彼此拉的更近。如果它们是同性的磁极则会相斥。如果它们离的很远,则完全不会发生这种吸引的情况。

这意味着在我们的模型里,邻近的自旋会互相影响:如果围绕s_i点的自旋都是向上的,那它也会是向上的。

我们参照位置i处的自旋为s_i。自旋只能处于两种状态中的一种:向上(s_i=+1)或向下(s_i=-1)。

我们引入交互作用参数J,用物理学的直觉来推论出自旋会相互吸引(它们想指向相同的方向)或相互排斥(它们要指向相反的方向)。

这个参数描述了自旋i和自旋j之间的交互强度。

如果两个相邻自旋指向相同的方向,我们用J来表示它们交互的总能量;如果指向相反的方向,则用J来表示。

然后我们就可以得到系统的能量方程,或者叫哈密顿量:

如果自旋i和自旋j相邻,J_ij=J;反之J_ij=0。因子1/2是考虑到i和j求和时候的重复计算。注意系统的自旋是有限多的(N个自旋)。

自旋组态或者系统的状态是所有自旋的特定值的组合。集合{s_1=+1,s_2=+1,s_3=−1,…,s_N=+1}是组态的一个例子。

热力学第二定律告诉我们在固定温度和熵的情况下,系统会寻求最小化其能量的组态方法。这让我们可以推理出交互作用的情况。

如果交互作用强度J为零,自旋之间没有交互联系,所有组态的系统能量也为零(能量小到可以忽略不计)。但如果强度J为正,自旋会按照某种规则排列起来使系统的能量E(s_1,s_2,…,s_N)最小。由于能量方程中求和前面的负号,这便与最小化一致。

然后引入磁场H。假定自旋的晶格在磁场中,比如地壳周围的磁场。磁场对每个自旋单独作用,每个自旋都会试图与磁场方向保持一致。我们可以加入每个自旋的作用的求和项来表示系统在磁场中的能量方程:

我们可以通过观察磁场强度H变大或变小(增强或减弱)会发生什么来推导出H的大小。如果H变大,自旋之间的交互作用减弱,磁场项会起主导作用,自旋就会按照磁场分布排列以使系统能量最小。但是如果磁场很小就很难推导出来了。

现在我们明确了伊辛模型的定义和它的性质,我们来思考一下我们的目标。关于伊辛模型我们可以解决什么问题?例如,如果我们观察系统,它会处于什么状态?最可能的自旋组态是怎么样的?平均磁化强度是怎么样的?

继续阅读

大脑竟和计算机用同一种算法?DeepMind新研究成果登上《Nature》!

DeepMind带着令人惊喜的两篇论文双双荣登该期刊,分别从生物和神经学两个方面带来了突破性进展。

转自 AI报道

一篇论文的主角是DeepMind在2018年12月发布的AlphaFold系统。该系统仅仅通过蛋白质的基因序列,就能预测蛋白质的3D结构(蛋白质是生物学的基石,始于一串氨基酸,折叠成错综复杂的3D结构),而且其结果比以前的任何模型都要精确。

这对于理解蛋白质在人体内的作用至关重要,为科学家设计新的、有效的疾病治疗方法提供了便利。对此,DeepMind称:“这是我们在科学发现领域的第一个重要里程碑,在生物学的核心挑战之一上取得了重大进展。虽然我们对这些结果感到兴奋,但仍有更多的事情需要我们去了解。”

而另一篇论文则是AI和神经科学之间存在关联的极佳的例证。众所周知,强化学习(Reinforcement Learning,简称RL)是机器学习的分支,而分布式强化学习则用于分布式训练。此次DeepMind发现大脑竟也应用了这种学习方法或算法,为大脑中的奖励机制提供了一种新的解释。

DeepMind的强大的分布式强化学习技术

强化学习,就是让智能体置于未知环境,采取一些行动,然后收获回报,并进入下一个状态。时间差分学习(TD算法)是强化学习的核心,也是一种学习如何根据给定状态的未来值、来预测价值的方法。该算法会将新的预测和预期进行比较。一个特定的行为所带来的未来奖励数量,通常未知且随机。在这种情况下,用标准的TD算法去预测的未来回报是平均的,也叫单个预测。

在许多情况下,尤其是很多现实情况中,未来奖励的结果实际上是依据某个特定的行为,而不是一个完全已知的量进行的预测,它具有一定的随机性。而分布式强化学习是更复杂的预测方式,与标准TD非常类似,被称为分布式TD,会预测所有未来奖励的概率分布。

而且当分布式TD与深度神经网络结合时会非常强大。因此,研究人员采用分布式 TD,尝试研究大脑的奖惩机制。

结果发现,单个多巴胺的神经元所呈现的积极性是多样的。如果把这些神经元比作一个“合唱团”,那么所有的神经元不会唱同一个音域,而是彼此配合——每个神经元都有自己的音域。这与我们过去对多巴胺神经元的认知不同(过去,人们认为多巴胺神经元的反应,应该都是一样的)。

在人工强化学习系统中,这种多样化的调整创造了更加丰富的训练信号,极大地加快了神经网络的学习效率。

据此,研究人员推测,大脑可能出于同样的原因,而使用类似的机制。

于是研究人员以此训练小鼠执行一项任务,并给予它们不同(大小不一,不可预测)的奖励。他们从小鼠腹侧被盖区域(控制多巴胺向边缘和皮质区域释放的中脑结构)中发现了“分布式强化学习”的证据。其证据表明,奖励预测是同时并行地由多个未来结果表示的。

这不仅为人们对大脑中的多巴胺机制的研究提供了新的依据,也为研究AI和神经科学之间联系的课题提供了非常有趣的启示。同时,这一研究成果充分说明了分布式强化学习的潜力,也肯定了分布式强化学习在机器学习中的重要地位。

对于一向热衷于人工智能的DeepMind创始人戴密斯·哈萨比斯(Demis Hassabis)而言无疑是个好消息,让他和DeepMind在通往实现通用人工智能的道路上又往前迈进了了一步。

对此,戴密斯连续发推特,表达两个研究成果发布在《自然》的兴奋之情。对于分布式强化学习的研究成果,他称这是DeepMind在AI和神经科学这两个交叉学科上获得的出色成就,他们在强化学习方面的工作带来了新的灵感,也让人们对多巴胺在大脑中的工作方式有了全新的认识。

戴密斯出生于英国,从小对人工智能无比热衷,引领着他走过了职业生涯的四个阶段:游戏开发者、神经系统科学家、电脑程序员以及人工智能企业家。

2010年,他创办了DeepMind,并在4年后被谷歌以4亿英镑收购。

在2014年的TED上,谷歌当时的CEO拉里·佩奇(Larry Page)介绍人工智能的发展以及谷歌的未来在何方时,提到拥有计算机科学的背景的DeepMind创始人戴密斯为了发展人工智能,曾回学校攻读博士学位,就是为了研究大脑。

当时,拉里·佩奇表示,要真正理解怎么让计算机变得聪明,融合计算机科学和神经科学两大领域是很有必要的。

可见,在让计算机变聪明的使命指引下,推动了人们对大脑的认知。

继续阅读

斯坦福用普通相机和激光笔实现“穿墙透视”,连你的证件都能看清

转自 新智元

摄像头还能穿墙透视,看清黑暗的角落?事实证明,真的可以,而且早就可以了。

斯坦福、普林斯顿等机构的研究人员在Optica期刊上发表的一项研究,提出了一种能够以高分辨率和高速度实现“非视距成像”的系统。这个系统可以区分1米外的隐藏物体,精度细节达到亚毫米级。

它具体有什么用呢?该论文作者之一Felix Heide表示,这套系统可以用来识别隐藏在障碍物后的移动车辆的车牌号,以及行人佩戴在身上的证件信息等。

Heide说:“系统基于‘非视距成像‘打造,该技术在医学、导航,机器人和国防领域都具有重要的应用。我们的研究使这些领域中的技术应用进一步深化了。”

其实此类系统并非该团队首创。去年,英特尔和斯坦福大学的科学家用几组扬声器和现成的麦克风来捕获声波回波的时间,利用这些信息,使用受地震成像启发的算法,生成隐藏物体的图像。

2017、2018和2019年,麻省理工学院的计算机科学和人工智能实验室详细介绍了一款通过分析阴影来重建视野外场景成像的非视距相机。新智元曾经对此作过详细报道:

MIT非视线成像“透视相机”:隔墙观物、影中窥人!

不过,这次的成像系统使用的是商用相机和类似于标准指示器的激光光源。光束从可见的墙壁上反射到隐藏的目标上,然后再反射回墙壁,从而产生一种特殊的光散射,称为斑点图案,利用该图案,可对隐藏的物体的形状进行编码。

为了从散斑图案中重建目标成像,研究人员使用了针对特征噪声合成数据进行训练的AI算法,从而无需捕获实验训练样本,而且只需较短的曝光时间,就能进行实时成像。

“与其他非视距成像方法相比,我们的深度学习算法更加稳健。” 论文作者之一Rangarajan说。

研究人员通过重建1厘米高的字母和数字的图像来测试这个技术,这些目标隐藏在距墙1米的角落里。结果,研究人员使用1/4秒曝光时间,生成了分辨率为300微米的重建图像。

研究人员指出,该系统是美国国防高级研究计划局(DARPA)利用主动光场(REVEAL)实现的革命性技术,可以对隐匿在拐角处的物体进行成像。

这个系统可以与生成低分辨率、房间大小的重建成像系统结合使用,让未来的无人驾驶汽车能够“观察”停放的车辆或繁忙的十字路口的路况,也可以帮助卫星和航天器从小行星的洞穴中捕获图像。

未来研究人员还要扩展这种成像系统的视野,以便重构更大的目标,使其适于更多的应用场景。

DeepMind哈佛惊人发现!大脑中竟存在“分布强化学习”,靠多巴胺驱动

转自 新智元

学生时代,想必你肯定听过巴甫洛夫和狗的故事:

每次给狗喂食之前,都先摇动一个铃铛。久而久之,狗学会了把铃铛当做进食的前奏。后来,只要铃铛一响,狗就会开始流口水,不管接下来有没有食物。这表明它们已经学会了“预测奖励”。

在最初的实验中,巴甫洛夫通过测量它们产生的唾液量来估计它们的期望。但最近几十年来,科学家们开始破译大脑学习这些预测的方式。


同时,计算机科学家开发了在AI系统中进行强化学习的算法。这些算法使AI系统无需外部指导即可学习复杂的策略,学习过程由奖励预测机制指导。

DeepMind的一项新研究表明,对于破译大脑的内部运作方式,或许AI才是我们的老师。

在这项刚刚被发表在Nature的研究中,DeepMind与哈佛大学的研究人员受最近关于分布强化学习的AI研究启发,提出了一种基于多巴胺的强化学习的方法

他们认为:和AI系统类似,大脑不是以“平均值”的方式预期未来可能的回报,而是以“概率分布”的方式来预期,从而证明大脑中存在“分布强化学习”。

大脑进行强化学习,类似于顶级AI算法

大脑中的多巴胺是一种代表惊讶(surprise)的信号。”论文一作Will Dabney说: “当情况好于预期时,就会释放出更多的多巴胺。”

以前认为,这些多巴胺神经元反应都相同。但是研究人员发现,各个多巴胺神经元似乎有所不同:每个神经元“快乐”或“悲伤”的程度是不一样的。


更像是合唱团,它们唱着不同的音符,相互协调”Dabney说。

这一发现从一种称为分布强化学习的过程中获得了灵感。没错,就是AI用来掌握围棋和星际争霸2等游戏的技术之一

继续阅读

深度神经网络面临严峻安全问题,AI治理和评测是当务之急

转自 AI科技大本营

新一代人工智能带来的挑战

现在以深度神经网络为代表的AI带动了新一轮人工智能的发展。但是,在这个发展后面,也有很多新的挑战和隐忧。在自动驾驶领域,有特斯拉出现车祸,在目前利用一些方法来进行深度伪造,嘴边拿一个视频过来就可以把你自己说的话换成名人的头像,比如这张图,让奥巴马说一段其他名人说的话。我记得前段时间国内有批量换脸的应用,但是很快下架了。所以,深度伪造带来的潜在社会危害是非常巨大的。

还有人工智能的公平性问题,这在国内外许多AI应用里面都有提到,比如不同肤色、不同人种用AI进行智能司法判决的时候,包括在找工作的时候AI进行自动简历筛查,包括在银行进行贷款发放的时候等等,如果算法在数据上面的处理不够均衡,很有可能算法所做出的最终判断就是有偏差的,从伦理道德来说就会带来很严重的社会问题。

我今天重点讲的是关于深度神经网络本身的安全问题。虽然在座很多开发者和同学都用过深度神经网络,但是你会发现,虽然深度神经网络在相当数据情况下解决很多问题,比传统方法的效率和效果都要好,但是安全性确实是深度神经网络目前最需要解决的问题。如果你把这样不安全的神经网络应用在自动驾驶、应用在人脸识别、应用在安防监控这些领域里面,带来的危害是现实的。

我们这里可以总结一下在AI治理方面或者伦理原则方面,以获取人的信任为主要核心,覆盖方向主要是四个,一个是Security(安全),二是Transparency(透明度),这个算法不是黑箱,让人理解深度神经网络的运行、推理过程和训练过程。第三是Privacy(隐私)。第四是Fairness(公平性)。

这些原则无论是学术界还是工业界,都在开展很多研究。因为围绕着前面这四个原则,去探讨法律、道德甚至哲学层面,可以永远探讨下去,因为这是我们人类社会对终极正义追求的一种表现。

继续阅读

人工智能的下一个拐点:图神经网络迎来快速爆发期

转自 AI前线

1 GNN:从尝鲜进入快速爆发期

今年以来,图神经网络技术(Graph Neural Network, GNN)得到了学术界极大的关注与响应。各大学术会议纷纷推出 GNN 相关的 workshop,在投中的论文中,以 Graph Network 为关键词的论文数量也呈现井喷之势,下图给出了近三年,上述关键词在各学术会议上的增长趋势:

GNN 在经历过 2017-2018 年两年的孕育期与尝试期之后,在 2018 年末至今的一年多时间里,迎来了快速爆发期。从理论研究到应用实践,可谓是遍地开花,让人应接不暇。在理论研究上,GNN 的原理解释、变体模型以及对各种图数据的拓展适配等工作成为了主流。而在应用实践上,GNN 更是展现出了前所未有的渗透性,从视觉推理到开放性的阅读理解问题,从药物分子的研发到 5G 芯片的设计,从交通流量预测到 3D 点云数据的学习,我们看到了 GNN 极其广阔的应用前景。本文将对近一年各大顶级会议(如 ICML、NIPS、CVPR、ACL、KDD 等)上的 GNN 相关论文进行梳理,重点从理论研究和应用实践两方面解读过去一年 GNN 的进展。由于时间和篇幅有限,本文并没有对每一个方向都进行全面的总结与概括,感兴趣的读者可以根据文中给出的论文链接自行查漏补缺。

2 GNN 的原理、变体及拓展

GNN 作为一个新兴的技术方向,其原理解读以及各类变体与拓展构成了理论研究的热点,这些论文很好地回答了 GNN 的优缺点以及相关的适应性改造问题。

2.1 GNN 原理解读

当前 GNN 研究的第一个热点在于其相关能力的理论化研究。在 “How Powerful are Graph Neural Networks?”  和 “On the equivalence between graph isomorphism testing and function approximation with GNNs” 中,都对 GNN 在图同构问题上的表现进行了探讨。图同构问题是辨别给定的两个图是否一致,同构图如下图所示。这个问题考验了算法对图数据结构的辨别能力,这两篇文章都证明了 GNN 模型具有出色的结构学习能力。图中天然包含了关系,因此许多 GNN 相关的工作就建立在对给定系统进行推理学习的研究上,在这些研究中,“Can graph neural networks help logic reasoning? ” 和 “The Logical Expressiveness of Graph Neural Networks” 论证了 GNN 在逻辑推理上的优秀表现。“All We Have is Low-Pass Filters ” 从低通滤波的层面解释了 GNN 的有效性。这些原理解读,有助于我们对 GNN 的特色专长建立一种更加清晰的认识。

2.2 GNN 的各类变体

GNN 模型的相关变体研究是领域内的另一个热点,这些变体在一些方面提升了 GNN 的能力表现。我们知道 GCN 模型来源于图信号上的傅里叶变换,“Graph Wavelet Neural Network” 引入了图信号上的小波变换来改造 GCN 模型,将卷积计算变换到空域局部邻域内。将数据表征从欧式空间转化到双曲空间,不仅能获得更好地层次化表示,同时能大大节约空间维度,“Hyperbolic Graph Convolutional Neural Networks”和 “Hyperbolic Attention Networks” 同时将 GNN 拓展到了双曲空间上去。

在 “MixHop: Higher-Order Graph Convolutional Architectures via Sparsified Neighborhood Mixing” 和 “Diffusion Improves Graph Learning”中,同时将原始 GCN 中的邻居定义由一阶拓展到高阶,强化了模型低通滤波的特性。

继续阅读