无人机快递之战,谷歌Wing击败亚马逊获无人机配送许可 2019-04-14




  新智元原创  

来源:Business Insider,Wing Australia,x.company

编辑:元子

【新智元导读】歌领先亚马逊,成为全球首个通过政府审批,获得快递无人机送货资质的公司。谷歌快递无人机Wing在澳大利亚获得快递资质,历经18个月试飞已完成3000单包裹寄送。

 


Wing是由谷歌母公司Alphabet旗下无人机配送初创公司,目前已经在澳洲的Crace,Palmerston和Franklin郊区,为大约100套住宅提供了无人机配送服务。在获得了配送资质后,接下来该公司计划将服务范围扩展到Harrison和Gungahlin地区。

完成3000份订单,已有7家合作厂商


用户通过在Wing app订购一系列商品,包括新鲜食品、热咖啡或非处方化学品,然后Wing配送无人机可以从商家处、或者你的家中领取包裹,几分钟后即可飞到指定的目的地。然后会精准的停在制定位置,比如后院或门口附近,将包裹轻轻放到地上。 


Wing使用无人交通管理平台(UTM)将最佳路线映射到指定位置,该平台全程负责无人机从起飞到着陆的飞行路径,并越过中途可能出现的障碍物,例如建筑物、树木等。

目前Google Wing的合作伙伴包括:Kickstart Expresso,Capital Chemist,Pure Gelato,Jasper + Myrtle,Bakers Delight,Guzman Y Gomez和Drummond Golf,谷歌也在Gungahlin地区寻求更多本地企业的合作机会。

在过去的18个月中,Wing已经向Fernleigh Park,Royalla和Bonython社区的澳大利亚家庭进行了食品、小型家庭用品和非处方化学品等3000多次配送,效果看起来还不错。

获得资质的同时仍面临一些限制


仅仅在Canberra经过了18个月的测试,配送了3000单包裹,谷歌的配送无人机就拿到了澳大利亚民航安全局的批准,在澳洲的North Canberra地区为公众展开服务。澳洲民航局发言人说:“这可能是世界首例”。实际上,京东早在2108年3月就拿到了省域无人机物流经营许可证。

该发言人还告诉Business Insider,Wing服务必须遵守以下安全规则:

  • 可以飞跃屋顶或者道路,但必须避开主干道,例如如巴顿高速公路、联邦高速公路和马公园大道等

  • 用户去快递的时候,无人机最近可以悬停在收件人头顶5米、身旁2米范围外(要知道,澳大利亚此前一直规定无人机距离人不得少于30米)

  • 周一到周六早7点前和周日早8点前禁飞

  • 所有收件人均会收到安全提示,不得靠近无人机

与之形成对比的是,尽管在英国和美国进行了多次高调的试运行,亚马逊的服务尚未完成商业化。去年,亚马逊发言人告诉美联社,该公司仍然在“致力于在30分钟或更短的时间内完成无人机包裹配送。”

无人机将为企业带来更多价值,更环保


从蒸汽船到铁路,从小马车到现代送货服务,从前车马很少很慢的场景已经一去不复返了,取而代之的是早晚高峰的交通拥堵,严重影响了快递的效率,同时汽车尾气也造成了大气污染,在美国有27%的温室气体排放来自运输。

无人机则可以轻松越过拥堵路段,并且减少二氧化碳的排放。无人机受地形影响较小,可以在一些人类配送员无法及时到达的场景下,提供配送服务,大大增加了便利性。

Wing与Waymo和Loon一样,之前被归为X moonshot项目,早在2014年开始,就一直在澳大利亚进行测试。

Wing预测无人机配送为该地区企业增加最多高达4000澳元的价值,并表示到2030年无人机可以完成四分之一的外卖订单。


参考链接:

  • https://www.businessinsider.com/google-beats-amazon-to-launching-drone-delivery-service-in-australia-2019-4

  • https://medium.com/wing-aviation/wing-launches-commercial-air-delivery-service-in-canberra-5da134312474

  • https://wing.com/australia/

  • https://x.company/projects/wing/


【2019新智元 AI 技术峰会精彩回顾


2019年3月27日,新智元再汇AI之力,在北京泰富酒店举办AI开年盛典——2019新智元AI技术峰会。峰会以“智能云•芯世界“为主题,聚焦智能云和AI芯片的发展,重塑未来AI世界格局。


同时,新智元在峰会现场权威发布若干AI白皮书,聚焦产业链的创新活跃,评述AI独角兽影响力,助力中国在世界级的AI竞争中实现超越。


嘉宾精彩演讲:


    已同步到看一看

    发送中

    深度学习的天赐和诅咒:最大的优势也是最大的缺陷 2019-04-14




      新智元报道   

    来源:Piekniewski’s blog

    编辑:元子

    【新智元导读】深度学习的成功和一系列令人惊讶的失败模式教会了我们处理数据的宝贵教训。本文展示了深度学习真正可以实现什么,与经典计算机视觉的区别是什么,以及进行关键应用的潜在危险有哪些。

     

    我们对深度网络的黑盒效应都很熟悉了。虽然没有人知道黑盒子里到底经历了什么,然而深度学习的成功以及一系列惊人的失败模式,提供了如何处理的数据的宝贵教训。

    本文作者Piekniewski,将为我们展示深度学习的实际能力、与经典计算机视觉的关系,在关键应用上依赖深度学习的潜在危险,以及未来走向。


    此人也对AI寒冬论持有坚定的信念,参见文章《深度学习到顶,AI寒冬将至!》《历史总是在重演,AI寒冬或再来》。


    视觉问题中没有纯粹的“简单”和“复杂”

    首先需要就视觉/计算机视觉做一点说明。原则上可以表述如下:给定一台摄像机拍摄的图像,计算机可以回答关于该图像内容的一些问题。 

    简单的问题比如“图像中是否存在三角形”,“图像中是否存在人脸”;复杂的问题例如“是否有狗在图像中追逐猫”。这些对人类来说小儿科的问题看似有很多相似的地方,然而事实却证明这些问题的背后的复杂性存在巨大差异。

    同样是让计算机回答“图中是否有XX”的问题,“图中是否有猫”显然要比“图中是否有红色”更难。你看,试图将视觉问题划分为“简单”或“复杂”将会陷入无止境的深渊。

    这一点很重要。因为像我们人类这种高度视觉化的动物,以上问题都不是问题。但对计算机深度学习来说,确实非常复杂。

    传统计算机视觉存在的问题

    传统的计算机视觉就是使用一套算法,从图片里提取信息(通常表示为像素值数组)。比如去噪、增强和检测的算法,一些方法旨在寻找简单的几何图元,例如边缘检测、形态分析、霍夫变换、斑点检测、角点检测、各种图像阈值处理技术等。还有特征表示技术和变换,如定向梯度的直方图、Haar级联等可以用作机器学习分类器的前端以构建更复杂的检测器。

    与流行的看法相反,上述工具结合在一起可以组成非常强大有效的特定物体探测器。人们可以构建面部检测器、汽车检测器、路牌检测器,并且它们很可能在精度和计算复杂性方面,优于这些特定对象的深度学习解决方案。 


    但问题是,每个探测器都需要由有能力的人员从头开始构建,低效又昂贵,且不可扩展的。

    因此,李上上那些很厉害的探测器只适用于必须高频场景,还需要证明前期投资的合理性。许多探测器都是专有的,一般公众无法使用。

    优秀的面部探测器、车牌阅读器很多,但狗探测器却很少。没有一个心智正常的人会投入人力和物力去编写狗探测器或分类器,从图像中分类出一种狗,贵且不切实际。

    这是传统视觉的死穴,却是深度学习的用武之地。

    用一个聪明学生的故事来解释深度学习的本质

    想象一下,你正在教授计算机视觉课程。在开始的几个讲座中,学生了解到丰富的技术(例如上面讨论的技术),接下来就是给学生布置一些任务。

    先从一些简单的任务开始,例如通过询问图像中是否有圆形或正方形;接下来逐渐提高复杂度。学生每周都要编写计算机程序来解决下一个任务。而你来查看代码,并在某些示例上运行代码来检验效果。

    这个学期,来了一个新生,他不跟周围人说话,也从不问问题。但当他提交第一个解决方案时,你会发现这是一堆难以理解的代码,跟你以前看到的代码都不同。

    看起来他正在用一些随机看的过滤器对每个图像进行卷积,然后使用一些非常奇怪的逻辑,许多“if then else”语句具有大量搞不懂的参数来获得最终答案。你在样本上运行此代码,它居然完全正常!你心想,这个方法是在不同寻常难以理解,但管他呢,确实有效啊!

    几周过去了,任务复杂度在不断提升,你越来越看不懂这个学生的代码,但就算是最复杂的任务,它的效果也令人惊讶。最后一个问题是在一组真实的图像中区分猫和狗。其他学生代码的准确率都没有超过65%,但新学员的代码能够达到95%!太不可思议了。

    你对代码进行了逆向工程,结果发现他那堆复杂的代码,背后的逻辑其实非常简单:

    1. 检测是否有狗牌:如果有返回“狗”;没有返回“猫”

    2. 如果没有狗牌,检测图像的左侧部分是否比右侧部分更黄:如果是返回“狗”;不是返回“猫”

    你把这个学生叫到办公室问他是怎么想的,他表示其实自己也不知道,他根本不明白猫和狗是什么,只知道通过什么方法将二者区分出来。这算作弊吗?从人类的角度来看,是的,他的出发点和你想的完全不同。

    虽然其他学生使用原始数据集并没有得到特别突出的结果,但也不会出什么奇怪的错误。相比而言,新学生的方式虽然在使用当前数据集的时候,效果卓著,然而一旦稍微对数据集做一点改动,例如将狗牌贴在猫身上,结果就是完全错误的。

    深度学习的天赐和诅咒

    上面那个新学生的例子,其实很形象的表述了深度学习的特性。

    深度学习是一种使用梯度反向传播的、特定优化技术来生成“程序”(也称为“神经网络”)的技术。上面学生的程序只是构建一组转换和条件,将正确的标签分配给数据集中的正确图像。而且总是在寻求解决问题最省力的方法,比如给定数据集里,狗的图片都在右上角有一道蓝色的光晕,那么深度学习就会立刻使用这作为区分猫狗的标准。

    为了消除这些虚假的偏差,我们通常会向训练集添加更多数据、反向传播生成的“程序”可能非常大、非常复杂,具有数百万个参数和数千个条件检查,可以锁定到组合更精细偏见的组合。任何允许分配正确标签以统计优化目标函数的东西都会做,无论是否与任务的“语义精神”相关。 

    深度网络能否最终锁定到“语义正确”先验的东西上?当然可以。但现在有大量证据表明,实际上并非五次。对抗性的例子表明,对图像的微小修改都可以导致错误的结果。对类似于先前训练的数据集的新样本的研究表明,超出原始数据集的泛化远比数据集中的泛化弱得多。

    自动创建无人能想到的功能,是深度学习的最大优势,同时也是它的最大弱点、因为大多数时候,至少在语义上是存疑的。

    深度学习在什么情况下好用,什么情况下不可用?

    深度学习无疑是计算机视觉工具箱的一个有趣补充。现在可以相对容易地“训练”探测器来探测物体,还可以在一定程度通过调整探测器来使用更多算力。但同时也需要为深度网络的黑盒属性付出高昂的代价,我们无法确定他如何做出决定,而且跟我们认可的“语义精神”毫无关系。因此,在输入数据中出现的任何低级偏差都会导致检测器意外地失败,而且这些失效条件实际上无法表征。

    因此在落地应用时,深度学习主要用于对错误不敏感、且能够保证输入不会与训练数据集有很大差异场景,例如图像搜索,可能是监视,自动零售以及几乎所有的“非关键任务”,95%的准确率非常够用了。

    具有讽刺意味的是,大多数人坚信深度学习在无人驾驶汽车、自动机器人场景下的应用是一场革命,Piekniewski认为,只能将这种信念描述为“不幸”的误解。因为这些场景需要需要实时决策,容错率极低,经常会导致致命的结果,最近的研究显示基于深度神经的自动驾驶解决方案在现实生活中确实容易受到对抗性攻击。 

    还有人对深度学习应用在医学和诊断中寄予厚望。然而,在这个领域,也有一些相关的发现,例如,在一个机构数据上训练的模型失败了,换一个机构数据却成功了,说明这些模型使用比许多研究人员所希望的更浅度的数据。

    数据比我们想象的更浅。

    深度学习 vs 传统计算机视觉

    深度学习现在非常流行,但传统的计算机视觉也并非就失去价值。

    传统计算机视觉仍然可以用来构建强大的探测器。这些手工做成的探测器可能无法在某些特定数据集指标上实现高性能,但可以保证依赖于输入的“语义相关”特征集,它的故障模式可以更好地表征和预期。 

    深度学习提供统计上强大的探测器,而不需要昂贵的特征工程,尽管仍需要大量已标记的数据,外加大量GPU和现场的深度学习专家。而且,这些探测器会意外地失效,适用范围也不容易被(完全)表征。

    所以,在容错率高的场景中,可以选择深度学习;在容错率低且计算复杂性更重要的场景中,经典机器视觉管道将在可预见的未来继续占据重要位置。


    参考链接

    https://blog.piekniewski.info/2019/04/07/deep-learning-and-shallow-data/

    【2019新智元 AI 技术峰会精彩回顾


    2019年3月27日,新智元再汇AI之力,在北京泰富酒店举办AI开年盛典——2019新智元AI技术峰会。峰会以“智能云•芯世界“为主题,聚焦智能云和AI芯片的发展,重塑未来AI世界格局。


    同时,新智元在峰会现场权威发布若干AI白皮书,聚焦产业链的创新活跃,评述AI独角兽影响力,助力中国在世界级的AI竞争中实现超越。


    嘉宾精彩演讲:


      已同步到看一看

      发送中

      最强AI挑战中国英语阅读理解:只得70多分,不如中等生 2019-04-14



        新智元报道  

      来源:arxiv等

      编辑:大明

      【新智元导读】如果把中学生的英语阅读理解选择题让AI来做,会做出什么水平?近日,上交大团队训练的“双向协同匹配网络”(DCMN)取得了74% 的正确率。尽管和人类学生相比只能算马马虎虎,但对AI来说,这已经达到了目前的最高水平。


      目前,在英语考试的阅读理解上,AI虽然无法击败更有能力的人类学生,但它仍然是衡量机器对语言理解能力的最佳量度之一。

       

      近日,上海交通大学的赵海团队对AI模型进行了超过25000次英语阅读理解测试训练。训练材料和中国现行英语水平考试的阅读理解形式类似,每篇文章大约200到300个词,文后是一系列与文章内容相关的多项选择题。这些测试来自针对12至18岁中国学生的英语水平考试。

       

      虽然这些问题有些可以在文中找到答案,但其中一半以上的题目仍需要一定程度的推理。例如,有些问题会要求从四个选项中选出文章的“最佳标题”。在训练结束后,AI参加了测试,其中包括1400次以前从未见过的考试。综合得分为74分(百分制),优于之前的所有机器测试。

       

      上交大的AI系统可以识别与问题相关的文章相关部分,然后选出在含义上和逻辑上最相似的答案。在测试中排名第二的是腾讯的AI系统,在同一次考试中得分为72分。腾讯的AI学会了比较每个选项中包含的信息,并将不同选项间的信息差异作为提示,在文章中寻找证据。


      目前最厉害的AI,阅读理解只能得个C+

      尽管在测试中分数处于领先,赵海团队仍在努力提高AI系统的能力。 “如果从真人学生的视角来看,我们的AI的表现也就是一般水平,最多得个C+,”他说。 “对于那些想进入中国优秀大学的学生来说,他们的目标是90分。”

       

      为了提高分数,团队将尝试修改AI,以便理解嵌入在句子结构中的信息,并为AI提供更多数据,扩大其词汇量。

       

      如何理解人类的语言,一直是AI领域的一个主要问题,因为这种理解通常是不精确的,这个问题涉及机器难以掌握的隐含语境信息和社会线索问题。

       

      卡内基梅隆大学的Guokun Lai表示,目前我们仍不清楚AI在学习我们的语言时会遵循什么规则, “不过在阅读了大量的句子和文章之后,AI似乎能够理解我们的逻辑。”


      该研究的相关论文已经发表在Arxiv上,以下是论文的主要内容:


      让AI做阅读理解是一项具有挑战性的任务,需要复杂的推理过程。AI需要从一组候选答案中选择正确的答案。本文提出双重协同匹配网络(DCMN),该网络可以双向地模拟通道,问题和答案之间的关系。


      与仅就问题感知或选择性文章表示进行计算的现有方法不同,DCMN能够计算文章感知问题表示和文章感知答案表示。为了证明DCMN模型的有效性,我们在大型阅读理解数据集(即RACE)上评估了模型。结果表明,该模型达到了目前AI阅读理解的最高水平。

       

      机器阅读理解和问答已经成为评估自然语言处理和理解领域人工智能系统进展的关键应用问题。计算语言学界对机器阅读理解和问答的一般问题给予了极大的关注。

       

      本文主要关注选择题阅读理解数据集,如RACE,该数据集中每个问题后都带有一组答案选项。大多数问题的正确答案可能不会在原文中完全复现,问题类型和范围也更加丰富和广泛,比如涉及某一段落的提要和对文章作者态度的分析。

       

      这需要AI能够更深入地了解文章内容,并利用外部世界知识来回答这些问题。此外,与传统的阅读理解问题相比,我们需要充分考虑通过文章-问题-答案三者之间的关系,而不仅仅是问题-答案的配对。


      新模型DCMN:在文章、问题、答案三者之间建立联系

      DCMN模型可以将问题-答案与给定文章内容进行双向匹配,利用了NLP领域的最新突破——BERT进行上下文嵌入。在介绍BERT的原论文中提到,对应于第一输入令牌(CLS)的最终隐藏向量被用作聚合表示,然后利用分类层计算标准分类损失。

       

      我们认为这种方法太粗糙,无法处理文章-问题-答案的三者关系组合,因为这种方法只是粗略地将文章-问题的联系作为第一序列,将问题作为第二序列,没有考虑问题和文章内容之间的关系。因此,我们提出了一种新方法来模拟文章、问题和候选答案之间的关系。

       

      • 使用BERT作为编码层,分别得到文章、问题和答案选项的上下文表示。


      • 构造匹配层以获得文章-问题-答案三者之间匹配表示,对问题在文章中对应的位置信息与特定上下文匹配的候选答案进行编码。


      • 对从字级到序列级的匹配表示应用层次聚合方法,然后从序列级到文档级应用。

       

      我们的模型在BERT模型的基础上,于RACE数据集上将当前最高得分提高了2.6个百分点,并使用大规模BERT模型进一步将得分提高了3个百分点。


      实验及测试结果

      在RACE数据集上对模型进行了评估。这个数据集由两个子集组成:RACE-M和RACE-H。RACE-M来自初中考试试题,RACE-H来自高中考试试题。RACE是这两者的结合。我们将我们的模型与以下基线方法进行了比较:MRU(多范围推理),DFN(动态融合网络),HCM(等级协同匹配),OFT(OpenAI 微调语言转换模型),RSM(阅读策略模型)。

       

      我们还将我们的模型与BERT基线进行比较,并实现BERT原论文(2018)中描述的方法,该方法使用对应于第一个输入标记([CLS])的最终隐藏向量作为聚合表示,然后是分类层,最后计算标准分类损失。测试结果如上表所示。

       

      我们可以看到BERT基线模型的性能非常接近先前的最高水平,而大型BERT模型的表现甚至超过了之前SOTA水平3.7%。但是实验结果表明,我们的DCMN模型更强大,将最高得分进一步分别提升了2.2%。


      论文及参考链接:

      https://arxiv.org/pdf/1901.09381.pdf

       

      https://www.newscientist.com/article/2198333-ai-achieves-its-best-ever-mark-on-a-set-of-english-exam-questions/

      【2019 新智元 AI 技术峰会精彩回顾


      2019 年 3 月 27 日,新智元再汇 AI 之力,在北京泰富酒店举办 AI 开年盛典 ——2019 新智元 AI 技术峰会。峰会以 “智能云・芯世界 “为主题,聚焦智能云和 AI 芯片的发展,重塑未来 AI 世界格局。


      同时,新智元在峰会现场权威发布若干 AI 白皮书,聚焦产业链的创新活跃,评述 AI 独角兽影响力,助力中国在世界级的 AI 竞争中实现超越。


      嘉宾精彩演讲:


        已同步到看一看

        发送中

        人类全面溃败!AI训练4.5万年,DOTA 2人机大战大结局 2019-04-14




          新智元报道   

        编辑:大明、张乾

        【新智元导读】OpenAI Five在Dota 2中以2:0击败了世界冠军团队,人机大战人类最终不敌AI。OpenAI Five在去年输掉比赛后进行了优化,训练时间相当于人类玩了4.5万年


        OpenAI可以宣布自己是世界第一了。


        今天凌晨,OpenAI Five在Dota 2中以2:0击败了世界冠军团队OG,再次显示出了AI的强大威力,也正式宣告人类在Dota这种高难度游戏中成为AI的手下败将。


        这次比赛,OpenAI Five的表现出是迄今为止展示出的最高水平:人类对手去年赢得了世界上最令人垂涎的电子竞技赛事TI8的冠军OpenAI Five在去年输掉比赛后进行了优化,训练时间相当于人类玩了4.5万年,赢得比赛也并不出乎意料。


        人类对手OG团队

        2:0,AI战胜人类

        在这场人机大战中,每队只有17个英雄可供选择。 OpenAI还选择了所谓的“Captain’s Draft”游戏模式。与之前的比赛一样,OpenAI也禁用了召唤和幻觉功能,这两项功能都涉及以英雄副本的形式引入其他变量,以及OpenAI训练系统时未考虑的一些特殊因素和单位。

         

        除此之外,这场比赛与正常的Dota 2比赛一样,其最终目标是摧毁敌方队伍的“基地”,即每个团队领土末端的大型塔楼,在敌人的队伍成功摧毁其他小型塔后,基地是很脆弱的,整个比赛过程的中心是对塔的攻防,以及英雄与英雄之间的团战。

         

        在第一场比赛中,OpenAI Five让对手OG大吃一惊,通过一系列激进战术获得了胜利,其中包括对游戏中获取的金币的花费方式,在本方英雄死亡时立即买活,即使在比赛初期也是如此。



        对此,OpenAI首席技术官Greg Brockman指出,OpenAI喜欢有利于短期收益的战略,说明在长期规划上不如人类,而且DOTA2这种游戏通常要依赖于长期规划才能获胜。然而,在这场比赛中,这种早期的买活策略得到了回报,OpenAI Five获得了优势,当比赛拖入30分钟时,OG顶不住了。

         

        在第二场比赛中,OpenAI表现更好,在最初的几分钟内即获得了对OG的早期优势,然后无情碾压了人类玩家,在第一场比赛时间刚刚过半的时间点上即取得胜利。 

        值得注意的是,OpenAI Five在第二场比赛中开始玩得异常激进,以及OG在AI全图范围内的推进时有些无力对抗。OpenAI Five能够利用其特定的英雄选择带来的优势。

        飞速进化的OpenAI Five:已经训练4.5万年

        去年8月,OpenAI Five曾以3:2击败半职业人类玩家,不过当面对职业对手时,OpenAI便输给了paiN Gaming战队,帅不过三秒。

        根据OpenAI联合创始人兼主席Greg Brockman(也是该组织的CTO)的说法,在输掉比赛之后,OpenAI Five是通过在加速的虚拟环境中进行自我改进而变得更加强大的。

        OpenAI Five由深度强化学习提供支持,也就是说它的编码目的不是“如何游戏”,而是“如何学习”。Brockman在比赛开始前表示。,AI在10个月中,已经玩了45000年的Dota 2游戏,而且,玩了这么长时间也没有觉得无聊。

        这场比赛采用三局两胜制,所有bot都使用相同的深度强化学习技术进行训练,并由同一OpenAI系统的不同层独立控制。

          

        OpenAI向公众开放与AI对决,终极目标是实现通用人工智能

        对于OpenAI来说,值得庆祝的不仅仅是这次胜利,还因为其证明了对强化学习的态度及其关于AI的普适哲学树立的里程碑。

        研究团队将不再公开展示其AI 游戏bot,而是致力于开发软件,让人类与OpenAI Five软件实时协作,与机器人一起玩游戏,并学习他们独特的前所未有的战略和行为。

        OpenAI Five还发布了一个平台,供公众与OpenAI Five对战,这种模式称为“竞技场”模式,将于4月18日起开放三天。OpenAI表示,协作软件可能永远不会向公众开放,不过大家可以在活动中亲自尝试一下。

        OpenAI的联合创始人兼首席执行官Sam Altman还表示,此类工作证明了与AI智能体的合作可能会在未来带来巨大的利益。

          

        Altman说:“对于世界如何运作,如何训练这些智能体,令其实现协作上,这次活动是重要的一课。实现人类与AI的合作,是我们对未来世界更积极的愿景之一,人工智能与人类共同努力,使人类变得更好、更有趣、更有影响力。”

         

        OpenAI可能会继续涉足Dota 2和其他视频游戏,主要是因为这些游戏是人工智能的良好测试平台,也是衡量AI技术进步的良好基准测试工具。

        现在可能还没有一个游戏像OpenAI Five这样,AI系统最终无法具备超出人类能力的水平。对于更广泛的AI行业而言,精通视频游戏可能很快就会变得过时,我们需要简单的方式来证明AI系统可以快速学习,并能够更快速高效地的解决现实世界的困难任务,获得更有意义的好处。

         

        最终,OpenAI希望将其Dota 2学习并扩展到游戏之外的新领域,并最终扩展到现实世界中。为此,OpenAI正致力于使用强化学习和其他技术,为机器人手提供更灵巧、更精细、更人性化的动作。

         

        “OpenAI正在努力的方向建立通用人工智能(AGI),并与世界分享这些好处,同时确保其安全性。”Altman说的是建立一个能够执行任何人类任务的多功能AI系统。“我们的目标不是战胜电子游戏,虽然这很有趣。我们的目标是揭开实现AGI道路上的秘密。”


        参考链接:

        https://www.theverge.com/2019/4/13/18309459/openai-five-dota-2-finals-ai-bot-competition-og-e-sports-the-international-champion



        【2019新智元 AI 技术峰会精彩回顾


        2019年3月27日,新智元再汇AI之力,在北京泰富酒店举办AI开年盛典——2019新智元AI技术峰会。峰会以“智能云•芯世界“为主题,聚焦智能云和AI芯片的发展,重塑未来AI世界格局。


        同时,新智元在峰会现场权威发布若干AI白皮书,聚焦产业链的创新活跃,评述AI独角兽影响力,助力中国在世界级的AI竞争中实现超越。


        嘉宾精彩演讲:


        文章已于修改

          已同步到看一看

          发送中

          周志华等人新书:《演化学习:理论和算法的进展》正式上线! 2019-04-15




            新智元推荐   

          来源:CVer(ID:CVerNews)

          作者:  俞扬&Amusi;

          整理编辑:三石

          【新智元导读】近日,由周志华教授、俞扬教授和钱超研究员共同完成的新书——《Evolutionary Learning: Advances in Theories and Algorithms》正式上线!堪称“宝藏级”新书,速来收藏。

          爱逛知乎的小编在2019年4月13日,发现一直关注的俞扬教授发了一篇推文”致青春,点进去一看,发现了”宝藏“!

          于是便立即联系了俞扬教授,询问是否可以将这份资源转发或者介绍给大家。俞教授也很爽快,没过多久就给了肯定的答复。

          《Evolutionary Learning: Advances in Theories and Algorithms》为原书名,因为微信公众号标题长度有限制,所以自行翻译成了中文:《演化学习:理论和算法的进展》。其中 Evolutionary Learning 网上很多翻译成:进化学习。但我阅读了俞扬教授的原文,里面说是演化学习,所以这里为了统一,我还是标明演化学习。

          中文仅供参考,若翻译有问题,还请指正,大家还是以英文为主。

          本书是由周志华教授俞扬教授钱超研究员三位共同完成,这里简单介绍一下三位:

          周志华,现任南京大学计算机科学与技术系主任、南京大学计算机软件新技术国家重点实验室 常务副主任、机器学习与数据挖掘研究所 (LAMDA) 所长,校学术委员会委员。美国计算机学会(ACM)、美国科学促进会(AAAS)、国际人工智能学会 (AAAI) 、国际电气电子工程师学会 (IEEE) 、国际模式识别学会 (IAPR)、国际工程技术学会 (IET/IEE) 、中国计算机学会(CCF)、中国人工智能学会(CAAI) 等学会的会士 (Fellow),欧洲科学院 外籍院士。南京市政府人工智能产业顾问、证监会科技监管专家咨询委员会委员、江苏省政协委员、江苏省青联副主席等。

          主要从事人工智能、机器学习、数据挖掘 等领域的研究工作。主持多项科研课题,出版《机器学习》(2016)与《Ensemble Methods: Foundations and Algorithms》(2012),在一流国际期刊和顶级国际会议发表论文百余篇,被引用三万余次。经常担任NIPS、ICML、AAAI、IJCAI、KDD等重要国际学术会议的领域主席。担任 中国计算机学会 常务理事、人工智能专业委员会主任,中国人工智能学会 常务理事,江苏省计算机学会副理事长,江苏省人工智能学会理事长,IEEE南京分部副主席。

          周志华教授个人信息节选自:

          http://cs.nju.edu.cn/zhouzh/zhouzh.files/resume_cn.htm

          俞扬,博士,南京大学副教授,博士生导师。主要研究领域为人工智能、机器学习、强化学习。2011年8月加入南京大学计算机科学与技术系、机器学习与数据挖掘研究所(LAMDA)从事教学与科研工作。

          曾获2013年全国优秀博士学位论文奖、2011年中国计算机学会优秀博士学位论文奖。发表论文40余篇,包括多篇Artificial Intelligence、IJCAI、AAAI、NIPS、KDD等人工智能、机器学习和数据挖掘国际顶级期刊和顶级会议论文。入选2018年IEEE Intelligent Systems杂志评选的AI’s 10 to Watch,获2018 PAKDD Early Career Award、2017年江苏省计算机学会青年科技奖。共同发起并主办了亚洲强化学习系列研讨会(AWRL)、中国演化计算与学习系列研讨会(ECOLE),任人工智能领域国际顶级会议IJCAI’18领域主席、ICPR’18领域主席、ACML’17领域主席,任IEEE计算智能协会数据挖掘与大数据分析技术委员会委员、中国人工智能学会机器学习专委会委员、中国计算机学会人工智能与模式识别专委会委员,Artificial Intelligence、IJCAI、AAAI、KDD、ICML、NIPS、CVPR、ICCV等多个一流期刊的评审人和会议的程序委员。

          俞扬教授个人信息节选自:

          http://lamda.nju.edu.cn/yuy/cv_ch.ashx

          钱超是中国科学技术大学副研究员。他的研究兴趣是人工智能,演化计算和机器学习。他在领先的国际期刊和会议论文集上发表了20多篇论文,包括人工智能,演化计算,IEEE 演化计算交易,Algorithmica,NIPS,IJCAI,AAAI等。他赢得了ACM GECCO 2011年度最佳论文奖(Theory Track)和IDEAL 2016年度最佳论文奖。他还曾担任IEEE计算智能学会(CIS)工作组“Theoretical Foundations of Bio-inspired Computation”的主席。

          钱超研究员个人信息节选自:

          http://staff.ustc.edu.cn/~chaoqian/

          https://www.springer.com/cn/book/9789811359552#aboutAuthors

          下面看看俞扬教授简单介绍该书的知乎原文”致青春”

          https://zhuanlan.zhihu.com/p/62178187

          正文(致青春)

          最近与周老师、钱超一起完成了一本书。书的名字叫

          《Evolutionary Learning: Advances in Theories and Algorithms》,但是对于我来说,可以叫“致青春”。从2005年硕士入学开始,抱着演化算法理论这个硬骨头开始啃。

          我的数学基础并不好,在我同一届进入LAMDA的同学中,毫无疑问是垫底,但也许优点是胆子大,周老师说这个方向重要,那就干。这个领域真是四处不讨好,让我深刻体验了什么叫冷板凳。即使是在演化计算领域里,对于搞应用的来说,理论太滞后,没有指导意义,甚至关注理论进展的人都很少。而放在整个人工智能领域里,更是艰难,当时演化计算就已经是在顶级会议上冷下去的话题了。

          2000年前,IJCAI还出现了演化计算的session,2000年左右,随着上一波演化神经网络结构优化的兴起演化算法也还在火(是的,NAS并不是这几年发明的,20年前的东西了),之后也随着神经网络的冷淡,大家放弃启发拥抱理论更清楚的方法,演化计算也迅速在顶级会议上隐匿。所以演化计算的论文要发在顶级会议上极其困难,而理论更甚,不仅要回答技术问题,还要回答诸如这个方向还有研究价值吗、这个理论怎么指导算法,之类的问题。

          回想起来在AAAI 2006发表的第一篇做演化算法复杂度分析的论文,真是走运,其中一个审稿人一个字审稿意见都没写,直接打了满分。

          看到最终成稿,收录了我们十几年努力的结果,感觉这么多年也没白做,现在从理论、算法、到应用效果都能打通,AAAI、IJCAI、NIPS也都有发表了,尤其是NIPS 2017的工作,回答了一个长久以来演化计算领域面临的核心挑战:“有什么问题能证明是以往算法做不到而演化算法能做到的”。

          致我的青春年华。以后只能是个拼搏的中年人了。。。

          书籍链接:

          https://www.springer.com/cn/book/9789811359552

          《Evolutionary Learning: Advances in Theories and Algorithms》简介

          许多机器学习任务涉及解决复杂的优化问题,例如处理不可微分,非连续和非唯一的目标函数;在某些情况下,甚至难以定义明确的目标函数。演化学习( Evolutionary learning )应用演化算法来解决机器学习中的优化问题,并在许多应用中产生了令人满意的结果。然而,由于演化优化的启发性特征,迄今为止的大多数结果都是经验性的,缺乏理论支持。这个缺点使得进化学习不再受到机器学习社区的欢迎。

          最近,为解决这个问题付出了相当大的努力。本书将分成系列来介绍这些努力,共分为四个部分:

          • 第一部分:简要向读者介绍演化学习并提供了一些预备知识;

          • 第二部分介绍演化算法中运行时间和近似性能分析的一般理论工具;

          • 第三部分提出许多关于演化优化中主要因素的理论发现,例如recombination, representation, inaccurate fitness evaluation, and population;

          • 第四部分讨论了演化学习算法的发展,为几个代表性任务提供了可证明的理论保证。

          致谢

          在此感谢周志华教授、俞扬教授和钱超研究员 整理这么棒的书籍!

          书籍链接:

          https://www.springer.com/cn/book/9789811359552

          本文经授权转载自微信公众号:CVer,ID:CVerNews


          【2019 新智元 AI 技术峰会精彩回顾


          2019 年 3 月 27 日,新智元再汇 AI 之力,在北京泰富酒店举办 AI 开年盛典 ——2019 新智元 AI 技术峰会。峰会以 “智能云・芯世界 “为主题,聚焦智能云和 AI 芯片的发展,重塑未来 AI 世界格局。


          同时,新智元在峰会现场权威发布若干 AI 白皮书,聚焦产业链的创新活跃,评述 AI 独角兽影响力,助力中国在世界级的 AI 竞争中实现超越。


          嘉宾精彩演讲:


            阅读原文

            已同步到看一看

            发送中

            最新校招备战攻略,AI知识要点+面试笔记,GitHub超2万星 2019-04-15




              新智元报道   

            来源:Github

            编辑:元子

            【新智元导读】正值春招旺季,同时又面对即将到来的秋招,同学们要如何进行备战呢?这里介绍一个GitHub超过2万星的项目,搜集了机器学习、深度学习、数学、算法的知识要点整理,以及多家互联网公司的笔试题、要点解读和解题思路。

             

            本文配合北大、清华、浙大、中科大4大名校课程在线学,效果更佳。

            对应届生和准应届生来说,春招和秋招都是很重要的找工作机会。之前新智元也曾经介绍过国际大厂的AI培训生计划,包括谷歌、DeepMind等公司均有此类计划,其中谷歌还专门出了面试教程。

            关于春招

            近年来,很多互联网公司会利用春招,来提前招募下一届的准应届生。这样就好比直接招聘实习生岗位,等到应聘者毕业的时候,既有了不算短的实习经历,同时也对本公司有了比较深入的了解,对公司制度、人员架构等有较清晰的认知。

            春招都招哪类人?

            互联网公司的春招分两部分:

            1. 校园招聘,针对应届生

            2. 实习生招聘,针对准应届生

            我们上面提到,近年来互联网公司都会在春招阶段提前招募下一届学生,所以大三、大四的同学都可以参加春招。但不排除有些企业可能会对大一大二的同学开放招聘,也可以去碰碰运气。

            对于研究生来说,也是一样的,研二、研三都可以参与春招。部分企业会在春招阶段,直接招募所谓的“暑期实习生”或“培训生”。实习结束后,通常会进行留用考核。通过考核即可直接转正,闲庭淡看同学或者学长们鏖战各路招聘会了。

            如果不幸没有通过考核,那么顶着大厂实习经历的光环,也会为你未来找工作增加很多优势。

            春招什么时候开始?

             

            春招通常比较分散,需要大家多多留意各个大厂的春招信息,更重要的是留意朋友圈,因为有的公司可能不会及时更新官网或者微信公众号,反而会在HR或者老师同学、学姐学长的朋友圈看到。

            不过既然叫春招,肯定是有一个大致比较统一的时间表。春招的开始时间一般从1月下旬开始。美国企业的春招在2月份开始增多,3月面试,4月拿offer,到5月份结束。国内企业多选择在春节,3月份开始,4月份密集爆发,5月份接近尾声。现在正是春招比较密集的时间。

            关于秋招

            秋招以规模大、专业广、选择多著称。相比春招,秋招参与的人更多一些,因为秋招进入自己心仪的公司概率更大、岗位相对也更多。

            秋招什么时候开始?

            相比春招,各大厂秋招的时间比较统一,正式秋招从7月开始,会一直持续到10月。如果这段时间还有职位空缺,会在11月继续进行补招,持续时长约为1个月。

            而部分公司(例如阿里巴巴等互联网公司)为争夺人才市场资源,甚至会赶在正式秋招正开始前就进行校园招聘,时间一般为5月至7月。

            备战攻略

            首先要多关注心仪公司的招聘动态,及时获取公司信息。其次要准备好简历,然后就是多看一些面试笔记。这里新智元为大家介绍一个GitHub上的算法面试笔记项目。

            该项目搜集了机器学习、深度学习、自然语言处理、计算机视觉、数学、算法、编程语言的知识要点,同时还有搜集了多个互联网企业的面试题以及答案。

            在机器学习方面,介绍了机器学习基础、时间、算法和集成学习的基础知识点比如偏差与方差、导致偏差和方差的原因等;重要的算法例如支持向量机、决策树等;重点方法例如Bagging方法、Stacking方法等。

            在深度学习方面,介绍了工程实践、基础是指、深度学习实践、CNN、优化算法、序列模型,以及深度学习一些重要知识点例如梯度爆炸的解决办法、L1和L2范数的异同等。并整理了深度学习的术语,包括加权平均和偏差修正。

            在NLP方面,介绍了深度查询理解、发展趋势、基础知识、句嵌入、词向量、多模态以及视觉问答(VQA)。

            笔试面经里则搜集了360、iHandy、作业帮、字节跳动、小米、度小满、快手、招行、搜狐畅游、滴滴、爱奇艺、百度、百词斩、腾讯、迅雷以及顺丰公司的笔试题,并解读了面试问题的基本要点,给出了解题思路。

            目前该项目已经获得超过21000星、6400个fork、1200个watch,很有参考价值。而且值得一提的是,内容均为MarkDown格式,相比其他文档格式更便于阅读、修改和维护。

            希望各位同学能够在春招和秋招都能够进入理想的公司!

            项目主页:

            https://github.com/imhuay/Algorithm_Interview_Notes-Chinese


            【2019新智元 AI 技术峰会精彩回顾


            2019年3月27日,新智元再汇AI之力,在北京泰富酒店举办AI开年盛典——2019新智元AI技术峰会。峰会以“智能云•芯世界“为主题,聚焦智能云和AI芯片的发展,重塑未来AI世界格局。


            同时,新智元在峰会现场权威发布若干AI白皮书,聚焦产业链的创新活跃,评述AI独角兽影响力,助力中国在世界级的AI竞争中实现超越。


            嘉宾精彩演讲:


              已同步到看一看

              发送中

              UC伯克利教授:人脑几十年内将连接云端,全人类实现知识共享 2019-04-15




                新智元报道  

              来源:frontiersin、eurekalert

              编辑:大明

              【新智元导读】面对人类不断产生的新知识,人脑的认知速度已经很难跟上。加州大学伯克利分校的专家提出,在“脑机接口”技术基础上实现“脑-云”接口,将人的大脑与互联网相连,打造一个“集体大脑”,实现对全人类共同知识的实时共享和获取。目前距离这一目标还有几十年的时间。


              现在,人类知识的累积速度越来越快。在1900年时,人类掌握的知识总量每个世纪翻一番。到1950年,这个数字缩短至25年。到了2006年,平均而言,人类知识每13个月就翻一番,“物联网”的诞生有望进一步将这个时间降低到12小时。

              如此大量的信息增加了从根本上提高人类学习能力的紧迫性,这些能力目前受到生物进化驱动特征的限制。以如今人类的生物认知能力来看,要想跟上现代科学知识的产生速度显然是不切实际的。

               

              要解决这个问题的一种策略是,利用某种介质,将知识直接转移到人类大脑中,实现实时的学习和知识转移过程。想象一下,如果只要想想某个特定的主题或内容,就可以即时获得全世界的知识和未来的AI技术,那么,我们现在的教育、工作和日常生活将会发生怎样的变化?

               

              最近,加州大学伯克利分校和美国分子制造研究所的研究人员开展了一项国际合作研究中,将神经科学前沿的纳米技术、纳米医学与AI和计算领域的指数级进步相结合,在脑机接口的基础上,提出了“大脑/云接口” (B / CI),目标是将大脑中的神经元和突触实时连接到庞大的云计算网络中。

               

              神经元(蓝色)和神经胶质(白色)示意图


              研究表明,智商高的人的大脑与连接远端大脑区域的神经通路广泛整合,而智商低的人的大脑与较短的神经通路具有较少整合的连接。以纳米神经元机器人为介质的脑-云接口可以显著提高人类智能,最终取代大脑神经域的固有架构,提升记忆能力,创建出新的生物/非生物混合网络,以及新式AI接口来改善模式识别和认知等能力。

              大脑中的”纳米机器人“

               

              Ray Kurzweil

              大脑/云接口(B / CI)的概念最初是由未来学家、作家、发明家Ray Kurzweil提出的,他提出,神经纳米机器人可将人类大脑的新皮层连接到云中的“合成新皮层”中。我们褶皱的新皮层是大脑中最新,最聪明,意识最强的部分。

               

              人类大脑新皮层中神经元和突触的数量

              Freitas提出的神经纳米机器人能够提供对脑细胞信号的直接、实时的监测和控制。

               

              “这些机器人将通过人体的血管系统进行导航,穿过血脑屏障,精确地在脑细胞之间,甚至脑细胞内进行自我定位,”弗雷塔斯说。 “然后通过无线网络将编码信息传输至基于云的超级计算机网络,对大脑状态进行实时监测和数据提取。”

               

              ”思想“的互联网:前人智慧,全民共享

              研究团队称,云中的“皮层”可以将“矩阵”式的信息下载到大脑中。

               

              “以神经纳米机器人为介质的人类B / CI系统可以使人即时获取云中积累的所有人类知识,同时显著提高人类的学习能力和智力。”该研究的第一作者Nuno Martins博士说。

               

              这一技术还可以创建一个未来化的“全球超级大脑”,将每个人的大脑和AI网络连接起来,实现“集体思考”。

               

              “虽然目前这个系统还不是特别复杂,但实验性的人类“大脑网络”系统已经过测试,可以通过云,在不同人的大脑之间进行思想驱动的信息交换,”Martins解释道。 “系统使用通过’发送者’的头骨记录的电信号,通过’接收者’的头骨的磁刺激,来执行合作任务。

               

              脑-脑接口技术及通信原理示意图


              “随着神经机器人的发展,未来我们能够创造出一个’超级大脑’,可以实时利用人和机器的共同思想和思维能力。这种共同认知可以彻底改变民主制度、增强同理心,最终促进文化多样化,让真正的全球化社会成为现实。“

               

              何时实现?再过几十年

              根据该团队的估计,目前现有的超级计算机已经具有处理B / CI所需的神经数据量的必要速度,而且这些超算的速度正越来越更快。

               

              如何从云中向超级计算机传输神经数据,可能成为B / CI开发的最终瓶颈。

               

              “这不仅包括为全球数据传输获得足够的带宽,而且,还要确保如何通过嵌入大脑深处的微型设备实现与神经元的数据交换。”

               

              该团队提出的一个解决方案是,使用“磁电纳米粒子”来高效放大大脑神经元和云端之间的通信信号。

               

              “这些纳米粒子已经在活体小鼠中进行了实验,它们可以将外部磁场与神经元电场耦合。也就是说,检测并局部放大这些磁信号,并用它们改变神经元的电活动,”Martins解释说。 “这个过程也可以反过来利用:神经元和纳米机器人产生的电信号通过磁电纳米粒子放大,并在颅骨外进行检测。”

               

              如何通过循环将这些纳米粒子和纳米机器人安全地送入大脑,可能是B / CI项目团队所有人面临的最大挑战。

               

              “我们首先需要对纳米粒子的生物分布和生物相容性进行详细分析,然后再考虑它们对人体发育的适应性问题。随着这些技术和其他B / CI技术的不断发展,”思想的网络“可能在下一个世纪之交成为现实,“Martins说。

              大脑-云接口的未来:从AI到AGI之路

              近年来,计算数据存储和处理能力的性价比呈现指数增长,AI算法的性能在许多领域得到迅速提升,与人类相比,展示了卓越的能力。包括游戏、围棋、国际象棋、自动驾驶、自动诊断等。

               

              在未来十年中,预计人工智能算法在许多其他领域的表现将优于人类。跨机器学习,机器视觉和自然语言处理领域的人工智能的进步,以及大数据和机器人技术的改进,将使机器人在许多现实和认知任务中胜过人类。

               

              未来,我们可以期待更强大的“人工智能通用”(AGI)的诞生,这是人工智能的一个子领域,旨在创造具有人类及其他水平的一般认知能力的思维机器。

               

              以神经纳米机器人为介质的人类脑-云接口系统,可以让人即时访问云中可用的所有的累积人类知识,并显著提高人类学习能力和智力。此外,它还能够实现完全沉浸式虚拟和增强现实场景,为不同用户之间提供更有意义的体验和更丰富的表达方式。这些进步可以帮助人类将新兴的AI系统作为“人类增强技术”进行调整利用,应对人类在面临“知识爆炸”时的新挑战。

              参考链接:

              https://www.eurekalert.org/pub_releases/2019-04/f-hit041219.php

              相关论文:

              https://www.frontiersin.org/articles/10.3389/fnins.2019.00112/full

              【2019新智元 AI 技术峰会精彩回顾


              2019年3月27日,新智元再汇AI之力,在北京泰富酒店举办AI开年盛典——2019新智元AI技术峰会。峰会以“智能云•芯世界“为主题,聚焦智能云和AI芯片的发展,重塑未来AI世界格局。


              同时,新智元在峰会现场权威发布若干AI白皮书,聚焦产业链的创新活跃,评述AI独角兽影响力,助力中国在世界级的AI竞争中实现超越。


              嘉宾精彩演讲:


                已同步到看一看

                发送中

                AI预测权游大结局:龙妈万岁三傻会死,项目已开源 2019-04-15




                  新智元原创   

                编辑:金磊,元子

                【新智元导读】权力的游戏》终章第八季开播之际,来自慕尼黑工业大学的学生利用AI对角色的死亡率进行预测,结果显示几位主角中,龙妈可能活到剧终,三傻可能最快领便当。

                 

                《权力的游戏》最终季今日开播。

                粉丝和媒体们对第八季剧情分析一直没断过,大众都是靠自己的想象力来给出可能的剧情,而一群参加慕尼黑工业大学(TUM)计算机科学研讨会的学生不同,他们用机器学习预测了权力的游戏主要人物的发展,最简单粗暴的结果是预测谁会死亡。


                算法显示:


                • 龙妈(Daenerys Targaryen)幸存的机率最高,死亡率仅0.9%;

                • 龙妈的国王之手小恶魔(Tyrion Lannister)也只有2.5%的死亡率;


                最有可能死亡的角色包括:

                雇佣兵波隆(Bronn)成为最可能凉凉的角色,死亡几率高达93.5%,紧随其后是瑟曦的贴身侍卫“魔山”Gregor Clegane,死亡几率80.3%。而斯塔克家族里面的“三傻”Sansa Stark死亡率也高达73.3%,弟弟布兰(Bran Stark)紧随其后。

                更多预测结果:

                https://got.show/statistics


                AI预测权游角色生死

                这群来自慕尼黑科技大学(TUM)和Rostlab的权游狂热粉丝,爬取了A Wiki of Ice and Fire、Fandom Game of Thrones Wiki等网站的公用信息,使用JavaScript编写机器学习算法来预测权游角色的死亡率。

                该项目由Guy Yachdav(Shupperz数据科学主观)和Christian Dallago(TUM生物-计算机科学博士、科学研究员)主导,最初开始于慕尼黑大学在2016年举办的一次JS技术研讨会。

                Guy Yachdav

                Christian Dallago

                在当时的研讨会上,近40个学生完成了包括数据库和API搭建、数据分析、网站设计和搭建、绘制地图、以及整合等任务。今年他们对数据库、API、数据分析以及网页前端都进行了更新,非常炫酷。


                项目地址:

                https://got.show/

                实现过程

                目前该项目由四个团队开发:团队1从Wiki来源收集数据;团队2和团队3使用机器学习方法进行预测;团队4负责网站和集成。

                最后,2个团队负责持续整合各个项目,剩下2个团队将所有内容组合到最初的got.show的web app中。

                类似算法应用于金融和医疗

                该项目使用的寿命分析预测存活率的技术,类似于研究治疗和并发症对癌症患者的影响的科学研究。关于生存机会算法的工作是慕尼黑技术大学计算机科学系每学期举办的JavaScript研讨会的一部分。在课程中,学生将学习如何设计、开发和部署智能计算机系统。

                首席导师Guy Yachdav博士说:“虽然预测权力游戏人物生存机会的任务依赖于从幻想世界中获取的数据,但在现实世界中使用完全相同的人工智能技术并且对我们的日常生活产生重大影响。“

                Github开源

                由于对结果非常满意,他们直接将项目开源了,放在Rostlab的Github仓库里,共有8个repo:

                JS16_ProjectA

                链接地址:

                https://github.com/Rostlab/JS16_ProjectA

                在这个项目中,将通过由来自多个资源的数据集成到一个中央数据库,为系统打下基础。该数据库将为其他项目开发的应用程序和可视化工具提供服务。

                JS16_ProjectF

                链接地址:

                https://github.com/Rostlab/JS16_ProjectF

                在这个项目中,将为GoT数据分析和可视化系统构建一个Web门户。该网站将在Project E集成团队的帮助下,将集成所有在project B-D创建的APP。

                JS16_ProjectC_Group10

                链接地址:

                https://github.com/Rostlab/JS16_ProjectC_Group10

                著名的GoT世界是非常广阔的,遍布维斯特洛,埃索斯和索托里三大洲。 原著《冰与火之歌》的读者将从君临到七国的边界,并进一步穿越狭窄的海域。 书中提到的两千多个字符与GoT世界中的多个地标相关联。  您的任务是找到角色位置关联,并将这些关联放在交互式GoT地图上。

                这样的工具将帮助我们弄清楚Gregor “the hound” Clegane在他的旅行中去了哪些地方以及这些旅行如何与Tarth Breanne的旅行相吻合。

                JS16_ProjectD_Group5

                链接地址:

                https://github.com/Rostlab/JS16_ProjectD_Group5

                Joffrey Baratheon是电视史上最厌恶的角色之一。 事实上,人们在Twitter上还庆祝他在电视剧中的死亡。我们很有兴趣通过分析推文中提到的字符来了解更多关于人们对不同GoT角色的感受。这个包提供了一些函数,这些函数将返回有关“权力的游戏”中人物推文的有趣数据。

                JS16_ProjectB_Group6

                链接地址:

                https://github.com/Rostlab/JS16_ProjectB_Group6

                《权力的游戏》中的角色总是有被淘汰的危险。这项任务的挑战是要看看被淘汰的角色还有多大的风险。这个项目的目标是根据角色的死亡概率百分比(PLOD)对其进行排序。您将使用机器学习方法分配一个PLOD。

                JS16_ProjectE

                链接地址:

                https://github.com/Rostlab/JS16_ProjectE

                在这个项目中,将把项目B,C和D中开发的所有应用程序放入Project F中开发的网站中。在这个项目中,您将从每个项目存储库中提取代码,使用一组依赖项进行编译并打包 应用程序,以便可以从项目F中开发的网站轻松调用它们。

                JS16_ProjectD_Group4

                链接地址:

                https://github.com/Rostlab/JS16_ProjectD_Group4

                Joffrey Baratheon是电视史上最厌恶的角色之一。 事实上,人们在Twitter上还庆祝他在电视剧中的死亡。我们很有兴趣通过分析推文中提到的字符来了解更多关于人们对不同GoT角色的感受。这个包提供了一些函数,这些函数将返回有关“权力的游戏”中人物推文的有趣数据。

                JS16_ProjectB_Group7

                链接地址:

                https://github.com/Rostlab/JS16_ProjectB_Group7

                《权力的游戏》中的角色总是有被淘汰的危险。这项任务的挑战是要看看被淘汰的角色还有多大的风险。这个项目的目标是根据角色的死亡概率百分比(PLOD)对其进行排序。您将使用机器学习方法分配一个PLOD。

                API及文档

                API及文档地址:

                https://api.got.show/doc/

                API分为影视剧API和小说API。影视剧API包括动物、年龄、刺杀、坏人、战役、城市、角色、城堡、剧集、事件、家族、领地、城镇;小说API包括年龄、城市、角色、角色路径、角色出生地、大陆、文化、事件、家族和领地。值得注意的是,目前API只提供了GET方式,POST会在稍后提供。

                模型示例

                NPM包

                除此之外,团队还提供了4个NPM包,分别是:


                1. 粉丝倾力制作最评论、最完整的权游互动地图包got map

                https://www.npmjs.com/package/gotmap


                2. 适用于具有可视化功能的权游角色包gotsentimental

                https://www.npmjs.com/package/ gotsentimental

                 

                3. 权游特定的Twitter情绪分析工具gotdailysentiment

                https://www.npmjs.com/package/gotdailysentiment


                4. 1946个角色的死亡率预测gotplod

                https://www.npmjs.com/package/gotplod 


                AI撰写权游同人小说:詹姆斯杀死了瑟曦

                对于《冰与火这歌》小说的老读者来说,等原著马丁更新简直太痛苦了。网络上也充斥着大量的冰火和权游的同人小说,而其中最特别的,要数早在2017年有人利用人工智能撰写的权游同人小说。

                当时,权游和冰火的死忠、全栈软件工程师Zack Thoutt刚刚完成了Udacity上的人工智能和深度学习课程。于是利用自己学到的知识训练了一个RNN,来预测当时拖更的第六部小说剧情。


                当时他用AI写出了五章,里面的剧情有些逆天:


                詹姆斯杀死了瑟曦、雪诺骑上了龙,太监瓦里斯杀了龙妈,AI还创建了一个名为Greenbeard的新角色……


                由于马丁的原著有大约32000个独特单词,额外的形容词以及虚构的位置和标题对网络而言更加复杂,因此使得训练网络变得更加困难。

                另外,马丁的五部小说的文本实际上也是一个相对较小的数据集,用于训练RNN不太够。Thoutt说,一个更理想的来源是一本100倍于该系列大小的书,但有一本儿童的书本词汇量。


                现在,Thoutt的小说已经写完了5章,大家可以去阅读。

                章节地址:

                https://github.com/zackthoutt/got-book-6/tree/master/generated-book-v1



                【2019新智元 AI 技术峰会精彩回顾


                2019年3月27日,新智元再汇AI之力,在北京泰富酒店举办AI开年盛典——2019新智元AI技术峰会。峰会以“智能云•芯世界“为主题,聚焦智能云和AI芯片的发展,重塑未来AI世界格局。


                同时,新智元在峰会现场权威发布若干AI白皮书,聚焦产业链的创新活跃,评述AI独角兽影响力,助力中国在世界级的AI竞争中实现超越。


                嘉宾精彩演讲:


                  已同步到看一看

                  发送中

                  安筱鹏:数字化转型的十个关键词 2019-05-01

                  安筱鹏博士在清华大学经管学院举办的高教论坛上现场发言。




                    新智元推荐 

                  来源:阿里研究院

                  编辑:克雷格

                  【新智元导读】4月28日在清华大学经管学院举办的高教论坛上,安筱鹏博士围绕“数字化转型2.0”进行了主题发言,以下是发言主要内容。

                  各位来宾上午好!


                  在座的各位都是清华经管学院的校友,非常高兴在清华108年校庆期间,和各位清华校友交流数字化转型这个话题。


                  今天,我们业界关于企业数字化转型有很多新的概念,有些时候新概念太多,也造成了“新概念雾霾”,我们需要一个“雾霾净化器”;我们需要一个望远镜,能看到数字化转型的全局;我们需要一个显微镜,能看到数字化转型的细节;我们也需要一个CT机,能看到数字化转型的本质。


                  什么是数字化转型的本质?我们认为,数字化转型的本质是,在数据+算法定义的世界中,以数据的自动流动化解复杂系统的不确定性,优化资源配置效率,构建企业新型竞争优势。


                  当前,全球信息通信技术正进入技术架构大迁徙时代,企业数字化转型正在经历从基于传统IT架构的信息化管理(数字化转型1.0),迈向基于云架构的智能化运营(数字化转型2.0)。如何理解和认识企业数字化转型,这十个关键词也许可以帮助勾勒出数字化转型的本质:1、不确定性,2、复杂系统,3、竞争的本质,4、转型的逻辑起点,5、工具革命,6、决策革命,7、数据的自动流动,8、软件的本质,9、技术架构的大迁移时代,10、体系重构。

                  不确定性


                  只有深刻认识不确定性,才能深刻理解数字化转型的本质


                  对不确定性的恐惧是人们认知社会规律的内在动力。人类社会发展一直伴随着对确定性的追求,确定性是行为能够被预测的前提,也是我们安全感的来源。人类社会的发展史就是一部对抗不确定性、寻求人类命运发展确定性的历史,对不确定性的恐惧和对确定性的追求一直伴随着人类社会的发展和演进。


                  不确定性源于信息约束条件下人们有限的认知能力,应对不确定性,是人类永恒的挑战。在过去几千年里,每一个个体、族群、部落、企业、国家等都会面临着各种各样的挑战,如战争、冲突、灾害、竞争等。人们都面临着如何在不确定性的环境中进行决策,这些决策正确与否会导致事情的成败、得失、利弊、对错、好坏、优劣等结果,决策结果又会影响个体的幸福、部落的兴衰、企业的成长、国家的繁荣、历史的走向。


                  化解不确定性的“三部曲”。第一,理解和认知世界运行的规律,是化解不确定性的逻辑起点;第二,理解运行规律之后需要预测将会发生什么,这是决策的基础和依据;第三是控制,是将决策付诸行动的具体路径。



                  面对不确定性如何决策?


                  几千年来,人类社会一直面临的重大挑战是,如何在不确定性的环境中进行决策,从游牧社会、农业社会、工业社会到信息社会,这都是一个永恒的话题,而在过去几千年人类是如何进行决策?2000多年前,《史记·龟策列传》中记载“自古圣王将建国受命,兴动事业,何尝不宝卜筮以助善!”500年前,正如马克斯·韦伯在《新教伦理与资本主义精神》所说的,新教构建了一套对世界的解释体系,企业家们面对各种不确定性进行决策的时候,宗教是指导他们在不确定性的环境中进行选择的依据。


                  100前,爱迪生经过几千次试验发明了电灯,1969年美国人把人类送到了月球,波音747实现首飞。人类上月球的每一个决策、飞机研发的每一次重大决策的背后是基于什么?是科学。今天,风电功率预测、工程机械设备全生命周期运维、盒马鲜生对生鲜食品的品类及数量选择、淘宝首页的千人千面的背后,构建了新的决策机制:数据+算法。


                  对不确定性认知的分野:从哲学到科学


                  对于不确定性的认知,也是从哲学、科学、经济学分化的一个重要的因素。从信息论来看,克劳德·香农认为“信息是用来减少随机不确定性的东西,信息的价值是确定性的增加”,信息最重要就是要减少不确定性而增加确定性。回到数字化本质,那就是在数据+算法定义的世界中,化解复杂系统的不确定性。



                  医疗的本质:应对不确定性


                  关于不确定性,我们把这个话题拓展到其它领域。1972年,阿罗获得诺贝尔经济学奖,其在1963年发表的论文《不确定性和医疗保健的福利经济学》中指出,医疗服务的特殊性源于其普遍存在的不确定性。医疗是什么?向外看,是悬壶济世;向内看,就是如何应对不确定性。在现代医生的手边,有6000多种药物,4000多种治疗手段,每种有不同的使用要求、风险、注意事项。面对疾病世界,从几百年前的简单,到几十年前的复杂,再到现在的“非常复杂”。医学成了一门掌控极端复杂性的艺术,它考验着作为人是否能够驾驭这种复杂性。


                  复杂系统


                  从万物互联到万物智能


                  没有网络的世界是一个机械系统。随着传感器、互联网、物联网的出现,IoT时代正在到来,所有的产品最终都将成为一个网络终端。正如波特所说,未来,所有的产品功能将由四个基本模块构成:动力部件、执行部件、智能部件、互联部件,未来的智能产品可以监测、可以控制、可以优化,产品的功能灵活性、易扩展性、安全性、可管理性都得到提高。

                   


                  单一产品走向复杂系统,从机械系统走向生物系统


                  万物互联网使得孤立产品走向复杂产品网体系。约翰迪尔公司(John Deere)作为全球最大的农业机械制造商和世界第二大工程机械制造商,其产品沿着传统产品→智能产品→智能互联产品→产品系统→产品体系的路径逐步演变。它不仅仅是一个产品,而且成为一个网络体系的组成部分。当成为一个网络体系组成部分的时候,就从一个原有的机械系统演变成复杂的生物系统。


                  智能系统:单一系统、局部系统、复杂系统到巨系统


                  我们再来看智能制造,我们可以定义一个智能的最小单元——具有感知、分析、优化、执行功能的智能单元,如数控机床、智能机器人、AGV小车以及刀具管理、工装管理系统等,这些最小智能单元散布在制造体系的各个角落。今天,随着物联网、边缘计算、工业互联网等新的架构和技术体系的出现,以及市场需求对跨企业、跨环节、大尺度资源优化的需求,最小的智能单元从一个小系统被不断接入企业内部大系统,企业内部大系统与上下游实现互联互通互操作,构建复杂产业链系统。在此基础上,当企业把产业链系统向整个社会开放时,开始构建起一个复杂巨系统。那我们可以看出来,商业和制造系统变得越来越复杂,从一个机械系统演变成了一个复杂生物系统。


                  德国工业4.0讲横向集成、纵向集成、端到端集成,从这个角度来讲,什么是集成?集成是数据的互联互联网互操作,集成的本质就是对制造资源优化范围、领域深度的描述,从自动化到智能化,就是从局部优化到全局优化的过程,在时间上优化只有起点没有终点,空间上参与优化的资源从点、线、面、大系统、巨系统的方向不断地扩展。如果说,自动化是单点的、低水平的,有限的资源优化;那么,智能化是多点、高水平、全局的资源优化。所谓集成的过程,就是对制造过程的范围领域不断地深化的过程。

                   


                  智能制造:复杂的生态系统


                  传统的制造体系是一个简单的机械体系,确定性是常态。而智能制造是一个复杂的生态系统,要解决的核心问题是如何降低系统的不确定性。今天,当人们在理解制造业、理解智能制造的时候,我们要换一个视角,我们从一种静态思维、机械化思维,走向生态思维、系统思维。


                  竞争的本质


                  什么是企业?企业竞争的本质是什么?这是我们在理解数字化转型,必须要思考的问题。


                  企业是一种组织,是跟市场、政府一样,配置资源的组织。企业是一种替代市场进行资源配置的组织,是将技术、资本、人才、土地、机器设备等资源组织起来,以更高效、更低成本满足客户需求的组织。企业竞争的本质是什么?企业竞争的本质就是资源配置效率的竞争,就是要以数据自动流动化解复杂系统的不确定性,优化企业资源的配置效率。企业面临什么样的挑战?当我们走进企业董事会、走进工厂、走进车间、走进研发中心,他们都在思考什么问题:企业思考如何缩短一个产品的研发周期、如何提高一个班组产量、如何提高一个机床的使用精度、如何提高一组设备的使用效率,所有这些问题,都可以归结为一个问题,就是如何提高资源配置效率。


                  面对这些问题,如何提高资源优化配置效率,核心是如何实现科学决策、精准决策、高效决策。企业的本质属性是在不确定性的环境中如何决策,对于企业来说,新品开发是决策,客户定位是决策,营销策略是决策,研发组织是决策,供应链选择是决策,交付周期是决策,库存管理是决策,排产计划是决策,商业模式选择是决策。科学决策的背后是资源优配置效率的提高。


                  在淘宝、天猫上的服装、化妆品商家来说,他们要思考的问题是,如何发现客户的需求?如何找到新产品的最佳代言人?是选择电视广告还是网络广告?如何确定营销关键词?今年夏季流行什么款式、什么颜色、什么尺码?何时备料、备多少?如何定价?所有这些问题的背后,都是一系列决策。


                  转型的逻辑起点


                  数字化转型的逻辑起点:适应竞争环境的快速变化


                  今天人们讲智能制造、工业4.0、工业互联网等一系列概念,讲数字化转型,首先需要思考的问题是,转型的逻辑起点是什么?这个逻辑起点是,企业如何适应竞争环境的快速变化。智能就是一个主体对外部环境的变化做出反应能力,这个主体可以是一个人、一个机器、一个设备、一个组织、一个企业等。工业4.0、智能制造等要解决的核心问题就是,面对客户需求的变化,企业如何适应和跟上这一快速的变化,如何更好地满足客户需求,这是数字化转型的逻辑起点。


                  消费者的需求已经发生改变


                  在过去,消费者追求的更多是性价比、产品功能、耐用性等功能诉求;而今天,年轻的消费者不仅仅关注功能性诉求,而且关注内容、服务、参与度、社交体验、分享与交流等体验诉求。消费者的需求已变化,我们的供给能否跟上消费者需求的变化。



                  制造企业需要面对不确定性快速做出反应


                  美国的标准与技术研究院对智能制造有一个理解。就是如何实现差异性更大的定制化服务、更小的生产批量、不可预知的供应链的变更。把这三个标准归纳成一句话就是制造企业如何面对不确定性,在外界环境发生变化时,如何能够快速地、实时地、精准地做出反应。这背后的体现的是一种能力。


                  中国是全球最大的服装出口基地,过去一个外贸服装订单量可以达到百万级,后来订单量下降到了十万、五万级,今天服装的外贸订单最小批量只有3000件左右,线下订单达到1500件、线上达到380件。但同时,订单的交期从过去的一年、半年、三个月进一步压缩到15天,有些品牌厂商15天交期产品的比重已占所有产品的15%。而具备15天交期能力的代工厂,其单件产品的议价能力比大规模生产厂家高出30%。对于智能制造和数字化转型而言,其要解决的核心问题是如何解决小批量、多品种、短交期的问题。

                   


                  商业和制造系统的复杂性


                  商业和制造业变得越来越复杂,这个复杂性至少可以从两个维度去观察。第一,产品本身越来越复杂。过去,仅仅是一个机械产品,现在变成了智能互联的产品,产品增加传感器、通信模块、计算模块、软件等,产品变得越来越复杂。第二,需求变得越来越复杂。从大规模生产、大规模定制到个性化定制是一个不断演进的过程。当需求变得很复杂的时候,给企业研发、设计、生产带来一系列的挑战。



                  工具革命


                  数字化转型,本质是两场革命:工具革命和决策革命。人们去一个地方可以选择步行、可以开车、可以乘飞机,这叫工具,工具决定了能走得多快;但是,离目的地是不是越来越近,还取决于你的决策是否正确。数字化转型本质上就是解决两个基本问题:正确地做事和做正确的事。


                  我们可以从这两个维度上观察和理解企业的数字化转型。从工具革命的维度看,自动化的工具提高了体力劳动者和脑力劳动者的效率,传统的机器人、机床、专业设备等传统工具正升级为3D打印、数控机床、自动吊装设备、自动分检系统等智能工具,传统能量转换工具正在向智能工具演变,大幅提高了体力劳动者效率;同时CAD、CAE、CAM等软件工具提高了脑力劳动者的工具效率。从决策革命的维度看,企业内部 EPR、CRM、SCM、MES等通用软件和自研软件系统,通过不断挖掘、汇聚、分析消费者以及研发、生产、供应链等数据,基于数据+算法构建一套新的决策机制,替代传统的经验决策,实现更加高效、科学、精准、及时的决策,以适应需求的快速变化。



                  工具革命:从能量转换工具到智能工具


                  马克思在几百年前就说过“手推磨产生的是封建主的社会,蒸汽磨产生的是工业资本家的社会”。马克思也说过各种经济时代的划分,原始社会、农业社会、工业社会,这种时代的划分,不在于生产什么,而在于怎样进行生产,用什么样的劳动资料生产。


                  2004年为了制定《国家信息化发展战略(2006-2020)》,我们组织开展了一个课题研究,叫“中国信息战略研究”,这个研究成果集结成一本书《信息社会:概念、经验与选择》(2006)。在这本书中,我们通过劳动工具的差异将人类社会划分为农业社会、工业社会、信息社会。我们定义工业社会最重要的工具叫做能量转换的工具,蒸汽机、内燃机、纺织机等都是能量转换的工具。信息社会是什么工具呢?信息社会的工具是在传统工业社会能量转换的工具基础上,增加了传感、通信、计算、处理等智能模块,能量工具转变成为一种智能工具,如智能机器人、数控机床、AGV小车等都是在能量转换的基础上加载了传感、控制、优化等智能要素。


                  我们可以看到,在过往的几百年、上千年,人类信息传播工具的演变:从过去的狼烟、驿站、旗语、邮局、电报、电话到互联网;生产加工工具的演变:从手工、机床到数控机床、在线数控机床。


                  过去工厂里面传递信息是通过文档,设计师们用纸、笔等工具画出汽车、飞机的几何外形;后来通过模型来传递信息,将几何模型、工艺模型信息等都完全加载,用二维CAD、三维CAD来设计汽车和飞机,到后来基础模型的企业(MBD)等。无论是体力劳动者,还是脑力劳动者,通过新的工具,提高了生产、研发效率。


                  决策革命


                  什么叫决策革命?用抽象的语言来描述就是在比特的汪洋中重构原子的运行轨道。就是通过在Cyber空间重建物理世界,对采集的信息进行处理、加工、优化,将优化的结果反馈到物理世界,再去优化物理世界。信息物理系统建设就是在比特的世界中构建物质世界的运行框架和体系,是以数据自动流动实现资源优化配置。这种决策将更加的高效、更低的成本、更加的精准和更加的科学。


                  决策革命:基于数据+算法的决策


                  决策革命简而言之就是基于数据+算法的决策。“数据+算法=服务”实现分四个环节:一是描述,在虚拟世界描述物理世界发生了什么;二是洞察,为什么会发生,事物产生的原因;三是预测,研判将来会发生什么;四是决策,最后应该怎么办,提供解决方案。


                  在上述的描述、洞察、预测、决策之后,可能都需要人来参与决策,但是人参与决策越来越少,而系统参与的决策越来越多。就好像无人驾驶一样,从开始完全依赖人的驾驶到最后无人驾驶。我们在Cyber空间找了一个代理人,把人们对汽车驾驶运行规律的认知装载到软件系统等去感知、优化、控制、执行。通过这样一种方式优化资源的配置效率。正是因为我们构造了一种新的改造和认知世界的方法论,在开发汽车、飞机、高铁等产品的时候,研发、生产效率都会大幅度提高。

                   


                  在不确定性的环境中进行决策是企业面临的巨大挑战,从基于经验的决策到基于数据+算法的决策,是企业数字化转型的基本模式。天猫联合玛氏、雀巢等多家一线品牌,联合建立新品创新中心,基于数据和新商业逻辑,洞察新品机会、提高研发效率,3  C、服装、美装、电器等新产品研发周期大幅缩短。

                   


                  数据的自动流动


                  “数据+算法”背后的支撑:数据的自动流动


                  决策革命是基于数据+算法,那支撑数据+算法的背后是什么?是数据的自动流动,即正确的数据在正确的时间以正确的方式传递给正确的人和机器。


                  青岛红领作为一家个性化定制服装企业,有些企业高管参观后感到非常失望,因为没有想象中一排排机器人、先进的数控机床、先进的生产线以及忙乱而有序的AGV小车,看到的是一排排的工人在用手工的方式加工衣服,是一个典型的劳动密集型企业生产场景。


                  有人说他跟富士康没有区别,不是没有区别,而是根本就比不上富士康,富士康的自动化生产线、切片机、机器人是非常先进,红领跟富士康有什么不同呢?


                  我们认为自动化分为两种。一种自动化是生产装备自动化,叫做看得见自动化,或者定义成工具革命,数控机床、机器人、立体仓库、忙碌而有序的AGV小车。还有一种叫做看不见的自动化,数据流动的自动化,把正确的数据在正确的时间传递给正确的人和机器,或者定义成决策革命。当你采集一个人上身的18个部位,22个指标之后,这一个指标首先自动生成一个适合这个人体型的一个版型,自动生成一个数控机床的加工指令,自动生成200个工序的加工工艺,定制化生产跟规模化生产相比,其复杂度、面临的不确定性远远地超出几个量级。


                  当面对一个定制化生产的时候,系统变得极其地复杂,需要非常多的决策,每时每刻、每个人所面对的加工对象、工艺、方法都会发生变化。定制化生产的核心在于,如何能够把数据在正确的时间以正确的方式传递给正确的人,以数据的自动流动化解复杂系统的不确定性。



                  基于文档的信息流到基于模型的信息流


                  我们把这一模式概念拓展到一般生产场景,当企业采集了客户的数据之后,这些数据就会在企业经营管理、产品设计、工艺设计、生产制造、过程控制、产品测试的每一个环节里去流动。我们要思考的问题是在数据流动的每一个环节,是不是可以没有人去参与。过去信息的流动是基于文档的流动,我们的企业通过传真、e-mail、excel表、U盘、光盘、打电话、开会、自己开发工艺程序、编写软件等各种方式传递信息。今天,我们所要追求的是,数据能够在企业内部流动过程中,不需要人的参与可以实现信息的自动流动。

                   


                  软件的本质


                  软件是实现数据自动流动的核心


                  数据的自动流动,正确的数据在正确的时间,以正确的方式传递给正确的人和机器,正确与否的核心是软件、是算法、是模型。软件是一系列按照特定顺序组织的计算机数据和指令的集合,本质是事物运行规律的代码化,作用是构建数据流动的规则体系,是指导甚至控制物理世界高效、有序乃至创造性运转的工具,是工业和商业技术体系的载体,也是人类经验、知识和智慧的结晶。


                  无论是爱因斯坦的质能方程,还是牛顿的三大规律,都是我们认识这个物理世界的方式。我们把规律模型化、模型算法化、算法代码化、代码软件化,再用软件化去优化物理世界。我们构建了三个世界,物理世界、意识世界、数字世界。


                  “数据+算法”构造了我们认识这个世界新的方法


                  2013年的诺贝尔化学奖,因发展了复杂化学体系中的多尺度模型,颁给了三位美国科学家马丁·卡普鲁斯、迈克尔·赖韦特和亚利耶·瓦谢尔因。这三位科学家的贡献就是构建了一个做实验的方法论,做化学实验的方法论,这个方法论就是在计算机中做实验,它实际就是“数据+算法”的另一种的表现形式。


                  过去科学家整天在实验室做实验,现在有一部分实验可以在计算机里面去做。对于制造业也是一样,过去飞机从立项到交付需要近十五年,现在只需要五六年的时间,因为人们构建了一个新的认识和改造世界方法论。高铁可以通过虚拟的高铁在虚拟的京沪线上跑起来,来测试高铁运行中选择电流、电压、噪音、稳定性、可靠性等,通过在虚拟世界的快速迭代,构造了一个改造和认识世界的方法论,这种方法叫模拟择优法。

                   


                  技术架构大迁徙时代


                  今天我们讨论各种各样的云和工业互联网概念的背后是什么?是我们正在迎接一个新时代的到来,这个时代就是体系架构大迁徙的时代。


                  基于云架构的大迁移


                  伴随着工业技术和信息技术的飞速发展,商业系统的需求、生产流程、业务逻辑的复杂性逐渐增加,对信息系统的响应要求也越来越高。面对商业和制造系统复杂性的持续增加,基于传统IT架构解决方案的基本思路是在原有业务系统升级的基础上不断开发新的业务系统,即“系统+系统”模式,面临业务系统“烟囱林立”、复杂臃肿、迭代缓慢、交付低效等挑战,业务系统响应能力呈线性增长,越来越难以适应日益复杂的制造系统。


                  我们今天讨论工业互联网、工业云,我们讨论边缘计算、时间敏感网络等概念都在描述一件事情,我们在构造一个新的架构体系,我们可能正在迎来一场历时20年的技术架构体系大迁移时代,这场迁移5年前已经开始,会在未来15年结束。这是一场基于复杂经济系统需求牵引的技术架构大迁移,我们商业系统、制造系统变得越来越复杂,这种复杂性,来自于产品本身、来自于客户需求、来自于全球化、来自于供应链、来自于世界政治经济环境的变化。


                  今天我们需要重新构建这个架构就是基于云计算架构体系,基于云架构实现各业务系统和解决方案的云化迁移,我们需要构建一整套基于云架构的软件体系、商业模式、咨询服务、运维体系,使大量数据、模型、决策信息平台化汇聚、在线化调用,系统之间实现互联互通操作,实现了业务系统的功能重用、快速迭代、敏捷开发、高效交付、按需交付,即“系统之系统”模式。伴随着制造系统的复杂性增加,新的业务系统通过对原有业务系统模块的充分调用、部署实现快速上线,系统响应能力指数增长。



                  从数字化转型1.0到数字化转型2.0


                  架构体系的迁移推动了企业数字化转型从1.0迈向2.0,如果说,数字化转型1.0是基于传统IT架构的信息化管理,那么数字化转型2.0就是基于云架构的智能化运营;数字化转型1.0是管理导向,数字化转型2.0是创新导向;数字化转型1.0的核心是业务数字化,数字化转型2.0是数据的业务化;数字化转型1.0是实现消费端数字化,数字化转型2.0是供给端数字化;数字化转型1.0是局部数字化,数字化转型2.0是全链路数字化;数字化转型1.0是流程驱动,数字化转型2.0是数据驱动;数字化转型1.0是基于硬件和软件的交付,数字化转型2.0是数据+算法提供了赋能;数字化转型1.0是产品经济,数字化转型2.0是结果经济。

                   

                  体系重构


                  数字化的逻辑殊途同归:数字孪生的世界


                  可以设想一下,未来十年、二十年、三十年之后,信息通信技术的发展趋势是什么?或者我们思考一个问题:数字化的终极版图是什么?从未来看现在,我们今天所看到的物联网、大数据、云计算、人工智能、工业软件等技术,都是未来数字化终极版图的一个碎片,ICT技术发展及应用的过程,就是我们不断把这个碎片化的模块拼一个幅完整版图过程,我们都是拼图人。


                  那么,形成的最终图景是什么呢?是数字孪生。我们不断地把碎片化物理世界数字化后,在Cyber空间构造成一个碎片化的数字孪生体,然后把这个碎片化的孪生体拼成一个完整的数字孪生体,直至构造一个数字孪生的世界,从数字孪生的心脏、数字孪生的飞机、数字孪生的建筑到数字孪生的城市,我们都走在构造数字孪生世界的大道上。我们将在比特的世界中重建原子的世界,将在比特的世界优化原子的世界,数字孪生的世界在未来20年将经历三个阶段:局部的数字孪生、静态的数字孪生和动态的数字孪生。


                  深度融合:体系重构的新阶


                  以互联网、云计算、大数据等为新一代信息通信技术与制造业融合带来了体系的重构,形成了以数据驱动、软件定义、平台支撑、服务增值、智能主导为特征的制造业新体系。在过去的两三百年的时间里,制造业不变的追求是:制造的高效率、高质量、低成本和客户的高满意度。新的体系对于制造业来说,带来什么样的变化呢?带来了谁来生产、生产什么、用什么工具、以什么方式、在哪儿生产的改变。


                  生产者由单纯的生产者转变为产销者(Prosumer),消费者越来越深度地参与了生产的全过程;生产产品由功能产品演进到智能互联产品,无人汽车、智能硬件等产品层出不穷;生产工具由从能量转换工具到智能工具,3D打印、数控机床广泛应用于制造;生产方式从“试错法”到“模拟择优”,从实体制造到实体虚拟融合,虚拟仿真、数字孪生的技术正不断应用,体现一种新的认识和改造世界的方法论;生产地点由集中向分散转变,网络化制造、分享制造正是这一过程的体现。


                  转型:从思维转变开始


                  面对数字化转型大变革,企业如何转型?企业思维需要实现三个转变:一是以不确定性应对不确定性。面对需求的不确定性,企业需要以数据+算法的策略应对不确定性,需要摒弃冗余思维、静态思维,走向精准思维、动态思维。二是以增量革命构建新型能力,企业数字化转型,就是要把软件、设备、流程优化、管理变革最终都要转化为企业的新型能力。这是数字化的出发点,也是落脚点。三是从产品制造商到客户运营商(Customer Operator),制造企业应成为一个工业产品提供者,通过产品与客户建立一种“强关系”,能成为24小时在线,了解、预测、满足客户需求的“客户运营商”。


                  今天,企业数字化转型2.0时代已经到来。


                  本文经授权转载自阿里研究院。


                  新智元春季招聘开启,一起弄潮 AI 之巅!

                  岗位详情请戳:


                  【加入社群】


                  新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号:aiera2015_2   入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 – 公司 – 职位;专业群审核较严,敬请谅解)。

                    阅读原文

                    已同步到看一看

                    发送中

                    从中国流水线小妹到Google工作,她真的做到了 2019-05-01




                      新智元推荐  

                    来源:知乎

                    编辑:小芹

                    【新智元导读】本文讲述了作者高中毕业即辍学,后又依靠自己的努力自考深圳大学,后又在美国获得硕士学位,最终成为EPAM Systems员工,作为vendor在谷歌办公室上班,非常励志。

                    短一点的版本就是:我家境很不好,家里人不能提供经济支持,我高中毕业后没钱也没分数没能去读大学。后面拿到了深大的自考毕业证书和学位,2017 年 10 月成功申请到了美国的一所学校的硕士计算机项目,时长是 2 年,利用 8-9 个月学完一些在校课程之后,开始在美找实习工作,2018 年 10 月初,拿到 EPAM Systems 公司的一个 offer,作为 vendor 在谷歌办公室上班。并不是很常规的的留学经历,但希望可以提供一些参考。


                    再来一个长一点的版本,要细讲,真的很长,不擅长讲故事,但这是我实实在在的经历。


                    家庭背景


                    我来自湖南省娄底的一非常普通农村孩子,我爸曾是一个木工,书读的不多,初中都没去上就开始到处实习给村里边做木工,也算是个手工匠,但后来什么都机器化,木工慢慢被淘汰。我妈她读到了初中,会踩缝纫机,但是在农村也没有对应的工作可以去做。我有个哥哥,他比大我一岁半,但是我们是一起同一个班上小学的,家里每个人都对他比较看重,我们读完小学后,他宁可跪在雪地里也不去读书,我爸妈以及奶奶怎么劝他继续去读完初中,他硬是没有去读了,而我想去,虽然当时候读书的愿望也没那么强烈,也不懂,我爸看着我哥没有去,就不是很支持送我去读书,所以我就真停了一年,期间我去向我的舅舅们学习理发三个月,去帮忙洗头,开始学习拿推子理发,第一次给人剪发,还记得人家的头发被弄得不像个样,后边只能剃光才能修复,没有兴趣继续学习下去,只好放弃;我又不喜欢在家里干农活,虽然我不是很爱学习,但是比起家里的农活或者学习理发,我更加喜欢去学校继续学习,向爸妈要求让我继续去读书,我爸还是不同意送我去读书,我妈赞同我去,所以去完成了初中毕业,中考的分数也还 OK,考上县城的排名第三的高中。


                    去读高中也有点不容易,我爸说,现在已经读完初中可以了,高中不需要去上了,读那么多数也没用,典型的传统农民思想,七八月份恰好是稻谷收割时候,比较忙,错过了入学日期,本以为没有希望继续念书,但心里还是渴望去县城读书,家里亲戚开始劝说我爸让我去念完高中,我爸最后也答应了,但是那时公立中学是不行了,所以就去报了一个县城里的一个民办高中,其实还不算是一个高中学校,学校的主要业务是复读班,辅助开了两个班来接受应届生,老师们参差不齐,有外地来的,有公立高中的老师想赚外快的,读的都是一些死书,读完高二后,学校的应届高中班都办不下去了,都不来报这个学校了,所以高三时我们就被拆分到各个复读班,就这样上完了高三,三年感觉什么都没做,玩没玩好,书也没读好,最后分数是 399,二本线都没到,但也算是 2009 年顺利高中毕业。高考完后,有个郴州的北 XX 青鸟软件培训机构在我们学校推广 7 天免费夏令营的活动,反正没事并且是免费就去参加了,7 天里,了解到电脑这个东西很神秘,PPT 在我眼里都很酷。回去后就爸妈商量送我去这个培训学校学习软件,但那时家里恰好出了一点事,我哥开着摩托车出事让我姑姑进了医院,需要住院治疗,本来家境不咋地,再来这么个意外,哪有钱再让我去学习,只好死心,但在我心里就埋下了一颗种子,我想去多多了解电脑相关的。


                    2009-2010 流水线工人


                    2009 年高中毕业后,8 月份就去了深圳,没什么才能,只能在工厂里做事,工作非常简单单调,上班,吃饭,睡觉,偶尔看看书记记流水账日记,大概工作八九个月的样子,当时在心里埋下的种子开始慢慢发芽,所以当时抽了一个周末就去深圳福田区的北 XX 青鸟了解计算机软件培训项目,了解到学费很贵,所存下来的钱(八九千的样子)都不够第一期的学费,就开始计划省钱,到了 2010 年 5 月份的样子就攒够了第一期的学费,就辞职不干了。


                    2010-2011 边工作边学习


                    2010 年 5 月,开始学习软件相关的课程(HTML,SQL,Java…),第一期时长大概是四个月的样子,上午上理论课,下午上机操作练习,晚上我给自己在肯德基找了一份兼职,从晚上六点开始,到 11 点结束,7 块多钱一个小时,挣的钱恰好够我生活。第一学期的生活很充实,在新环境下能够生活下去就足够了,没有时间去担心身边有没有朋友,有没有温暖,只是觉得一天天过得太快第一期学习完后没有钱继续报第二、三期,尝试去找过相关的工作,甚至文员相关的(心里想着就可以用有电脑学习了),很不幸运没有公司愿意提供机会。之后了解到另外一个 IT 培训机构提供边工作边学习的机会,就开始去了解,发现很适合我,付款方式提供分期付款,上课方式非全日制,赞!


                    2010 年 10 月,开始边工作边学习,周三周五晚上,周日下午上课,其他时间在 114 百事通做电话客服,主要工作就是接电话给人订饭店,靠单挣钱,工资也有时拿到 2300 左右一个月的样子,好景不长,做了四个月,我被炒了鱿鱼,当时在工作上了犯了一个严重的错误,我也不打算隐瞒我错了什么,我利用了一些技术上的小聪明小漏洞去抢别人的单。。。当时恰好学校也搬迁到了深圳南山区,也需要一个新的工作。


                    2011 年 3 月,开始找工作,有点不好找,一是工作时间要求配合我的上课时间,周三周五晚上 7 点上课,最后发觉可能只有工厂里的工作比较固定稳定,工资稍微比其他服务行业的也要好一点,最后找到一个在南山区里的 Phillip 电子工厂里上班的工作,现在已经不记得工作内容具体是做什么。第三期的学费更贵了一些,需要付学费的首付,当时钱不够,就申请了一张额度为 3000 的招行信用卡,全部额度用来支付,开通分期还款,之后靠工资还剩下的学费以及每个月信用卡的还款额,就这样维持到了毕业,那时是 2011 年 8 月底。


                    2011-2017 努力生活


                    2011 年 9 月,开始进入 IT 行业工作,朝九晚六,周末双休,试用期拿着 3000 元的工资,转正后 4000。在刚刚高中毕业的时候,心里就有一个 “白领梦”,周末要双休,工资 3000。到此时此刻,恰好符合,但这一切对我来说并不容易。生活开始趋向简单,两点一线的生活,几乎没有什么爱好,偶尔打打羽毛球,除去租房,生活费,再加上要还信用卡,每个月几乎是没有得剩。为了自己更加 “富足” 些,记得当时候还在哈根达斯找了一份晚上的兼职,10 块钱一个小时,做了两个月就没做了。


                    2012 年 4 月,开始学习英语,当时报了一英语培训机构 (XX 联),现在回想起来我也不知道是什么驱使我去学习它,将近三万的学费,培训机构恰好跟招行信用卡有分期还款的合作项目,没有利息和手续费,不需要一次性还清,每个月还款日还就可以了,所以当时就报了。下班之后,就开始去学习英语。培训机构对帮助最大的地方应该就是让我有机会开口去说,我自己也算努力,BBC 和 VOA 这两个网站提供很多音频教学资料,很多都是以主持人对话的方式的形式,我就下载了很多音频资料装在我的 MP3 里,上下班路上就听,英语水平一点点也在提升。也因此,在 14 年 6 月份的时候,在公众号才刚刚开始兴起的生活,站在了风口,我创建了一个英语学习的公众号 (名称: Lets English, ID:heytimetostudy),刚建之初,就推送 VOA 教学音频资料,所有的音频,都有文本,做做笔记就整理出了图文,相当于是将自己的学习过程整理出来,很幸运到现在积累了 6 万多的粉丝。


                    在 12 年底,意识到将来如果没有文凭,也不好找工作,当时候就给自己报了西安交通大学的远程教育,学费总共是要一万多,有六个学期,可以按一期一期来交,每期是两千多,这个也只是为了拿个证而已,没有什么用。到了 12 年底,觉得每个月还信用卡的压力有点大,开始跳槽换工作。


                    2012 年 12 月,高中文凭,一年多一点的工作经验,不好找工作,最后找到了在一小公司月薪 6000 的工作。慢慢趋向稳定,直到 2014 年下半年,生活还是跟之前一样,上班,学习英语,远程教育学习,考试,偶尔打打羽毛球,徒步。


                    2014 年 1 月,拿到了大专文凭后,开始报了一个深圳大学的专升本的自考,周末去深圳大学上课,复习,一共有十几个科目需要考试,很多没用的东西需要去记忆,我应该是最幸运的,14 年一年可以考四次 (现在好像是两次了),每次好像是可以考两三门,利用了一年半的时间,就考完了所有的科目,2015 年 6 月,拿到了深大的自考毕业证书和学士学位。在国内这个证其实没什么含金量。但是其中的成绩单和学位证在我后来申请美国学校的时候,起了很大的作用。


                    2014 年下半年开始,慢慢开始接触跑步,加入一些跑团,加入跑者的行列。当时候深圳有很多各种各样的有趣的跑步活动,我报名参加了很多,什么 5k 新年跑,彩色跑,荧光跑等等,纪念奖牌都拿了好多。14 年 12 月,报名了深圳国际马拉松的半程马拉松,跑了我的第一个半马。之后跑了很多个半马,五个全马。到现在,虽然不是我的最爱,但是只要我有时间,都会穿着跑鞋去跑个几公里。


                    2014 下半年还发生了一件事,因为英语,我发展了一个新的爱好,有次参加一次英语公益型的讲座活动认识了一个玩飞盘的外国人,从此开始接触极限飞盘这项团队运动,发现是非常有趣的一项运动,一发不可收拾,慢慢将花在跑步上的时间转向飞盘。每周玩两次,其他地方如果有飞盘赛事的话,有时间有经济能力的话就报名,各个地方到处去玩,上海,宁波,厦门,福州,广州,东莞,珠海,香港,菲律宾,泰国,马来西亚等等,顺便借着飞盘的名义,到处去玩,花了很多钱在这个爱好上,因为的所有的赛事活动都收取报名费,出行住宿都是自费,所以有些爱好有时候很烧钱的,哈哈。


                    2015 年 3 月,跳槽到了互联网金融行业,但还是程序员,继续上班,偶尔跑跑步,玩飞盘,深圳当地的联赛,偶尔飞到别处去玩比赛,总之一有机会就到处去玩,我玩心很大,工作上能不加班就不加班。飞盘圈子里有外国人,有机会可以练练口语,英语没有进步,但至少没有退步,生活在深圳,快节奏的进行。


                    2016 年圣诞节,跟朋友一起聚会,其中一个环节是所有人写下自己的愿望,挂在圣诞树上,我当时就萌生了一个愿望 —— 我要去其他国家至少生活一年,无论是学习还是工作。跟这个有点相关的另一个事情是,在 16 年 7 月份换工作的时候,在拉勾网上无意中看到了这样一个招聘,招赴美带薪实习的程序员,当时很好奇,就打电话问了下,了解到这是中国的一个招生代理机构在拉勾网上发布的一个一所美国学校的计算机科学的硕士项目,由于自己资金不够,当时就加了下 qq,就此搁置。


                    2017 年初,心中有出国的想法,就想到了去年 7 月份看到的招聘广告,就开始了解这到底是个什么项目,需要什么条件,需要多少钱等等,了解到我应该符合申请条件除了资金,要求一要有工作经验,二要有本科学位,三要有可以正常沟通的英语水平,四要能够支付第一期学费的首付以及生活费。虽然英语可以简单的沟通,但肯定远远不够,所以我需要准备的就是提高我的英语水平以及钱。所以 17 年初就立下两个目标,到 17 年的九月份,1. 雅思要过 5.5 分, 2. 存款 10 万。这个学校不要求有雅思托福成绩,但我知道雅思托福比较综合权威,报考这样的考试可以给自己动力以及反馈,就报了 5 月初考,考前准备了一个多月的样子,24 号出了结果,5.5;关于存款到了 9 月份,我自己存了 12 万。从 17 年 6 月份,开始在网上自己申请,准备各种各样的资料,准备申请过程中的口语面试和技术面试,中间有遇到一些问题,走了一些弯路,但最后都解决了,申请通过,收到通知 10.27 号入学。


                    2017-2018 新篇章


                    2017 年 11 月,从 09 年到现在,经历了很多,再次将自己置身为一个学生身份,还给跨洋了,快速地去适应了身边的不同,学校的生活不能说很丰富多彩,但提供了一个刷新自我、挑战自我、接触多元文化、交国际朋友的一个平台。很感激有这么一个机会,让我认认真真体验了一把大学生活。直到 18 年 7 月,每天做的事情就是认真上课,做作业,冥想,偶尔去健身房,偶尔去户外跑步 (每次跑步都可以看到兔子),每天的课业还比较重,每天的作业要花 2-3 个小时才能完成,除了寒假期间出校去东西海岸去玩了十几天,其他时间几乎都是在学习。


                    2018 年 7-9 月,从 7 月中旬开始投简历找工作,我在美国虽然是学生身份,但是我可以找全职工作,每周 40 个小时的工作。开启求职的旅程,各个简历网站更新简历,在美国找工作的流程跟国内有点不一样,一慢很多,二是大部分面试都是电话和视频面试。一开始电话不多,安排的面试也不多,没有电话就复习面试题,看学习视频。我一开始采取的策略是,尽一切可能给自己多安排面试,涨经验很重要。虽然都是电话是视频面试,无论人在哪都没有什么限制,学校的地方在爱荷华州的一个小镇,工作机会就别想了,所以决定去加州找工作,生活费虽然要高很多,给自己压力也是一个动力。通过一些学长在圣何塞找好了住房,7 月 31 号飞去了西部。在新的地方就会有新的发现,认识的学长对刷题呀找工作都非常有经验,才开始意识到刷题的重要性,也是去了加州,遇到的很多面试都是要求算法数据结构过硬才行,碰了很多壁,刷题意识更加强烈了。八月的每一天就在面试,刷题,跑步 (无论在哪,美国的跑步环境真好) 中度过。九月初拿了 2 个 offer,一个在 Arizona 的凤凰城,另一个在纽约,9 月 12 号定了去纽约,通知 10 月 8 号开始工作


                    2018 年 10 月,开启上班族的模式,与国内的工作环境相比最大的不同是语言和文化,第一次在这样全新的环境下,一开始真觉得有点挑战,无论是沟通上还是具体到工作上,发觉身边的同事都很优秀,他们的沟通表达能力以及解决问题都很强。但无论如何,一开始只要不影响正常工作,一切都会慢慢会好起来的。

                    ———- 更新 2018 年 12 月 17 日 18:56:11 EST————-


                    感激


                    感谢大家的点赞以及评论,如果我的这个经历对你有一点点参考性的价值,我都会觉得很开心。我也很感激我这将近 10 年期间遇到形形色色的人以及我的一些爱好,可以说这让我有机会慢慢去改变我价值观、人生轨迹 (跑步、飞盘这两甚至改变了我的外观,比以前要瘦了些,这里我放两张图片)。


                    2013 年的我


                    2019 年的我

                    作者:Ling Sun
                    链接:https://www.zhihu.com/question/68154951/answer/546265013
                    来源:知乎
                    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。



                    新智元春季招聘开启,一起弄潮AI之巅!

                    岗位详情请戳:


                    【加入社群】


                    新智元AI技术+产业社群招募中,欢迎对AI技术+产业落地感兴趣的同学,加小助手微信号:aiera2015_2   入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 – 公司 – 职位;专业群审核较严,敬请谅解)。

                      已同步到看一看

                      发送中

                      重磅!中国工程院2019年院士增选候选人名单发布,李彦宏、沈向洋、杨强等入列(附全名单) 2019-05-01




                        新智元报道  

                      编辑:张乾、元子

                      【新智元导读】中国工程院主席团审定,最终确定的有效候选人共531位,包括李彦宏、王海峰、王坚和沈向洋等。

                      昨天,中国工程院2019年院士增选有效候选人名单公布,经中国工程院主席团审定,最终确定的有效候选人共531位,名单中包括百度李彦宏、王海峰,阿里巴巴王坚以及比亚迪王传福、浙江大学庄越挺等产业、学术界知名人物。

                      其中,名单中信息与电子工程学部共增选69名候选人,专业领域为“人工智能”的有微软(中国)有限公司沈向洋、北京百度网讯科技有限公司王海峰、深圳前海微众银行股份有限公司杨强、西安交通大学郑庆华、浙江大学庄越挺5人。

                      中国工程院院士:工程科学技术方面的最高学术称号

                      中国工程院院士于1994年6月设立,是国家设立的工程科学技术方面的最高学术称号,为终身荣誉。在工程科学技术方面做出重大的、创造性的成就和贡献,热爱祖国,学风正派,品行端正,具有中国国籍的高级工程师、研究员、教授或具有同等职称的专家,可被提名为院士候选人并当选为院士。

                      根据《中国工程院院士增选工作实施办法》的规定,院士增选每两年(奇数年)进行一次,每次增选总名额及各学部的名额分配,由主席团研究决定。中国工程院2019年院士增选候选人提名工作于3月31日结束。

                      候选人的年龄原则上不超过65周岁(按增选当年6月30日实足年龄计算)。凡已合计连续3次被提名至中国工程院和被推荐至中国科学院的有效候选人,停止1次候选人资格。候选人可单独通过院士(包括院士组成的特别提名小组)或有关学术团体提名,也可以同时通过以上两种渠道提名;不受理个人申请

                      选人获得3位院士的提名方为有效,且仅能接受3位院士的提名,其中本学部院士应不少于2位。年龄超过65周岁的候选人,获得6位院士提名方为有效,且仅能接受6位院士的提名,其中本学部院士应不少于4位。年龄超过70周岁的候选人被提名次数仅限1次。

                      沈向洋、李彦宏、杨强等增选院士候选人

                      中国工程院2019年院士增选有效候选人名单中,共有114位企业家进入候选榜单,入选类型集中在“工程管理学部”,如李彦宏、王传福、王坚;人工智能专业领域名单则集中在信息与电子工程学部中,如沈向洋、王海峰等。以下介绍部分候选院士名单。

                      信息与电子工程学部

                      沈向洋【微软(中国)有限公司】

                      根据微软官网介绍,沈向洋博士是人工智能与研究小组执行副总裁,负责推动公司的整体人工智能战略以及涵盖基础设施、服务、应用的前瞻性研发工作。他负责监管人工智能产品组,包括Bing和Cortana。他还领导全球首屈一指的计算机科学研究组织之一Microsoft Research,并与整个公司的工程团队合作。

                      王海峰【北京百度网讯科技有限公司】

                      根据百度官网介绍,王海峰博士现任百度高级副总裁,AI技术平台体系(AIG)和基础技术体系(TG)总负责人,兼任百度研究院院长。负责自然语言处理、知识图谱、语音、视觉、增强现实、深度学习、大数据、智能芯片、系统、基础架构、运维、安全、工程效率等技术研发,并负责百度地图、百度输入法、技术生态、企业智能平台,及若干创新业务等。

                      杨强【深圳前海微众银行股份有限公司】

                      杨强教授是深圳前海微众银行首席人工智能官(CAIO)。另根据香港科技大学介绍,杨强教授是香港科技大新明工程学讲座教授,计算机科学与工程系主任,同时是香港科大大数据研究所主任。他曾经是华为诺亚方舟实验室主任(2012-2014)。他是AAAI Fellow,IEEE Fellow,AAAS Fellow,IAPR Fellow和ACM杰出科学家。他的主要研究兴趣是人工智能和数据挖掘。

                      郑庆华【西安交通大学】

                      根据西安交大官网,郑庆华,博士,教授,国家杰出青年基金获得者,教育部长江学者特聘教授,国家“万人计划”首批科技创新领军人才,国家“新世纪百千万人才工程”人选,国家自然科学基金创新群体负责人,教育部创新团队和陕西省重点科技创新团队负责人,“计算机网络与系统结构”国家级教学团队负责人,获得3项国家科技进步二等奖,国家教学成果一等奖和二等奖以及6项省部级科技进步一等奖。现任西安交通大学副校长,智能网络与网络安全教育部重点实验室主任,国家督学,教育部科技委学部委员,教育部大学计算机教学指导委员会副主任。

                      庄越挺【浙江大学】

                      根据浙江大学官网,庄越挺是浙江大学计算机学院教授,国家杰出青年科学基金获得者(2005年)、“百千万人才工程”国家级人选者(2006年)、教育部长江学者特聘教授(2008年)、浙江省特级专家(2014年)、973首席科学家(2011年)、享受国家政府特殊津贴(2000年)、浙江省有突出贡献中青年专家(2013年)、浙江省“151人才工程”第一层次培养人员(2000年),教育部“网络多媒体智能信息处理技术”创新团队带头人。国务院学位委员会第七届学科评议组成员。中国人工智能学会(CAAI)会士(2018)、常务理事。浙江省计算机学会理事长。中国计算机学会(CCF)2018中国计算机大会(CNCC 2018)程序委员会主席。

                      王飞跃【中国科学院自动化研究所】

                      王飞跃主要研究领域为智能系统和复杂系统的建模、分析和控制,是智能控制方面的国际知名学者,也是该领域的早期开拓者之一。在基础理论方面,王飞跃教授是智能机协调理论,语言动力学系统(Linguistic Dynamic Systems, LDS),代理控制方法(Agent-Based Control, ABC),复杂系统的计算理论等的提出者;在核心技术开发方面,他及其团队多年来致力于应用特定操作系统ASOS(Application Specific Operating Systems),OSGi兼容中间件,实时嵌入系统和远程可重构可编程器件的研究和应用;在重大工程应用方面,主要围绕着智能交通系统,智能车辆和汽车电子,智能空间和智能家居系统以及综合工业自动化等领域取得了显著的社会和经济效益。自80年代初至今,王飞跃教授在力学、数学、控制、智能系统、复杂系统、机器人和自动化等领域发表论文及专著百余篇。

                      工程管理学部

                      李彦宏【百度在线网络技术(北京)有限公司】

                      李彦宏,百度公司创始人、董事长兼首席执行官,全面负责百度公司的战略规划和运营管理。李彦宏1991年毕业于北京大学信息管理专业,随后前往美国布法罗纽约州立大学完成计算机科学硕士学位,并作为全球最早的搜索引擎技术研究者与顶尖工程师,先后担任道•琼斯公司高级顾问、《华尔街日报》网络版实时金融信息系统设计者,以及国际知名互联网企业——Infoseek公司资深工程师。李彦宏所持有的“超链分析”技术专利,是奠定整个现代搜索引擎发展趋势和方向的基础发明之一。

                      王坚【阿里巴巴(中国)有限公司】

                      王坚博士曾任微软亚洲研究院曾任常务副院长,于2008年9月加盟阿里巴巴集团担任首席架构师,负责集团技术架构以及基础技术平台建设。2009年7月,任阿里首席技术官,目前为阿里巴巴集团技术委员会主席。

                      更多候选院士名单,请点击下图。


                      新智元春季招聘开启,一起弄潮AI之巅!

                      岗位详情请戳:


                      【加入社群】


                      新智元AI技术+产业社群招募中,欢迎对AI技术+产业落地感兴趣的同学,加小助手微信号:aiera2015_2   入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 – 公司 – 职位;专业群审核较严,敬请谅解)。

                        已同步到看一看

                        发送中

                        GitHub高星!互联网公司最常见的面试算法题大集合 2019-05-02






                          新智元报道  

                        来源:Github

                        编辑:元子

                        【新智元导读】LeetCode是一个美国的在线编程网站,收集了各个大厂的笔试面试题,对找工作的毕业生和开发者来说,非常有价值。很多求职者都会在LeetCode刷上一遍,面试官也喜欢在上面挑选各类题目。

                        LeetCode是一个美国的在线编程网站,收集了各个大厂的笔试面试题,对找工作的毕业生和开发者来说,非常有价值。不过LeetCode上面的题目很多都是考察应聘者对基础知识的应用,适合进行练习编程基础或者准备面试。

                        很多求职者都会在LeetCode刷上一遍,面试官也喜欢在上面挑选各类题目。今天新智元给大家推荐的这个GitHub项目,是Repo主自己刷题的心路历程,并给出了解题参考。该项目目前分为四个部分:

                        1. 第一个部分是 leetcode 经典题目的解析,包括思路,关键点和具体的代码实现

                        2. 第二部分是对于数据结构与算法的总结

                        3. 第三部分是 anki 卡片, 将 leetcode 题目按照一定的方式记录在 anki 中,方便大家记忆

                        4. 第四部分是计划, 这里会记录将来要加入到以上三个部分内容

                        只有熟练掌握基础的数据结构与算法,才能对复杂问题迎刃有余。

                        食用指南

                        最近添加的部分, 前面会有 🆕 标注;最近更新的部分,前面会有 🖊 标注;将来会在这里更新anki卡片。

                        leetcode官方账号在知乎上给出的一个《互联网公司最常见的面试算法题有哪些?》的答案,原文地址: 

                        https://www.zhihu.com/question/24964987/answer/586425979

                        一张互联网公司面试中经常考察的问题类型总结的思维导图,我们可以结合图片中的信息分析一下。

                        其中算法,主要是以下几种:

                        • 基础技巧:分治、二分、贪心

                        • 排序算法:快速排序、归并排序、计数排序

                        • 搜索算法:回溯、递归、深度优先遍历,广度优先遍历,二叉搜索树等

                        • 图论:最短路径、最小生成树

                        • 动态规划:背包问题、最长子序列

                        数据结构,主要有如下几种:

                        • 数组与链表:单 / 双向链表

                        • 栈与队列

                        • 哈希表

                        • 堆:最大堆 / 最小堆

                        • 树与图:最近公共祖先、并查集

                        • 字符串:前缀树(字典树) / 后缀树

                        精彩预告

                        42.trapping-rain-water-1(雨水收集问题):

                        浏览器中的栈:

                        回溯法解题:

                        875. koko-eating-bananas:

                        传送门

                        leetcode 经典题目的解析

                        简单难度

                        🖊 20. Valid Parentheses:

                        https://github.com/azl397985856/leetcode/blob/master/problems/20.validParentheses.md

                        26.remove-duplicates-from-sorted-array:

                        https://github.com/azl397985856/leetcode/blob/master/problems/26.remove-duplicates-from-sorted-array.md

                        🆕 88.merge-sorted-array:

                        https://github.com/azl397985856/leetcode/blob/master/problems/88.merge-sorted-array.md

                        136.single-number:

                        https://github.com/azl397985856/leetcode/blob/master/problems/136.single-number.md

                        167.two-sum-ii-input-array-is-sorted:

                        https://github.com/azl397985856/leetcode/blob/master/problems/167.two-sum-ii-input-array-is-sorted.md

                        🆕 169.majority-element:

                        https://github.com/azl397985856/leetcode/blob/master/problems/169.majority-element.md

                        190.reverse-bits:

                        https://github.com/azl397985856/leetcode/blob/master/problems/190.reverse-bits.md

                        191.number-of-1-bits:

                        https://github.com/azl397985856/leetcode/blob/master/problems/191.number-of-1-bits.md

                        203.remove-linked-list-elements:

                        https://github.com/azl397985856/leetcode/blob/master/problems/203.remove-linked-list-elements.md

                        206.reverse-linked-list:

                        https://github.com/azl397985856/leetcode/blob/master/problems/206.reverse-linked-list.md

                        219.contains-duplicate-ii:

                        https://github.com/azl397985856/leetcode/blob/master/problems/219.contains-duplicate-ii.md

                        226.invert-binary-tree:

                        https://github.com/azl397985856/leetcode/blob/master/problems/226.invert-binary-tree.md

                        283.move-zeroes:

                        https://github.com/azl397985856/leetcode/blob/master/problems/283.move-zeroes.md

                        349.intersection-of-two-arrays:

                        https://github.com/azl397985856/leetcode/blob/master/problems/349.intersection-of-two-arrays.md

                        中等难度

                        2. Add Two Numbers:

                        https://github.com/azl397985856/leetcode/blob/master/problems/2.addTwoNumbers.md

                        3. Longest Substring Without Repeating Characters:

                        https://github.com/azl397985856/leetcode/blob/master/problems/3.longestSubstringWithoutRepeatingCharacters.md

                        11.container-with-most-water:

                        https://github.com/azl397985856/leetcode/blob/master/problems/11.container-with-most-water.md

                        19. Remove Nth Node From End of List:

                        https://github.com/azl397985856/leetcode/blob/master/problems/19.removeNthNodeFromEndofList.md

                        24. Swap Nodes In Pairs:

                        https://github.com/azl397985856/leetcode/blob/master/problems/24.swapNodesInPairs.md

                        🆕 39.combination-sum:

                        https://github.com/azl397985856/leetcode/blob/master/problems/39.combination-sum.md

                        🆕 40.combination-sum-ii:

                        https://github.com/azl397985856/leetcode/blob/master/problems/40.combination-sum-ii.md

                        🆕 46.permutations:

                        https://github.com/azl397985856/leetcode/blob/master/problems/46.permutations.md

                        🆕 47.permutations-ii:

                        https://github.com/azl397985856/leetcode/blob/master/problems/47.permutations-ii.md

                        🆕 55.jump-game:

                        https://github.com/azl397985856/leetcode/blob/master/problems/55.jump-game.md

                        🆕 62.unique-paths:

                        https://github.com/azl397985856/leetcode/blob/master/problems/62.unique-paths.md

                        75.sort-colors:

                        https://github.com/azl397985856/leetcode/blob/master/problems/75.sort-colors.md

                        🆕 78.subsets:

                        https://github.com/azl397985856/leetcode/blob/master/problems/78.subsets.md

                        86.partition-list:

                        https://github.com/azl397985856/leetcode/blob/master/problems/86.partition-list.md

                        🆕 90.subsets-ii:

                        https://github.com/azl397985856/leetcode/blob/master/problems/90.subsets-ii.md

                        92.reverse-linked-list-ii:

                        https://github.com/azl397985856/leetcode/blob/master/problems/92.reverse-linked-list-ii.md

                        94.binary-tree-inorder-traversal:

                        https://github.com/azl397985856/leetcode/blob/master/problems/94.binary-tree-inorder-traversal.md

                        102.binary-tree-level-order-traversal:

                        https://github.com/azl397985856/leetcode/blob/master/problems/102.binary-tree-level-order-traversal.md

                        103.binary-tree-zigzag-level-order-traversal:

                        https://github.com/azl397985856/leetcode/blob/master/problems/103.binary-tree-zigzag-level-order-traversal.md

                        139.word-break:

                        https://github.com/azl397985856/leetcode/blob/master/problems/139.word-breakmd

                        144.binary-tree-preorder-traversal:

                        https://github.com/azl397985856/leetcode/blob/master/problems/144.binary-tree-preorder-traversal.md

                        🖊 150.evaluate-reverse-polish-notation:

                        https://github.com/azl397985856/leetcode/blob/master/problems/150.evaluate-reverse-polish-notation.md

                         🆕 152.maximum-product-subarray:

                        https://github.com/azl397985856/leetcode/blob/master/problems/152.maximum-product-subarray.md

                        199.binary-tree-right-side-view:

                        https://github.com/azl397985856/leetcode/blob/master/problems/199.binary-tree-right-side-view.md

                        201.bitwise-and-of-numbers-range:

                        https://github.com/azl397985856/leetcode/blob/master/problems/201.bitwise-and-of-numbers-range.md

                        🆕 208.implement-trie-prefix-tree:

                        https://github.com/azl397985856/leetcode/blob/master/problems/208.implement-trie-prefix-tree.md

                        🖊 209.minimum-size-subarray-sum:

                        https://github.com/azl397985856/leetcode/blob/master/problems/209.minimum-size-subarray-sum.md

                        🆕 236.lowest-common-ancestor-of-a-binary-tree:

                        https://github.com/azl397985856/leetcode/blob/master/problems/236.lowest-common-ancestor-of-a-binary-tree.md

                        🆕 238.product-of-array-except-self:

                        https://github.com/azl397985856/leetcode/blob/master/problems/238.product-of-array-except-self.md

                        240.search-a-2-d-matrix-ii:

                        https://github.com/azl397985856/leetcode/blob/master/problems/240.search-a-2-d-matrix-ii.md

                        🖊 279.perfect-squares:

                        https://github.com/azl397985856/leetcode/blob/master/problems/279.perfect-squares.md

                        322.coin-change:

                        https://github.com/azl397985856/leetcode/blob/master/problems/322.coin-change.md

                        🆕 334.increasing-triplet-subsequence:

                        https://github.com/azl397985856/leetcode/blob/master/problems/334.increasing-triplet-subsequence.md

                        328.odd-even-linked-list:

                        https://github.com/azl397985856/leetcode/blob/master/problems/328.odd-even-linked-list.md

                        416.partition-equal-subset-sum:

                        https://github.com/azl397985856/leetcode/blob/master/problems/416.partition-equal-subset-sum.md

                        445.add-two-numbers-ii:

                        https://github.com/azl397985856/leetcode/blob/master/problems/445.add-two-numbers-ii.md

                        518.coin-change-2:

                        https://github.com/azl397985856/leetcode/blob/master/problems/518.coin-change-2.md

                        875.koko-eating-bananas:

                        https://github.com/azl397985856/leetcode/blob/master/problems/875.koko-eating-bananas.md

                        877.stone-game:

                        https://github.com/azl397985856/leetcode/blob/master/problems/877.stone-game.md

                        887.super-egg-drop:

                        https://github.com/azl397985856/leetcode/blob/master/problems/887.super-egg-drop.md

                        900.rle-iterator:

                        https://github.com/azl397985856/leetcode/blob/master/problems/900.rle-iterator.md

                        困难难度

                        🆕 23.merge-k-sorted-lists

                        https://github.com/azl397985856/leetcode/blob/master/problems/23.merge-k-sorted-lists.md

                        🆕 42.trapping-rain-water

                        https://github.com/azl397985856/leetcode/blob/master/problems/42.trapping-rain-water.md

                        🆕 128.longest-consecutive-sequence

                        https://github.com/azl397985856/leetcode/blob/master/problems/128.longest-consecutive-sequence.md

                        145.binary-tree-postorder-traversal

                        https://github.com/azl397985856/leetcode/blob/master/problems/145.binary-tree-postorder-traversal.md

                        146.lru-cache

                        https://github.com/azl397985856/leetcode/blob/master/problems/146.lru-cache.md

                        🆕 239.sliding-window-maximum

                        https://github.com/azl397985856/leetcode/blob/master/problems/239.sliding-window-maximum.md

                        🆕 295.find-median-from-data-stream.md

                        https://github.com/azl397985856/leetcode/blob/master/problems/295.find-median-from-data-stream.md

                        301.remove-invalid-parentheses

                        https://github.com/azl397985856/leetcode/blob/master/problems/301.remove-invalid-parentheses.md

                        数据结构与算法的总结

                        🖊 数据结构:

                        https://github.com/azl397985856/leetcode/blob/master/thinkings/basic-data-structure.md(草稿)

                        🖊 二叉树的遍历:

                        https://github.com/azl397985856/leetcode/blob/master/thinkings/binary-tree-traversal.md

                        动态规划:

                        https://github.com/azl397985856/leetcode/blob/master/thinkings/dynamic-programming.md

                        哈夫曼编码和游程编码:

                        https://github.com/azl397985856/leetcode/blob/master/thinkings/run-length-encode-and-huffman-encode.md

                        布隆过滤器:

                        https://github.com/azl397985856/leetcode/blob/master/thinkings/bloom-filter.md

                        anki 卡片

                        Anki主要分为两个部分:一部分是关键点到题目的映射,另一部分是题目到思路,关键点,代码的映射。

                        全部卡片都在:

                        https://github.com/azl397985856/leetcode/blob/master/assets/anki/leetcode.apkg

                        使用方法

                        anki – 文件 – 导入 – 下拉格式选择“打包的 anki集合”,然后选中你下载好的文件,确定即可。更多关于anki使用方法的请查看:

                        https://apps.ankiweb.net/

                        目前已更新卡片一览(仅列举正面):

                        • 二分法解决问题的关键点是什么,相关问题有哪些

                        • 如何用栈的特点来简化操作, 涉及到的题目有哪些?

                        • 双指针问题的思路以及相关题目有哪些?

                        • 滑动窗口问题的思路以及相关题目有哪些?

                        • 回溯法解题的思路以及相关题目有哪些?

                        计划

                        494.target-sum:

                        https://github.com/azl397985856/leetcode/blob/master/todo/494.target-sum.js

                        609.find-duplicate-file-in-system:

                        https://github.com/azl397985856/leetcode/blob/master/todo/609.find-duplicate-file-in-system.js

                        10.regular-expression-matching:

                        https://github.com/azl397985856/leetcode/blob/master/todo/10.regular-expression-matching.js

                        365.water-and-jug-problem:

                        https://github.com/azl397985856/leetcode/blob/master/todo/365.water-and-jug-problem.js

                        anki 卡片 完善:

                        https://github.com/azl397985856/leetcode/blob/master/assets/anki

                        字符串类问题汇总:

                        https://github.com/azl397985856/leetcode/blob/master/todo/str/

                        参考链接:

                        https://github.com/azl397985856/leetcode


                        新智元春季招聘开启,一起弄潮 AI 之巅!

                        岗位详情请戳:


                        【加入社群】


                        新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号:aiera2015_2   入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 – 公司 – 职位;专业群审核较严,敬请谅解)。

                          已同步到看一看

                          发送中

                          Pytorch 1.1.0驾到!小升级大变动,易用性更强,支持自定义RNN 2019-05-02






                            新智元原创  

                          来源:pytorch.org、GitHub

                          编辑:金磊

                          【新智元导读】盼望已久,Pytorch终于更新了!Pytroch 1.1.0的发布除了修复了已有bug之外,最大的亮点就是可以更快、更好的支持自定义RNN,以及TensorBoard对可视化和模型调试提供了一流的本地支持。

                          Pytorch 1.1.0,来了!

                          可以说是一大波更新来袭了,话不多说上亮点:

                          • TorchScript(Pytorch JIT)更快、更好的支持自定义RNN;

                          • TensorBoard对可视化和模型调试提供了一流的本地支持;

                          • 可以在ScriptModule上通过使用torch.jit包装属性来分配属性;

                          • TorchScript现在对列表和字典类型提供了鲁棒性的支持;

                          • 对于更复杂的有状态操作,TorchScript现在支持使用@torch.jit.script注释类;

                          • nn.parallel.DistributedDataParallel:现在可以包装多GPU模块,它可以在一台服务器上实现模型并行和跨服务器的数据并行等用例。

                          注:不再支持CUDA 8.0。

                          此更新一出,在Reddit上也引发了一波热议,大部分网友们表示:

                          “赞!”、“好用!”、“爱了!”

                          用TorchScript优化CUDA递归神经网络

                          Pytorch添加的一个新特性是更好地支持带有TorchScript (PyTorch JIT)的快速自定义递归神经网络(fastrnns)

                          RNN是一种流行的模型,在各种NLP任务上都表现出了良好的性能。PyTorch可以实现许多最流行的变体,例如Elman RNN、GRU和LSTM,以及多层和双向变体。

                          然而,许多用户希望实现他们自己的自定义RNN。将层规范化应用于LSTM就是这样一种用例。由于PyTorch CUDA LSTM实现使用融合内核,因此很难插入规范化甚至修改基本LSTM实现。

                          许多用户已经转向使用标准PyTorch运算符编写自定义实现,但是这样的代码遭受高开销:大多数PyTorch操作在GPU上启动至少一个内核,并且RNN由于其重复性质通常运行许多操作。但是可以应用TorchScript来融合操作并自动优化代码,在GPU上启动更少、更优化的内核。

                          此次更新的目标之一是让用户能够在TorchScript中编写快速,自定义的RNN,而无需编写专门的CUDA内核来实现类似的性能。接下来将提供如何使用TorchScript编写自己的快速RNN的教程。

                          编写自定义RNN

                          首先,可以使用下方链接中的文件作为模板来编写自己的自定义RNN。

                          https://github.com/pytorch/pytorch/blob/master/benchmarks/fastrnns/custom_lstms.py

                          如果想获得TorchScript当前提供的速度/优化(如运算符融合,批量矩阵乘法等),请遵循以下指南。

                          1. 如果定制操作都是element-wise的,那就可以自动获得PyTorch JIT操作符fusion的优势!

                          2. 如果有更复杂的操作(例如,reduce和element-wise的浑南和操作),请考虑分别对reduce操作和element-wise操作进行分组。

                          3. 如果想知道自定义RNN中融合了什么,可以使用graph_for检查操作的优化图。以LSTMCell为例:

                          # get inputs and states for LSTMCell

                           inputs = get_lstm_inputs()

                           # instantiate a ScriptModule

                           cell = LSTMCell(input_size, hidden_size)

                           # print the optimized graph using graph_for

                           out = cell(inputs)
                           print(cell.graph_for(inputs))

                          这将提供的专用输入生成优化的TorchScript图形(a.k.a PyTorch JIT IR):

                          graph(%x : Float(*, *),
                                   %hx : Float(*, *),
                                   %cx : Float(*, *),
                                   %w_ih : Float(*, *),
                                   %w_hh : Float(*, *),
                                   %b_ih : Float(*),
                                   %b_hh : Float(*)):
                               %hy : Float(*, *), %cy : Float(*, *) = prim::DifferentiableGraph_0(%cx, %b_hh, %b_ih, %hx, %w_hh, %x, %w_ih)
                               %30 : (Float(*, *), Float(*, *)) = prim::TupleConstruct(%hy, %cy)
                               return (%30)
                               with prim::DifferentiableGraph_0 = graph(%13 : Float(*, *),
                                   %29 : Float(*),
                                   %33 : Float(*),
                                   %40 : Float(*, *),
                                   %43 : Float(*, *),
                                   %45 : Float(*, *),
                                   %48 : Float(*, *)):
                               %49 : Float(*, *) = aten::t(%48)
                               %47 : Float(*, *) = aten::mm(%45, %49)
                               %44 : Float(*, *) = aten::t(%43)
                               %42 : Float(*, *) = aten::mm(%40, %44)
                               ...some broadcast sizes operations...
                               %hy : Float(*, *), %287 : Float(*, *), %cy : Float(*, *), %outgate.1 : Float(*, *), %cellgate.1 : Float(*, *), %forgetgate.1 : Float(*, *), %ingate.1 : Float(*, *) = prim::FusionGroup_0(%13, %346, %345, %344, %343)
                               ...some broadcast sizes operations...
                               return (%hy, %cy, %49, %44, %196, %199, %340, %192, %325, %185, %ingate.1, %forgetgate.1, %cellgate.1, %outgate.1, %395, %396, %287)
                               with prim::FusionGroup_0 = graph(%13 : Float(*, *),
                                   %71 : Tensor,
                                   %76 : Tensor,
                                   %81 : Tensor,
                                   %86 : Tensor):
                               ...some chunks, constants, and add operations...
                               %ingate.1 : Float(*, *) = aten::sigmoid(%38)
                               %forgetgate.1 : Float(*, *) = aten::sigmoid(%34)
                               %cellgate.1 : Float(*, *) = aten::tanh(%30)
                               %outgate.1 : Float(*, *) = aten::sigmoid(%26)
                               %14 : Float(*, *) = aten::mul(%forgetgate.1, %13)
                               %11 : Float(*, *) = aten::mul(%ingate.1, %cellgate.1)
                               %cy : Float(*, *) = aten::add(%14, %11, %69)
                               %4 : Float(*, *) = aten::tanh(%cy)
                               %hy : Float(*, *) = aten::mul(%outgate.1, %4)
                               return (%hy, %4, %cy, %outgate.1, %cellgate.1, %forgetgate.1, %ingate.1)

                          从上图中可以看到它有一个prim :: FusionGroup_0子图,它融合了LSTMCell中的所有element-wise操作(转置和矩阵乘法不是element-wise操作)。

                          可变长度序列最佳实践

                          TorchScript不支持PackedSequence。 通常,当处理可变长度序列时,最好将它们填充到单个张量中并通过TorchScript LSTM发送该张量。 例如:

                          sequences = [...] # List[Tensor], each Tensor is T' x C
                          padded = torch.utils.rnn.pad_sequence(sequences)
                          lengths = [seq.size(0for seq in sequences]
                          padded  # T x N x C, where N is batch size and T is the max of all T'

                          model = LSTM(...)
                          output, hiddens = model(padded)
                          output  # T x N x C

                          当然,output可能在填充区域中有一些垃圾数据;使用lengths来跟踪你不需要的部分。

                          优化

                          现在将解释PyTorch JIT为加速自定义RNN所执行的优化。 将在TorchScript中使用一个简单的自定义LSTM模型来说明优化,但其中许多是通用的并适用于其他RNN。

                          为了说明所做的优化以及如何从这些优化中获益,将运行一个用TorchScript编写的简单自定义LSTM模型(可以参考custom_lstm.py中的代码或下面的代码片段)并计算更改。

                          在配备2个Intel Xeon芯片和一个Nvidia P100的机器中设置环境,安装了cuDNN v7.3,CUDA 9.2。 LSTM模型的基本设置如下:

                          input_size = 512
                          hidden_size = 512
                          mini_batch = 64
                          numLayers = 1
                          seq_length = 100 

                          PyTorch JIT最重要的是将python程序编译为PyTorch JIT IR,这是一个用于对程序图形结构进行建模的中间表示。然后,该IR可以从整个程序优化,硬件加速中受益,并且总体上具有提供大量计算增益的潜力。

                          接下来,将解释在如何提高训练或推理性能方面所做的主要优化,从LSTMCell和LSTMLayer开始,以及一些misc优化。

                          LSTM Cell(前向)

                          LSTM中的几乎所有计算都发生在LSTMCell中,因此重要的是看看它包含的计算以及如何提高它们的速度。 下面是TorchScript中的LSTMCell实现示例:

                          class LSTMCell(jit.ScriptModule):
                              def __init__(self, input_size, hidden_size):
                                  super(LSTMCell, self).__init__()
                                  self.input_size = input_size
                                  self.hidden_size = hidden_size
                                  self.weight_ih = Parameter(torch.randn(4 * hidden_size, input_size))
                                  self.weight_hh = Parameter(torch.randn(4 * hidden_size, hidden_size))
                                  self.bias_ih = Parameter(torch.randn(4 * hidden_size))
                                  self.bias_hh = Parameter(torch.randn(4 * hidden_size))

                              @jit.script_method
                              def forward(self, input, state):
                                  # type: (Tensor, Tuple[Tensor, Tensor]) -> Tuple[Tensor, Tuple[Tensor, Tensor]]
                                  hx, cx = state
                                  gates = (torch.mm(input, self.weight_ih.t()) + self.bias_ih +
                                           torch.mm(hx, self.weight_hh.t()) + self.bias_hh)
                                  ingate, forgetgate, cellgate, outgate = gates.chunk(41)

                                  ingate = torch.sigmoid(ingate)
                                  forgetgate = torch.sigmoid(forgetgate)
                                  cellgate = torch.tanh(cellgate)
                                  outgate = torch.sigmoid(outgate)

                                  cy = (forgetgate * cx) + (ingate * cellgate)
                                  hy = outgate * torch.tanh(cy)

                                  return hy, (hy, cy)

                          TorchScript生成的此图形表示(IR)可实现多种优化和可伸缩计算。 除了可以做的典型编译器优化(CSE,常量传播等)之外,还可以运行其他IR转换以使代码运行得更快。

                          LSTM层(前向)

                          class LSTMLayer(jit.ScriptModule):
                              def __init__(self, cell, *cell_args):
                                  super(LSTMLayer, self).__init__()
                                  self.cell = cell(*cell_args)

                              @jit.script_method
                              def forward(self, input, state):
                                  # type: (Tensor, Tuple[Tensor, Tensor]) -> Tuple[Tensor, Tuple[Tensor, Tensor]]
                                  inputs = input.unbind(0)
                                  outputs = torch.jit.annotate(List[Tensor], [])
                                  for i in range(len(inputs)):
                                      out, state = self.cell(inputs[i], state)
                                      outputs += [out]
                                  return torch.stack(outputs), state

                          在为TorchScript LSTM生成的IR上做了一些技巧来提高性能,团队做了一些示例优化:

                          • 循环展开(Loop Unrolling):自动在代码中展开循环(对于大循环,展开它的一小部分),然后授权对for循环控制流进行进一步的优化。 例如,fuser可以将循环体的迭代中的操作融合在一起,这导致对于诸如LSTM的控制流密集型模型的良好性能改进。

                          • 批量矩阵乘法:对于输入预乘的RNN(即模型具有大量相同LHS或RHS的矩阵乘法),可以将这些操作一起有效地批量处理为单个矩阵乘法,同时对输出进行分块以实现等效语义。

                          通过应用这些技术,将前向传播的时间减少了1.6ms,达到8.4ms(1.2倍加速),后向传播的时间减少了7ms,达到20ms左右(1.35倍加速)。

                          LSTM层(后向)

                          • “树结构”批处理矩阵Muplication:通常情况是在LSTM反向图中多次重复使用单个权重,形成一个树,其中叶子是矩阵乘法,节点是相加的。 这些节点可以通过在不同维度上连接LHS和RHS来组合在一起,然后计算为单个矩阵乘法。 等价公式可表示如下:

                          $L1 * R1 + L2 * R2 = torch.cat((L1, L2), dim=1) * torch.cat((R1, R2), dim=0)$

                          • Autograd是使PyTorch成为如此优雅的ML框架的关键组件。因此,将其应用到PyTorch JIT,但是使用了一种新的自动微分(AD)机制,该机制在IR级别上工作。JIT自动微分将把正向图分割成符号可微分的子图,并为这些子图生成向后节点。以上面的IR为例,对于具有AD公式的操作,我们将图节点分组为一个prim :: DifferentiableGraph_0。对于没有添加到AD公式中的操作,我们将在执行期间返回到Autograd。

                          • 优化反向路径是困难的,隐式broadcasting语义使得自动微分的优化更加困难。 PyTorch可以方便地编写张量操作,而无需通过broadcasting张量来担心形状。 对于性能而言,反向的痛点是需要对这种可broadcasting操作进行求和。 这导致每个可broadcasting操作的导数后跟一个求和。 由于目前无法融合减少操作,这会导致FusionGroups分成多个小组,从而导致性能下降。 要解决这个问题,请参阅Thomas Viehmann撰写的文章:http://lernapparat.de/fast-lstm-pytorch/。

                          更多这方面的优化内容可参考Pytorch团队博客原文:

                          https://pytorch.org/blog/optimizing-cuda-rnn-with-torchscript/

                          更多新功能

                          运算符

                          • torch.tril_indices, torch.triu_indices:添加了与NumPy具有相同行为的运算符;

                          • torch.combinations, torch.cartesian_prod: 添加了类似于itertools的新运算符;

                          • torch.repeat_interleave: 新运算符类似于numpy.repeat;

                          • torch.from_file:类似于Storage.from_file的新运算符,但返回一个张量;

                          • torch.unique_consecutive: 新的运算符,其语义类似于C ++中的std :: unique;

                          • torch.tril, torch.triu, torch.trtrs:现在支持批处理;

                          • torch.gather: 添加对sparse_grad选项的支持;

                          • torch.std, torch.max_values, torch.min_values, torch.logsumexp现在可以同时在多个维度上运行;

                          • torch.cdist:添加了与scipy.spatial.distance.cdist等效的运算符;

                          • torch.__config__.show():报告所有库的详细版本。

                          NN

                          • nn.MultiheadedAttention:从注意力中实现MultiheadedAttention的新模块;

                          • nn.functional.interpolate:增加了对bicubic的支持;

                          • nn.SyncBatchNorm:支持同步批量标准化;

                          • nn.Conv:通过mode =’circular’添加了对Circular Padding的支持;

                          • nn.EmbeddingBag: 现在支持可训练的`per_sample_weights;

                          • nn.EmbeddingBag:添加对from_pretrained方法的支持,如nn.Embedding中所示;

                          • RNNs:通过enforce_sorted自动处理未排序的可变长度序列;

                          • nn.Identity:便于模型surgery的新模块。

                          更多有关张量/dtypes、性能提高、bug修复、弃用的项目等内容可查看Pytorch在GitHub发布的项目原文:

                          https://github.com/pytorch/pytorch/releases/tag/v1.1.0


                          新智元春季招聘开启,一起弄潮 AI 之巅!

                          岗位详情请戳:


                          【加入社群】


                          新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号:aiera2015_2   入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 – 公司 – 职位;专业群审核较严,敬请谅解)。

                            已同步到看一看

                            发送中

                            鬼都藏不住,人脸识别新突破!就算遮住半张脸也能100%被识别 2019-05-02






                              新智元报道  

                            来源:sciencedirect

                            编辑:金磊,元子

                            【新智元导读】众所周知,人脸识别在摄像头无法捕捉到完整面部图像的情况下很难获得理想的效果。最近布拉德福德大学的研究人员在不完整面部识别方面获得了突破性进展,实验表明,扫描整个面部的3/4、甚至1/2的识别准确率能够达到100%!

                            基于计算机的人脸识别已经成为一种成熟且可靠的机制,实际上已被应用于许多访问控制场景,不过目前面部识别或认证,主要使用全正脸面部图像的“完美”数据来执行。但实际上,有许多情况下比如闭路电视摄像机往往只能拍到脸的一侧,或者如果被拍摄者戴了帽子、口罩等遮挡物,就无法获得完整的正脸。因此,使用不完整面部数据的面部识别是一个亟待开发的研究领域。

                            来自布拉德福德大学的研究团队的最新研究在不完整面部识别方面,取得了突破性进展,实验使用最先进的基于卷积神经网络的架构以及预先训练的VGG-Face模型,使用余弦相似度和线性支持向量机来测试识别率。团队在两个公开可用的数据集(受控的巴西FEI和不受控制的LFW)上进行了实验。

                            实验表明,扫描整个面部的3/4、甚至1/2的识别准确率能够达到100%!除此之外,团队还研究了面部的某个独立的部位,比如鼻子、脸颊、前额或嘴巴的识别率,以及图像的旋转和缩放对面部识别主体的影响。结果发现,如果只针对面部的某个独立的部位,比如鼻子、脸颊、前额或嘴巴,识别率总是相对较低。

                            据悉,这是第一个使用机器学习来测试面部不同部位识别率的研究,论文已发表在Future Generation Computer Systems上。下面新智元对本次实验进行介绍。

                            人类可以不受环境影响的识别人脸,那么计算机也可以吗?


                            面部是人类生命中视觉系统中绘制得最多的图片,所以大部分人类拥有卓越的面部识别能力。一般来说,我们不需要像面部识别AI那样必须正视别人的正脸才能识别出对方,通常对于我们只要一瞥即可分辨。

                            普遍认为大脑通过记住重要的细节,例如与眼睛,鼻子,前额,脸颊和嘴巴相对应的关键特征的形状和颜色,对面部进行区分。此外,人类大脑可以应对不同光线环境下、不同面部表情,以及远处面部的显著变化。

                            然而,与此相反,任何在光线、表情、姿势和即眼镜或胡子等等的变化,都可能对计算机的识别率产生巨大影响。不过,因为计算机处理海量数据的能力不断提高,可以认为机器算法(例如CNN)至少在面部匹配方面拥有优异的表现。

                            顺着这个逻辑,研究团队使用有遮挡的不完整人脸照片作为测试集,下面是一个测试集的示例图片,以及计算机对不完整人脸照片的识别过程。

                            示例图片


                            识别过程

                            使用CNN和VGG-Face,利用两个分类器进行不完整人脸的识别


                            团队主要研究面部的不同部分如何有利于识别,以及在机器学习场景中如何在对面部照片进行不同程度旋转、缩放的识别。实验使用基于CNN的架构以及预训练的VGG-Face模型来提取特征。然后使用两个分类器,即余弦相似度(CS)和线性SVM来测试识别率。下图表现了特征提取步骤的概述:

                            遮挡脸部的示例图片

                            基于VGGF的特征提取过程

                            VGG-Face模型

                            目前最流行和广泛应用于人脸识别的是VGGF模型,由Oxford Visual Geometry Group开发。该模型在一个超过2.6 K个体的2.6M面部图像的巨大数据集上进行训练。

                            在VGGF中,其中13层是卷积网络,其他是ReLU、pooling的混合体,最后一层是softmax。

                            13个卷积层


                            为了确定VGGF模型中用于面部特征提取的最佳层,通常必须进行一些试验和错误实验。在本实验中,团队发现最好的结果来自第34层。值得注意的是,该层是完全连接的层,位于神经网络的末端,这意味着提取的特征代表代表了全脸。

                            特征分类:为什么使用余弦相似度和线性SVM

                            本次实验中,研究团队使用了余弦相似度(CS)和线性SVM分类器。做出这样的选择基于两个原因:首先,团队测试了其他分类器后发现CS和线性SVM的效果最好;其次,通过实验和分析,团队发现这两个分类器能够更准确地分离数据。

                            余弦相似度

                            两个向量间的余弦值可以通过使用欧几里得点积公式求出:

                            给定两个属性向量, A 和B,其余弦相似性θ由点积和向量长度给出,如下所示:

                            这里的Ai和Bi分别代表向量A和B的各分量。

                            本次实验需要计算CS以通过使用Eqs找到测试图像和训练图像之间的最小距离。如图8所示:

                            线性SVM

                            SVM是一个二元分类算法,线性分类和非线性分类都支持。经过演进,现在也可以支持多元分类,同时经过扩展,也能应用于回归问题。在本实验中,研究团队对两种SVM都进行了测试,发现当使用部分面部作为测试集的时候,线性SVM能够获得更好的效果。

                            例如,对于右脸颊,线性SVM的识别准确率达到了24.44%,而具有径向基函数的非线性SVM的识别率仅为2.77%。

                            遮掉半张脸,准确率也能高达100%!

                            这项工作提供了一组全面的实验,使用面部的不同部分进行面部识别。

                            利用了两个流行的人脸数据集的人脸图像,即FEILFW数据集。使用级联物体检测器对两个数据库中的所有图像进行裁剪以尽可能地去除背景,以便提取面部和内部面部特征。但是,对于某些具有非常复杂背景的图像,如LFW数据库的情况,作者手动裁剪这些面部。

                            在这项工作中,已经进行了许多遮挡设置,以验证该方法可以处理正常和遮挡的面部识别任务。为此,进行了两组主要的实验:一组不使用局部,旋转和缩放的面部作为训练面部数据的一部分,另一部分使用部分,旋转和缩放的面部作为训练的一部分。

                            在每种情况下,使用两个分类器进行了14个涉及部分,旋转和缩小人脸的子实验。出于训练目的,使用了每个受试者70%的图像,这些图像也通过诸如填充和翻转之类的操作来增强。在每种情况下,剩余的30%的图像用于测试。

                            从FEI数据集中采样面部数据

                            用于测试FEI数据集上识别率的面部部分

                            在FEI数据库中使用基于面部部分的SVM和CS分类器的面部识别率 – 在训练中不使用/使用面部的面部部分

                            在FEI数据集上显示面旋转(10°到180°)

                            在FEI数据集上使用SVM和CS分类器的人脸识别率(基于训练集中没有和有旋转人脸图片)

                            一个在FEI数据集中缩小(10%到90%)人脸的例子

                            利用SVM和CS分类器对FEI中缩小后的人脸进行快速识别

                            一些来自LFW数据集的人脸图像样本

                            来自LFW数据库的面部部分样本

                            在LFW数据集上,分别使用SVM和CS两种分类器对训练中未使用/使用的人脸各部分进行识别

                            在LFW数据集上使用基于SVM和CS分类器的人脸旋转的人脸识别率(在没有和使用单个旋转面作为训练数据的情况下)

                            在LFW数据库上,基于SVM和CS分类器的图像缩放识别率

                            使用CS进行正确匹配的结果,对于嘴的部分

                            使用CS测量的错误匹配的结果,对于嘴的部分

                            正确匹配的结果使用CS测量,为右脸颊


                            应用前景

                            研究团队负责人Hassan Ugail教授表示这个结果展示了不完整面部识别的美好前景:“现在已经证明,可以从仅显示部分脸部的图像中,获得非常准确的面部识别率,并且已经确定哪些部分的识别准确率更高,这为该技术应用于安防或预防犯罪等方面,开辟了更大的可能性。”

                            不过Hassan Ugail教授还表示,目前实验还需要在更大的数据集上进行验证。显然,将来很可能用于面部识别的图像数据库也需要包含不完整面部的图像。

                            参考链接:

                            https://www.sciencedirect.com/science/article/pii/S0167739X18331133?via%3Dihub#b3


                            新智元春季招聘开启,一起弄潮 AI 之巅!

                            岗位详情请戳:


                            【加入社群】


                            新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号:aiera2015_2   入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 – 公司 – 职位;专业群审核较严,敬请谅解)。

                              已同步到看一看

                              发送中

                              达·芬奇逝世500周年: 他的大脑就是一个宇宙 2019-05-03







                                新智元推荐  

                              来源:无书(ID:nonobo)

                              【新智元导读】昨天是文艺巨匠达·芬奇逝世500周年。他是会行走的人体百科,欧洲文艺复兴的先驱者。全球各地博物馆为纪念这位旷世奇才,都陆续开展了达芬奇的相关展览。达·芬奇的大脑就是一个宇宙。


                              对于多数人,他最为人所知的天赋,是在艺术上的天才造诣。


                              比如隐晦圣经故事《最后的晚餐》和迷之画作《蒙娜丽莎》。


                              ▼《最后的晚餐》 达·芬奇

                              ▼《蒙娜丽莎》 达·芬奇

                              达芬奇即使跨其他领域,也是巅峰的存在。


                              他是一位博学家,好奇心晚期患者,对任何事情都喜欢追根到底,这让他学到了多份职业的学术知识,抢谁饭碗都可以。


                              从凡人到天才,他的探索力越烧越旺。


                                 列奥纳多·迪·皮耶罗·达·芬奇    

                                  Leonardo Di Ser Piero Da Vinci    

                              (1452.4.23出生 ~ 1519.5.11逝世)


                              意大利文艺复兴时期

                              天才科学家、发明家、画家,生物学家


                              现代学者称他为“文艺复兴时期最完美代表”

                              人类历史上绝无仅有的全才

                              他最大的成就是绘画,思想深邃、

                              学识渊博、多才多艺的画家、

                              天文学家、发明家、建筑工程师

                              达·芬奇上知天文,下知地理,无所不晓,靡所不通。在文艺复兴时期,身心和谐,各种官能达到均衡的发展的人群中,列奥纳多·达·芬奇尤其是一个惊人的代表。



                              《列奥纳多·达·芬奇传》

                              [美]沃尔特•艾萨克森(WalterIsaacson)著

                              中信出版集团

                              2018年7月

                               

                              列奥纳多·达·芬奇是文艺复兴时期伟大的艺术家和科学家,是影响了世界500多年的“网红”。达·芬奇能将艺术、科学、技术和想象力融为一体,同时,他能对自己稍显异类的状态泰然处之:私生子、同性恋、素食者、左撇子、容易分心。带着顽皮而执着的热情,达·芬奇孜孜不倦地投入对众多领域的创新与探索,包括解剖学、化石、鸟类、飞行器、光学、植物学、地质学、水流,以及军事装置。他的笔记不仅是有史以来对好奇心难以超越的纪录,而且是激动人心的指南,跨学科的才华跃然纸上,带领我们去了解这个好奇心旺盛的人。               

                              涌现了达·芬奇、哥伦布和古登堡的15世纪,是一个通过新技术发明,探索和传播知识的时代,就如我们现在身处的时代一样。达·芬奇的天才之处正是基于那些我们也可以通过自我训练提升的能力:热切的好奇心、认真的观察,以及异想天开的想象力。


                              本书的起点不是达·芬奇的艺术杰作,而是他的笔记。《史蒂夫·乔布斯传》作者沃尔特·艾萨克森,以列奥纳多·达·芬奇令人震惊的7200页笔记,以及关于他的生平和作品的新发现为基础,用电影般的叙事娓娓道来。他剥去尸体面部的皮肉,绘制嘴唇运动的肌肉,然后在《蒙娜丽莎》的脸上画出了历史上令人难忘的笑容;他探索光学的数学原理,阐明光线如何照射在视网膜上,然后制造出了《最后的晚餐》中视觉变换的错觉,他毕生对舞台演出的热爱也促进了绘画和发明创造。他的人生提醒我们:无论是我们自己,还是我们的孩子,都不应止于吸收知识,更要去质疑,要充满想象力,敢于不同凡“想”,就像任何时代的“异类”天才和创新者一样。



                              他是一个怪才,是一个“知道许多秘密的人”,他保藏他的秘密,唯恐有人偷窃,所以他有许多手写的稿本是反写的,从右面到左面,必须用镜子反射起来才能读,他曾经说他用这种方法写的书有一百二十部之多。




                              擅长雕刻、音乐、发明、建筑

                              通晓数学、物理、天文等学科

                              爱因斯坦认为

                              达·芬奇的科研成果如果在当时就发表的话

                              科技可以提前30-50年

                              最著名的作品是《蒙娜丽莎》

                              现在是巴黎的卢浮宫的三件镇国之宝之一



                              ↑《蒙娜丽莎》板上油彩 

                              纵77×横53厘米 巴黎卢浮宫藏

                              可以说,达·芬奇是一个集合了爱因斯坦的天才头脑、富兰克林的跨界创造力、梵高的艺术天赋、乔布斯的创新能力等特质的存在,而绘画艺术只是达•芬奇借以探索自然、探索真理的方式之一,甚至可以被认为是达·芬奇的“业余爱好”。如果只鉴赏他的艺术杰作,根本谈不上真正了解达·芬奇——这个代表了人类创造力巅峰的人。


                              ↑ 《最后的晚餐》 湿壁画

                              纵469 ×横880 厘米 米兰圣玛利亚修道院藏

                              “列奥纳多·达·芬奇在艺术和工程技术中都能发现美,而他将二者结合的能力让他成了天才。


                                                          ——史蒂夫·乔布斯(Steve Jobs) 美国苹果公司创始人

                               

                              我想达·芬奇应该是历史上非常令人着迷的人物。尽管如今他被现在大多数人所熟知的身份是画家,但是从人体解剖学到戏剧,达·芬奇的兴趣广泛得令人瞠目结舌。沃尔特·艾萨克森用我所见过的高超的方式,将达·芬奇生活的不同侧面娓娓道来,并且解释了是什么使他如此与众不同。


                                                             ——比尔·盖茨(Bill Gates) 美国微软公司联合创始人

                              值得全人类学习的创造力密码

                              达·芬奇的一生动荡而传奇。作品产出周期漫长,细节控又挑剔,半途而废爱好者,三心二意的斜杠青年……


                              作为首屈一指的传记作家,《达·芬奇传》的作者艾萨克森曾著有《富兰克林传》、《爱因斯坦传》和风靡全球的《史蒂夫·乔布斯传》,》。从富兰克林写到乔布斯,从近代科学写至当代科技,他为何又拐到历史的深处,要解读达·芬奇这样一个文艺复兴时期的人呢?


                               

                              最早是在写《乔布斯传》时,因为乔布斯对达·芬奇的推崇,艾萨克森对达·芬奇产生无穷的好奇心。接着,他意识到,达·芬奇站在了人类创造力和想象力的巅峰之处。要想破解他的创造力和跨界学习的密码,达·芬奇是他必须直面的重要人物。

                               

                              因此,在这本书的最后一部分,还首度总结了达·芬奇的创造力密码。


                               

                              保持好奇,不断好奇


                              “我没有特别的才能,”爱因斯坦曾在一封给朋友的信中写道,“我只是有热切的好奇心。”列奥纳多和爱因斯坦一样,确实有一些特别的才能,但是他最特别和最具启发性的特质是强烈的好奇心。他想知道人为什么会打哈欠,佛兰德斯的人如何在冰上行走,化圆为方的方法,主动脉瓣关闭的原因,眼睛如何处理光线及其对绘画透视的意义。他指导自己去了解牛犊的胎盘、鳄鱼的颌骨、啄木鸟的舌头、脸部的肌肉、月亮的光线,以及阴影的边缘。在任何醒着的时刻,我们每个人都可以督促自己对周围的一切保持不断的、随意的好奇,正如列奥纳多所做的那样。


                              ↑ 最后的晚餐草图素描


                              为求知而求知


                              并非所有的知识都需要有用,有时求知本身就是一种快乐。列奥纳多在画《蒙娜丽莎》时,并不需要了解心脏瓣膜的工作机制,也不需要为了完成《岩间圣母》弄清化石为什么会出现在山顶。他放任自己被纯粹的好奇心驱使,因此他比同时代的任何人都探索了更多领域,也发现了更多联系。

                               

                              保持孩童般的惊奇


                              从人生的某个时刻起,我们中的大部分人都不再为日常现象而感到迷惑了。我们也许能体会蓝天的美丽,但是已不再费心去琢磨为什么它是那种颜色。列奥纳多会思考这个问题,爱因斯坦也会,他在给另外一位朋友的信中写道,“你我从来都像好奇的孩子一样站在我们生于其中的巨大奥秘前”。我们应该小心,不要因为长大抛弃了我们的纯真初心,也不要让我们的孩子如此。


                              ↑ 最后的晚餐草图素描:詹姆斯 

                              勤于观察


                              列奥纳多最伟大的技能是他敏锐的观察力,这项才能和他的好奇心相得益彰。这不是什么神奇的天赋,而是他自身努力的结果。当他走到斯福尔扎城堡周围的护城河时,他观察了蜻蜓的两对翅膀,并注意到它们在如何交替运动。当他在城里漫步时,他注意观察人们的表情与情绪的关系。他还仔细辨别光线在不同平面上的反射方式。他观察哪些鸟的翅膀抬起的速度快于落下的速度,哪些鸟正好相反。这一点,我们也可以效仿。你观察过水流进碗里的时候吗?请像他一样仔细观察旋涡如何旋转,然后再琢磨一下其中的原因。

                               

                              始于细节


                              在笔记本中,列奥纳多分享了一个观察细节的技巧:


                              分步骤进行,从一处细节开始。他写过,这就像你没法一眼读到整页书的内容一样,你需要逐字逐句地看。“如果你想熟谙物体的形态,先从它们的细节开始,等一个细节完全印在你的脑海中,再转向下一个细节。”



                              ↑ 《圣母子与圣安妮》卢浮宫藏


                              ↑ 《抱貂女郎》板上油画 

                              纵54.8×横40.3厘米 克拉科查托斯基美术馆藏

                              见所未见


                              在列奥纳多的成长岁月里,他很多时候的主要工作就是构思庆典、表演和戏剧。他把幻想戏剧的精巧设计融为一体,这让他有了一种组合创新的能力。他能看见飞行的鸟,也能看到飞翔的天使;他能看到怒吼的狮子,也能看见咆哮的巨龙。

                               

                              穷追到底


                              在一本笔记的开头几页中,列奥纳多画满了一百六十九种化圆为方的尝试。在《莱斯特手稿》中,他在八页纸上记录了七百三十项关于水流的发现;在另一个笔记本中,他列出了六十七个描述不同水流运动的词汇。他测量了人体的每一部分,计算了它们的比例关系,然后又对马匹如法炮制。他不停钻研就是为了体验“极客”的乐趣。


                              ↑ 《丽达与鹅》板上油画

                              纵112×横86厘米 佛罗伦萨乌菲齐美术馆藏


                              ↑ 《基督受洗》 湿壁画 

                              176.9×151.2厘米  佛罗伦斯 乌菲兹美术馆藏


                              ↑ 《吉内薇拉·班琪》 

                              美国,华盛顿,国家艺廊藏


                              ↑ 《柏诺瓦的圣母》 

                              俄罗斯,圣彼得堡,艾米塔吉博物馆藏


                              ↑ 《持康乃馨的圣母》 

                              德国,慕尼黑,古代美术馆藏

                              兴趣广泛


                              对列奥纳多最大的指摘是他的兴趣爱好经常让他偏离正题,比如他的数学研究。肯尼斯·克拉克哀叹道,这样做,“留给后人的却是损失”。但是事实上,列奥纳多愿意探索任何让他眼前一亮的事物,这让他的头脑更加丰富多彩。

                               

                              尊重事实


                              在观察实验和批判性思维的时代到来之前,列奥纳多就已经是这些方面的先驱了。当他提出一个观点的时候,他会设计一个实验来验证。如果实践表明他的理论有误,比如他曾误认为地球泉水的补给方式与人体血管类似,他就会放弃自己原有的理论,转而去寻求新的解释。一个世纪之后,在伽利略和培根的时代,这样的研究方法才变得普遍起来。时至今日,它反而不那么流行了。如果我们想像列奥纳多一样,就必须敢于根据新的信息改变我们的想法。


                              ↑ 《岩间圣母》 

                              法国,巴黎,卢浮宫藏


                              ↑ 《维特鲁威人》 

                              意大利,威尼斯,学院美术馆藏

                              适度拖延


                              在画《最后的晚餐》时,列奥纳多有时会盯着墙壁整整一个小时,然后轻轻画上一笔就转身离开。他告诉卢多维科公爵,创造力需要时间,不仅构思需要时间来发酵,直觉也需要时间来凝聚。“有极高天赋的人工作越少,反而成就越高,”他解释说,“因为他们的头脑一直在深思熟虑,不断完善构思,之后他们才会付诸实施。”对于如何拖延,大多数人都不需要别人的建议:我们天生就无师自通。但是,像列奥纳多那样拖延需要付出努力:这包括收集各种事实和想法,在这之后,才是让它们“文火炖煮”。

                               

                              让完美成为美的敌人


                              无论是对于《安吉亚里之战》中的透视问题,还是《博士来拜》中人物互动的难题,列奥纳多在自己无法解决时都选择了放弃,而不是绘制出仅仅是足够好的作品。他到死都将一些杰作带在身边,比如《蒙娜丽莎》和《圣母子与圣安妮》,因为他相信总有妙笔可以增辉。同样,史蒂夫·乔布斯也是一位完美主义者,他曾延迟了初代 Macintosh 电脑的交货时间,直到他的团队将内部线路板变得美观——尽管没有人会看到这些线路板。他和列奥纳多都知道,真正的艺术家在没有人看到的地方也务求完美。后来,乔布斯又采纳了一条相反的格言,“能准时交付的艺术家才是真正的艺术家”,这句话的意思是,即便有时产品还有改进的空间,你也应该及时发布。对于日常生活来说,这是一个不错的原则;但是有时也需要像列奥纳多那样,不轻易松手,直到作品完美。


                              ↑ 《音乐家肖像》

                              米兰,安波罗修美术馆藏


                              ↑ 《哺乳圣母》 

                              圣彼得堡,艾米塔吉博物馆藏

                              视觉化思考


                              列奥纳多并没有被上天赐予运用数学方程式或抽象概念的能力,所以他在研究各种比例、透视法则、凹面镜反光的计算方法及等积变换时,都将其视觉化。我们学习一个公式或法则——甚至简单到乘法或颜色混合的法则时,已经很少再用视觉化的方式来理解了,于是,我们无法欣赏到自然规律背后之美。

                               

                              突破局限


                              在很多产品演示的末尾,乔布斯都会展示一张路标的幻灯片,路标显示的是“人文科学”与“技术”的交叉路口,他知道创造力就出现在这样的十字路口。列奥纳多自由放养的头脑在艺术、科学、工程和人文科学间愉快地游逛。《最后的晚餐》中的透视效果离不开他对光线如何照射在视网膜上的了解,而他在一页满是嘴唇解剖图的笔记中绘制的微笑又再次出现在《蒙娜丽莎》的脸上。他知道艺术是一门科学,而科学也是一门艺术。无论是描画子宫里的胎儿,还是描绘洪水的旋涡,他都在模糊科学与艺术间的界限。


                              ↑ 《圣母子与圣安妮》

                              巴黎,卢浮宫藏


                              ↑ 《施洗者圣约翰》

                              巴黎,卢浮宫藏


                              ↑ 《酒神巴卡斯》

                              巴黎,卢浮宫藏


                              ↑ 《戴珍珠头饰的夫人像》 


                              ↑ 《拈花圣母》


                              挑战不可能


                              不妨像列奥纳多一样,想象一下你会如何制造一架人力飞行器,或者你会如何让河水改道,你甚至可以试着设计一架“永动机”,或者只用尺规作图的方法“化圆为方”。有些问题是我们永远也无法解决的,但是,要知道为什么无法解决。

                               

                              放任幻想


                              想想他的巨弩、像乌龟的坦克、他的理想城市设计方案,还有人力扑翼飞行器。列奥纳多不仅模糊了科学与艺术的界线,还模糊了现实与幻想的边界。这样做虽然没有造出飞行器,但是放飞了他的想象力。


                              ↑ 安吉里之战两个战士的草图



                              ↑ 百合花


                              ↑ 安吉里之战战士草图


                              ↑ 抱貂女子草图素描

                              为自己创造,而不仅仅是为了客户


                              无论有钱有势的侯爵夫人伊贝拉·德斯特如何央求,列奥纳多就是不肯为她绘制一幅肖像,但是他却为一位丝绸商人名叫丽莎的妻子拿起了画笔。他这么做是因为他想画,他余生都在不断完善这幅作品,从未交给那位丝绸商人。

                               

                              团队协作


                              天才常被认为是独来独往的人,他们似乎就应该退隐在阁楼里,等待被灵感的闪电击中。像许多传说一样,孤独天才的神话也体现了部分真相,但是这往往并不是故事的全部。无论是韦罗基奥作坊里生产的圣母像和衣褶写生,还是列奥纳多工作室出品的各种版本的《岩间圣母》《纺车边的圣母》和其他作品,它们都是以协作的方式被创作的,所以很难辨别究竟出自谁手。列奥纳多在与朋友交流了想法和草图后,才完成了《维特鲁威人》;他与马尔坎托尼奥·德拉·托雷彼此协作的时候,完成了自己最出色的解剖学研究;而他最有趣的作品是在斯福尔扎城堡时,与人合作完成的戏剧演出和晚间娱乐活动。天才始于个人的才华,需要独特的远见,但是执行经常需要与他人协同工作。创新是一项团队运动,创造是一种合作努力。

                              ↑ 达芬奇笔记中骑兵和步兵的战斗草图


                              ↑ 戴头盔的战士

                              列出任务清单


                              记得一定要在清单上写上一些新奇怪异的项目。列奥纳多的任务清单可能是有史以来好奇心的最佳证明。在纸上做笔记。五百年后,列奥纳多留存下来的那些笔记本让我们震惊不已又深受启发,如果我们从现在开始着手记录,五十年后,我们将会把笔记本留给我们的子孙,他们也会感到惊讶并得到启示。我们在社交网络上发的那些帖子则不会有这样的效果。

                               

                              拥抱神秘


                              不是每件事情都需要条理分明。

                               

                              ↑ 女子头像素描


                              ↑ 手部素描

                              推销力:营销冠军达芬奇


                              达芬奇的才华,甚至延伸到了销售界。


                              500年前,达芬奇就开始用互联网思维打造求职简历了,哪有公爵会不心动呢。


                              在1482年,他30岁的时候,达芬奇写了一封信列举了自己的各种才能并且将其寄给了米兰公爵Ludovico il Moro大人。


                              ▼达·芬奇的自我推荐信(部分翻译)

                               

                              他藏着厉害的成就,因为他明白要应对公爵的需求,就不能乱自夸。


                              达芬奇在信里写了他能为公爵大人,设计一些新颖的军事装备,而这恰好是公爵在苦恼的事情。


                              虽然达芬奇不懂互联网是什么,但他知道要用用户思维,来实现自我营销和推销自己的设计作品,同时也可以满足公爵的需求和欲望。

                              7000多页手稿里,藏着真正的达•芬奇(大标题)

                               

                              作为达·芬奇的头号粉丝,比尔·盖茨曾在1994年以3080万美元价格拍下27份达·芬奇手稿。

                               

                              达·芬奇真正的思想精华,都藏在他流传于世的手稿里。

                               

                              达·芬奇很早就养成定期记笔记的习惯,他在笔记中写下自己的观察、列出清单、记录各种想法以及随手画上几笔,这个习惯伴随他终生,因此这些笔记成了一座宝库,里面存放着达·芬奇感兴趣和痴迷的所有东西,飞行、水利、解剖学、艺术、马匹、力学和地质学等五花八门的内容常常会出现在同一页笔记里。

                               

                              但在过去接近 500 年的历史中,达·芬奇这令人震惊的7000多页笔记都处于“禁止出版”的状态。主要原因是这些笔记上记录的很多信息,例如他对人体解剖学的研究,在中世纪宗教看来是对神明的大不敬,会给他招来杀身之祸。

                               

                              爱因斯坦曾说,如果达•芬奇的研究手稿在当时就被公开,人类的科技进程将至少提前五十年。

                               

                              好在几百年后的今天,达·芬奇的笔记终于不再是什么禁书。


                              ↑ 达芬奇自画像


                              ↑ 大炮铸造厂


                              ↑ 戴常春藤花圈的老人


                              ↑ 弹簧装置


                              ↑ 多管炮素描


                              ↑ 地形鸟瞰图


                              ↑ 儿童草图


                              ↑ 飞行机械设计草图


                              ↑ 飞行机器


                              ↑ 飞行机械设计草图


                              ↑ 飞行机械设计草图



                              童年:“私生子的黄金时代”

                               

                              1452年的4月15日,16岁的女仆凯特里娜艰难地生下一个男婴。

                               

                              “又是一个私生子”,接生婆有些嗤之以鼻。不过,当时私生子并不是公众眼中的耻辱,特别是在统治阶层和贵族阶层,私生子的身份并无任何妨碍。

                               

                              中产阶级身份的爷爷和爸爸接过这个瘦弱的小家伙,给他起名为:达·芬奇·迪·瑟皮耶罗·达·芬奇。8个月后,母亲改嫁,父亲另娶。达·芬奇的抚养权被委托在祖父和叔叔身上。

                               

                              由于私生子的身份,达·芬奇不用子承父业,可以尽情发挥创造力。他也没有像其他孩子那样被送进“拉丁语学校”接受所谓的正规教育。除了在被称为 “算盘学校”的地方学了一点儿商业算术,达·芬奇主要是自学成才。

                               

                              达·芬奇12岁那年,继母由于难产和胎儿双双死在了接生床上;没过多久,爷爷也去世了。这一连串的打击令达·芬奇的爸爸伤心萎靡,决意离开芬奇镇重新开始生活。

                               

                              更重要的是,达·芬奇正好到了需要学习一门手艺的年纪,于是父亲把他带到了佛罗伦萨。


                              ↑ 夫妇素描


                              ↑ 攻城防御设施素描


                              ↑ 怪诞的男子头像


                              ↑ 服装的褶皱


                              ↑ 怪诞的男子头像


                              年纪轻轻不务正业,一不小心成为直升机设计的鼻祖

                               

                              当时的世界上没有哪个地方——从来也没有几个地方——能像 15 世纪的佛罗伦萨一样,为创造力提供了如此肥沃的土壤。它的经济从过去无须特殊技能的毛纺织业为主,逐渐蓬勃发展为艺术、技术和商业相互交织的形态。

                               

                              十四岁的时候,父亲为达·芬奇在佛罗伦萨找到了一份学徒工作。他的老师是艺术家和工程师安德烈·德尔·韦罗基奥。韦罗基奥有一套严格的培训内容,包括表面解剖学、力学、几何学、绘画技巧等等,而十几岁的达·芬奇,已经展现出了狂热的想象力和融合艺术与自然的能力。

                               

                              为美第奇家族的庆典表演服务是达·芬奇学徒时期的重要工作之一。达·芬奇乐在其中,他研究了如何让不同位置的观众都能看出透视效果,还热衷于将幻觉与现实融合在一起,十分富有想象力。设计特效、服装、布景和舞台机械也让他乐此不疲。

                               

                              从达·芬奇的绘画作品和工程设计中,我们都能看出这些演出和庆典对他产生的影响。

                               

                              在达·芬奇的笔记中能看到不少飞行装置,其中最著名的是飞机螺旋桨草图,经常被称为直升机设计的鼻祖。理论上,这个由亚麻布、绳索和支架构成的螺旋装置可以通过旋转升空,比莱特兄弟早了将近500年!当时,佛罗伦萨人的演出中经常有人物或道具从天而降,或者如魔术般的悬在半空。类似的笔记页中还有一些跟演出相关的内容,因此,这些飞行装置当时有可能是为了娱乐观众而设计的。

                               

                              在之后的很多年,不仅在佛罗伦萨,特别是移居米兰后,达·芬奇都花了不少时间设计演出服装、剧场布景、舞台机械、特效、飞行特技、横幅旗帜,以及各种娱乐项目。有人可能认为这些是不务正业,但是对达·芬奇来说,其中有将艺术与工程技术结合的乐趣。


                              ↑ 海岸鸟瞰图


                              ↑ 河边的护栏


                              ↑ 河谷地形图


                              ↑ 洪水

                              ↑ 机器


                              ↑ 怀孕母牛的子宫


                              25岁创业失败,30岁异地求职重新开始

                               

                              25岁时,达·芬奇自立门户,开设了自己的作坊。从商业上说,这并不成功。5年里,他只接到了3份委托订单,其中1件从未开始,另外2件半途而废。

                               

                              达·芬奇快过30岁生日的时候,虽然他才华已成,却没有什么可以示人的代表作。他为人所知的艺术成就寥寥可数。他觉得自己被一点点消耗,精神脆弱的达·芬奇心想,离开的时候到了。

                               

                              1482 年,三十岁的达·芬奇·达·芬奇离开佛罗伦萨,前往米兰,能到达米兰后不久,达·芬奇就起草一封给米兰执政者给卢多维科的求职信。

                               

                              达·芬奇在信中没有提到他的任何画作,而是大肆妄称自己的军事工程技术专长,部分原因是他觉得这会吸引卢多维科,因为斯福尔扎王朝就是用武力取得的政权,而且经常面临当地叛乱的威胁,还有法国的入侵。此外,达·芬奇把自己塑造成一位工程师,因为他正处于对执笔作画的厌倦中,这种情况在他身上每过一段时间就会出现。

                               

                              尽管后来达·芬奇从书上学习了诸多军事知识,确实画过许多构思巧妙的军事设备,有的甚至画了超过三十张图,而且细致、精确地画出了各个部位的构件,但其中只有一件最终从他的笔记本走上了战场。在达·芬奇的一生中,有很多这样只停留在构思阶段的从未完成的作品,包括绘画、纪念碑和发明。

                               

                              达·芬奇最终是以宫廷艺人的身份留在了米兰宫廷,他先是成为一名演出制作人,发明了乐器,为皇室消遣创作了夸张漫画,还写了上百篇文学小品。

                               

                              在米兰的这17年,也成为达·芬奇创作的黄金时期。绝大多数耳熟能详的作品,如《抱银鼠的女人》、《美丽的费隆妮叶夫人》、《岩间圣母》、《维特鲁威人》和《最后的晚餐》等等,都是在米兰时的创作。


                              ↑ 荒野中的圣约翰草图


                              ↑ 基督耶稣头像


                              行走的“八卦制造机”,私生活自带流量热度

                               

                              在米兰,达·芬奇为人称颂的不仅有他的才华,还有他的外表,他长相俊美、体格强健,而且温柔亲切。

                               

                              “他集不凡的美貌与无尽的优雅于一身。”瓦萨里如此形容他,“他相貌俊美出众,翩翩的风度能慰藉 最忧伤的灵魂。” 虽然 16 世纪的传记作者们有过誉之嫌,但是达·芬奇确实很有魅力和吸引力,而且他朋友众多。从数学家卢卡·帕乔利到建筑师多纳托·布拉曼特和诗人皮亚蒂诺·皮亚蒂,很多米兰和佛罗伦萨的杰出知识分子都在他们的书信和作品中提到过达·芬奇,认为他是一位受他们尊重和爱戴的伙伴。

                               

                              作为文艺复兴时期的“网红”,达·芬奇的私生活也备受关注。

                               

                              从情感到身体,达·芬奇都被男性所吸引。在内心深处,达·芬奇的性取向好像让他感觉到了自己的与众不同,是一个局外人。作为一个同同性恋,一位私生子出身的艺术家,还两次被控鸡奸罪,他深知被当作异类,或者自认为异类意味着什么。但是,就像很多艺术家一样,这一点最终并没有阻碍他,反而变成了一种财富。

                               

                              达·芬奇最早的同性伙伴之一是一位年轻的佛罗伦萨音乐家,他叫阿塔兰特·米廖罗蒂,达·芬奇教过他弹里拉琴。1480 年,阿塔兰特13岁,大约在这个时候,达·芬奇画了两幅画,一幅被他描述为“仰着脸的阿塔兰特肖像”,另外一幅素描画的是弹里拉琴的裸体男孩,这是一幅背面全身像。5 两年以后,阿塔兰特和达·芬奇一起到了米兰,并最终获得了音乐事业上的成功。

                               

                              1490 年,一位年轻人搬进了达·芬奇的家里。他有着天使般的面孔和恶魔般的天性,也因此得了一个绰号“萨莱”,这个词的意思是小恶魔。他后来成为达·芬奇最正式的一位长期伴侣。瓦萨里描述他是 “一位优雅而美丽的年轻人,长着达·芬奇喜欢的漂亮卷发”。达·芬奇笔下很多关于性的描述和暗示指的都是他。

                               

                              无论是在绘画作品中,还是在笔记本的速写中,达·芬奇对于男性身体的着迷程度远胜于对于女性身体。他笔下的裸体男性透着柔美,很多都是全身像。相比之下,他画的所有女性,除了现已丢失的《丽达与天鹅》,几乎都是穿着衣服的半身像。即便如此,达·芬奇在描绘女性方面依然是一位大师,这一点与米开朗琪罗不同。从《吉内薇拉·德·本奇》到《蒙娜丽莎》,达·芬奇的女性肖像中充满了深切的同情和直抵内心的洞察。


                              ↑ 肩关节的解剖学研究


                              ↑ 脚的解剖结构


                              ↑ 绞肉机战车


                              ↑ 基督头像


                              ↑ 解剖学研究(喉部和腿)


                              ↑ 解剖学研究


                              ↑ 巨弩设计图


                              ↑ 解剖学研究


                              ↑ 巨弩素描 


                              ↑ 颈部的解剖学研究


                              ↑ 老人侧面像


                              ↑ 老人和年轻人头像


                              ↑ 丽达头像

                              ↑ 丽达头像素描


                              ↑ 裸体男子侧面图


                              ↑ 马匹素描


                              ↑ 男性肩膀的解剖学研究


                              ↑ 男子上半身像


                              ↑ 男子头像


                              ↑ 男子素描


                              ↑ 女人的身体解剖学研究


                              ↑ 女子头像


                              ↑ 螃蟹草图


                              ↑ 抛物线圆规设计图


                              ↑ 女子


                              ↑ 扑翼机设计草图


                              ↑ 奇装异服的男子


                              ↑ 强弩机素描


                              ↑ 球上阴影刻度的研究


                              ↑ 人和狗的腿部解剖结构比较


                              ↑ 人和狗的腿部解剖结构比较


                              ↑ 躯干和手臂的骨骼


                              ↑ 人类头骨的研究


                              ↑ 萨莱头像


                              ↑ 三博士来朝透视图


                              ↑ 少女头像素描


                              ↑ 圣安妮头像


                              ↑ 圣母像草图


                              ↑ 手臂二头肌运动的解剖学研究


                              ↑ 市中心建筑方案素描


                              ↑ 水流碰到障碍和从高处流下的状态草图


                              ↑ 提水设备素描


                              ↑ 头部比例研究


                              ↑ 头部和眼睛比例的研究


                              ↑ 头部皮肤和洋葱的比较


                              ↑ 头骨


                              ↑ 头发卷曲着的年轻女子头像(丽达)


                              ↑ 凸透镜研磨机器设计图


                              ↑ 心脏和血管


                              ↑ 伊莫拉规划


                              ↑ 寓言


                              ↑ 犹大和彼得头像


                              ↑ 中心教堂草图素


                              ↑ 子宫里的胎儿


                              ↑ 自动机构素描


                              ↑ 自然灾害


                              ↑ 子宫里的胎儿解剖学研究


                              达·芬奇永无止境的好奇心和实验精神提醒着我们,无论是我们自己,还是我们的孩子,都不应止步于吸收知识,更要去质疑,要充满想象力,要敢于不同凡“想”,就像任何时代的异类天才和革新者一样。

                              无论在哪个时代,达芬奇的精神永远适用。

                              他的大脑,就是一个宇宙。


                              本文经授权转载自微信公众号“无书”,(ID:nonobo)


                              新智元春季招聘开启,一起弄潮 AI 之巅!

                              岗位详情请戳:


                              【加入社群】


                              新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号:aiera2015_2   入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 – 公司 – 职位;专业群审核较严,敬请谅解)。