北京治疗白癜风哪个医院看好 https://disease.39.net/yldt/bjzkbdfyy/机器之心报道机器之心编辑部12月6日,由世界人工智能大会组委会指导,上海市经济和信息化委员会、中国(上海)自由贸易试验区临港新片区管理委员会、上海临港经济发展(集团)有限公司主办的「WAIC开发者·临港人工智能开发者大会」在上海临港开幕。在这场一千多位全球优秀人工智能开发者齐聚的盛会上,多位来自学界和业界的代表分享了他们在开发领域的实践经验。作为WAIC开发者日的重要延续,为期两天的大会围绕开发者关心的话题,设置了主题演讲、公开课、开发者工作坊、黑客马拉松、技术和产业闭门研讨会等环节,为全球优秀的人工智能开发者们提供了一个学术交流、技术探讨和沟通合作的平台。在12月6日上午的主题演讲环节,商汤科技联合创始人兼CEO徐立、依图科技联合创始人林晨曦、华为智能计算副总裁/晟腾生态负责人易咏成、谷歌研究科学家/普林斯顿大学计算机科学系教授YoramSinger、南京大学人工智能学院教授俞扬等来自AI领域的重磅嘉宾为参会者们分享了不同的技术主题。此外,华为开源生态主任工程师黄之鹏与领规科技创始人黄康还进行了一场人工智能新锐开发者对话。在下午的人工智能开发工作坊环节,加州大学伯克利分校人工智能系统中心创始人兼计算机科学专业教授StuartRussell、北京大学计算机科学技术系副教授/AI自动代码补全aiXcoder项目负责人李戈、KaggleCompetitionsGrandmaster沈涛、百度AI技术生态部高级技术经理谢永康、亚马逊上海人工智能研究院应用科学家/著名开源人工智能系统MXNet、MinPy和DGL发起人及主要贡献者王敏捷、英伟达开发者社区经理何琨分享了各自在技术及产业实践中的经验和体会。机器之心对当日嘉宾演讲及对话的精彩观点进行了整理,以下为内容实录:商汤科技联合创始人兼CEO徐立商汤科技联合创始人兼CEO徐立的分享主题为「人工智能的颠覆式创新」。徐立表示,无论是从当前的产业实践还是从大众生活日常上看,都可以说,人工智能作为颠覆性的创新技术,已经深刻地改变了我们的生活。徐立认为,人工智能是否能够成为颠覆性的技术创新,需要从两个角度观察。首先是技术发展角度,技术的大发展、大跃迁往往是非连续的。从技术变革的大趋势来看,当前这个时代正处于技术大发展大变革的前一个阶段,数据、算力、传感器、存储和算法都出现了井喷式的发展,下一阶段的技术进步将会是非连续的跨越式发展。另一个角度则是应用成熟度。目前,各种各样的人工智能应用已经在善政、兴业、惠民等多个方面进入到人们的工作和生活中。在演讲中,徐立以商汤在这些场景中完成的相关技术创新和应用研发为例,来说明人工智能技术特别是计算机视觉领域的技术,正在走向成熟阶段。依图科技联合创始人林晨曦第二位登台的是依图科技联合创始人林晨曦,他的演讲主题是「无与伦比的AI时代」。林晨曦首先回顾了近年来人工智能技术的发展历程。以人脸识别方面的技术进展为例,林晨曦提到,近年来人工智能技术发展确实进入了一个「无与伦比」的时代。接着,他也介绍中国和美国在人工智能技术上的发展和对比,说明了我国在人工智能技术上仍有潜力,可以弯道超车。谈到依图科技在人工智能方面的发力,林晨曦举出了一些案例。例如,依图科技在算法层面,包括计算机视觉、语音识别、声纹识别、自然语言等领域的研究。同时,在应用层面,依图在智慧医疗领域发力,使人工智能儿科医生达到了三年制医生的水平。林晨曦认为,人工智能普及最重要的关键是智能的密度。从宏观上,单体、单模态的智能会变成多模态、群体的智能,在不同的行业里落地。从微观上来讲,算力的支撑——也就是单位面积智能的算力,是产业前进非常重要的因素。在演讲的后半部分,林晨曦介绍了依图在AI芯片领域的开发进展,以及视觉计算创新平台的开放计划。依图希望为视觉计算开发者提供更加标准和高效的支持与服务,提升智能芯片、智能算法和智能产品的整体产业能力,助力中国芯片设计业和人工智能的结合。华为智能计算副总裁/晟腾生态负责人易咏成华为智能计算副总裁、晟腾生态负责人易咏成首先回顾了我国在AI技术领域的政策和进展。他认为,我国在AI应用领域方面已超过所有国家,包括美国。但是,在AI领域,依然有三个可以看到的现象值得注意。首先,没有人工就没有智能。当前人工智能依赖大量人工标注的情况还没有实现根本改变。其次,算法落地应用依然困难。尽管在实验室中的算法性能达到很高的水平,但在实际应用还没有得到很好的应用。第三,AI和其他技术的连接依然不充分,AI和其他技术应用的深度融合将会是潜力巨大的商业机会。之后,易咏成总结了华为在人工智能领域的一些进展。目前,华为正在与全世界的研究机构联合进行研发,进一步打造全栈方案,构建投资生态。回顾华为的AI产品,易咏成重点介绍了华为全场景处理器,包括鲲鹏、昇腾系列和麒麟系列等。在全栈方面,华为进行了从模块到推理卡,到训练卡,到中心的主机的研发工作,以有开发框架和应用的合作伙伴产品的合作,包括在端边缘和云方面,华为也进行了布局。最后,易咏成呼吁合作伙伴加入到华为的生态营销活动中,也鼓励开发者加入到昇腾开发者社区。华为使用奖金等方式,鼓励开发者参与。谷歌研究科学家/普林斯顿大学计算机科学系教授YoramSinger在WAIC开发者定制公开课环节,大会请到了谷歌研究科学家、普林斯顿大学计算机科学系教授YoramSinger,进行《Re-layingthefoundationsofeffectivemachinelearning》课程分享。YoramSinger从机器学习的应用案例开始,介绍了人工智能的基本原理。他提到,机器学习其实与统计学密切相关,通过一系列的数据输入,神经网络等算法能够拟合数据的分布,并最终发现其中的隐藏规律。如何让神经网络实现这样的能力?YoramSinger介绍了神经网路的架构和原理。神经网络实际上依靠的是类神经元的计算方式。通过带有权重的神经元进行非线性变换的方式,加上多个神经元的深度连接,使得多层的神经网络具有强大的学习能力。此外,YoramSinger也介绍了卷积神经网络的基本原理,以及在图像领域的一些应用。他还提到了自动驾驶,以及机器学习怎样实现自动驾驶的方法。最后,Singer教授谈到了如何利用深度学习参与到类似于TPU集群计算和加速训练收敛的方法,同时也介绍了一些谷歌在这方面的创新,带给与会者很大的启发。南京大学人工智能学院教授俞扬在主题演讲环节的最后,南京大学人工智能学院教授俞扬为与会嘉宾和开发者带来了在强化学习领域的研究经验分享。俞扬介绍说,在我们的生活中,人工智能在两个方面实现了广泛的应用,一是预测和识别,二是决策。这两方面的研究在实际的学科划分上亦有不同。随后,俞扬介绍了在机器学习领域中强化学习和监督学习这两个技术的不同点,也介绍了强化学习应用于推荐系统的一些案例和方法。之后,俞扬谈到了强化学习在实际应用中可能遇到的问题,以及目前一些可能的解决方法。以淘宝为例,他介绍了推荐系统对用户行为带来的影响,以及强化学习的实际应用存在的困难和解决方法。除了商品场景外,俞扬同时也介绍了闲鱼砍价、物流等方面的工作。俞扬介绍在这些场景和案例中的方法论,谈到了如何成功应用强化学习的方法。最后,俞扬谈到了为开发者做的工作,包括强化编程和框架等。开发者可以利用这一框架,使得编程和研发算法更加容易。在上午主题演讲之后,大会还特别策划了「人工智能新锐开发者对话」环节,华为开源生态主任工程师黄之鹏与领规科技创始人黄康围绕「中国自主的AI工具包」这一热门话题展开了讨论。在下午的人工智能开发者工作坊环节,首位分享嘉宾是加州大学伯克利分校人工智能系统中心创始人兼计算机科学专业教授StuartRussell,他的分享主题为「ProbabilisticProgramming」。未来到现场的StuartRussell通过视频分享的方式,与在场开发者分享了自己概率编程语言和人工智能二者关联研究方面的一些心得。北京大学信息科学技术学院软件研究所副教授、北京大学元培学院李戈在StuartRussell之后,北京大学信息科学技术学院软件研究所副教授、北京大学元培学院导师李戈上台进行了演讲。李戈是AI自动代码补全工具aiXcoder的项目负责人,他分享了程序分析和代码生成领域最近的发展。在深度学习时代,自动代码生成方向有了很大进展。「在aiXcoder之上,我们希望能够打造一个全部基于深度神经网络的代码引擎,」李戈说道。「代码的处理工具和对自然语言、图像等内容的处理引擎大有不同。」李戈发现,深度学习在自然语言处理时的典型方式在于树形结构解析,这个方式比传统的NLP方法更加精准,并遵循这一思路开发了各种新兴的神经网络。验证了序列模型,图神经网络模型等方法。这一方向的研究并不是一开始就显露出巨大优势的。「在年,有研究还拿非深度神经网络和深度神经网络的代码生成方法进行了对比,DL优势不大。」李戈说道。深度学习兴起之前,人们对于程序语言生成就有了不少思考。一些研究认为,我们完全可以使用已有程序来构造新的程序,但需要研究已有程序应被切割成多大的片段;另一方面,程序语言具有自然语言的特性,但你所定义的程序语言只能在定义之内才具有意义。这些特性是处理程序语言时人们面临的问题,也为深度学习处理程序带来了有利的条件。把目光拉回到最近,年有一篇论文《MaybeDeepNeuralNetworksaretheBestChoiceforModelingSourceCode》已经提出了一种开放词汇神经语言模型,实现了一流的性能,甚至优于专门为代码建模而设计的Hellendoorn和Devanbu等最新方法。「通过代码表征模型和深度学习算法,我们可以实现很多功能,」李戈说道。「计算机程序在未来或许可以理解代码内容,避免恶意代码的破坏。」随后,李戈展示了这一工具的优势:因为aiXcoder可以进行整行的、连续的推荐,它类似于Gmail中的自动续写,仅需写一个开头就可以进行补完。对比其他类似的工具,aiXcoder仅需输入1/3内容即可完成同样任务。今年3月,aiXcoder发布了在线版本,用户仅需下载一个插件就可以在编程工作中使用它。现在这款工具已有注册用户4万多人。「不管是做研究还是做工具,我们的工作都是围绕程序语言进行的。aiXcoder的背后完全是神经网络,一切代码推荐都是由AI来完成的。」李戈说道。KaggleCompetitionsGrandmaster沈涛之后为大家分享的是KaggleCompetitionsGrandmster沈涛。沈涛在Kaggle平台上的排名是全球第八,共获得过10块金牌。同时他也是一位就职于腾讯AILab的医疗AI算法工程师,曾代表腾讯获得过医疗影像顶会RSNA颅内出血检测挑战赛的冠军。这一次挑战赛的经历和成果也是沈涛本次分享的重点。在今年的RSNA上,RSNA和Kaggle联合推出了颅内出血检测挑战赛,任务是开发一个机器学习算法来识别急性颅内出血及其亚型。从应用层面上说,这对于抢救脑出血病人和病情诊断等方面具有重要意义。比赛的难点在于,要求所开发的算法能够在短时间内从超过3万个病例的脑部CT图像中,找到颅内出血的病变规律,而且这些数据中还存在部分异常的「噪声」标注信息。在解决本次的CT图像任务的过程中,除了CNN模型,团队还使用了SequenceModel,采用了多阶段建模的方式来提升建模效果。在BaseCNN阶段,提取图像信息;在SequenceModel1阶段,融合多张CTslice的空间特征信息;在SequenceModel2阶段,再次整合图像信息、空间融合信息以及图像原始信息。针对CT这种特殊图像数据,团队设置了三种窗宽窗位,分别是Brainwindow(40-80)、Subduralwindow(80-)、Bonewindow(-),组成了一种全新的「3通道图像」进行输入。在训练过程中,团队采取了5折交叉检验的策略,从不同的StudyID中随机采样,并使用循环学习率,从各个阶段提取不同的特征信息。最终,沈涛团队依靠具备「多模型、多阶段、多信息」三个优势的解决方案,获得了挑战赛的冠军,这也是国内团队的首次夺冠。百度AI技术生态部高级技术经理谢永康百度AI技术生态部高级技术经理谢永康分享了了百度大脑开发平台的一些应用实践,飞桨、EasyDL和EasyEdge都是百度大脑开发平台中的产品,除了讲解技术原理之外,谢永康也用视频为开发者做了现场演示。目前,百度大脑开放平台最底层的是飞桨框架,在此之上是面向企业和个人开发者的AI开发者的AI开发者的AI开发平台,包括EasyDL和EasyEdge,在开放能力之上,是面向行业场景落地的各种方案和技术,包括面向企业服务、工业、农业等方向,以及面向私有计算的部署方案。目前,平台已经发布了多达项的能力,拥有了超过万的开发者。谢永康位在场开发者介绍了四款飞桨开发套件:ERNIE是基于(英文)多任务学习预训练的框架,使用多任务学习增量式构建预训练任务,将词法分析、情感分析典型任务的目标函数整合在一起,进行相互分享,从而得到整体效果的提升。PADDLESEG则是用于图像语义分割库的开发套件,目前包含了18个预训练模型,四大主流图像分割网络,在训练速度GPU的利用率、显存占用等维度上明显超过业内同类产品,可广泛应用于工业智能化领域、智能图像处理以及像农业的地块识别场景。接下来是PADDLEDETECTION,其主要用于端部署和端计算的优化,在训练速度、训练效果以及每秒的效果上面表现优秀,可广泛应用在智慧交通、安防监控以及商品检索等领域。最后是基于分布式CPU训练的CTR预估的模型ELASTICCTR,它具备了全异步的参数服务器、流式训练以及高性能IO这三个技术特点,可以广泛应用在视频、资讯排序和搜索排序的场景当中。在百度大脑的建设过程,基于行业需求的定制化AI模型和算法也是一个重要问题。为此,百度大脑发布了定制化模型训练和服务平台EasyDL和EasyEdge。在EasyDL上,用户所做的只是将数据上传,几乎不需要编写任何一行代码,就可以获得一个定制化的AI模型,去解决他们领域定制化的问题。目前,EasyDL已经上线了经典版、专业版和行业版:经典版和专业版分别提供了定制化图像分类等六个能力方向,行业版则面向行业客户,更加深入地结合行业业务场景去优化模型效果,以及提供对应的业务系统。EasyEdge同样具有易上手、低门槛、广适配、一站式体验的产品特点。用户能够把已经在云端、服务端用主流框架训练好的模型,通过EasyEdge去进行面向端设备的转换、加速,并且最终提供可以直接部署在端设备上的安装包。亚马逊上海人工智能研究院应用科学家王敏捷随后演讲的是亚马逊上海人工智能研究院应用科学家王敏捷,他也是著名开源人工智能系统MXNet、MinPy和DGL的发起人及主要贡献者,演讲主题为「深度图学习在人工智能中的探索和研究」。演讲伊始,王敏捷首先阐释了何为人工智能,并以AlphaGo和Alexa语音助手为例说明了人工智能在实际生活中的应用,并抛出了如何衡量人脑与人工智能的差距这一问题。随后,王敏捷介绍了「深度图学习」这一概念,即将深度学习放在图上进行学习,并因此诞生一种新的图神经网络。他通过自制的图表展示了近年来图神经网络(GraphNeuralNetwork,GNN)在机器学习领域的火爆程度:下图左是年至年期间,GNN论文发表数量的增长趋势;图右是关键词的引用率,其中GNN在所有关键词中增长幅度最大。之后,通过一个简单的社交网络,王敏捷向大家解释了图神经网络的定义,即学习点/边/图的特征。接下来,王敏捷分别详述了深度图学习在分子医药、知识图谱、推荐系统以及计算机视觉领域和自然语言处理五个领域的应用,并再次抛出了一个问题:传统深度学习框架对深度图学习是否友好?答案是否定的,所以他们提出了专门面向深度图学习的DGL(DeepGraphLibrary)人工智能框架。演讲的后半部分,王敏捷着重阐述了DGL的设计理念、系统架构和卓越的性能表现(支持各种消息传递计算、支持各种消息传递模式和适用于各类场景),并对DGL和其他面向深度图学习的工具进行了对比。然后,他向大家展示了DGL的几种编程体验、异构图支持、编程接口总结和系统优化(批处理消息传递计算和融合消息传递信息)。随着演讲进入尾声,王敏捷向大家分别展示了开源项目DGL的成长简史、在工业界和学术界的应用现状、社区互动、性能评测和未来的计划等多方面内容。英伟达开发者社区经理何琨英伟达开发者社区经理何琨是下午的最后一位演讲者,他的演讲主题是英伟达深度学习推演加速引擎:TensorRT。演讲开始,何琨向大家展示了英伟达的开发工作内容,其中就包括的TensorRT。他首先介绍了TensorRT是基于GPU的推理引擎,然后举例说明完整深度学习解决方案或研发流程,包括样本采集、模型训练和模型部署三个阶段,而TensorRT就服务于部署阶段。何琨表示,英伟达TensorRT是一种高性能深度学习推理优化器和运行时加速库,可为深度学习推理应用程序低延迟和高吞吐量。这些都是TensorRT的优点。接着,何琨向大家展示了TensorRT的工作流程,包括输入一个预训练的FP32模型和网络,输出时自动优化出一个部署在GPU的推理引擎。他表示,在整个流程中不需要再次执行优化步骤。在输入训练好的神经网络模型生成可执行推理引擎的过程中有五个步骤,分别是精度校准、层和张量融合、核心自动调整、动态张量内存和多流执行。何琨随后向大家展示了GoogleNet中Inception结构、垂直融合(VerticalFusion)、水平融合(HorizontalFusion)和ConcatElision的网络层架构。接着,何琨详细说明了在实际场景中利用TensorRT构建网络和进行加速的八个步骤,分别是创建Builder、创建Network、创建Parser、绑定输入输出以及自定义组件、序列化或反序列化、传输计算数据(host—>device)、执行计算和传输计算结果(device—>host)。其中,何琨还单独讲述了TensorRT的架构图。在人工智能开发者工作坊之后,大会在12月6日晚上安排了时长为四个小时的黑客马拉松挑战赛,本场挑战赛共设置了三个赛题,分别为「英伟达-基于轮式机器人Jetbot的深度学习方法体验」、「AWSDGL图深度学习大赛」和「谷歌开发者社区智能对话机器人:面向任务的单轮对话之命名实体识别大赛」,从不同应用场景出发,充分结合了工作坊演讲内容与赛题发起方平台工具,为开发者搭建了学习和实践平台。近两百名开发者参与了这场现场编程竞技活动,最终三个赛场共决出7支获奖队伍,获得了现金奖励。谷歌开发者机器学习方向专家孔晓泉,亚马逊应用科学家王敏捷、甘全、周金晶,英伟达GPU应用市场总监侯宇涛,机器之心创始人、CEO赵云峰为获奖团队颁发奖金。