【百人会2020】张建中:自动驾驶与机器人

文章来源:AI《汽车制造业》 发布时间:2020-01-12
分享到
“2020电动汽车百人会论坛”嘉宾演讲实录!

1月10-12日,2020中国电动汽车百人会论坛在钓鱼台国宾馆隆重召开。本次论坛围绕“把握形势 聚焦转型 引领创新”主题,邀请政府有关部门和汽车、能源、交通、城市、通讯等领域的行业机构和领先企业代表,就行业、企业、政策的转型与创新展开深度研讨。以下是英伟达全球副总裁、中国区总经理,张建中在本次论坛上的发言:

6371444054759672138111090.JPG

英伟达全球副总裁、中国区总经理 张建中

我题目是《自动驾驶与机器人》。为什么讲这个呢?我想今天这个世界,其实跟以前不太一样。英伟达花了20多年时间,主要做的工作其实是叫accelerating computing(加速计算)。加速计算跟平时计算不一样的地方是要去达到所有的计算速度,让它用当今技术上能够达到的最高水平。我们英伟达的宗旨就是让一切的地方能够让算力达到世界上最好的水平。这是我们美国的一栋大楼,我们另外一栋building还没竣工,我们希望能够帮助行业加快发展。

今天的行业其实有一个最大的变化跟以前不一样了,大概在去年的时候很多人都在谈IoT(物联网)比较多,但是我今天想谈一个题目叫SMART EVERYTHING,SMART EVERYTHING跟以前不一样的地方就是每一个终端、每一个设备基本上智能化的,就像今天很多人都在谈论一点,包括刚才ADI的同事讲电池。所以不光是连接,而且有智能。有智能就得有算法,有算法就得有软件。其实整个智能物联网或者叫智能世界最大的变化就是软件的重新定义,让所有的设备都能够跟设备之间进行互通。

如果我们去看英伟达的话,我们提供的设备也是让这些所有实现智能连接的方式、方法在不同的场景下实现。我们有云端的设备,从CLOUD端做training也好,做测试也好,或者是在终端做计算。所以说从云端到终端的方案我们都可以提供。我相信对于行业的消费者来讲,我们得到的东西远远比我们看到的东西要多得多。因为对于消费者,他不知道你的计算是在终端、边缘还是在云端,但是对于我们来讲,如果说提供一个开发环境,让所有的开发者去使用他的产品和更好地去开发他的智能设备的时候,我们就要提供一整套的解决方案。其中在机器人行业,我们给它提供了一个从端到端的全系列的全栈软件系统。

我分三个阶段跟大家解释一下。首先要有一个端到端的infrastructure,可以用今天的AI开发方式,给它提供怎么样做training的Model,training的Model设备得采集DATA,采集DATA对于机器人行业第一个就要做mapping,因为它跟汽车不一样,机器人在室内或者室外移动的时候没有一条固定的路线,所以基本上任何地方只要有空间都可以跑。但是汽车有一定的规则,而且还有马路,所以机器人相对比较复杂。你可以给它提供一个正确的管理方式和方法,这些软件可以让任何一个机器人在某一个特定的环境下面自动学习。training Model很重要,我相信很多的科研机构跟软件开发在这方面研究已经很有造诣,大部分的training的模型和方式方法已经非常成功。如果我们要想让它在现实世界当中去验证我们刚才的研究成果好不好,我相信跟王教授谈的平行的世界是一个道理。你要去simulation。simulation基本上是在AI研发当中必不可缺的环节。最终就是你的设备要有一个移动的计算设备,这个计算设备的计算力肯定是越快越好,像马博士刚才讲的算力达到1000TOPS是指日可待,而且现在就可以实现了。

我们英伟达的宗旨,无论哪一个行业,我们给大家提供的都是一个OPEN Software Program,这个OPEN Software Program的架构基本上是从一个SDK开始,SDK CUDA是一个通用平台,只要是在CUDA平台上开发的所有软件都是兼容的,可应用在所有的云、边、端的终端设备。在这个平台基础上,我们给大家提供的是所有的不同模块跟环节当中和Work flow当中所有的SDK,从Sensors、imaging、recorder等等基本上都可以让机器人在这个环节当中实现各种各样的动作跟指令。

(播放VCR)

我给大家演示一下开发过程,其实非常简单,任何一个研究机构都可以利用我这套端到端的解决方案跟开放的平台去实现机器人的研发。如果机器人研发当中,你不要小看这些小小的设备,其实它的应用场景跟实际工业当中的应用非常相关,大到矿场、矿山的无人驾驶汽车,完全可以用这样一个方法,在实验室里面帮他去实现软件的开发。我们在这个过程当中也把Isaac开发平台提供给各种各样的行业用户,让他们在虚拟世界里面去模拟现实世界当中各种各样的动作。今天的深度学习已经非常发达,几乎在每个领域当中都可以用深度学习去模拟人的各种各样的动作。在机器人当中有一个最复杂的领域,以前传统用编程的方法给机器设计动作,可是这些动作怎么做都不可能像人一样完美。如果我们今天用深度学习的方法去应用,基本上可以让机器人做复杂到跟人的动作一模一样的动作。所以这些成功的研发也让我们在机器人研究当中给大家提供了一条新的道路。

我们都知道机器人应用场景非常广泛,汽车自动驾驶就是一个最大的机器人。今天你看到的汽车,它的所有动作其实就是机器人的动作,它的感知系统、它的决策系统跟它的计算系统,跟机器人是没有什么差别的。既然是这样的,我们SOFT架构跟机器人的Isaac架构也差不多,只不过在英伟达的DRIVE里面,我们提供了更加复杂的跟汽车差不多的模块,其中它的Sensor更复杂,包括激光雷达、普通的毫米波雷达、摄像头等等。DRIVE这一套SDK跟Isaac的SDK最大的差别是什么?我们要在perception上要去增加它的广泛性。机器人通常很少在马路上跑,但是汽车的应用场景不太一样,在马路上很多感知的系统非常复杂,所以说只是在感知系统里面,我们为Perception研发了很多神经网络就有十几种,这几十种神经网络得到的数据、采集数据的方式跟处理数据的方式都跟机器人不太一样,我们把这些在汽车当中的各种不同的perception神经网络,把它预处理,设计出很多Model可以给很多开发者,让开发者用自己的数据再去强化和增强自己的模块。

(播放VCR)

各种不同的Model能做什么,基本上从障碍物的识别、物体的识别,到决策的行为预测等等,测车跟车之间的距离等等都会不一样。另外一个是在做安全预测,DRIVE的安全预测比其他更加重要,因为我们知道汽车理论上讲,如果按照国家标准的话,任何一辆车要经过几百万公里的驾驶测试才可以上路,但是今天用DRIVE CONSTELLATION,在super computer上面可以跑几亿公里,可以在自己的云端或者在自己的服务器上随意地去测试各种各样的性能。

这些设计好的模型要上到车上去,真正做到自动驾驶或者无人驾驶,无论是L4还是L5,其实算力肯定是远远不够。刚才马博士已经帮我透露在CES刚刚发布的一颗芯片,叫Orin。Orin这颗芯片的算力已经达到200TOPS,但是我们都知道,很多客户在设计他们的自动驾驶解决方案的时候,只是一个Orin可能还不够,一定要加上我们的DSCore GPU(音),DSCore GPU就相当于今天的特斯拉V100,把V100的独立的GPU处理器跟Orin可以布置在一起,这样去实现更加强大算力的计算需要。你自己计算一下就知道,今天的一个独立的GPU本身就有好几百个TOPS,加上200个TOPS,如果翻两倍的话,达到1000个TOPS是很容易实现的。

如果用这样的方法,今天的组合架构可以从普通的ADAS,L2、super L2到L4、L5都可以有完整的解决方案,我相信在不同的应用场景下面,算力可能要求不太一样,当然,对于每一个客户来讲,它的成本也不太一样。如果说能够在满足今天的电动车在一些高速公路场景上实现的话,L3跟Super L2可以解决很多自动驾驶场景当中常见的问题。

(播放VCR)

让大家看一下我们最近一段时间的研究成果。在硅谷,这就是我们刚才说的英伟达那个建筑物building,右边的building还正在建设当中。这条路是从地下车库出来,从这栋楼要开到另外一栋楼,出门之后要经过几个街道,这几个街道其实是很麻烦的,你们要是去过硅谷,参观过我们总部的话,其实那条路不太好走的。又有人又有车,红绿灯非常复杂,我们从车库出去,全部都是无人驾驶,没有任何的一次人干预。经过了这些匝道直接上到高速公路,在高速公路上能够自己变道,像车内的AI应用也非常复杂。我们不光是把汽车应用在自动驾驶当中,也应用在车内的驾驶员的监控系统,可以看到驾驶员的眼睛注意力不集中的话,他会提醒这个汽车和提醒司机。这个汽车会自己自动地从主路上变线,或者换到其他高速公路的时候全部都是自动化的,前提是有HD map,在这之前我们已经有HD map的service,让它能够提供给汽车,让它自动驾驶。你看到这些路况已经不只是封闭的高速公路,实际上它是一个很开放的、很复杂的交通环境。这个车旁边有一些故障车或者警车的话,会自动绕开它,找到合适的路线去完成它的驾驶。整个驾驶环境,如果大家感兴趣,去到英伟达在美国的办公室,亲自体验一下自动驾驶的效果。

收藏
赞一下
0