智能驾驶 - 活动家资讯 //m.catawbaoil.com 传递会议价值_深度行业分析 Wed, 10 Jun 2020 03:00:47 +0000 zh-Hans hourly 1 https://wordpress.org/?v=6.8.2 //m.catawbaoil.com/wp-content/uploads/2021/11/cropped-logo-2-32x32.jpg 智能驾驶 - 活动家资讯 //m.catawbaoil.com 32 32 2020上海国际汽车智能座舱技术创新展览会来袭 //m.catawbaoil.com/85884.html Wed, 10 Jun 2020 03:00:47 +0000 //m.catawbaoil.com/?p=85884 Read More “2020上海国际汽车智能座舱技术创新展览会来袭” »

]]>
展会介绍

随着人工智能和车联网技术的不断发展,未来汽车发展方向也朝着时间更长、层次更深、频率更高的
人机交互方向发展,快速发展的座舱电子有望作为人机交互的中枢,满足乘客最终驾驶体验。汽车人机交
互方式正处于变革的前夕,多屏驾驶舱有望重新定义人机交互,逐渐成为人机交互的体验核心。
置身于全球最大汽车市场,企业如何具备全球视野,参与国内、国际分工与竞争,这已是十分现实的问题。为适应汽车品质提升的需求,促进未来汽车行业发展与产业化应用,在此特别向您推荐“2020国际汽车智能座舱技术创新展览会(CIAIE) ”,希望您通过这个平台找到答案。

2020第三届上海国际汽车智能座舱技术创新展览会

The 3rd International Automotive Intelligent Cockpit Technological Innovation Exhibition

2020中国(上海)汽车智能驾驶座舱创新技术峰会

展会基本信息

展会日期:202087日-9

展会地点:上海新国际博览中心(龙阳路2345号)

主办单位:国际汽车轻量化绿色科技联盟

中欧新能源智能汽车产业联合会

英佛传媒集团(Info Media Group)

中国汽车智造创新联盟(CAIA)

中国汽车配件行业协会(CAPIA)

承办单位:英佛会议展览(上海)有限公司、毕克展览(上海)有限公司

活动详情链接:https://www.huodongjia.com/event-757689817.html

]]> 驭势科技联合创始人&CEO吴甘沙:人工智能新视野——智能驾驶解读 //m.catawbaoil.com/61886.html Thu, 15 Jun 2017 02:35:05 +0000 //m.catawbaoil.com/?p=61886 Read More “驭势科技联合创始人&CEO吴甘沙:人工智能新视野——智能驾驶解读” »

]]> 2016年11月18日-20日,由CSDN重磅打造的年终技术盛会 —— 2016中国软件开发者大会(Software Developer Conference China 2016,简称SDCC 2016)在北京京都信苑饭店隆重举行。本届大会云集了100多位国内外顶尖专家和技术大牛,共设新趋势和新实践2大主题会场,12个技术专题,以及2个特色技术活动。面向国内外的中高端技术人员,聚焦最前沿技术及一线的实践经验,助力企业的技术升级和改造、全面提升技术人员的综合实力。

在11月19日的Keynote上,驭势科技联合创始人&CEO吴甘沙发表主题演讲《智能驾驶的软件闯关之路》,希望给专注移动APP、互联网的工程师们带来人工智能的新视野,解答未来智能驾驶将会如何改变我们的生活以及智能驾驶离我们究竟有多远的问题。数字化和网络化引领了一代互联网繁荣,但在未来20年,智能化将会波澜壮阔。对此他给出以下四个分析标准:市场规模、客户痛点解决程度、商业模式创新空间以及行业发展空间,智能驾驶间接带来的社会收益将会成为第三个万亿美金大市场。互联网的本质是解决信息的不对称,然而网约车并未根本改善成本因素,通过无人驾驶技术则可以解决事故率高、能耗性高、效率低、停车位等问题。

通过用户端调研显示,88%参与者认为智能驾驶在未来必定能够城市化,未来10年与人或物相关的所有交通产业会被重新定义,极大提升商业模式效益。智能驾驶具备多种形态,目前在辅助驾驶等领域已试测完成并实现了自主超车等复杂功能。那么软件工程师应如何成为智能驾驶时代的弄潮儿?五个要点:缺憾零容忍,配置多多益善,不断精进感知和认知,追求实践创新,跳出舒适区和迎接大时代。在丰富的案例和动态图示下,最后他表示至2030年,完全自动驾驶车辆市场占有率将接近10%。

图片描述
驭势科技联合创始人&CEO 吴甘沙

以下为演讲整理


Host:最近大家可能都在谈人工智能,谈智能交通、智能驾驶、智能汽车等等,现代生活中的很多便利除了本身的智能化外,还要归功于我们技术人员的推动。在整个制造业里,我自己接触的奔驰、宝马这些合作商也在全方位推动智能汽车制造,还有很多的创业团队也在加速智能自动驾驶的研究。下面有请中国自动驾驶的前沿探索者——驭势科技的联合创始人&CEO吴甘沙。

吴甘沙:这可能是我近两个月来参加的技术水平最高的大会,无论是我们的讲者还是我们的观众,技术都是非常强的。以前我也是一名软件工程师,跟大家一样年轻过,也非常怀念当时纯粹美好的编程生活。但在今天的40分钟内,我的目的可能更多是希望大家在忙碌于手头的移动APP、互联网、分布式基础设施之余,抬头看见还有一扇窗,在这个窗外有新的世界,而这个世界就是智能驾驶。我想花这么一点点时间跟大家讲讲未来的智能驾驶将怎么改变我们的世界,而我们作为一个软件工程师离智能驾驶又有多远?我们如何参与到智能驾驶这一波大潮之中?

智能驾驶是人工智能的分支,一个大致的判断是:2016年开始,人工智能革命在市场规模辐射度、时间持久度上会与1996年的互联网以及1976年的PC相提并论。正如PC和互联网分别引导了数字化和网络化的20年繁荣,那么未来的20年智能化将波澜壮阔。

智能驾驶是未来10年最重要的一个人工智能产业

我们判断的时候分为几个标准,这几个标准可以供大家参考。

一.市场规模

首先市场是足够大的,它涉及三个万亿美金的市场:汽车市场;出行市场,Uber、滴滴通过多样化的出行改变了我们对交通工具的使用模式;而第三个万亿美金则是智能驾驶间接带来的社会效应。摩根斯坦指出智能驾驶一年能够给美国带来1.3万亿的美金,相当于美国GDP的8%,相信没有第二个人工智能技术能够达到如此之高的GDP占比。

二.客户痛点解决程度

我们来看一下它是通过解决了哪些客户痛点带来这些效益的。以北京进行模型分析——600万辆机动车会带来什么问题?有两个逐级恶化的链条。一是车多导致堵车、违规驾驶,进而导致交通事故层出不穷。今年全世界因为交通事故死亡的140万人中,中国就占到了四分之一左右。交通事故同时会使得道路堵塞、能源浪费、油耗提升和废气排出,渐而导致雾霾。二是车多导致停车困难。三个数据:一辆车90%时间是停着的;在美国所有的汽车行使里程中30%的里程是寻找停车位;在北上广这样的城市里15%的土地用来停车。现在的网约车一定程度上解决了打车难、打车贵的问题,但是它并没有改善成本结构,没有从社会层面提升效率,所以并没有根本上解决问题。所以我们希望十年以后能够通过无人驾驶技术改变这一现状。

三.商业模式创新空间

未来的车跟今天的绝对长得不一样,虽然会降低交通工具属性,但是商业的空间属性绝对会增加。所以我们的结论是未来10年所有跟人和物相关的交通产业都会被重新定义,从出租车到停车业到写字楼到服务业还有物流。有人问我,这两百万辆出租车上班下班的时候很忙碌,中午干嘛呢?可以给你送餐,在淘宝买的东西可以给你送货,包括金融等等都会被重新定定义。

四.行业发展空间

《从0到1》中讲到,选择一个行业时需要一个很宽很深的护城河,智能驾驶恰恰是这么一个行业。智能驾驶有这么几种形态:驾驶辅助、辅助驾驶、高速自动驾驶、限定场景无人驾驶以及全天后全区域无人驾驶。在我们做的辅助驾驶系统中大家可以看到,我们已经实现了一百公里时速的驾驶,包括自主超车功能。除了这个之外,我们又做了一些无人驾驶的探索,针对无人驾驶的特点设计两排座椅对排着做,没有方向盘,没有刹车。这些在一些园区里也开始了常态化的测试和试运营。

所有这些东西都跑在软件和硬件站上。下面是硬件和通讯,强调硬件小型化、高效能、高可靠,在上面则需要有一个实时的高可靠系统软件架构记录监控系统。大家想象一下,未来车上面可以有一个黑匣子去还原过去30秒发生了什么,每个硬件的日志模块是什么,能够有效帮助定责。上面还有驾驶员行为学习和人机接口,还有规划认知来控制方向盘、油门和刹车。边上每一层还有贯穿远程的维护系统和安全系统。这些东西事实上我们有不同的人去做,有人工智能的计算机视觉团队,国际T1核心工程师组成的团队,还有产品设计和系统工程团队。讲这个的意图是想告诉大家,绝大多数的人跟在座的没有太大区别,也是从我们现在的互联网、从现在的IT领域进入到智能驾驶领域的,它的门槛没有我们想象的那么高。

作为一个软件工程师,如何成为弄潮儿呢?

1983年通用汽车的工程师就已经预言了,未来在汽车上软件开发将变得最重要。在1970年时,汽车里的电子部件成本只占5%,而现在可能会高达50%甚至是80%。大家可以想象软件对于我们的驾驶会多么得重要。那么,我们应该做一些什么样的事情呢?

一.缺憾零容忍

在汽车上需要对缺憾不断改进,通过软件不断迭代、不断去做OTA的软件升级。特斯拉今年5月份发生了一起致命的车祸:当时这个车做了一个转弯,就是横在路口的时候一辆车开过来撞上了。从特斯拉的角度解释,车是沿着城西在开,所以这样的强逆光极大削弱了摄像头的效能。其视觉算法的提供者解释,原来的算法只用来识别当前车道前车的尾部,但是它并不认识一辆车横在那的时候。特斯拉还有雷达,但是雷达为了减少误刹车做了较为保守的分类,把它判断成了横跨马路的一个交通标志牌。所以应该怎么去解决?比如说改进雷达的算法、应用深度学习识别算法或者应用双目视觉雷达等等。

二.设备多多益善

在传统的软件编程里我们希望用最精益的方法去实现功能,但在汽车上一定要考虑多多益善,因为增加的冗余可以极大提升安全。最新的特斯拉设计除了超声波、雷达之外,从一个摄象头变成了八个摄象头,极大增加了冗余。其他像宝马的车,360无死角多冗余地配制了各种传感器。多种手段的相互冗余和交叉验证能够提升准确率。

三.不断精进感知和认知

认知分为三个层次:从检测该识别的东西到明白整个世界,从简单的不撞到兼顾更加舒适的驾乘感受,从咏春木人桩到少林18铜人。很明显第三阶段是我们追求的目标,能够判断态势,评估他人动机并预测行为,而且可以合理获得路权。在这一点上可以借助强化学习(RL)和递归神经网络(RNN)。

四.追求实践创新

我们每一位软件工程师都是软件的实践者和创新者,但在汽车上你要做得更加完善,追求创新。这就需要做各种各样的测试、模拟和仿真。我们的算法还是有漏洞的,因为时间的关系我就不细讲了。

五.跳出舒适区,迎接大时代

我们中国驾驶的路线图,到2020年会有1500万辆车具有驾驶辅助或者是部分驾驶的功能,所以这是一个巨大的市场。我们一直喜欢引用这句话:时来天地皆同力,运去英雄不自由。IT革命的每个阶段都会看到落寞英雄的背影,对于我们工程师来说最重要的就是要选择时代,做趋势的驾驭者,而不是随波逐流者。最后这段是耐克的创始人所说的:懦夫从不启程,弱者死于途中,只剩我们前行。我相信大家都愿意做强者!

]]>
驭势科技联合创始人兼CEO吴甘沙:智能驾驶中的人工智能 //m.catawbaoil.com/61841.html Wed, 14 Jun 2017 07:49:22 +0000 //m.catawbaoil.com/?p=61841 Read More “驭势科技联合创始人兼CEO吴甘沙:智能驾驶中的人工智能” »

]]>
2016年12月8-10日,由中国计算机学会(CCF)主办,CCF大数据专家委员会承办,中国科学院计算技术研究所、中科天玑数据科技股份有限公司与CSDN共同协办,以“聚焦行业最佳实践,数据与应用的深度融合”为主题的2016中国大数据技术大会在北京新云南皇冠假日酒店隆重举办。

2016中国大数据技术大会首日全体会议中,驭势科技联合创始人兼CEO、CCF大数据专家委员会委员吴甘沙带来《智能驾驶中的人工智能》的主题分享。他表示互联网的本质主要有三个层面:第一,重构信息不对称的社会格局,建立连接;第二是交易成本最小化,但不是生产成本;第三,惠及长尾人群,但未必产生整体效率的最大化。可以看出互联网在给人类带来便捷的同时也带来了不少的坑。他预测面对互联网挖的坑,只有人工智能才能填。同时,他表示未来所有与人和物的交通相关产业都将被重新定义。

对于智能驾驶到底离我们多远,他强调,驭势科技力争成为中国第一家在2-3年内同时实现辅助驾驶和无人驾驶商业化的公司。但是智能驾驶领域面临极高的门槛,包括基本认知,检测不能撞的障碍物和路面行驶区域、地图和地位、感知像认知的跨越、未解决的挑战包括人工智能的鲁棒性、从weak AI到stronger weak AI。他表示比代码更难的是,是数据以及基于其上的随机算法和机器学习。所以智能驾驶系统需要可预期的置信度。

吴甘沙
驭势科技联合创始人兼CEO,CCF大数据专家委员会委员 吴甘沙
以下为演讲实录

大家下午好,很高兴又一年来到了BDTC,每年都来,每年都能够感觉到数据科学作为一个非常年轻的学科它的蓬勃生命力,每年也能感到它有一些新的内涵和外延,我今天讲的智能驾驶,在内涵是数据科学和智能,外延上讲的是应用也就是智能驾驶。

我们每天都有这样一个痛点,堵车导致了路怒,导致交通事故。于是路会变的更堵,然后能源就会浪费百公里油耗上升,于是又有雾霾。另一方面,停车又是一个非常困难的问题,我们今天一辆车96%的时间是停着的,而且需要两个停车位于是需要大量的停车空间,国外做过一个统计,汽车所有行驶里程当中30%-35%是为了寻找停车位,从A点到B点,很多大城市15%以上的土地是用来停车的,很多年轻人只能够居住在远离城市的郊区,于是有了睡城,有了上下班的潮汐效应,大量时间浪费在了路上。

网约车能不能解决?首先要看互联网它的本质,我们认为有三点:

  1. 它是重构了信息不对称的格局,它其实是通过大数据方法来建立连接,这一点网约车做的非常好,现在打车都变的更容易了。
  2. 它使得交易成本最小化了,我们的交易成本,无论是金钱还是时间上面的成本变的更低了,但是我提醒大家注意,交易成本降低了,生产成本没有变化,生产成本是由生产资料和劳动力决定的,互联网语言说羊毛出在猪身上但是狗去买单,但是羊肉肯定出在羊身上,这个生产成本不会因为互联网连接就简单了,现在打车更贵了,是因为生产资料车和油劳动力是司机,他的成本不会有太大的变化。
  3. 互联网能够汇集长尾的人群,但是每个人变的更方便了,不见得意味着社会整体上利益最大化,比如说几十万辆快车或者专车以前是不上路的,现在因为有了网约车他们上路了,导致上下班的时候更堵,这事实上也是可以通过大数据来解决的,比如说现在有了拼车,感觉一定程度上能够改善这样一个问题。但只有中间的生产成本这一块,大数据解决不了,互联网也解决不了。它挖的坑要通过人工智能来填.

人工智能从本质上来说就是把生产资料跟劳动力合二为一,这样才能改变我们的生产成本结构,所以我们认为智能驾驶具有人工智能和大数据特点的,是解决堵车、排放等等诸多问题的方式,未来有了智能驾驶,马路上车是可以分可以分,合也可以合,合的时候大家排的整整齐齐,道路利用率提升了,交通事故减少了。未来如果是出租车的话对于停车位的需求极大的减少了,有时候即使需要停下来,一个小停车位就能停进去了,不像我们今天有很大的停车位,因为有很多新手,停进去还得留足开门下车的余地,未来无人驾驶都能解决。而且10-15年以后汽车长的不像车了,它交通工具的属性不断降低,智能空间属性逐渐提高,在里面放一台咖啡机就变成移动星巴克,放大屏幕就变成电影院,放办公设备就变成写字楼,所以未来10-15年我们相信所有跟人、物交通相关的产业都会被重新定义,包括出租车停车业、写字楼服务业还有物流,无人驾驶车不但能够接人送人而且能够送货,金融业都会得到改变。

无人驾驶离我们多远呢?

无人驾驶离我们多远呢?我告诉大家并不远,预测至2020年带有驾驶辅助和部分自动驾驶功能的车辆会达到每年1500万辆,而且从客户端和政策端看,达沃斯论坛及波斯顿咨询集团对于全球很多城市的政策决定者的调研,88%的人希望无人驾驶能够在未来十年当中在城市里实现商业化。所以作为一家新的创业公司我们希望能够成为中国第一家在两到三年之内实现辅助驾驶和无人驾驶商业化的公司,我们是从车库里开始创业的,大家注意,如果号称是做智能驾驶而不在车库创业就有点耍流氓了。我们有两个产品线,一个是高速汽车的辅助驾驶,如视频是我们的车在高速公路上的行驶状况是国内第一个能够做到100公里辅助驾驶并且能够做到自助超车技术,绝大多数时间是在高速的中间道上开100公里,但是如果前车实在太慢了,忍不住了,一言不合就超车了,开上120公里的快车道,超过车以后自己再回来。

另外一条产品线是无人驾驶,大家可以看到这里面有两款无人驾驶车辆,左边一款特别适合最后三公里的出行,从地铁站出来离家还有几公里,它可以送过去,右面的比较适合园区、景区、主题公园、大学、机场、还有高尔夫球场等等这样的场景,可以看到在我们的研发基地这样的车已经开始了常态化的测试,可以用手机把这辆车叫过来,上车告诉它去十号楼,全程用户界面非常简单。

另一方面单排两座小车,特别适合最后三公里出行的小车也能够以非常轻盈的姿态在这样的场景里走,而且无人驾驶千万不要配一个人维护,所以它有很多很先进的功能比如自动充电,当它发现没电的时候会自己找到带无线充电停车位的地方自己停进去充电。

所有这些都有非常高的技术门槛,这是非常典型的智能驾驶的硬件软件站,从硬件到系统软件再到各种机器学习的算法,从感知,像眼睛和耳朵,到规划是大脑决策系统,到控制,像小脑要控制油门、方向盘、刹车,从仿真、测试、信息系统的安全到远程监控维护系统,非常复杂,今天主要是在上面的部分,主要在人工智能算法这一块。

基本认知,检测不能撞的障碍物和路面行驶区域

第一个非常重要的地方是怎么能够检测不能撞的障碍物,及路面的可行驶区域,这是一个智能驾驶最基本的要求,检测最便宜的、最直接的一种手段就是基于摄象头,基于计算机视觉,而视觉给你带来的就是语义模型,能够检测出来车道线。车道线代表车道说明我们可以在里面走,我们要检测车、检测行人检测交通标志等等,最早大家可以看到就是用简单的机器学习的算法能够检测出来车道线,包括对车道线进行弧形建模,然后检测各种各样的车辆,不仅仅是车还有它跟你的相对距离和速度。还有行人,行人是非钢体所以检测变的非常困难。

还有一种手段通过立体视觉多个摄象头组成的立体视觉形成几何模型而不是语义模型,比如双目摄象头,通过这个双目摄象头我们可以带着深度看这个世界,大家可以看到行人远的时候是冷色调,靠近的时候是暖色调,它给我们带来了对世界的几何判断。更重要的传感器是激光雷达,激光雷达能够更加准确的建立世界的几何模型。

大家可以看到是长线64线的激光雷达,它对世界的感知,树、草地、障碍物、汽车、房屋等等非常准确的对环境进行了建模。GOOGLE第一代无人驾驶车,顶上圆的转盘就是激光雷达,第二代、第三代也有。百度第一代也有,第二代上面也有,这就是最常见的激光雷达,但是这个激光雷达70万人民币,一定程度上阻碍了这样一种技术的商业化。如图是我们的样车,大家可以看到顶上也有激光雷达但是我们的激光雷达小很多,16线的激光雷达,相比64线的激光雷达它的成本大概是1/10左右。但是未来几年激光雷达贵的问题就会被解决了,因为车厂都在启动,订单来了,现在领先的激光雷达厂商号称只要来一百万台订单,它的价钱就可以从今天的75000美金70万人民降到500美金以下。

有了激光雷达有了视觉,自然的想到既有语言模型又有语义模型加起来可以对世界更好的了解,视觉一方面是分辨率高、有色彩有纹理,激光雷达单色激光分辨率比较低但是对场景感知比较准确,把这两个东西合起来肯定更好。基于此我们跟中科院联合搞了博士后项目,方向就是激光雷达+视觉融合。

另一方面在最近这几年激光雷达很显然还不能商业化,这时候就考虑用更便宜的传感器做融合,视觉+雷达甚至是超声波。如图是最典型的一款带有自动驾驶的车辆,主要靠上面的视觉及下面的毫米波雷达,加上车身周围一圈小圆孔是超声波,通过这三种传感器能够更好的感知环境。

但是我想告诉大家这三种传感器本质上面它不能做到百分之百的可靠,今年5月份的时候特斯拉出现了一起致命的车祸,当时一辆长条的卡车在路口转口过程当中开过来,但是它的感知设备并没有感觉到车的存在,于是从车身下面钻了过去,驾驶员当场身亡了。为什么不能感知呢?,今天主要看视觉这一块:

  1. 受限于光照条件,当时这辆车是迎着晨曦在开,大家看到整个画面过饱和,强逆光导致它对环境的感知发生了一些问题。
  2. 跟算法相关,原来车辆检测的算法是基于传统的机器学习,基于人工的特征工程,它可以感觉到一辆车它的尾部是几何对称的,有两个明显的车灯,地下还有阴影,通过这样一种人工特征工程来识别,非常悲剧的是卡车是横在那个地方的,所以就没有检测出来。怎么办?

第一个就是增加信号,改进是觉得感知能力,从本质上这是一种大数据的思路,比如通过更好的传感器,通过星光级的传感器能够在微光、强逆光条件下也能够感知,另外调整动态曝光和自动增益也可以,还有通过立体双目摄象头更好的感知环境。如图是双目摄象头对环境的感知。路面上面的所有的静态和动态的障碍物都可以用一团点云描述它,点云是有颜色的,靠近的地方是暖色调,渐行渐远就变成了冷色调,通过这样的立体视觉,通过大数据的方法多个摄象头相互交叉验证,可以更好的感知环境。

还有一种方法就是人工智能的思路,就是通过更好的算法,还是用一个摄象头但是用了深度学习的算法,深度学习大家知道,它的部分再是人工特征,它是一个自动学习特征的过程。通过大量的数据学习就能够在不同角度不同距离,甚至有遮挡的情况下,甚至对一些异形的车辆都能够做很好的检测。如果使用落后任务的深度学习的网络,能够在一个更复杂的场景里面同时检测行人、检测自行车、检测各个角度的车辆,横着的车或者侧向的车都能够很好的检测,这是通过多任务的深度学习的网络能够做到。

这时候想提醒大家一点,今天前20名的深度学习检测,都只能够达到90%-91%的准确度,意味着什么?意味着今天的深度学习还不完美。另外一个深度学习必然会碰到成本的问题,在这条光谱上左边是灵活性很高,可编程性非常高,比如CPU。右边的功耗比较低,每个美金能够买到的深度学习的计算力更大,但是大家知道ASIC把深度学习做死在芯片里面不是我们所愿,因为未来几年算法还会有很大的变化。

另一方面CPU太慢了,就剩下几种。GPU是最主流的一种深度学习的工具,但是在最近几年的辅助驾驶的场景里面可能还偏贵一些。FPGA也非常好,比GPU便宜功耗还低,但是也偏贵。另一方面改动一次算法可能要几个月。现在非常火的就是神经网络的芯片,我觉得是未来得方向,只不过现在还处在早期首先要做出来,做出来以后软件还要足够好,能够充分发挥硬件的能力,编辑器要足够好,接着还要能够符合车规,车上面防震防尘,芯片上要做进一步的改进,再加上一辆车十年生命周期保证十年的零部件供应,最近几年不是很好的选择。当然最近几年就是DSP,但是DSP的计算能力有限,这时候就必须得考虑有什么方法绕过去,比如用传统视觉取代深度学习,虽然在汽车的检测上传统视觉不如深度学习,但是在车道线检测上传统视觉做不得错。第二是采用多任务的网络,一套网络同时可以检测汽车行人和交通标志。第三是模型压缩,或者是对算法进行优化,大家知道今天很多卷集神经网络是基于(Vage),如果能够把几千个V变成一百个,精确对不会受到影响,就是很好的做法。未来开元深度学习的框架对于低成本硬件的支持也会变的越来越好。

所以这里面又有一个认识,引用一下李小龙的话,“最好的功夫并不是击倒对方,而是像水一样柔软和灵活”把水倒到杯子里就变成杯子的情况,倒到茶壶里就变成茶壶的形状,水无常形能够顺应它的环境解决问题,所以我们使用大数据是解决问题。

地图和定位

刚刚说了怎么检测障碍物,检测行驶区域,第二是要有地图和定位。人驾驶靠GPS,GPS定位精度差不多是十米,为什么这么大的误差我们还不会走错路呢?因为人有通用的人工智能,我们有常识,我们有对模糊信息的处理能力我们能容错,而智能驾驶,今天所有的算法都是弱人工智能,意味着需要更加准确的十厘米的定位精度,这里有个认识,今天的智能驾驶的算法只能算weak AI,必须通过各种各样的传感器的融合来弥补,我们选用了一款传感器它能够做到厘米级的定位机构,如图这是我们研发基地,我们从建筑物里出来做了不规则的运动,绝大多数情况下轨迹是非常清晰的,但是右边下部GPS信号出现大量的跳跃,换个时间建筑物的左边信号出现了很多毛刺,这是跟卫星的通讯状况、跟地面基站的插分计算的状况有关系的,所以绝对定位非常好但是并不是非常可靠,这时候要加入相对定位,就是相对前一时刻的位置做了多少位移,这里面通常使用了一种器具叫做高精度惯导,往往用于军事,战斧、巡航导弹这样的武器,我们想用双目也可以做惯导,通过幩与幩之间的位移判断变化,把这些位移集中起来就可以看见轨迹了,它的累计误差是非常小的。

另外一个非常典型的使用场景就是宇宙当中最复杂的立交桥,西直门立交桥,在这个过程当中GPS是不工作的,通过双目摄象头视觉的里程计能够准确的把轨迹把握下来,这是把绝对定位、相对定位融合在一起绕建筑物开一圈,大家发现所有的毛刺都去掉了,但是相对定位还是有问题的,比如在这样一个场景。场景里有很多树很多草,而树叶是会动的,这时候检测到的视觉特征点本身是不靠谱的,这时候我们想到一个办法,每过一段距离竖两块牌子,在牌子上面划一些特殊纹理的特征,开到一定距离检测到这两个特征以后就可以再做次绝对的定位,把我的相对定位的累计误差可以清掉。这是非常有用的,但这个方法在实际应用当中又有问题了,因为有那么多道路,不可能在道路边上都竖牌子,于是我们又想到通过检测交通标志牌的方法做相对定位的误差清楚。学习过程当中通过深度学习不断把交通标志牌检测出来,并且把它跟我地图里面存着的交通标志牌匹配,一旦匹配上就已做出来。

这种方法弥补了相对方法的不足。但是这种方法也有问题,大家在高速公路上行驶每过一里两里路才有交通标志牌,还是存在相对精度累计误差太大的问题。这时候怎么办?地面上还有足够的视觉特征,地面上一边开一边看到很多视觉特征,这样就可以把地面拼出来,拼成地面的图,实际再开的时候,左面是实际看到的小窗口,把这样一个实际看到的图跟地面图做一个临近空间的搜索匹配,这样就能够比较准确的定位到车道里10厘米误差的位置。如果算法足够的棒,这样的情况下车道线并不清晰,地面有阴影,如果足够棒还可以做匹配。

如图是实车的测试,地面的视觉特征能够非常完美的帮助我们做到定位在车道里面而且10厘米的定位误差。这是室外,刚才说室外基础还是有一个GPS信号的,但是室内并不存在,这时候我们又想很多其他的方式,比如利用SLAM的技术,开的时候通过检测这些视觉的特征点,在建图的同时做定位,用地图的定位我想给大家传递的讯息就是人工智能往往有时候算法并不完美,这时候可以通过大数据去解决。

从感知到认知

第三想讲的是从感知到认知,前面讲的无论检测障碍物还是检测路面还是检测现在的位置都是感知,但是下一步要向认知跨越,认知阶段一就是检测那些不能撞的东西到理解整个世界,从检测到理解,比如特斯拉的最新版,在它的仪表盘上第一次把不同类型的车辆区分出来了,前车是双层的客车、前车是卡车最好离它远一点,这是从简单感知到初步理解这个世界。如果要更好的去理解世界,就要对能够看到的整个的场景做全面的世界的建模,大家注意以前只是检测车道线和车,只检测那些在我的数据库里面有视觉特征的东西,但是是有问题的,比如车开到印度,印度路面上有牛在走,牛不会在我的视觉特征库里面,所以类似语义分割的方法变的更加好了,就是把画面每一个象素都赋予一种颜色,贴一个标签代表是什么东西,比如紫色是路面,橘色是车道线等等,这时候我们对画面的每一个点都有感知,都有理解它到底是什么样的东西,能撞还是不能撞。

检测了路面还是不够的,有时候双向路的话只有路面的一部分是可行驶的,这时候需要进一步的去理解路面符号的语义,在另外一种情况下车道线根本看不清楚,要么被磨损了,要么被大雪覆盖了,甚至右下角土路上面根本没有车道线是非结构化的道路,这时候需要通过深度学习把这个可行驶的区域,这样一种感觉把它检测出来,然后再找出我行驶的路径。这是认知的第一阶段。
认知的第二阶段是从简单的不撞到更加舒适的驾乘感受。如视频大家可以看到上路之前在车顶上放了一枚硬币,一个打火机一个盒子在三环上开了20公里,下车的时候三样东西还在上面,这是我们把舒适性作为多目标优化的目标了,不仅仅是安全性而且有舒适性。下一步需要更加精细的感知,比如看到道路上不需要碾过去的东西,路面上横着的石板、球,这时候可以通过立体视觉能够更好感知它绕过它。

为了舒适性更重要的一点就是要从确定的经验到自学习,现在整个智能驾驶的流程,先是靠深度学习做感知把世界模型建立出来,规划决策和控制是靠专家系统,就是靠规则,靠查表,这是现在主流的做法,但是这样一种主流做法意味着这个经验是固化的,但是每个人开车、坐车都有不同的感觉,举个例子,平常都是我开车,突然一天变成我爱人开车了,我坐在副驾驶座位上觉得她开的太别扭了,这时候意味着车要学会每个人的驾驶行为。

学习这里面就要做驾驶风格的学习,大家都知道强化学习,尤其是最近深度的强化学习,强化学习是根据一个reward的方式不断在交互当中调整,把这样一个驾驶行为出来,但是要学习驾驶风格或者叫learning from demonstartion,能够从驾驶行为能够反过来学到驾驶风格。还有最近比较火的端到端学习,尤其是端到端的深度学习用于自动驾驶,它本身带有一种自学习的功能,端到端学习本身也并不是一个特别新的东西,在2005年大家看到一篇论文。最近大家都用卷集网络强调端到端学习。

但是端到端学习优点是有的,非常简单,而且不需要先验知识,而且模拟出来的感觉像人开车的车感,但是缺点第一是需要大量的高质量的样本组合式爆炸的样本,原来化物每个都有交叉验证,它缺乏交叉验证,很难把错误率限制在某个阈值以下。第二不灵活,每个车都不一样,控制的动力学过程不一样,货车空载跟满载的时候动力学是不一样的,这时候在空载的时候学到的东西不能用在满载的时候。第三它是个黑盒子难以调试,另外它学不到隐性知识,我今天停车的时候有个定位,因为边上停了一辆宝马我不想离它近。端到端的学习就是从咏春的木人桩到少林的18铜人,真正驾驶的时候是跟几十个驾驶员竞争路面,这时候要能实时判断驾驶态势,评估其他方包括人包括物的动机,预测它的行为来合理获得路权。

比如先看物前车掉下来东西怎么判断,左边是掉下来有弹性的桶,下面掉下来的是洗衣机,这时候可以通过地规神经网络推理动态物体的特性做不同的判断,而且要预测每个个体或者群体的行为。如视频场景很多行人在走,简单的控制策略是看见行人动就刹车,这样开的一顿一顿的。但是如果能够通过对每个人进行马尔可夫的建模判断它的运行轨迹,如果和车相交就刹车,这样运行的更加平稳。更复杂的场景是在环岛,同色的车辆切进去就要判断每辆车的动机,预测每辆车的风格,预测蓝色车开的比较猛,绿色的比较肉的,要能够插进去,这里面用到强化学习和地规神经网络。

未来在路上开车某种意义上跟ALPHA狗是一样的,要能够看到整个盘面的状况,推测下一步怎么走,ALPHA狗技术就会用到上面。既然是深度学习就会有深度来源的问题,可以把开放数据集抠出来进行训练,还有自己装行车记录仪到处采集,把它发到众包网络上面进行标注,标注是有成本的,标注一辆车几毛钱,怎么办,可以通过机器学习预标注,标注错了人才干预,这些都是很好的方法。

另外刚才说端到端学习,不但需要采集路面的视频状况还要把方向盘的运动角度记下来,这样才可以把端到端训练出来,但是也有很多人特别聪明,比如他们改了赛车的游戏,因为赛车游戏里面一方面有道路的各种场景,另一方面人在玩的时候把控制信息记录进去了,是穷人版玩深度学习的方法。

没有解决的挑战:人工智能的鲁棒性

最后我想讲还有很多没有解决的挑战,比如人工智能的鲁棒性的问题,奔驰S级轿车上的代码量是波音787梦想客机代码量的16倍,一架飞机软件测试和验证成本接近它的一半,比代码更难的是数据以及基于其上的随机算法和机器学习。为了智能测试随机算法两辆车出厂的时候是一样的,但是在不同的用户那里开了一个月完全不一样了,怎么测试?机器学习本身是归纳法,归纳法就受制于数据级的完表性。左图检测出来小孩拿着一个棒球棍,识别错了无伤大雅,右边一旦识别错就车毁人亡了。所以一方面我们系统未来需要可预期的自信度,特斯拉的状况出了以后,兰德说,我的车开了1.3亿英里撞了一个人,全世界的平均水平是6千万英里死一个人,所以我的自动驾驶还是比人安全。这个自信度,统计显著性是不够的,如果明天再死一个人就变成6500万英里死一个人了,如何获得高自信度就是不停的跑,这是兰德公司算出来的,如果证明自动驾驶比人跑的安全要跑一百亿英里,一个车要跑500年,一个方法就是通过模拟和仿真通过虚拟环境不停的练练好,阿尔法狗就是这么来的。

除了自信度之外如果这个算法完全是个黑盒子不具备可解释性,对于这样一种生命安全非常关键的系统也是有问题的,机器学习经常学出来错误的规律,这是GOOGLE做的工作,用深度学习检测哑铃,后面把这个特征可视化出来发现哑铃都带着一条肉色的胳膊,因为它的输入数据级都是肉色的胳膊拿着哑铃。

另一方面深度学习本身现在也有缺陷,左面图跟右面图肉眼看起来没有任何区别,中间一列是对左边的图做了一些象素级别的扰动,但是今天的深度学习可能认得出来左面的图是校车,认不出来右图是校车,说明深度学习不够鲁棒,这是后面为什么大家提出来对抗训练能够使得它更加鲁棒,深层次的对抗网络等等。

所以我们的人工智能系统对于开放的环境,是不是有足够的鲁棒性非常重要,我们也在探索一些方向,比如通过预训练的模型,类似于迁移学习的方式使得它在汽车学习里面做的更好。另外把深度学习这种基于统计的学习,跟传统上符号主义基于知识的,基于逻辑推理的融合起来。比如刚才说宝马这个车不能碰离它远一点这是知识,把这两个结合起来更好。

第三,Ng最近说无监督学习不足以描述他对未来的想法,他希望是预测学习,能够更好的描述它想象当中比监督学习和强化学习更好一得种形态,这样一种形态事实上也是在智能驾驶当中得到了大量应用,比如通过对抗训练对行驶视频进行预测,我相信这也是代表了非常重要的方向。

还有一个自监督学习,因为时间关系大家只看右面那张图,我看到了牛同时听见了“哞“的声音就可以对它自己打标签了。

现在人开车往往是基于一种感觉,这种感觉是不是端到端学习还要研究,今天的卷积神经网络是非常昂贵的,但是大家知道吗?一个蝗虫只有两个神经元,一个神经元用来检测动的东西,另外一个是规划它的动作,我们有没有更好的方法检测,还有真正大数据的方法,fleet learnig,一辆车看到的东西马上转给其他车,基于云的驾驶脑,智能车的智商能够很快的提升。

今天时间有限,很快过了一遍在无人驾驶方面的技术,非常仓促,大家感兴趣可以给我发邮件我们进行探讨。

]]>
【热议】二十二位大咖,人工智能大会上都分享了哪些观点 //m.catawbaoil.com/56491.html Tue, 30 Aug 2016 03:59:32 +0000 //m.catawbaoil.com/?p=56491 Read More “【热议】二十二位大咖,人工智能大会上都分享了哪些观点” »

]]>
1956年一场在美国达特茅斯(Dartmouth)大学召开的学术会议,多年以后被认定为全球人工智能研究的起点。现在人工智能已经成为炙手可热的概念,并进入大众视野。从互联网、汽车、智能家居到机器人等各领域,人工智能正迎来“井喷式”创新,并即将进入发展的“黄金时代”。

8月26日~27 ,CCAI2016中国人工智能大会在北京举行,大会邀请了国内外人工智能领域专家学者、企业大咖与会,就机器学习、人机交互、模式识别、自然语言处、认知科学、神经科学等热门和前沿话题进行了分享,逾1000位技术精英到场。

CCAI2016中国人工智能大会谭铁牛

中国科学院副院长、中国科学院院士 谭铁牛

人工智能是新一轮科技与产业革命的最显著特征。人工智能在过去一年的十大趋势动态如下:

第一,人工智能热潮全球化,从东方到西方,从发达国家到发展中国家,从大国到小国,应该都是掀起了热潮。

第二,产业竞争白热化,各种并购、招聘人才,都希望来竞争。

第三,投资并购密集化,过去一年大的小的收购、投资数不胜数,从几百亿到几个亿。

第四,人工智能应用普适化,各个领域的渗透。

第五,人工智能的服务专业化,一个是研究通用化的人工智能,一个是专业化的人工智能。

第六,基础平台开源化,包括IBM、谷歌开源的平台,是过去一年特别明显的一个新特征。

第七,关键技术硬件化,包括IBM的类脑计算平台。

第八,技术方法集成化,单一的人工智能计算理论和方法不可能包打天下,集成创新势在必行。

第九,学科创新协同化,多学科跨界融合、交叉协同,创新人工智能创新途径,包括量子技术跟人工智能的结合。

第十,社会影响大众化。

 

红杉资本中国基金合伙人 周逵

未来,所有成功的公司都会变成人工智能公司,而目前整个业界的趋势就是人工智能。但目前人工智能虽然领域广泛,但面临诸多挑战。因此在这个时候,选择和时机就显的非常重要。

 

百度深度学习实验室主任 林元庆

IDL希望将人工智能核心技术做到统治级别,通过深度学习技术,不仅要做好图像识别基本技术(图像搜索、OCR、人脸识别),还要实现细粒度图像识别(如菜品识别)、视频分析、AR、医学图像分析等方面的突破。很多关键技术的决战期,将是接下来的1-3年。

 

驭势科技联合创始人&CEO 吴甘沙

人工智能是未来20年最重要的技术发展方向。2016年的人工智能就相当于1996年的互联网,1981年PC机,是一个变革时代的开始。但驭势科技认为,智能驾驶是未来10年市场辐射规模最大、社会效益最卓著的人工智能产业;智能驾驶的技术、市场和政策条件将在未来5年成熟;智能驾驶领域生态的合纵连横将是主旋律;智能驾驶不仅是人工智能,它是人工智能+汽车电子+系统工程,需要将汽车电子、系统工程的概念加进去,才能实现真正的智能驾驶;智能驾驶创新的重心,将逐渐从人工智能转向到系统工程。

 

出门问问创始人&CEO 李志飞

AI的行业应用做深,即把方案提供给第三方,是常见的AI产业化思路。出门问问选择的是另外的方式:1.、把自己的产品提供给消费者,希望把语音识别、语义理解、推荐、搜索等AI技术做成产品;2.、软硬结合,只是30-40%依赖于AI算法,AI和OS、硬件等一共构成最终的产品体验,并不断迭代优化。

 

微软亚洲研究院主管研究院 郑宇

通过大数据分析和人工智能,人们可以构建智慧的城市。例如在贵阳市布局充电桩、北京部署空气质量监督站、贵阳市交通和能耗监控系统的案例中,大数据和人工智能都发挥了重要作用,而在这几个案例中需要强调三点,第一,数据收集的方式和方法非常重要;第二,数据分析和处理的平台不可或缺;第三,算法是核心,没有好的算法,就无法得出正确的分析结果。

 

商汤科技CEO 徐立

深度学习学的是对于认知的表达,是一种生产工具的提升,比如可以代替人工做图像处理。商汤科技的一个案例:对抗活体检测的攻击,比如用一些3D的模式把照片抠两个眼睛,用一张卡片挡住眼睛,自己做一些动作的模式,研究员会写出一些模型,把这些攻击挡在外面,不断用更深奥的算法生成不同的模型去挡住下一波攻击。类似对抗学习模型,两者互相较量迭代过程中,攻击变的越来越真实。

CCAI2016中国人工智能大会现场

旷视科技首席科学家 孙剑

视觉智能是人工智能的一个重要分支,目前人工智能的发展正在从感知智能向认知智能发展,而视觉是感知智能的一个重要方面。视觉理解核心问题是深度神经网络,神经网络模型目前已经从AlexNet发展到152层的ResNet,图像分类进展、人脸识别的进展、人脸识别的实际应用已经超越人眼,而无监督对抗学习和语义分割,将是视觉智能未来发展的关键。

 

地平线机器人技术创始人兼CEO 余凯

现在互联网的本质是连接人和世界,而信息、商品、服务都会和人联接,而任何世界的连接目前都是通过机器即计算机实现的,而人和机器是通过交互来实现,机器是通过索引来认识和分析这个世界。因此,交互和索引是互联网核心,而目前人机交互趋势是从无序到有序、从数据到语义、从线下到线上,而机器将变成Robot,并无处不在,Robot的大脑将会得到更迅速的发展。

 

云知声创始人&CEO 黄伟

人机交互是人工智能的基础,人机交互目前的发展趋势是从感知智能向认知智能发展。感知智能就是利用技术手段把物理信号转化成数字信号,从而进行分析和处理,目前感知还处在发展阶段,有很多路要走。而多人机交互方式目前有很多种,比如手势识别、图像识别、体感交互等,都是未来人机交互发展的方向,但语音才是最自然的交互方式。所以在物联网时代,语音识别仍是最重要的人机交互手段,而语音识别的核心技术,是基于语用技术的人机交互框架,以语境为基础的框架,直至自然语言生成。

 

Singularity.io公司联合创始人、ACL Fellow 林德康

搜索引擎和回答引擎最大的区别是,搜索引擎只根据关键词返回答案所在页面,具体信息和可靠程度还需要用户自己鉴别,回答引擎可以返回比较明确的答案。但搜索引擎和回答引擎都是给用户有用信息,但用户拿到这个信息后要做事情还是要自己去做。动作引擎则更进一步,通过执行一系列操作帮助用户完成需要做的事情,而不是仅仅提供信息。

 

微软人工智能首席科学家、IEEE Fellow 邓力

AI=感知+认知,首先是感知,更深层次的是认知,而人工智能目前更需要解决的是认知问题,而深度学习是提升认知,推进人工智能进一步发展的最有效的方法。深度学习在机器认知方面,通过使用Long Short-Term Memory RNN等模型,目前已经可以实现效果比较好的效果。深度学习加增强学习,可以解决更复杂的人工智能难题,而深度非监督学习则是未来人工智能的又一个重要研究课题和未来发展方向。

 

清华大学计算机科学与技术系特别研究员 朱军

机器学习面临很多困难,首先,机器学习的过程需要大量专家知识;其次,有经验的研究者需要三到五年;第三,机器学习局限在专家和专业的开发者手中。而交互式学习,可以解决机器学习面临的这些困难,但关键问题是要有易用、易于理解的交互式可视化界面、接受用户反馈的模型和学习算法、即时响应的高效算法、从小样本学习以及迁移学习的能力。

 

微软亚洲研究院首席研究员 刘铁岩

探讨机器学习未来的发展前景,必须要理解当前机器学习的优势和痛点。今天机器学习之所以能获得成功,得益于大数据、复杂模型和强大的计算能力。但这个三个因素同时也带来了困难,首先大量数据很难进行标注;其次深度模型也越来越难分析;此外同步并行计算的速度和通信延迟也会限制未来深度学习的发展。

 

腾讯AI Lab计算机视觉组负责人 刘威

机器学习的明天会更好。深度学习是机器学习的未来,对比传统的计算机视觉,基于深度学习的计算机视觉可以全自动学习更有价值的图像特征,比方卷积神经网络算法的突破导致物体识别精度大幅上升,而具体的实例就是艺术滤镜。

CCAI2016中国人工智能大会王绪刚

时趣首席科学家 王绪刚

人工智能的走向,是向着提升个人工作效率的方向发展,未来的人工智能将代替一些简单思索流程性的东西,帮助人们做出决策,而不会完全替代人类大脑。时趣科技主要关注营销中人工智能的应用,实际上营销中需要进行大量复杂数据的分析,而通过人工智能,可以使调研效率,KOL效率,沟通效率获得提升。

 

天眼查CEO 柳超

要辨析人工智能是机遇还是泡沫,首先要明确人工智能的定义,人工智能的定义是赋能于人。现在,技术进步、人文进步、资本助力三者交叉循环推动人工智能处于最好的时代,赋能于人意味着人和机器的能力互补,实现人、数据、技术三位一体的人工智能理念。

 

中科院自动化所模式识别国家重点实验室副主任 王亮

人工智能绝不是泡沫。前两次人工智能低谷的重要原因:一是受限于相关技术领域的发展,例如早期的计算机有限的内存和处理速度,不足以解决任何实际的AI问题;二是模型学习的数据库太小,包含信息太少。当年轻人遇到人工智能时,首先要了解人工智能的发展历程,要熟悉人工智能的发展现状,学会使用“能否解决现实问题并产生社会价值”的实践标准来区别机遇与泡沫,顺势而为。

 

新泽西州立大学罗格斯商学院管理科学与信息系统系副系主任 熊辉

人工智能的发展是人类自我解放的过程,但科技创新必然会导致泡沫的产生,人工智能必然会变化,但变化有其规律,人工智能的“不易”使人工智能的发展是一种必然,人工智能的复杂性会不断增加。但另一方面,人工智能也是简易的,而人工智能的“简易”对年轻人意味着工作机会和前景,意味着自我能力的挑战。

 

美国亚利桑那大学教授 Subbarao (Rao) Kambhampati

人机共存的本质是协调而非欺骗。人机互动非常复杂,尤其是很多人机的互动。机器应该能预测人类意图,这涉及到机器是否能够理解人类情感的发展,利用人类情感模式干预协调活动。传统规划要理解结果、指定行动的模式、得到的目标、描述最初所处的状态,会做出一些假设,设计行动的模式,但人机共存需要基于一些不完整人机模型进行规划。

 

中国科学院神经学研究所所长 蒲慕明

脑科学主要研究的对象是人类的大脑,脑科学目前的研究还处在早期阶段,而大脑中神经网络和神经元与人类认知之间具有非常复杂的关系。神经科学的主要内容是神经信息处理和脑功能机制,可借鉴的自然神经网络特性有五个,1、神经元类型;2、顺向、逆向、侧向联接;3、神经突触的可塑性;4、记忆的贮存、提取和消退;5、赫伯神经元集群概念的应用。

 

中国工程院院士 李德毅

交互认知,不同于但又一定伴随记忆认知和计算认知;交互认知的外在表现是,语言交互、图像交互和体感交互。交互认知的内涵、语言是对交互认知的语义标注,图像是对交互认知的情感标注,体觉可称之为肢体语言,图像是交互认知的主体。交互认知的本质是协商和学习,聊天是交互认知研究的突破口,要研究聊天机器人的形式化约束,研究双人聊天、群聊和复杂系统涌现中的交互认知。

 

以上是CCAI2016中国人工智能大会上部分嘉宾的分享。文章内容来自互联网,活动家整理编辑,转载请注明出处://m.catawbaoil.com/56491.html,如有任何疑问,请联系小编微信:hdjkefu

更多IT互联网行业相关会议信息,请戳:http://www.huodongjia.com/it/

 

找会议,上活动家(www.huodongjia.com)!方便、快捷、安全找到最优质的会议。更多精彩内容可关注活动家微信公众号:VESERVICE,或直接扫描下面的二维码:

活动家官方微信1 活动家APP下载1

]]>