CNPing车内评
汽车电子评测第一新媒体

不要用来历不明的U盘 它能分分钟烧掉你的电脑

国民萌叔阅读(34)评论(0)

不要随便将不明来源的U盘插到你的计算机上,因为你的电脑有可能会被烧掉。被称为USB Killer的U盘杀手开始大规模生产,网上的零售价大约为50美元。

当它插到电脑上,内置电容器的致命U盘会在充满电后向USB端口释放220v的负电涌,烧毁USB端口和主板,如果一次没烧毁它会多次释放负电涌,直到电容器没电为止。

它在测试和使用中已经成功烧毁了 ThinkPad旧笔记本电脑,全新的苹果MacBook Pro笔电,Xbox One,游戏,Google Pixel手机。

1

2

3

4

5

看奥迪出轨好比爱情剧 一汽造反引高潮

国民萌叔阅读(72)评论(0)

昨天看到汽车圈一条小消息,是奥迪官方向中国汽车流通协会奥迪经销商联会发出公函,确认将中断与上汽集团的合资谈判。这件事从何而来呢?w600_h651_fde03105cb814d83a5c9cb80c3e87e27

本月中旬,我看到德国大众公司欲牵手中国上汽,在国内成立一家中德合资公司的事情,据说用以拯救持续低销量的奥迪汽车。当然德国要出技术在中国办厂子,这一利好广大喜爱奥迪汽车的车友们。因为很多技术上问题和与国外同步的问题都有能得到好的解决方案,同时还可以降低费用,提高销量。但上汽却在最后一句话中强调了“上述事项存在不确定性”,不知有意还是无意的埋下了伏笔。

因为德国大众在汽车界的地位,国外媒体对此也有报道(来源于互联网):

1

路透社报道:研究公司伯恩斯坦发布的一份说明中说:“这样一个举措(奥迪在上汽集团在中国生产汽车)的影响如果实现将是深刻的”。它将使奥迪及其母公司大众在中国获得更多的利润。

2

德国媒体“finanzen.net”:上汽和奥迪的合作表明,德国人不满和一汽的合作。在过去的两年里,一汽一直陷入众多腐败丑闻事件。所以,当一汽反对奥迪和上汽合作时,德方立即驳回了一汽的反对。

3
德国图片报(Bild):虽然奥迪在中国还处于领先地位,但过去几个月一直销量下滑。奥迪要克服近期销售疲弱的问题,今年奥迪落后宝马和奔驰近6%的增长。
4

新加坡商业时报:奥迪中国的销量自1988年以来首次下降,它试图重塑其作为中国政府官员最喜欢的车型的形象,但是合作伙伴一汽陷入了腐败调查中,它的多个高级管理人员被处理。

吃瓜群众的消息只能从大媒体得来,所以由此而知,一汽的腐败和在内地毫无创新的销售模式和业绩,还有上汽的态度促使大众在中国战略上的改变。

因为奥迪的快速决定和即将正式对外公开合作,让一汽的经销商们十分无奈,使得发生在前几天的“逼宫”行动。

经销商们表示,如果奥迪未能在12月1日前就他们的要求做出答复,将停止奥迪新车进货,包括进口车和国产车型。
经销商们还表示,他们将要求奥迪赔偿数千亿人民币,以弥补近年来的新车销售损失。

获得了一封由奥迪中国总经理魏永新签署的内部绝密文件,文件中称,在11月21日佛山沟通会的基础上,几方在经销商的三个主要诉求方面达到共识。

1、确保现有一汽-大众奥迪经销商网络现有和未来的竞争力和盈利能力;

2、提高奥迪销售事业部区域销售网络经营管理能力;

3、奥迪和上汽集团合作计划的后续步骤。

在现有的经销商网络有长期和稳定的盈利情况下,并与经销商联会达成共识后,再与上汽集团进行下一步的谈判。在2017年3月底之前开始奥迪、上汽集团和一汽奥迪经销商联会商谈,如有需要,一汽集团也会被邀请参与。

其中,经一汽集团同意,一汽大众奥迪销售事业部总经理任思明和副总经理荆青春已经开始组织商谈团队处理议题1和2。

至于议题3,鉴于一汽大众奥迪经销商就奥迪AG与上汽集团合作未达成共识,奥迪AG同意暂停与上汽集团关于销售和网络的谈判。在现有的经销商网络有长期和稳定的盈利情况下,并与经销商联会达成共识后,再与上汽集团进行下一步的谈判。

1050ahvdsr

没有找到原图,网图很模糊

想一想,经销商们哪能统计所有一汽下的老产品型号汽车的价值,所以都是一条绳上的蚂蚱,关键时刻一汽喊这么多经销商过去当啦啦队,以其北方地区的数量强迫大众做出选择,光是千亿的赔偿就让大众吃不消。了解大众在近两年境况的朋友都知道,大众排放门已经赔偿巨额赔款还是美元,再闹腾大众就更雪上加霜。何况失去那么多经销商也是大众非常不想看到的,尤其是各种错综复杂的关系网上。

这里要知道一汽是在东北长春,且有着国企背景。东北经济实力最强的东三省近年来也是GDP不尽人如意(排名倒数),长春等多地都指望一汽继续成为增长点。而奥迪看上南方经济发达,想大力扶持,让上汽抢更多的饭碗,这在北方政府看来是不爽的。

叔上个月到长春出差,长春这个城市面积不大,很有意思的是长春大街上出租车很密集,但出租车的起步价却很便宜。当地司机表示曾经闹过一次罢工,司机希望能提高起步价和每公里的价格,但并没有通过,原因在于当地经济消费不高,人们出行要是提高价格就更少人乘坐出租车了,所以当地政府无奈不让出租车公司提高价格。司机还表示当地是一汽的发源地,出行费用上自然会要求便宜一些来体现北方汽车之都,虽然不可理喻,但还是看到经济不好的一面。

而奥迪给上汽的亮点就在国内办厂,降低一汽的售车价格和让广大客户有更多的选择性,这绝对刺激到了一汽。所以,一荣俱荣,一损俱损。抛开商业不提,就地域上经济上都不能轻易答应。国有品牌近年来成长迅速,以当地的价格优势占据很多二三线主购买力城市,一汽自主品牌的汽车销量并不怎么样,全指望国外品牌撑腰,所以奥迪也是被逼无奈。

再说上汽,本来到手的肥肉和美好的前景被搅黄了,自己不能独享,苦心做的市场关系搞得今年的事搞不定了,还要参加什么没什么油水的三方会议,心里别提多郁闷了。

至于怎么解决后续三方的利益安排,我先总结下,这奥迪出轨受正牌媳妇的谴责和要挟,分手费如此高昂和丢掉正牌媳妇家的小弟让奥迪很难选择,但奥迪又表示还会继续疼爱正牌媳妇,会持续补充新首饰,在想分又不敢分的情况下只有可能两家妹子都用同一套房子来安抚,但对正房严加管教,定制几条家规,做不好就扣掉月例钱。

最后:不管结果如何,能看到进口奥迪的设计和制造,国内人民有福了。

ALVINN探秘:一辆来自1989年的自动驾驶汽车

华仔阅读(46)评论(0)

1989年,柏林墙将倾,互联网(World Wide Web)初兴,麦当娜新专辑《Like a Prayer》登顶各大乐榜……那时在匹兹堡,一辆翻新的陆军救护车——ALVINN(Autonomous Land Vehicle In A Neural Network)正在卡耐基·梅陇大学(Carnegie Mellon University,以下简称CMU)校园中行驶着,没有任何人工干预。自动驾驶汽车看上去是最近才热起来的技术现象,但是,研究者和工程师们已经研究和试制这种车辆超过30年。

1

使用电脑控制汽车的研究在1984年于CMU开启大幕。1986年制造出一款产品——Navlab 1机器人,具有完成图像处理、图像理解、传感器信息的融合、路径规划和本体控制等功能。NavLab 1系传感器主要包括彩色摄像机、陀螺、ERIM激光雷达、超声传感器、光电编码器和GPS等,在CMU校园网道路运行速度为12km/h,当使用神经网络控制器(ALVINN)控制本体时的最高速度可以达到88km/h。

2

而ALVINN则是首辆运用神经网络(Neural Network)控制的陆地自动驾驶汽车,20实际90年代开始用于测试。

这辆祖先级别的自动驾驶汽车最近又被重新提起,是源于两名工程师在推特上的讨论。一个是Oliver Cameron,在优达学城(Udacity)领导一个自动驾驶技术开源项目。另一个是Dean Pomerleau,他是CMU教授,同时运行着一个自动驾驶汽车项目,是ALVINN的缔造者。

事情的起因是Oliver Cameron在推特上分享了他的几个学生上传的一段自动驾驶汽车行驶视频,视频中的这辆汽车仅仅使用了一个摄像头,主要依靠的是神经网络的能力完成自动驾驶(使用了英伟达的Titan X Pascal GPU以及自研的加强型计算机)。

3

看到这条推文和这段视频的Dean Pomerleau,产生了一些关于深度学习和神经网络的疑问。此后,两人在推特上展开互动,同时也写文章互相回应,此间,ALVINN被多次提及。这辆自动驾驶汽车的鼻祖的模糊轮廓也越来越清晰。

ALVINN拥有每秒钟百万级别的浮点运算能力,是Apple Watch计算能力的十分之一。这辆车的中央处理器(CPU)有一个冰箱那么大,依靠5000瓦特的发电机进行供电。尽管如此,ALVINN能够在九十年代早期跑到70km/h。

有军方资金的支持,同时也是CMU机器人研究所8年时间的研究成果,ALVINN可以称之为自动驾驶汽车的始祖。对此,Cameron肯定了其为自动驾驶汽车做出的贡献,“ALVINN使用的是神经网络来驾驶,在当时来说,这简直就是小说里面的场景,但是这个技术很快就被投入到自动驾驶汽车的研究努力中。”

当Google自动驾驶汽车依赖于3D地图来进行环境自适应之时,ALVINN对于神经网络的使用意味着这辆车具备“精密智能”(narrowly intelligent),不需要地图来做决策。Cameron补充道,“你可以将一辆使用神经网络武装的车辆扔到一个它完全没有去过的地点,它能够通过学习人类以往的驾驶经验来进行操控,而且表现很出色。”

通过使用神经网络来教车辆自己驾驶,Pomerleau教授当时希望建立一个适应多样化环境的自动驾驶系统——当时的本意是为了控制Navlab机器人。1984年,CMU的自动驾驶汽车项目Navlab正式开启。

“虽然ALVINN的神经网络被完美应用,但是还是受限于硬件”,Cameron在后来的文章中也指出了ALVINN的局限。

这里还不得不提到Chris Urmson,此前他是Google自动驾驶汽车项目的首席工程师,当时也跟Pomerleau在CMU共事过。Urmson在Navlab先进研究的基础之上,带领团队制造无人驾驶汽车在2007年的DARPA城市挑战赛上获胜,后来紧接着就被Google挖走。

与此同时,Uber也挖走了卡耐基梅陇大学的一大批自动驾驶技术方面的机器人专家。现在,许多的上路运营的自动驾驶汽车项目都与Pomerleau教授以及CMU的Navlab有千丝万缕的联系。

4

后来,Pomerleau教授在推特上表示,“非常高兴能与优达学城的研究自动驾驶技术的老师和学生们互动,分享过去的一些经验和很久以前的想法。”

1997年,在电视上关于ALVINN的讨论和质疑已经比较丰富,同时很多主流媒体也有报道。里面也提到了很多支持者认为无人驾驶可以帮助减少交通事故和死亡事故的一些数据。而这样的数据直到今天都在被自动驾驶厂商用做背书,比如Google、Uber……

确实,如今的自动驾驶汽车研究者们要感谢ALVINN在上世纪八十年代所作出的贡献。

不成熟的人机交互 那自动驾驶可能就是个陷阱

国民萌叔阅读(52)评论(0)

2016 年 11 月 23 日,科大讯飞举行了年度发布会。在会上,中国工程院院士、欧亚科学院院士、中国人工智能学会理事长李德毅作了主题为「交互认知」的演讲。以下为有删减的编辑和整理版本:

计算机界对计算认知了解的太多,但对交互认知了解的还不够。

今天我想讲一讲交互认知。为什么要研究交互认知?我们还是从图灵测试谈起。图灵测试本质上就是一个交互测试。

1

自闭症是交互认知障碍的一种典型疾病,自闭症就是在交互上遇到了很多困难。如果现在我们把人换成一个聊天机器人,把这台机器换成一个自闭症患者。我想问:测试者还能区分谁是人谁是机器人吗?这就是图灵测试的瑕疵。

我们看看这样一个对话:你今天吃的是什么?

同样的问题,机器人回答的不一样。一开始它很有礼貌回答:蛋炒饭。后来它就开始解释。如果你还一再的问它:你今天吃的是什么?它就说:「你丫有病啊!」

这体现了聊天人的性格,修养和幽默。这就叫做不确定性的交互,我们需要的不是一个「问题-回答」系统,需要一个活生生的聊天机器人。因此我们看到聊天总是在特定的语境和语义下发生的。

在过去的半个世纪的自然语言理解当中,我们对此是不是关注了太多的语法和语构、或是语境和语用、或者是语言交互中的不确定性?

2
我们要研究交互,交互认知的外在表现:如何听说、如何看、如何感觉。听说是语言交互,看是图像交互,听是体觉交互。脑认知的内涵应该是三个:记忆认知、计算认知和交互认知,而不是一个。

我们认为研究交互和记忆是有道理的。语言可理解为对交互认知的语义标注,图像可理解为对交互认知的情感标注,体觉可称之为肢体语言。交互认知的度量可用情商和智商表示。

3
有一个著名的艾伯特定律告诉我们,语义的作用只占 7%,语言的作用占 38%,面部表情和记忆的作用要占到 55%。能不能把这些情感通过语音表现出来?为什么不做这样的情感研究?语音语调是情感的流露,是言外之意。

因此,我们强调做一个好的机器人,首先要有交互能力。

交互认知的不确定性包括:交互触发的瞬间性、交互方式的随意性、交互内容的未知性。这就要求我们把不确定性人工智能研究好。不确定性人工智能要在看似瞬间性随意性和未知性中,发现交互认知的基本规律性,又能体现不确定性的魅力。

与听觉,触觉等相比,视觉主导着我们的情感知觉,并影响我们的思维方式。因此,生物视觉图像交互的情感表达,成为交互认知的核心。

图灵测试有一个漏洞。如果被测试的一方支支吾吾保持沉默或主动插话介入,就可能颠覆测试者的主导地位,也很难区分到底对方是人还是机器人,再次暴露出图灵测试的瑕疵。图灵测试原本是测试对方是否具有人的智能。如果图灵测试的漏洞被多次利用,图灵测试就转化为比拼测试双方谁更睿智的问题,不在乎双方是生物人还是机器人。

因为这个漏洞,我们开始研究交互认知,研究如何突破图灵测试的漏洞。

对话是最直接最便捷的交互,是几乎所有服务机器人的必备,可否把对话机器人作为研究交互认知的突破口?

聊天是浅层次,短时长的对话,也是最通用的对话,聊天也许是在讲废话,但可带来亲和感,在社交生活中不可或缺,不会聊天的对话机器人太乏味。所以,交互认知可从研发「互联网+对话机器人」开始。

从对话的语境和语用入手;

优先考虑情感交互;

强调纯净感,交互感和构想感;

关注交互认知环境中的选择性注意;

研究不确定性交互认知中的客观性,普遍性和积极意义,寻找不确定性中的基本确定性。

4
对话是所有服务机器人绕不过去的坎。对话机器人自身是活生生的认知主体,不是一个刻板的「问题——回答」系统。充满不确定性和变通,有情感和语言交互能力。我们需要聊天的机器人。利用云模型的不确定性研发对话机器人。

对话机器人的形式化约束有:

特定的对话背景;

对话双方是有个性的机器人;

用动画体现情感交互语音交互和文字交互,话题情感性格等不确定性。

随着对话的深入,不确定性会大幅度降低。所以我们提出不要老是关注语义和语构,我们现在要关注应用和语境。在这种情况下,我们要研发对话引擎。

基于检索搜索引擎生成可选到答句集;
借用机器翻译技术润色答句,保持个性。

重视语境和语用
有社交的技巧背后是与特定的语用相关。举个例子,一大早睡觉被吵醒,听到楼下有人大喊:
「打死,打死,往死里打!」
「反了,反了,反了你。」

怎么去理解这个语义?到窗户一看,原来是正在指挥倒车。所以我说要研究语用和语境,重视语境和语用。不要老是停留在语义和语构里。说话人的身份、年龄、对话和时间与用语语调、用语习惯,都很重要。

对话一般是两个人的,实际上,还要研究三人对话多人对话和复杂系统涌现中的交互认知。

2006 年,我们研究过掌声之间的交互。人们有过这样不常有的生活经历:音乐厅音乐厅里有一个精彩的节目结束后,观众会爆发出雷鸣般的掌声在很短的时间内,这种嘈杂的掌声会突然转变成有节奏的掌声,似乎有一股神秘的力量驱使观众一致的鼓掌,这是一个典型的复杂系统交互认知导致的自组织同步现象。

一个值得警示的现象:如果连浅层次短,时长的对话机器人的交互认知都做不好,如果机器人不具备最基本的语音交互,图像交互和体感交互能力,中国的服务机器人产业就跳不出同质化,玩具化低端化的怪圈。高开低走,只能把服务机器人行业推入血腥的红海。

交互认知的本质:协商和学习

协商包括:协商达成共识、协商达成一定程度的共识以及没有共识,但知晓了对方的认知力与下一次交互。共识是交互认知的结果,是认知主体,任何一方单独进行计算或推理,无法得出的新的认知,是计算认知记忆认知替代不了的。

学习包括:一方可从另一方获得新的认知、学习是相互的。人类社交活动中的交互认知,以及人和自然自然人机器人之间的交互认知,大大扩展了三个人一群人,乃至整个人类的智能。

案例一:
机器人来到一扇门前问,这门怎么开?

作为物联网的终端门答:我是一个滑动门。

案例二:智能驾驶中的交互认知

5
智能驾驶中的交互认知非常重要。

比如无人车上路,老百姓觉得它是幽灵,不敢乘坐,因为它没有交互。驾驶员的环境和周边车辆群体的交互认知。每一个司机都认为是最合理的,在客观上就会造成一个交通拥堵。这就是交互认知的结果。

6
再比如,两辆人驾车和多辆带有自动驾驶模式的车混合行驶,由于自动驾驶模式缺少交互认知能力,受到人驾车干扰,预设的自动驾驶门槛立马崩溃,几乎全部转为人工驾驶。所以我把它叫做:自动驾驶亦或是个陷阱。

怎么办?我们要让智能车成为可交互的轮式机器人:人轮式机器人是一个认知主体,有一个驾驶脑,同时我们还允许双驾双控。我们允许驾驶位上,可以有驾驶员或者可空缺。

与程序调试,试验和维护人员、与乘客、与执勤交警有交互,如果这样的车不能做到与人之间的交互,那怎么能成一个产品?所以要让智能车成为可交互的轮式机器人。交互认知是非常重要的。

7
移动互联网的终端已经从 PC 转变为手机,进而转变为机器人,在机器人联网的时代,人工智能是否应该更多地关注交互认知?研究人与人、人与机器人、机器人与机器人或者混合的认知主体之间的交互认知。

 


AI人工智能,这是早前就有了很多的概念问题,从“深蓝”到“阿法狗(AlphaGo)”科研人员总会将某一方面作为起点,以此来超越人类。智能语音按照中国人工智能学会理事长李德毅所说的表现其实就是再造一个没有肉体的人类。我们从小学习到的是正统的语言,因为老师是不会教给你土话,脏字以及绝大部分负面情绪的东西,那你是如何学习到脏话的?你是如何与人交往?看脸色,听语气的?

神奇小子霍兹的理解就是,让机器自己去学习。他开发出一个类似Mobileye的智能行车预警系统,让机器模仿车辆如何开车、并道等开车行为,虽然目前并没有顺利上市,但这是一个另辟蹊径的方法。

李德毅院长最希望开发的语音可以完全模拟人类的日常,机器与人的对话就像是人与人的对话。现在的移动应用领域(手机、学习机、平板电脑、车载系统等移动设备)如果谁具有完善的语音交互那就可以成为一枝独秀,改变人们生活习惯,快捷便利。

不过也有反方向的代表,马斯克等科技大佬就对过于智能的机器报以谨慎态度。

不知道各位有没有关注美剧的,近期有一部《西部世界》的美剧,短短几集就将全球收视率掌控在前几名。这是一部最好由电影的形式表现出来的电视连续剧,属于偏黑暗的科幻类型。该剧内容是一群现代人具有超高的人工智能科技手段将一群机械人模拟成人类,“圈养”在一个西部小镇里,每天会根据客户的需求来进行日常活动,目前还没有结局,不过HBO的预告就是机器最终起来反抗人类。

电影生化危机和终结者就是个影视界的例子。

[视频]美国黑客 “心灵感应”控制特斯拉Model S

国民萌叔阅读(41)评论(0)

据美国媒体11月20日报道,来自加州大学伯克利分校的四名大学生黑客团队Cal Hacks 3.0开发出一个程序,可以通过‘心灵控制’来让特斯拉Model S电动车自然地行驶或停下。实验背后并非是高端科技,而是一款“读心”耳机,它采用脑电图(EEG)技术把脑电波转变成模拟信号,然后通过无线方式将其发送到连接制动踏板和油门的“线性致动器”。


简而言之,基于脑波活动的情况,黑客能够创建算法,比如说驾驶员在思考前进还是停下的时候。
在2015年,这一黑客团队的成员之一Casey Spencer在单次充电的情况下驾驶Model S行驶500英里(约805公里),他通过保持22英里/时的车速达到了这一数字,行驶时间大约20个小时。

特斯拉Autopilot 2.0有多强大?看完你就知道了

国民萌叔阅读(87)评论(0)

特斯拉“Autopilot 2.0”在上周爆出国外网友的真车测试,为了试验“Autopilot 2.0”软件更新后的效果,歪果仁玩的就是有激情,在看似没有保护的情况下做出真人阻拦车的测试,或许这就是为什么外国人少的原因。但本次互联网大会有人爆料百度李厂长在“不知情”的情况下体验了一把由无人车程序员担当的路障做测试,百度无人车项目的员工却说这都是他们玩了几十次的体验,都不是事。这下叔惊了。

“Autopilot 2.0”,该系统能够覆盖特斯拉所有电动车,且达到 Level 5 的水平。

来看下视频:

从视频我们可以看到,一共有4个画面,汽车的第一视觉,左后、右后、汽车正前方视角。右侧的视频画面就是特斯拉针对识别路面的,可以看出几乎所有在路面上的车辆、行人或是障碍物都被标记出来。

目前很多汽车网站对特斯拉的“Autopilot 2.0”标已LV5即完全无人驾驶水平,但官方没有强调如此,应该是出于谨慎态度。

视频测试效果还不错,基本上没有太多毛病,但测试路段车少,人少,也没有各种天气。从视频中我们可以看到54秒时特斯拉在即将路过行人时急停下来,原因不明,似乎行人并没有闯进车道,但距离车道却非常近。虽说有网站对此安全性还有待考量,但我认为这是个安全的定义,距车道如此近确实难保行人不会突然倒向车前,加上行人靠近车道,这需要给计算机一个反应时间。之后还会有在交叉路口做出的停顿现象,具体原因说不好。

根据马斯克介绍,新系统的主要升级之处是将 1 个摄像头增加至 8 个摄像头。覆盖 360 度可视范围,对周围环境的监控距离最远可达 250 米。除此之外,车辆配备的 12 个超声波传感器完善了视觉系统,探测和传感硬、软物体的距离接近上一代系统的两倍。增强版前置雷达通过冗余波长提供周围更丰富的数据,雷达波可以穿越大雨、雾、灰尘,甚至前方车辆。

特斯拉LV5自动驾驶演示视频

国民萌叔阅读(66)评论(0)

据外媒报道,特斯拉最新推送的自动驾驶(Autopilot)v8软件更新,据这家公司CEO马斯克披露,新系统很大程度上将依靠雷达探测障碍物,它将成为首套达到5级(Level 5)自动驾驶级别的系统。简单说,更新之后的特斯拉汽车能够达到全自动驾驶的水平,当然马斯克和特斯拉目前肯定是不允许车主这么做的。除了少数的车祸之外,特斯拉已经向人们展示了其超高的自动驾驶技术。

除了第5次的急刹稍稍让人觉得有点胆战心惊,其他表现都相当不错。另外,测试人员还发现,如果是已经在车道上的静止障碍物,那么屏幕上不会发出警告或人体穿越马路的图像;而如果是突然进入车道的障碍物,那么系统就会发出警告。

讴歌展示未来概念驾驶舱仪表

国民萌叔阅读(53)评论(0)

本田在美国市场的豪华品牌讴歌,在这次2016北美车展中发表一辆名为讴歌PrecisionConcept的概念车。而正在举行的洛杉矶国际车展上,讴歌则重点展示了未来概念驾驶舱和交互式仪表盘系统,是讴歌展示其如何应对无人自动化驾驶趋势的全新思考。
1

讴歌高层明确表示新的驾驶舱设计将面向未来全部车型开发,不仅仅只是作为概念而已,数月前已公布的讴歌新款MDX车型已经应用了部分新驾驶舱的设计。

2

3

讴歌新的驾驶舱应用了大量触屏和自动化技术,并且为智能接入做好充分准备。12.3寸的超宽屏幕中控面板置于中间,能够以1:1映射智能设备操控全车的娱乐和信息系统。而方向盘上方也有一块提供车辆速度及转速信息的12.3寸大屏幕,当进行自动驾驶时,这块12.3寸屏幕能够以3D展示实时的路况模型,完全面向未来。

乌镇互联网大会 百度无人车吸爆眼球!小米手机3倍价钱你买吗?

国民萌叔阅读(68)评论(0)

昨天说完特斯拉和Nvidia的那层“基友”间的商业爱情后,第三届世界互联网大会在浙江乌镇举办,叔最关注的还是在百度,虽说大会名称是互联网,但其实现场大会真正拿出的已经不是互联网的玩法了,而是展示各自的科技,百度在百度大脑会议后拿着自制的无人车打头阵,其实叔认为有这样的技术应该就可以碾压大会上其他公司了。

无人车有四个标准,lv1~lv4,本次百度在模拟路段实现全程无人工干预的L4级无人驾驶技术。

baidu

并且百度在今年也选择在此建设无人车研发,也给当地政府带来利好,想必也受到了政府的大力支持。这次亮相的汽车包含此次在乌镇亮相车型包括奇瑞EQ、北汽EU260、BYD秦。

1

云骁无人驾驶奇瑞EQ版

2

云骁无人驾驶北汽EU260

3

云骁无人驾驶比亚迪秦版

官方解释,本次无人车已具备环境感知、行为预测、规划控制、操作系统、智能互联、车载硬件、人机交互、高精定位、高精地图和系统安全十项技术。

6a1515fc64f34149b5dfbf0dde46164e_th

看过之前百度大脑会议的文章的朋友,一定知道在无人车头上的必备的64线激光雷达。这是必不可少的核心硬件之一,车周身还有3个16线雷达,还有更多的传感器和前置摄像头(特斯拉出事的摄像头是双目的,相信吸取教训后,百度肯定不会使用双目摄像头)。同时,百度无人车还配备了毫光波雷达和GPS/ IMU组合导航定位系统,以进行车距定位及点云定位等检测。这些组成了一辆国产无人车机构。除此之外,还有百度的高精度地图也是无人车必备的亮点之一。

1

91221017f81a351_w750_h500

在体验全程,自动驾驶汽车驾驶员位还是坐了一位官方工作人员,而他会时刻准备接管自动驾驶汽车。在车内人员系好安全带后,通过车载中控处摆放的iPad,驾驶员就可以开启自动驾驶,将之后的驾驶过程全部交给汽车进行。iPad上会显示高精度地图的车道、车辆位置,传感器探测出的周边车辆、非机动车或者行人等可能会干扰到正常驾驶的物体都会在地图上以黄色方框的形式标注出来。

2

s_c642984a655f42f1b5fb5ab8e660b0fc

111

价值50w人民币的64线激光雷达和左右后3个16线激光雷达

qg3m-fxxsmih9766667

百度公司高级副总裁,自动驾驶事业部总经理王劲


每次互联网大佬们聚在一起时总会有彩蛋!中国互联网总不会缺少炒作者。
 1 2

雷总,天不早了,洗洗睡吧。

特斯拉即将在2017年完成全自动驾驶?Nvidia:这得靠我

国民萌叔阅读(135)评论(0)

14738103434025

英伟达(Nvidia),该季度公司营收为 20.04 亿美元,比去年同期的 13.05 亿美元增长 54%,比上季度的 14.28 亿美元增长 40%。

关于特斯拉的自动驾驶项目,黄仁勋表达了一些非常有意思的观点。

他说,通过引入必要的完全自动驾驶硬件,特斯拉「对现在的汽车行业发起了一波冲击」:

我想特斯拉已经做了这件事,在不久的将来,一个完全自动驾驶能力的汽车通过使用人工智能,对现在的汽车行业发起了一波冲击,而且特斯拉的自动驾驶基本领先汽车行业 5 年。

黄继续说,自动驾驶不是「检测问题」,而是「人工智能问题」,他坚称这一个问题将在 2017 年解决。

当一位分析师问为什么特斯拉决定使用英伟达的技术用于 Autopilot 功能而不是Mobileye 时,他说了三个主要原因:

以下是黄仁勋的回应:

第一,自动驾驶不是一个检测问题,而是一个 AI 计算问题。一台计算机有处理器,并且架构是一致的,你可以编程、编写软件以及编译它,这是 AI 计算问题。(意思是Nvidia更适合AI,是汽车领域的阿法狗)

第二,汽车公司意识到他们最终需要提供服务,而服务是一个汽车网络。这就像手机,像电视机顶盒。你必须维护和服务那个客户,因为他们对自主驾驶服务感兴趣,这不是一个功能。通过更好的地图、驾驶行为、感知能力和 AI,自动驾驶在不断改进。因此,自动驾驶的软件组件和拥有软件能力的汽车公司,一旦他们在我们的平台上开发它,这是一个真正积极的信号:这一能力对未来的汽车自动驾驶车队而言,是必不可少的。

第三是性能和效率。在目前,我不相信(还有其他公司)有可能提供一个达到符合自动驾驶性能要求的 AI 计算平台,并将这些功能以一个合理的方式组合在一起。我相信 Drive PX 2 是当今唯一可行的解决方案。因为特斯拉能在 2017 年实现全自动驾驶,领先其他对手 5 年,我们则是特斯拉最好的合作伙伴。

14738104081747

老黄在之前的百度大会上也明确了百度是国内深度合作的伙伴,百度也十分看好Nvidia,并且在百度大会后,英伟达还在北京开了一场自己为主角的发布会主要介绍当前的三款主打汽车大脑,分别是:

根据官网我们可以知道这三款产品也分级,越高级的产品在GPU核心数量上就越多,能做的工作也会升级。

1

1.自动巡航(AutoCruise)

现在NVIDIA宣布推出DRIVE PX 2 for AutoCruise,它基本上是简化到单芯片的DRIVE PX 2。现在,DRIVE PX 2已经从2颗芯片被简化到一颗Parker芯片。处理来自多个摄像头和传感器,如雷达,激光雷达(激光),超声波等多种传感器的数据,其目标是在性能和功耗取得平衡,目前Parker芯片功耗仅为10瓦,提供汽车人工智能系统所需的处理性能,支持高速公路和HD映射自动驾驶。该板子只有手掌大小,但这是精简版的,但如此精简版不知道已经使用在了哪里。

2

2. 自动私人司机(AutoChauffeur)

今年1月份,Nvidia就推出过这个产品,该使用了两颗Tegra X1,支持最多12路摄像头输入,浮点性能2.3TFLOPS。而DRIVE PX 2除了采用两颗新一代NVIDIA Tegra处理器(共8个A57核心和4个Denver核心,共计12颗CPU)外还搭载了两颗基于NVIDIA Pascal架构的新一代GPU,采用16nm FinFET工艺,单精度计算能力达到8TFLOPS,轻松超越了TITAN X(7TFLOPS)。NVIDIA表示,在深度学习DL TFLOPS(Deep Learning浮点性能)性能上,宣称相当于6倍TITAN X,等同于150部MacBook Pro。功耗方面,DRIVE PX 2的官方TDP是250瓦,并采用了水冷散热系统。

3

3. 全自动驾驶(Fully Autonomous Driving)

多重全方位配置的DRIVE PX 2系统可以被整合到一辆车里面,来使用自动驾驶。这是目前在Nvidia全系列汽车产品中最顶级的产品,搭载4颗GPU,官方宣称可以做到全自动驾驶。


相比特斯拉,百度无人车使用了80万人民币一个的64线激光雷达,并且配有百度所谓的高精度(小于5cm)的地图。而特斯拉则是依靠AutoPilot 2.0(最新开发的无人驾驶系统)中毫米波雷达,据The Verge等媒体报道,日常行驶中,特斯拉的自动驾驶算法会在车里模拟运行,记录下如果电脑在开车,应该如何操控汽车。比如,在识别出前方障碍物之后,车子并不会自动应对,但软件会做标记在此时此刻应该开始减速刹车。然后根据驾驶者的行为和现实环境的数据进行对比,逐步优化全自动驾驶的算法和软件功能。

但特斯拉在今年事故之后,其上路测试的工程车被爆使用激光雷达做测试,这颇给自己脸上打一耳光,说起特斯拉为什么坚持使用毫米波,这也许是激光雷达太贵了吧,而且算法也不一样,作为性价比很高的外国电动车,特斯拉的价格还是十分诱人的。

无论特斯拉和其他厂家有多不同,其都采用了Nvidia的产品,老黄对特斯拉也是赞赏有加,具体还得看明年的。与同样是出身显卡的农企AMD,这差距更大了。

车内评-汽车电子产品评测第一新媒体

联系我们加入我们