• 登录后可以发起提问

安森美:要将上万美金的激光雷达成本降到几百美金

半导体行业观察 · 2019-05-25
自1999年从摩托罗拉分拆出来以后,安森美半导体就专注于模拟芯片的研发,分为电源方案部(PSG)、模拟方案部(ASG)和智能感知部(ISG)。而且特别钟爱于汽车半导体。按终端市场收入划分,该公司汽车市场占比1/3,工业市场约占1/4,通信市场约占1/5,汽车和工业是两个主要板块,而且,汽车和工业也是近年发展势头最好的两个行业。按区域市场收入划分,亚太地区占其总收入超过2/3,其中,中国市场举足轻重。

自1999年从摩托罗拉分拆出来以后,安森美半导体就专注于模拟芯片的研发,分为电源方案部(PSG)、模拟方案部(ASG)和智能感知部(ISG)。而且特别钟爱于汽车半导体。按终端市场收入划分,该公司汽车市场占比1/3,工业市场约占1/4,通信市场约占1/5,汽车和工业是两个主要板块,而且,汽车和工业也是近年发展势头最好的两个行业。按区域市场收入划分,亚太地区占其总收入超过2/3,其中,中国市场举足轻重。

2018年,该公司将图像传感器部门(Image Sensor Group)更名为智能感知部门(Intelligent Sensing Group)。

据安森美半导体智能感知部全球市场及应用工程副总裁易继辉(Sammy YI)介绍:“我们智能感知部的终端市场有很多,包括航空国防、科学研究、医疗,但是汽车、机器视觉、边缘人工智能是我们最重要的三大市场方向。我们所提供的技术、产品和能力主要也是针对这三个方向。”

安森美半导体智能感知部全球市场及应用工程副总裁 易继辉(Sammy YI)

智能传感器、深度感知、传感器融合,是感知未来发展的三个趋势。智能感知已经不同于传统的图像传感。传统的图像传感技术很大程度是依靠手机开发出来的。现在,智能传感器被广泛应用在汽车、机器视觉、边缘人工智能这三个领域,很多新技术是先被开发出来,后被运用到手机里。较之汽车、机器视觉和边缘人工智能有很大的不同:一是像素,现在很多手机厂商都在宣传自己的像素级别,如2000万像素、1600万像素,但是人眼仅能够鉴别1600万像素左右,再高对于人眼也没有区别。但是智能传感对于像素识别几乎没有边界。随着人工智能对像素分辨、理解和判断能力需求的提升,图像传感器对于像素识别要求也越来越高。

就汽车智能感知的应用而言,安森美半导体现在提供了宽广的汽车传感器阵容。2018年,该公司占整个超声波市场份额的60%。2017年收购了IBM海法研究小组(IBM Research Haifa Lab)在以色列的毫米波研发中心,现在可以提供毫米波雷达方案。2018年5月,收购了爱尔兰 SensL Technologies公司,它的核心技术之一是SPAD(单一光电雪崩二极管),该产品具有非常高的感光效应,具有上百万、上亿的感光倍数。因此,现在安森美是全球唯一一家拥有所有感知技术的公司,打破了行业间的壁垒。

传统的公司发展会主攻某个领域,比如研发毫米波雷达的公司就专注于将毫米波雷达的能力发挥到极致,研究激光雷达的公司则思考如何将激光雷达的能力发挥到极致。安森美的战略布局是要提升综合能力,达到综合能力的极致,以宽广的产品阵容满足客户全方位的需求,而不是满足于在某一个领域做到极致。这是该公司的战略布局,也是其优势所在。

易继辉表示,图像传感器是整个半导体行业复杂程度最高的技术。电脑里的CPU(中央处理器)由电子部件组成。但图像传感技术则要将光子和电子二者结合,把光转换成电,再把电转换成光,这里面包含了很多前沿技术。光转换成电以后,通过数字线路和模拟线路进行传输。现在我们已经可以做到两个芯片堆栈,并已经在批量生产。下面会做三个芯片堆栈的量产,以后还可以把一些处理器和存储器都直接加载到图像传感器里面。

宽动态范围最早是要满足汽车应用的需求,现在宽动态已经不光局限在汽车应用上,还延伸至边缘人工智能和工业领域。简单来说,宽动态是指一个图片上亮和暗的比差。用手机从室内拍摄窗外的时候,一般室外景物拍摄清晰时,但室内拍摄效果却是一片漆黑,若保证室内清晰窗外效果就一片空白,原因就是手机的宽动态不够。

以夜间行车为例,特别是遇到相向而行的车开启大灯的时候。在宽动态102dB的情况下,可以看到路边行人的轮廓,人工智能就可以判别左边有行人。但如果宽动态在90dB或80dB,人工智能算法就没有办法判断这是人,甚至看不到左边这个实体的存在。所以,宽动态在汽车应用中非常重要。

现在,汽车智能感知元器件越来越多。目前用于自动驾驶的车辆拥有9个图像传感器,而下一代正在开发的图像传感器已经超过12个,还有接近20个正处于研发阶段。同时还配备有10个雷达,至少2个超声波,将来也会配置至少1个激光雷达。所以,现在汽车的感知能力已经比驾驶员更强。驾驶员的视线范围一般只能覆盖前方180度,加上余光,可能超过200度,而汽车智能具有360度的感知能力。另外,驾驶员可能会有几毫秒的精力分散情况,而智能感知可以全天候地跟踪、检测和计算。感知技术搭配人工智能,未来自动驾驶和智能驾驶一定会比人类更可靠、更安全,只是现阶段技术还尚未成熟。

汽车图像传感器主要应用包括:1. 先进驾驶辅助系统ADAS;2. 车舱内摄像机;3. 视觉摄像机和摄像机监控系统(CMS);4. 自动驾驶。

根据第三方市场调研公司的数据,安森美智能感知部门在汽车视觉(Viewing)和感知摄像机(Sensing)两个市场的份额为:2016年,Viewing和Sensing两者加起来占总体50%市场份额。如果只看机器视觉(即感知摄像机),其市场份额占比超过了60%。2018年,Viewing和Sensing占总体市场份额62%,如果只看机器视觉(ADAS+自动驾驶)已经超过80%的市场份额,比所有竞争对手市场份额的加和还要大。

易继辉表示,在整个行业内,我们提供最完整的系列产品,产品的性能和功能都处于行业领先,比如满足各个级别的像素需求(130万像素至1200万像素),高端摄影机里面的宽动态技术如今也被应用到汽车领域。

安森美半导体是一家专业的汽车半导体公司,从摩托罗拉半导体时期就开始投入到汽车领域的研究,现有的一些产品已经卖了三、四十年之久。到目前为止,已经有超过4亿个汽车摄像机使用安森美半导体的图像传感器。

网络安全对汽车而言越来越重要。安森美是全球第一个把网络安全的功能加到图像传感器中的半导体公司,目前产品已经处于量产阶段。

该公司的核心技术Clarity+能够把Viewing和Sensing技术结合。现在市场上人工视觉使用一个相机,机器视觉使用另外一个相机。而一个使用安森美半导体的相机既能做到机器视觉信号又能提供人工视觉信号,这是系统集成的一项技术。

建立汽车生态系统合作伙伴关系非常重要。易继辉表示,我们公司有专门的团队开发生态系统,与图像传感器,或者是激光雷达有关系的友商、供应商,都会开展深入的合作。该系统分为三个层面:第一,保证在产品上能够对接,即我们新开发的产品能够和合作伙伴的新产品对接;第二,在产品路线图上能够对接,即我们新产品的路线图能够与友商的下一代新产品的路线图对接上;第三,就是产品概念的契合,即在产品定义之前就跟友商、合作伙伴一起研究如何对新一代产品作优化。

应用于汽车的一个技术是近红外+(NIR+)像素技术。该技术原来在安防领域最先开发,而后应用到汽车领域。汽车在夜间行驶时对近红外的要求非常高。安森美现在开发的近红外频段在大约850纳米至940纳米之间,增加了约4倍的近红外灵敏度。如果近红外灵敏度提高,首先可以省电,再者可确保信号捕捉的全面,提升信号清晰度。这项技术在汽车应用上也越来越广泛。

现在,图像传感器有两个不同的技术:一个叫做卷帘式快门,一个是全局快门。全局快门就是一次性即时捕捉所有的信号。卷帘式是一行一行的扫描,从第一行到最后一行,中间会有时差,所以,当拍摄高速运转的物体时,图像就会变形。但如果采用全局快门,拍摄出的效果非常清晰。易继辉表示,七、八年之前,我们在工业扫描行业拥有超过60%的市场占有率,就是因为这项技术。这项技术目前已经发展至第八代。和竞争对手相比,我们至少超过他们的两代技术。之后该技术也会应用到汽车上,特别是在驾驶员疲劳监控方面。

在ADAS(先进驾驶辅助系统)和自动驾驶方面,安森美也开发了一系列产品。例如,宽动态技术能够达到140dB,目前半导体行业最高的是120dB。20分贝的差距对客户来讲,特别对人工智能的算法来讲是相当大的差距,甚至关乎能否识别差距。比如100万、200万到800万的像素微光机,其感光效果非常好,目前市场的L4自动驾驶基本上就是使用800万像素这一款产品。

边缘计算方面,该公司把传感器的处理单元称为SPU(Sensor Processing Unit),产品现在可以支持100万、200万、300万像素的处理。

现在,汽车应用的发展主要体现在三个方向:一是车外的人工视觉,包括环视、后视,这是供人看的;二是车外的机器视觉,包括ADAS、自动驾驶。三是舱内监控,除了传统的驾驶员疲劳监控,还有疾病检测、情绪/生理检测,安全气囊精准调整、人机互动(Human Machine Interaction)、虹膜识别(Iris Detection)和人脸识别等。人机互动,包括手势识别功能,如调整舱内温度、听广播、打电话等都可以用手势来操作。除了对驾驶员的监控,还有对乘员的监控,比如robot taxi(机器人出租车)的很多功能都需要舱内监控,包括安全带提醒、儿童在场检测、物体检测和宠物检测等。这都是未来自动驾驶都要涉及到的应用。

自动驾驶另外一个需要保障的是功能安全,功能安全就是要做到可信。整个自动驾驶系统,现在故障率单位标准是100FIT(Failure in Time)。对于子系统可以允许故障率单位标准是10FIT,对传感器就是1FIT,这是非常高的要求。当图像出现问题,人工智能就无法识别,或者能够识别也会花很长时间,造成延迟。

易继辉表示,我们在很多年前跟欧洲整车厂开始做功能安全时,采取的方法是把所有故障全部分析出来,再把这些故障注入到芯片,让它产生这些故障,以鉴别芯片的可信度。目前,我们已经做到大概超过8000个失效模式,每一款产品8000个模式都要输入进去,看它的反馈。我们还专门开发了一个安全手册(Safety Manuel),客户在使用我们产品时,根据这个手册来设计它的系统,满足系统功能的安全要求。所以,这是我们跟竞争对手不太一样的地方。网络安全跟图像传感器也是有关系的,而且涉及非常大的潜在风险。安森美半导体会把生产的芯片交给全球知名的一家反黑客公司,去让他们做入侵测试。仅仅一周的时间内,他们就找到了十几种入侵方法。关于相应的网络安全国际标准,到今年年底就会出来。

例如,下图中左边这张是黑客将过去的一张没有车的图像重新使用,对现实路况进行篡改,人可以辨别真假,但是人工智能却没办法识别实际上前面有一辆车。这是简单的例子。安森美跟客户在几年前已经在研究此类状况,2018年底有一款800万像素的图像传感器,就具有这样的网络安全功能,现在在很多自动驾驶领域得以应用。

安森美也在开发自动驾驶毫米波雷达,产品已经处于客户评估阶段。易继辉表示,它的优势是可以降低整个系统的成本,目前市场需要4个发射器,而我们只需要2个就能达到同样效果。随着L2、L3、L4和全自动驾驶的需求增长,以后的长距、中距和短距的毫米波雷达随着成本降低,需求量会越来越多,在汽车上的应用也会越来越多。

目前,汽车激光雷达很热,安森美也于近期推出的一款产品,叫做Pandion,是矩阵型的。固态光源Flash可以感知三米内的深度,扫描式的波速控制 (Beam Steering),则可以感知到100米左右的深度。因为它采用了矩阵型感光点,形成400×100的矩阵。区别于传统的点云(point cloud)。0.1lux(勒克斯,照明单位)的环境光肉眼几乎看不到,但通过该公司的Super Depth技术就可以看到。为此,安森美收购了一家公司。易继辉表示,我们这么多年开发出来的图像传感技术完全可以融合到激光雷达的开发上。所以,这是我们走的第一步,把激光雷达矩阵化,变成图像,以后我们提到的可能就不是LiDAR point cloud,而是LiDAR image。

我们用的SPAD技术,传统的激光雷达是用APD。APD的感光率普遍较低,而SPAD是一个光子回来会有超过百万甚至上亿倍数的增益,所以感光的效果非常好。

另外,传统激光雷达感光器使用的是特殊材料,而非硅片,所以成本非常高。我们在硅技术上开发了十几年,现在已经非常成熟,所以我们的成本非常低。因为我们有高增益,对激光发射源的功率要求不高。所以,我们的芯片能够使激光雷达的系统成本降低。机械式的激光雷达成本需要上万美金,而使用我们的芯片雷达大概只有几百美金,我们的目标是把激光雷达商品化、大众化。

激光雷达用光(虽然不是可见光),所以它有和图像传感器类似的缺陷,比如雾天的识别效果不好。毫米波雷达虽然对金属很敏感,但是雾天、雨天时的穿透力很好。同时,毫米波雷达能侦测感知到移动物体的速度,激光雷达和图像识别感知不到速度,只能看见东西。所以,每种传感器在整个智能化设备中都有它的独特作用。所以,我们认为传感器融合是个趋势。

在人工智能方面,易继辉表示,国内的一家客户给我们提出了一个门禁、闸口人脸识别、防伪的解决方案要求,我们做了这样一个开发尝试,用相机同时提供彩色图像和深度图像,2D相片识别后出来效果没有深度的数据,是平面的。所以,我们通过CNN(卷积神经网络)深度学习把感知的可靠性提高了。

这里用到了前文提到的SPU,可以集成CNN功能。对此,易继辉表示,目前来讲,在这方面,我们的芯片是给客户开发第三方算法预留出来的功能。在我们的芯片里,除了图像处理之外,还可以做一些人工智能的分析。

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第1955期内容,欢迎关注。

评论
登录 后发表评论
动态151
最有深度的半导体新媒体,《摩尔精英》《中国集成电路》共同出品,专注观察全球半导体最新资讯、技术前沿、发展趋势。实时、专业、原创、深度,30万半导体精英共同关注!
今日热榜
    行家说公众号
    关注公众号及时了解产业热点动态
    ©2015-2018 行家信息科技(广州)有限公司  版权所有    粤ICP备16051902号-1