2017-02-14 12:49:52
来 源
ZDNet
物联网
性能强大的处理器与容量可观的存储器仍然在本届国际固态电路会议(简称ISSCC)上占据着媒体头条。

性能强大的处理器与容量可观的存储器仍然在本届国际固态电路会议(简称ISSCC)上占据着媒体头条。然而今年的另一股趋势同样不容小觑,即袖珍传感器、无线部件以及物联网等设备的占比开始快速上升。

本届大会还组织深度学习类嵌入式处理器的主题研讨活动。作为一波新的思潮,从业者希望借此进一步支撑高性能需求,从而推进不断变化的神经网络实现途径。

而在低端层面,IMEC研究员Kris Myny则展示了一款采用塑料基板配合1712个晶体管组成的NFC条码设备。

曾连续九年参加ISSCC大会且以往发布内容一直在朝复杂度更高的方向延伸的Myny表示,“这可以算是我的一个宠物型项目。长久以来,我一直希望能够更为灵活地将电子数据导入至设备芯片当中,例如智能手机。而今年,我们终于将理想变成了现实。”

 ISSCC大会上的16个精彩瞬间

Myny展示一款协同比利时游戏厂商Cartamundi公司利用RFID嵌入式卡开发的原型电子游戏。目前尚不明确这一展示何时或者是否会被开发为成品。

研究人员们在塑料电路板上投入了大量精力。未来的可穿戴式设备将需要更为密集的组件以收集并处理生活数据。他们还需要引入某种形式的非易失性存储器,而这无疑又是另一项巨大挑战。

在商业方面,IMEC正积极拉拢台湾友达光电等显示器制造商作为其合作伙伴,从而获得许可以制造此类灵活性设备。可以肯定的是,Myny还将继续参与未来的ISSCC大会。

 ISSCC大会上的16个精彩瞬间

ISSCC大会上的16个精彩瞬间

Sigfox公司与法国研究所CEA-Leti共同将物联网网络硬件的实现成本由接近5美元拉低至不足1美元。研究人员展示了一款Sigfox终端节点版本,其无需温度补偿晶体振荡器即可运行,且能够提供同样的数据传输速率(每秒100 gbit至每秒600 bit之间)并令需要占用11-dB带宽预算。

现在他们希望将该项技术授权给其它芯片制造商,从而帮助Sigfox同LoRa及Ingenu等各类低功耗物联网设备厂商开展竞争。

 ISSCC大会上的16个精彩瞬间

麻省理工学院的Nachiket Desai(图左)与Chiraag Juvekar合作推出了一款能够实现椭圆曲线加密认证的设备,其10000门运行功耗仅为0.77微焦。虽然这并不是目前功耗最低的解决方案,但作为一款制程粗糙的芯片(180纳米),其仍然成为物联网节点安全保护领域的一大里程碑。

 ISSCC大会上的16个精彩瞬间

索尼公司同日本Excision合作开发出一款智能图像传感器,能够对运动速度达每秒11米的乒乓球进行颜色区分(橙色与白色)。

在另一篇论文中,索尼方面还描述了一款三芯片堆栈,旨在应用于智能手机当中。其包含一款20万像素的传感器、1 Gbit DRAM外加一块图像分析芯片。

 ISSCC大会上的16个精彩瞬间

初创企业InSilixa(来自加利福尼亚州桑尼维尔)展示了一款芯片原型设计,旨在通过唾液样本分析DNA元素以在一小时之内诊断多种传染病。该芯片采用集成化微流控室,且其一次性封装外壳的既定总成本不会超过100美元。

 ISSCC大会上的16个精彩瞬间

来自奥斯陆的Novelda公司展示了一款双频段GHz雷达系统芯片,其相当敏感甚至能够检测到人类的呼吸模式。该设备旨在作为运动传感器及睡眠监控器。

下图所示为来自IMEC及Holst Center的研究人员展示的一款晶体振荡器,其能够在仅消耗36 nJ的前提下提供13倍于传统设备的传输速度。其面向那些通常需要快速开启及关闭无线频段的物联网节点,且尽可能降低功耗水平。

 ISSCC大会上的16个精彩瞬间

在本次ISSCC大会上,另有一些大型传统处理器亦在尽可能实现小型化与低功耗转型。AMD公司的工程师们展示了一款Ryzen x86 CPU的桌面版本,其晶片大小低于英特尔的当前14纳米芯片且电容数量较AMD的上代产品减少了15%。

 ISSCC大会上的16个精彩瞬间

IBM Reserch的Pierce Chuang(图左)在介绍如何降低z13级服务器内电源造成的噪音。该公司还发布了即将推出的Power 9处理器的细节信息,这将成为第一款支持PCI Express Gen 4的芯片且拥有两个每秒25 Gbit接口。Power 9主讲人拒绝透露与之相关的具体技术细节,也许相关内容会在2018年的ISSCC在会上披露。

 ISSCC大会上的16个精彩瞬间

一场学术研究性质的深度学习用嵌入式处理器主题研讨。不过主讲者仍然展示了一套极具创新水平的架构,可将神经网络处理流程纳入位于网络边缘的低性能芯片当中。

ST Microelectronics公司是惟一出席此轮研讨的厂商。主讲人Giuseppe Desoli坦言,他的芯片目前还仅属于原型设计,且为了赶上ISSCC大会的时间而有所赶工。“我们希望让人们了解我们的能力,”他在演讲后的讨论当中表示。

这款芯片能够对AlexNet成像算法进行加速。“我们未来将使其能够作用于用户需要的任何算法当中,”他指出。

Desoli及其他主讲人明确表示,他们对于将神经网络处理流程纳入各类嵌入式系统抱有浓厚兴趣。未来的Amazon Alexa或者Google Home产品间的竞争将主要集中在对口头指令的预测与正确理解层面。

“我们相信神经网络将成为智能化物联网网络的一大关键性组成部分,从而真正实现边缘计算以及立足传感器实现面向云端的信息传递,”他在演讲中表示。“其中的难题在于,此类算法正变得愈发复杂”而产生的数据流亦在不断膨胀。

举例来说,AlexNet在2012年需要每秒1千兆操作以处理七层结构中的6000万条参数。而到2015年,这一处理规模已经达到152层下的1500万条参数,这意味着需要每秒10到20千兆次操作。尽管算法本身正变日趋复杂,但市场仍然要求此类设备能够在电池的支持下长时间运行。

这意味着我们必须在智能化DSP与定制化加速器阵列中塞进更多系统芯片。具体来讲,工程技术人员需要想办法对结构进行调整并将其同神经网络加以映射。

ST公司公布了一套可重构的加速器框架,其采用8套卷积加速器与8套DSP,底层则为拥有16套DMA引擎的64位交叉交换机制。作为最为关键的能耗指标,其可实现每瓦2.9 TOP。

 ISSCC大会上的16个精彩瞬间

KAIST博士生Dongjoo Shin表示,其深度学习系统芯片(他将其简称为DPU)将成为微处理器领域的下一个里程碑。他还提出了具体设备设想,称其相当于将两款处理器合而为一,从而实现每瓦8.1 TOP的4位运算能力。

在一段视频展示中,这款芯片支持一台机器人正确识别人类对象、其手势以及其它多种非人类对象。Shin指出,他已经在着力打造另外两款系统芯片:其一面向通用型设备,其二则专门面向大型图像识别。

一位来自哈佛大学的研究人员展示了一款由ARM以及DARPA资助开发的28纳米研究芯片。其每次预测功耗为568 nJ,主频为1.2 GHz,且可利用数据层并行机制实现具备错误弹性的高强度数据解析,并借此建立起神经元处理组。

这篇论文的作者Paul Whatmough表示,“其中大多数操作属于MAC运算。”

 ISSCC大会上的16个精彩瞬间

ST发布的,利用MAC封装的回旋加速器。

“物联网已经成为一股巨大的推动力,设备将能够借此获得更多传感器支持,而应用则可以将数据转化为信息,”他解释称。深度学习正被越来越多地视为“解释噪声数据的通用型分类工具,但其仍需要占用大量内存与计算资源。”

微处理器老牌技术大牛Marc Tremblay亦参加了此次会议。他也同样认为,目前已经有众多初创企业及主流厂商在努力开发嵌入式深度学习处理器,其中也包括他的东家微软公司。

 ISSCC大会上的16个精彩瞬间

SK海力士与东芝公司展示了一款能够正常运行的4 Gbit STT-MRAM,其可实现与8 Gbit DRAM相同的图像质量。SK公司首席工程师Kwang Myoung Rho表示,他已经在这一项目中投入了五年时间,但其距离全面商用化仍有很长的路要走。

除了在存储密度上较DRAM高出一到两代之外,MRAM亦拥有相当于DRAM两到三倍的成本。他坦言,这样的成本水平对于一款非易失性存储器方案来说太过高昂。

他打算继续研究底层存储单元的可靠性与保持能力。他同时表示,他非常赞赏Everspin一直在为此类嵌入式芯片技术寻找商用途径的作法。

 ISSCC大会上的16个精彩瞬间

在一场前瞻性演讲中,Jonathan Rothberg讲述了他探索两代DNA测序系统的实际经历。“我通过十年的努力换来了一枚总统奖章,”他表示。

他成功解码了DNA基因组前驱James D. Watson的基因,且所使用的这套早期系统已经获得超过1亿美元的销售额。但随着其它厂商的快速跟进,“我被解雇了,因为董事会认为基因组测序已经彻底完成,”他指出。

几年之后,他又利用一套“成本仅为1000美元”的系统解码了英特尔联合创始人Gordon Moore的基因。这套系统采用一块芯片以读取离子中包含的生物数据。

时至今日,他发起了一项孵化器运动,旨在推动利用低功耗设备与云环境下深度学习服务突破各类现有医学成像局限。手持超声设备制造商Butterfly Networks公司正是第一家从中脱颖而出的厂商。

 ISSCC大会上的16个精彩瞬间

目前从业者们正愈发乐观,他们相信量子技术真的可以用于实现新一代超级计算机。不过这些系统距离真正实现恐怕还有10年左右的时间,行业先驱Lieven Vandersypen在演讲中表示。

这位TU Delft大学研究员早在19年前就曾在ISSCC大会上就这一议题发布了相关论文。

“自那时开始,我们就一直在努力了解如何在在芯片上构建量子bit并确保其能够运行在100M开氏度环境之下,”他表示。尽管期间经历了诸多挑战,“如果我们能够构建起一台可运行在100M开氏度条件下的计算机并解决其它棘手难题,那么一切都将是值得的。”

事实上,这样的系统可能给计算机安全、医学研究以及室温超导体等技术领域带来一场新的革命。他表示,“今年我们希望能够在英特尔的300毫米晶圆代工厂中首次尝试制造量子芯片。”

研究人员正在努力打造原型控制电路,旨在承受住量子处理技术所必需的极低运行温度。除了这一挑战外,他们还必须将系统当中纳入100万量子bit,同时探索如何将这些bit进行互连,最终以此为基础定义新的计算算法与架构。

“量子技术将成为电路与系统设计领域的下一项核心挑战,”他总结称。

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。