物联网的下一站:由“大脑”激发的灵感

  【智慧城市网】当下机器或者设备感知世界的模式是单一的,由传感器信息捕捉、在数据库中检索、匹配然后反馈。而人脑的机制要比这复杂得多,你看到一张脸,立马能反映出他的身材、着装和声音,然后嘴里下意识地蹦出他的名字。如果设备也能模拟这种类神经的反馈机制呢?高通、IBM和Intel的研发成果说可以。
  
  当下,即使是Google或者FB的面部识别软件,设备会将当下的图像在数据库里跑一遍然后把人认出来;但如果它需要换个背景再次识别这张脸,上面的流程就会再跑一次。
  
  类神经网络
  
  类神经网络的概念很早就在提了,包括美国DARPA在内的研究机构都在试图研发能够自我学习的计算设备。
  
  微处理器的先驱FedericoFaggin一直期待着处理器的行为能发展到神经网络的程度,不过最后他的成果推动了接触传感的发展,也就是我们今天在笔记本看到的触控板以及触屏设备。
  
  人造的神经网络远比Federico这些先驱们想的复杂,当前高通、IBM和其他厂商们正试图通过他们对人脑模式的认知来打造新的芯片。
  
  计算设备的重定义
  
  我们现有的计算设备按照模块有清晰的划分:信息处理、存数、传感…大体上,设备按照人们预设的模式去处理数据,然后每年的技术发展能让他们跑得更快。
  
  但高通的NPU(与CPU相对,neuralprocessingunit)工作模式与CPU有很大不同。高通的类神经架构以并行、分布的方式处理信息;并且高通已经研发了一款配套软件来模拟大脑的活动。
  
  MattGrob,高通的VP在一次采访上如此介绍CPU和所谓NPU的区别:
  
  CPU是基于传统的数据寄存+处理单元,但放在识别、控制这样的场景中,这些任务会耗费大量的资源。NPU是我们与BrainCorporation合作开发的类神经数学模型,同时也是一个提高运算效率的数据压缩模型。
  
  设备也会自我学习
  
  SoC的应用目前在手机和平板上非常普及,也就是处理器、图形单元和通信都整合在一块芯片里。高通预计未来NPU有可能作为一个模块加入SoC或者直接接管设备(比如一个机器人)。
  
  手机上的NPU能执行一系列的功能。Grob举了几个例子:当周日晚上的9点,一个陌生电话打入的时候,用户正在看娱乐节目。于是你对着手机说:“忙着呢”。手机会综合这周的这个时间屏蔽以后类似时间段的陌生电话,或者转入留言。
  
  或者从手机上拍一张小明的照片,并且告诉它这是小明。手机在之后的时间里就能用摄像头或者照片判断这是小明,把相关的资料都自动打上标签。而这些都是在本地低能耗的情况下完成的。

原创文章,作者:智慧城市,如若转载,请注明出处:https://www.zhihuichengshi.cn/xinwenzixun/wuliannews/12572.html

(0)
打赏 微信扫一扫 微信扫一扫
智慧城市
上一篇 2013 年 10 月 29 日
下一篇 2013 年 10 月 29 日

相关推荐