政府采购IT网_IT采购网-政府采购信息网

光电计算机的出现照亮了人工智能的未来

政府采购信息网  作者:  发布于:2017-07-07 09:11:55  来源:搜狐
投稿邮箱为:tougao@caigou2003.com,投稿时请附作品标题、作者姓名、单位、联系电话等信息,感谢您的关注与支持!一经采用,本网会根据您的文章点击情况支付相应的稿酬。
  研发可以使用光而不是电来驱动计算机的这种想法可以追溯到半个多世纪以前。长期以来,“光学计算机”一直宣扬的是能耗在比传统电子计算机的基础上,有一个更快的运行速度。然而,由于科学家们一直努力在现在的计算机外部加上光学组件,实用型光学计算机的前景已经失去了活力。尽管有这些挫折,但是对于光学计算机来说,现在可能是一个新的开始 - 研究人员正在测试一种新型的光子计算机芯片,这种芯片将可以为人工智能设备打下良好基础,能变得像无人驾驶车一样聪明,并且小到可以放入一个口袋。
 
光电计算机的出现照亮了人工智能的未来
光电计算机的出现照亮了人工智能的未来
 
  常规计算机依赖于像精细的舞步一样切换电子电路的开关来响应相关的计算,比如两个数字的乘法。光学计算也遵循类似的原理,但是并不是通过电子流,它的计算是由彼此相互作用的光子束和像透镜或者分束器这样的的引导组件执行的。与电阻不同,这些可以抵抗潮汐阻力的光子束必须流经电路,光子没有质量,一旦以光速行进,就不会产生额外的电力。
 
  马萨诸塞理工学院的研究人员在《自然-光子学》一文中写道,最近提出的光学计算对于加强深度学习是很有帮助的,这是一种基于人工智能最新进展的技术。深度学习需要进行大量的计算:它需要将庞大的数据集放入一个模拟的人造的“神经元”网络中,这个“神经元”网络松散地依赖于人脑的神经结构。每个人工神经元都会接收一组数字,然后对这些数字进行简单的计算,并将结果发送到下一层神经元。通过调整每个神经元的演算,人造神经网络可以学习如何去执行任务,如:识别猫和驾驶汽车。
 
  深深的困境
 
  深度学习已经成为人工智能的核心,包括谷歌和高性能芯片制造商Nvidia在内的一些公司已经为开发此类的专用芯片投入了数百万。
 
  这些芯片利用多数人工神经网络会将时间花费在“矩阵乘法”上的现状——这指的是每个神经元会对被分配到的不同的值进行求和的操作。例如,在面部识别神经网络中,一些神经元可能正在寻找鼻子的标记。那些神经元将会对相对小的黑暗区域(可能是鼻孔)的输入赋予更大的价值,给光斑(可能是皮肤)赋予稍微较低的值,甚至是荧光绿(极不可能装饰某人的鼻子)。专门的深度学习芯片将通过把这些神经元种植到芯片的数百个小型独立处理器中,来同时执行这些加权和,然后实现大幅度的提速。
 
  这种类型的工作负载要求有相当于迷你超级计算机的处理能力。奥迪和其他的研发无人驾驶汽车的公司都奢侈的在后备箱内装满整机的计算机,希望他们在这种尝试——让人工智能无人机或手机能适应这种处理能力的不断努力中有好的运气。即使神经网络可以在大型服务器场上运行,如同谷歌翻译或Facebook的面部识别系统可以在上面运行一样,这种重型计算机会消耗数百万美元的电费。
 
  2015年,麻省理工学院的博士后研究员Yichen Shen和《newpaper》杂志的主要作者正在寻求一种新颖的深度学习方法来解决这些能量消耗和计算机尺寸的问题。他偶然发现了合作作者Nicholas Harris的工作,他是麻省理工学院电气工程与计算机科学的博士研究生,他们研制出了一种新型的光学计算芯片。虽然以前的大多数光学计算机都以失败告终,但Shen认为,光学芯片可以与传统的计算机进行结合,开辟新的深度学习阶段。
 
  混合的计算机
 
  很多研究人员早就放弃了光学计算。从1960年代起,BellLabs和其他人在设计光学计算机元件上花费了大量的资金,但最终,他们的努力并没有得到什么好的结果。UpperAlsace大学的光学计算学教授PierreAmbs表示:“电子晶体管的光学等效性还未被开发出来,光束无法执行基本的逻辑运算。”
 
  不同于大多数之前的光学计算机,Harris的新型芯片并不会去试图取代传统的CPU(中央处理器)。它被设计成为专门执行量子计算的模式,它利用亚原子粒子的量子态来进行比常规计算机更快的计算。当Shen参加Harris的关于新型芯片的演讲时,他注意到量子计算与支撑深度学习的矩阵乘法相同。他意识到深度学习可能是这几十年来阻碍光学计算发展的杀手级应用程序。受到Harris的启发,麻省理工学院的团队将会把Harris的光子芯片连接到普通计算机上,允许深度学习的程序能够把它们的矩阵乘法程序卸载到光学硬盘上。

  当他们的计算机需要一个矩阵乘法时——即一堆数字的加权和,它首先要将数字转换为光信号,其中较大的数字表示为较亮的波束。然后,光学芯片将完全乘法问题分解成许多较小的乘法,每个乘法由芯片的单个“单元”处理。要了解一个“单元”的运行情况,你要想象有两股流入其中的水流(输入光束)和两股流出的水流。每个单元会像闸门和泵的格子一样起到作用,将流分解,再对它们进行加速或减速,最后将它们混合在一起。通过控制泵的速度,电池可以将不同量的水引导到每个输出流中。
 
  泵的光学等效物是硅的加热通道。加热时, Harris 解释说:“[硅]原子会扩散一点,这会导致光线以不同的速度行进,”从而导致光波像声波一样相互增强或抑制。(对后者进行抑制就是降噪耳机如何进行工作的原理)。计算机设置加热器,是为了使每个单元输出通道的流出光量是输入的加权和,加热器决定权重。
 
  要有光吗?
 
  Shen 和 Harris 通过训练一个简单的神经网络来识别不同的元音声,并以此来测试他们的芯片。结果是很平常的,但Shen认为这是因为改变了一个本就不完全适合的设备的用途。例如,不断将数位转换为光学信号并将光学信号转换为数位的组件只是一个概念的粗略证明,如果仅仅是因为它们易于连接到 Harris 的量子计算芯片就选择那些设备,这是不明智的。《Nature Photonics》上的论文表示,他们专门为深度学习而制造的更好的计算机版本可以提供和最佳常规芯片一样的精度,同时将能将能耗降低几个数量级,并且提供100倍的速度。这样的话,即便是将人工智能内置到手持的设备中都是行的通的,而无需在将其再外包给其他的大型服务器,否则这将是不可能的。
 
  当然,光学计算起起落落的发展历史给我们留下了很大的怀疑空间。Ambs警告说,“我们不要太兴奋。” Shen和Harris的团队还没有展示出一个完整的体系,并且Ambs的经验表明,有时候“能显著的完善一个还未成熟的系统是非常困难的。”
 
  尽管如此,Ambs也同意这项工作“与90年代的[光学]处理器相比,取得了巨大的进步。”Shen和Harris也很乐观。他们正在创立一个能将他们的技术商业化的初创企业,他们相信更大的深度学习芯片将会起到明显作用。Harris 认为,导致他们目前芯片的错误的所有因素都有了解决的方案,所以“这只是获得真正的人才并在实际中构建事情的一项工程挑战”。

  原作者:Jesse Dunietz
 
  译者:李凌
 
  推荐专题:
本网拥有此文版权,若需转载或复制,请注明来源于政府采购信息网,标注作者,并保持文章的完整性。否则,将追究法律责任。
网友评论
  • 验证码: