联系我们

人工神经网络

从事新型神经形态计算的工程师 

更新

 on

图片:宾夕法尼亚州立大学

宾夕法尼亚州立大学的工程师团队正在研究一种新型的计算,因为传统计算的进度持续放缓。这种新的计算方法基于大脑的神经网络,该网络非常高效。 

该论文发表于 自然通讯

脑启发计算

人脑所属的现代计算机与模拟计算机之间的主要区别在于,前者由两种状态组成:开-关或一和零。另一方面,模拟计算机可以具有许多可能的状态。团队使用的一个示例是打开和关闭的灯与具有可变照明量的灯之间的比较。 

根据小组负责人和宾夕法尼亚州立大学工程科学与力学助理教授Saptarshi Das的说法,对大脑启发式计算的研究已经进行了40多年。在当今世界,数字计算机的局限性迫使我们不得不转向高速图像处理,无人驾驶汽车就是这种情况。 

大数据在向神经形态计算的发展中也发挥着重要作用,因为它要求模式识别类型必须与基于大脑的计算很好地配合使用。 

戴斯说:“毫无疑问,我们拥有功能强大的计算机,问题是您必须将内存存储在一个地方,然后在其他地方进行计算。”

通过将数据从内存到逻辑来回移动,会消耗大量能量,从而降低了计算速度。在计算和内存存储可以放在同一位置之前,此类环境需要大量空间。 

Thomas Shranghamer是该小组的博士生,也是该论文的第一作者。 

“我们正在创造 人工神经网络试图模仿大脑的能量和面积效率,” Shranghamer说。 “大脑非常紧凑,可以放在肩膀上,而现代超级计算机占用的空间只有两个或三个网球场。”

可重构人工神经网络

该小组正在研究可以像人脑中的神经元一样进行重新配置的人工神经网络。这是通过在石墨烯片上施加短暂的电场来实现的,石墨烯片是一层厚的碳原子。研究小组证明了至少16种可能的记忆状态。

达斯说:“我们已经证明,我们可以使用简单的石墨烯场效应晶体管精确地控制大量存储状态。” 

该团队现在希望将该技术商业化,Das认为,鉴于当前最大的半导体公司中向神经形态计算的转变,该工作将引起人们极大的兴趣。 

来自宾夕法尼亚州立大学团队的工作是向这些类型的人工神经网络过渡的最新示例。人脑再次证明了其价值,这是许多最新技术的灵感,它为专家如何大幅减少现代超级计算机的规模提供了宝贵的见识。

 

亚历克斯·麦克法兰(Alex McFarland)是一位历史学家和新闻工作者,报道了人工智能的最新发展。