中国内地版本
2024年11月04日![中国内地版本](http://cdn.tsrus.cn/web/zh-rbth/images/2024/11/04/2024_11_gt_all_first_page.png)
“我们研究了一种构建神经网络的新方法,证明我们的训练方法可以通过简化神经元结构实现高性能。这为创建能效更高、速度更快的神经网络开辟了道路,” 莫斯科物理技术学院研究生米哈伊尔·金格连科(Mikhail Zingerenko)解释道。
研究人员指出,当今大多数人工智能系统都基于“经典”人工神经元,主要使用两种数学运算——加法和乘法。后者需要更多的计算资源,因此科学家们现在正积极致力于创建替代的神经元模型。
其中之一就是所谓的双极形态神经元,在这种神经元中,乘法运算被取最大值运算所取代。从理论上讲,基于这种神经元的神经网络应该比传统的神经网络具有更高的能效,但它们的训练难度要大得多,而且在图像识别系统中使用它们需要更多的计算分支。
俄罗斯科学家成功开发出一种新的双极形态神经元模型,将计算分支的数量从四个减少到一个,并在此基础上创建了一种训练神经网络的新方法。科学家们利用知识提炼法将“教师”网络的信息传递给学生网络,从而实现了与经典模型相当的精确度。
科学家们进行的实验表明,他们开发的类似物LeNet和ResNet-22(两款用于图像和手写识别的流行人工智能系统)在应对测试任务时的准确度几乎与经典版本相同。科学家们总结说,从长远来看,这将使人们有可能创造出高性能、低成本的其他算法类似物,而这些算法目前需要大量的计算资源。
来源: 《塔斯社》
| www.tsrus.cn/682387|