AI算法最新突破,有可能颠覆现有AI算法应用

智芝全研究
关注
12月06日
·
70浏览
·
0喜欢
·
0评论

无论是元宇宙,还是区块链,AI,对算力的要求都是巨大的。而资本市场也会对新计算技术极其关注。其中最明显的进步的就是称为储备池计算(Resevoir computing)计算。
储备池计算是一流的机器学习算法,用于处理动态系统使用观察到的时间序列数据生成的信息。重要的是,它只需要非常小的训练数据集,使用线性优化,因此需要最少的计算资源。然而,该算法使用随机采样的矩阵来定义底层的循环神经网络,并且有许多必须优化的元参数。最近的结果表明储层计算等效于非线性矢量自回归,它不需要随机矩阵、更少的元参数,并提供可解释的结果。非线性向量自回归在储层计算基准任务中表现出色,并且需要更短的训练数据集和训练时间,预示着下一代储层计算的到来。简而言之,它更能模仿人脑运作,可以彻底改变现有的AI计算方式。尤其在特定任务上的速度提高100万倍,同时使用更少的数据输入的计算资源。
利用这种技术,人们就能够使用目前常见的计算设备,用不到一秒钟的时间解决一个复杂的计算问题,如解密密码,预测股票走势,天气等随时间变化的动态系统的演变等。这些系统极难预测,“蝴蝶效应”就是一个著名的例子。储备池计算非常适合学习这种动态系统,并能对它们在未来的行为提供准确的预测;然而,系统越大、越复杂,就需要更多的计算资源、人工神经元网络和更多的时间来获得准确的预测。
依据俄亥俄州立大学物理学教授Daniel Gauthier最新发表在《自然-通讯》杂志上文章,研究小组对储备池计算系统进行了简化,大大减少了对计算资源的需求,并节省了大量时间。下一代储备池计算技术明显优于其他技术。

AI算法最新突破,有可能颠覆现有AI算法应用

 

根据数据的不同,新方法被证明能够比上一代技术提升33到163倍的速度。然而,当工作目标被改变为有利于准确性时,新模型的速度提高了100万倍。这种速度的提高是由于下一代储备池计算比前几代需要更少的预热和训练。
过去我们做机器学习,通常都需要用1000或10000个数据点或更多的数据来进行训练。最新一代技术只需要放入一个或两个或三个数据点就可以了。
此外,新技术仅用28个神经元就能达到同样的精度,而当前一代模型需要4000个神经元。
如果利用好这种超高效的神经网络,将工作扩展到更复杂的空天科技,助力新的宇航科技,火星探索,还有金融领域,将具有非常大的爆发力。

本文作者不持有文章中提到的股票,且近72小时内无任何买入计划
❤0喜欢收藏