Tsetlin机是否会重塑AI?

   日期:2024-12-26    作者:wskihicf 移动:http://ljhr2012.riyuangf.com/mobile/quote/28392.html

目前,/(/ML)是最强大的技术驱动力,但已经有迹象表明,由于能耗的原因,AI/ML的快速成功是不可持续的。一家初创公司的新技术能否开辟AI和ML的新领域,并最终影响行业的领导者?‍

AI有一个致命问题,就是能耗过高。英国一家名为Literal Labs的初创公司可能有相应的解决方案。

该公司认为,一种名为Tsetlin machine的数学奇观可以为许多AI应用提供一种方法,其速度比基于GPU的训练快1,000倍,能效比当今的高10,000倍。如果能在融入既有技术生态系统的同时实现这样的效率,那么它就能颠覆市场领导者,并在边缘实现AI,而在此之前,AI在很大程度上一直处于停滞状态。

Literal Labs的主张之所以有分量,主要是因为该公司招募了两位曾在工作过的知名高管。他们是Noel Hurley担任CEO,Jem Davies担任非执行董事。Hurley曾在Arm负责业务,Davies曾在Arm领导图形开发和ML开发。

Hurley表示,Tsetlin机从适当的数据集衍生和训练,适用于广泛的推理任务,包括、物体、声音和图像分类、字符识别和数据处理。

AI的问题在于,在AI的使用呈爆炸式增长的同时,模型的复杂性也在指数级增长。这些模型主要基于多层,每项任务需要进行数十亿或数万亿次乘法运算。随着AI工具(如自然语言处理和界面)进入生活的多个方面,可以说,AI的广泛部署在能源基础上已变得不可持续。‍

Hurley说:“人工神经网络需要大量的数学运算。Nvidia在这方面做得很好,它的GPU是乘法器阵列。”Nvidia的出色表现还因它的产品足以加速高性能处理器无法实现的算法,同时又具有足够的通用性,能够支持接踵而至的各种不同算法。想想这些术语吧:Resnet, Alexnet, LSTM, linear regression, logarithmic regression, Naïve Bayes, Decision trees, Random forest, K nearest neighbors, Apriori associative rule mining, Transformer……

Hurley说,Tsetlin机可以采用类似的学习方法,但它是基于命题逻辑的。Tsetlin机就像一个自动投票机。通过机器的每条路径都有权重,而且是可训练的。

公司成立于2023年3月,由首席科学官Alex Yakovlev教授和CTO Rishad Shafik共同创建。两人都就读于纽卡斯尔大学,一直活跃在Tsetlin机的研究领域。

Tsetlin机是一种基于命题逻辑的模式学习自动机,以苏联数学家Michael Lvovitch Tsetlin(1924-1966)的名字命名。该理论认为,Tsetlin机可以通过训练来完成分类、回归和卷积等任务,但它的计算复杂度较低,使用的资源较少,而且不会出现局部最优或梯度消失的问题。

Hurley说:“实际上,我们只需编译大量的NOR和,而不需要那么多乘法器。Tsetli机是一个逻辑嵌套,可以在标准上运行。它只是不像神经网络那样需要大量乘法器。这就是我们打算从边缘入手的原因。”

他说,这并不是说Tsetlin机不能解决的应用问题。挪威阿格德尔大学AI研究中心(CAIR)主任Ole-Christoffer Granmo教授撰写了关于Tsetlin机的开创性论文,2018年发表的。Granmo教授继续研究Tsetlin机对“big iron”问题的适用性。

不过,Hurley并没有试图与数据中心的大公司搏斗,而是引导Literal Labs成为开发新领域的初创公司。

Literal Labs的商业模式基于开发和训练针对客户数据集的Tsetlin机模型。这将产生一个优化的Tsetlin机模型,该模型可以仅作为部署(在行业标准硬件上运行),也可以通过在专门开发的加速器硬件上运行相同的软件来进一步加速。

Hurley说,为客户提供“内部”解决方案的能力将很有吸引力,因为客户不必共享他们的数据。数据集是AI/ML的价值来源,企业和政府层面需要私有解决方案,这已经成为一个讨论点。

该公司声称:“我们的对标测试表明,仅使用软件,我们的推理速度比XGBoost快250倍,而使用硬件加速时,推理速度可提高1,000倍,能耗降低10,000倍。”XGBoost是一个很常用的可扩展分布式GBDT(gradient-boosted decision tree)ML库。
此外,训练和推理都可以在和等边缘硬件资源上完成,内存量也相对较小,从而实现有意义的应用。Hurley认为,即使是边缘应用也需要在云端训练AI,这是AI边缘部署停滞不前的原因之一。

Hurley说:“这项技术的另一个优点是非常容易解释。一旦你对机器的任何输出进行了训练,你就可以通过机器追溯到输入。为输出创建验证是可能的。这具有广泛的适用性。”

Hurley说:“是一个显而易见的应用。这不仅适用于汽车内部的功能,也适用于制造汽车的机器功能。”

Hurley认为,这与神经网络的情况不同。神经网络就像一个黑盒子。Hurley说,反馈或训练过程会对黑盒子进行编程,但你无法看到黑盒子内部的情况,这是个问题。

这一切听起来都对Tsetlin机和Literal Labs有积极意义。目前尚不清楚的是,Tsetlin机到底能处理多少种AI/ML算法。而成功导入技术的标志之一就是如何轻松融入既有生态系统,同时应对下一系列工程挑战。

Hurley承认:“我们不能把神经网络拿出来重新编译。设计者需要更上一层楼,即训练模型的数据集。这意味着我们要熟悉数据科学家。这些机器可以用C++来描述,随时可以集成到软件堆栈中。客户更感兴趣的是ML任务的10倍、20倍和100倍的速度和效率的提升。”

他说:“我们不关心(x86、Arm、)。我们一直在ESP32上运行Tsetlin机。”ESP32是Espressif Systems推出的一款无线微控制器。他说:“你可以看到我们在低端和功耗至关重要的地方添加功能。”

Hurley说,尽管Literal Labs的学术创始人(Yakovlev和Shafik)已经制造了硬件加速器,但Literal Labs最初不太可能提供硬件。他说:“你需要一个强大的软件生态系统,这样硬件加速器才有生命力。此外,Tsetlin机通常是基于专有数据提供的,这也使得市场变得支离破碎。”

Hurley说,对于许多客户来说,软件性能提高5到250倍,并能在传统微控制器和微处理器上运行就足够了。“一开始,它将针对特定客户,但我认为针对特定行业(机器的振动数据、用于各种识别的预训练模型)将是我们向前迈进的成熟一步。”

在接下来的几个季度里,Literal Labs将筹集资金,与一些主要合作伙伴合作,试图找到能带来可观收入的机会。但考虑到AI/ML面临的能耗问题,Tsetlin机和类似的其他处理开发应该会有很大的市场和技术推动力。

 


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号