Project Icon

Convolutional-KANs

KAN卷积网络探索参数效率与性能提升

Convolutional-KANs项目将Kolmogorov-Arnold网络(KAN)架构应用于卷积层,引入可学习的非线性激活函数。初步实验表明,KAN卷积在保持准确性的同时,可能比传统卷积网络更具参数效率。该项目正在更复杂的数据集上进行进一步测试,以评估KAN卷积的实际性能。这一创新为计算机视觉领域开辟了新的研究方向。

卷积Kolmogorov-Arnold网络(CKAN)

论文

所有数学解释和实验都在学术论文中进行了说明

介绍卷积KAN网络!

这个项目将Kolmogorov-Arnold网络(KAN)的创新架构理念扩展到卷积层,将经典的线性卷积变换改为每个像素的可学习非线性激活。

作者

本仓库由以下人员创建:

致谢

本仓库使用了一个高效的KAN实现,可在此处获取。 KAN的原始实现可在此处获取。 KAN的原始论文可在此处获取。

什么是KAN?

KAN是多层感知机(MLP)的一个有前景的替代方案。KAN与MLP一样具有坚实的数学基础:MLP基于通用近似定理,而KAN基于Kolmogorov-Arnold表示定理。KAN和MLP是对偶的:KAN在边上有激活函数,而MLP在节点上有激活函数。KAN似乎比MLP更加参数高效,但每个KAN层的参数比MLP层多。

mlp_kan_compare

要了解更多关于这种新型架构的信息,请访问:

什么是KAN卷积?

KAN卷积与普通卷积非常相似,但不是对核与图像中对应像素进行点积,而是对每个元素应用可学习的非线性激活函数,然后将它们相加。KAN卷积的核相当于一个4输入1输出神经元的KAN线性层。对于每个输入i,我们应用一个可学习的函数ϕ_i,该卷积步骤得到的像素是ϕ_i(x_i)的总和。这可以在下图中可视化。

image

KAN卷积中的参数

假设我们有一个KxK的核。在这种情况下,对于这个矩阵的每个元素,我们都有一个ϕ,其参数数量为:网格大小 + 1。出于实现问题,efficient kan定义为: image

这给予激活函数b更多的表达能力。因此,线性层的参数数量为网格大小 + 2。所以总共KAN卷积有K²(网格大小 + 2)个参数,而普通卷积只有K²个。考虑到网格大小通常(在我们的实验中)在k和k²之间,但k往往是一个较小的值,在2到16之间。

初步评估

我们测试的不同架构有:

  • KAN卷积层连接到KAN线性层(KKAN)
  • KAN卷积层连接到MLP(CKAN)
  • 卷积之间带有批量归一化的CKAN(CKAN_BN)
  • ConvNet(经典卷积连接到MLP)(ConvNet)
  • 简单MLP

image

以下是一些结果:

模型测试准确率测试精确率测试召回率测试F1分数参数数量卷积层
1层MLP0.9220.9220.9210.9217850-
ConvNet (小)0.9760.9760.9760.9762740[5,1] k=[3,3]
ConvNet (中)0.9910.9910.9910.991157 030[5,5] k=[3,3]
ConvNet (大)0.9950.9950.9950.995887 530[32,1,2,1] k=[5,5,3,3]
KANConv & MLP0.9850.9850.9840.984163 726KanConvs[5,5] k =[3,3]
简单Conv & KAN0.9800.9800.9800.98037 030[5,1] k=[3,3]
KKAN0.9870.9870.9870.98794 650KanConvs[5,5] k =[3,3]

卷积层列表中的每个元素包含卷积的数量,然后是相应的核大小。

基于28x28的MNIST数据集,我们可以观察到KANConv & MLP模型与ConvNet(大)相比达到了可接受的准确率。然而,区别在于KANConv & MLP所需的参数数量比标准ConvNet少七倍。此外,KKAN的准确率比ConvNet中等少0.04,但参数数量几乎减半(94k vs 157k),这显示了该架构的潜力。需要在更多数据集上进行实验才能得出确定的结论。

讨论

KAN卷积的实现是一个有前景的想法,尽管它仍处于早期阶段。我们进行了一些初步实验来评估KAN卷积的性能。我们之所以说是初步的,是因为我们想尽快发布这个想法,以便社区可以开始研究它。 我们意识到需要调整许多超参数并进行多项实验。在接下来的几天和几周内,我们将全面调整我们模型和用于比较的模型的超参数。我们已经尝试了一些超参数和架构的变化,但这是基于启发式方法,而非采用任何精确的方法。

我们也认识到,由于计算能力和时间的限制,我们尚未使用大型或更复杂的数据集,我们正在努力解决这个问题。

未来我们将在更复杂的数据集上进行实验,这意味着KANS的参数量将会增加,因为我们需要实现更多的Kan卷积层。

结论

目前,与传统卷积网络相比,KAN卷积网络的性能并未显示出显著提升。我们认为这是因为我们使用的是简单数据集和小型模型,而我们架构的优势在于与我们尝试过的最佳架构(ConvNet Big,这是一个不公平的比较,因为它的规模更大)相比,所需的参数显著更少。在相同的MLP连接到末端的情况下,2个相同的卷积层和KAN卷积层的比较显示,传统方法略胜一筹,准确率高出0.06,而参数数量几乎减半的KAN卷积和KAN线性层的准确率低了0.04。我们相信,随着模型和数据集复杂度的提高,KAN卷积网络的性能将会显著提升。但同时,随着输入维度的增加,我们模型的参数数量也会更快地增长。

进行中的工作

  • 在更复杂的数据集上进行实验
  • 使用随机搜索进行超参数调优
  • 尝试更多架构
  • 动态更新网格范围

安装

git clone git@github.com/AntonioTepsich/ckan.git
cd Convolutional-KANs
pip install -r requirements.txt

使用方法

只需将kan_convolutional文件复制到你的项目中并导入即可。

from kan_convolutional.KANConv import KAN_Convolutional_Layer

示例

为MNIST构建一个KANConv

import torch
from torch import nn
import torch.nn.functional as F

from kan_convolutional.KANConv import KAN_Convolutional_Layer

class KANC_MLP(nn.Module):
    def __init__(self,device: str = 'cpu'):
        super().__init__()
        self.conv1 = KAN_Convolutional_Layer(
            n_convs = 5,
            kernel_size= (3,3),
            device = device
        )

        self.conv2 = KAN_Convolutional_Layer(
            n_convs = 5,
            kernel_size = (3,3),
            device = device
        )

        self.pool1 = nn.MaxPool2d(
            kernel_size=(2, 2)
        )
        
        self.flat = nn.Flatten() 
        
        self.linear1 = nn.Linear(625, 256)
        self.linear2 = nn.Linear(256, 10)


    def forward(self, x):
        x = self.conv1(x)

        x = self.pool1(x)

        x = self.conv2(x)
        x = self.pool1(x)
        x = self.flat(x)
        x = self.linear1(x)
        x = self.linear2(x)
        x = F.log_softmax(x, dim=1)
        return x

贡献

我们邀请社区加入我们,共同推进这个项目。有很多方式可以做出贡献。欢迎您通过提交拉取请求或开启问题来分享想法和建议改进。让我们携手unleash KAN的全部潜力,推动计算机视觉的边界❤️。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号