原文链接:https://blog.csdn.net/qq_43622216/article/details/144417919

个人收集精力有限,欢迎各位评论或者私信告知SNN相关论文研究!

目录

说明

这篇博客主要用于记录2025年在一些顶会顶刊(AAAI、CVPR等)上发表的SNN相关的论文,会附上相关论文的链接及简单介绍,正在更新中…
更新SNN相关论文、动态信息,欢迎浏览讨论!

AAAI 2025

IJCAI 2025

ICLR 2025

  • 论文1: Rethinking Spiking Neural Networks from an Ensemble Learning Perspective
    • 由电子科技大学左琳老师团队发表于ICLR 2025。
    • 将多时间步长的SNN视为一个集成,其中的每个时间步长是集成中的一个成员。
    • 指出跨时间步长的膜电势差异以及导致的输出差异(过度差异)会负面影响SNN的整体性能。
    • 提出membrane potential smoothing,使用一个可学习的平滑系数对神经元的充电前膜电势进行平滑,从而促进跨时间步长膜电势的一致性。
    • 提出temporally adjacent subnetwork guidance,对相邻时间步长的SNN输出进行蒸馏,促进输出的一致性。
  • 论文2: Quantized Spike-driven Transformer
    • 由电子科技大学、中科院自动化所等研究人员发表于ICLR 2025。
    • 直接对spike-driven Transformer v2进行量化后性能大幅退化,指出这是由于量化后的注意力信息呈双峰分布(注意力层退化),spike information distortion (SID) problem。
    • 提出了information-enhanced LIF (IE-LIF) neuron:和fine-grained distillation (FGD)来提升量化后SNN的性能。
    • IE-LIF:训练时产生多比特脉冲,推理时将多比特折叠至多个时间步长中。并且对IE-LIF的膜电势进行修正,促使其更像高斯分布。
    • FGD:对量化后的SNN和对应的ANN Transformer进行蒸馏。
  • 论文3: DeepTAGE: Deep Temporal-Aligned Gradient Enhancement for Optimizing Spiking Neural Networks
    • 由多模态信息超智能安全北京市重点实验室、中国科学院大学人工智能学院、上海理工大学信息科学与技术学院等研究人员发表于ICLR 2025。
    • 指出,随着时间步长增大,膜电势分布会逐渐远离阈值,造成梯度不充分。
    • 通过计算第t个时间步长和第1个时间步长的膜电势偏离程度对代理梯度中的膜电势及阈值进行scale,促进远离阈值膜电势的优化。
    • 在SNN中添加多个辅助分类器,逐时间步长地计算交叉熵损失促进梯度传播。
  • 论文4: QP-SNN: Quantized and Pruned Spiking Neural Networks
    • 由电子科技大学(杨阳、张马路)、诺桑比亚大学、辽宁工业大学等研究人员发表于ICLR 2025。
    • 指出:SNN中使用均匀量化会由于膜电势分布居中,浪费掉很多比特带宽。提出了weight rescaling strategy提升SNN的量化性能,使用一个scale系数对权重进行缩放,促使其分布更宽从而有效利用比特宽度。
    • 对于结构化(逐通道的)剪枝,对脉冲发射率使用奇异值分解将其分离为重要的和不重要的部分,将不重要的部分剪枝。
  • 论文5: Improving the Sparse Structure Learning of Spiking Neural Networks from the View of Compression Efficiency
    • 由大连理工大学、浙江大学等研究人员发表于ICLR 2025。
    • 提出了一个two-stage sparse learning framework。第一阶段根据PQ index自适应决定appropriate rewiring ratio,第二阶段基于自适应的比例进行dynamic sparse structure learning。
  • 论文6: Spiking Vision Transformer with Saccadic Attention
    • 由电子科技大学(杨阳、张马路)、诺桑比亚大学、辽宁工业大学等研究人员发表于ICLR 2025。
    • 提出了Saccadic Spiking Self-Attention (SSSA)以及SNN-based Vision Transformer (SNN-ViT)。
  • 论文7: Improving the Sparse Structure Learning of Spiking Neural Networks from the View of Compression Efficiency
    • 由西安交通大学、浙江大学、大连理工大学等研究人员发表于ICLR 2025。

ICML 2025

ICCV 2025

CVPR 2025

ACM MM 2025

NeurIPS 2025

ICASSP 2025

本文出自于CSDN-lan人啊,转载请注明!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐