BICLab / Attention-SNN

Offical implementation of "Attention Spiking Neural Networks" (IEEE T-PAMI2023)
https://ieeexplore.ieee.org/abstract/document/10032591
MIT License
50 stars 7 forks source link

关于论文中的dt和T #8

Closed Mouseminar closed 3 months ago

Mouseminar commented 3 months ago
T

您好,DVS128 Gesture的一条数据平均时间是6s,但论文中的 dtT = 15 60 = 900ms,是不是可以认为您只使用了一条数据的前0.9s的信息,这样做不会丢失掉信息吗?

BICLab commented 3 months ago

这其实是一种数据增强策略。请参照我们之前工作《Temporal-wise Attention Spiking Neural Networks for Event Streams Classification》中的描述。

BICLab commented 3 months ago

我们在另一个工作中提供了更详细的关于事件流处理中,dt和T对任务性能的影响。请参考《Sparser spiking activity can be better: Feature Refine-and-Mask spiking neural network for event-based visual recognition》。

Mouseminar commented 3 months ago

我们在另一个工作中提供了更详细的关于事件流处理中,dt和T对任务性能的影响。请参考《Sparser spiking activity can be better: Feature Refine-and-Mask spiking neural network for event-based visual recognition》。

好的,感谢😊