代码地址:https://github.com/Zheng-MJ/SMFANet
论文地址:https://www.ecva.net/papers/eccv_2024/papers_ECCV/papers/06713.pdf
基于Transformer的重建方法实现了显著的性能,因为Transformer的自注意力(SA)可以探索非局部信息,从而更好地重建高分辨率图像。然而,关键的点积自注意力需要大量计算资源,这限制了其在低功耗设备中的应用。此外,自注意力机制的低通特性限制了其捕捉局部细节的能力,导致平滑的重建结果。为了解决这些问题,我们提出了一种自调制特征聚合