清华大学、国科大、上海交大和阿里巴巴合作研究出一种新型视觉适配器微调方法Mona,仅调整5%的骨干网络参数就能在多个经典视觉任务中超越全参数微调的效果,显著降低了适配和存储成本。
Mona方法通过引入多认知视觉滤波器和优化输入分布,旨在打破传统全参数微调在视觉识别任务中的性能瓶颈,为视觉模型的高效微调提供了新的思路。
清华大学、国科大、上海交大和阿里巴巴合作研究出一种新型视觉适配器微调方法Mona,仅调整5%的骨干网络参数就能在多个经典视觉任务中超越全参数微调的效果,显著降低了适配和存储成本。
Mona方法通过引入多认知视觉滤波器和优化输入分布,旨在打破传统全参数微调在视觉识别任务中的性能瓶颈,为视觉模型的高效微调提供了新的思路。