新加坡国立大学ShowLab团队提出了一种名为OmniConsistency的新方法,解决了图像风格化与一致性之间的矛盾,能够在保持强烈风格化效果的同时精准保留输入图像的细节、语义和结构。
该方法通过一种基于风格化图像对的一致性学习机制,创新地从数据对中学习图像在风格迁移中的一致性保持规律,并采用两阶段风格-一致性解耦训练策略,确保模型在多风格场景下的泛化能力。
OmniConsistency仅需2600对高质量图像和约500小时GPU算力进行训练,能够兼容社区任意Flux底模的风格LoRA,并且效果媲美商业级图像生成工具。