ECCV2024|LightenDiffusion 超越现有无监督方法,引领低光图像增强新纪元!
版权声明
我们非常重视原创文章,为尊重知识产权并避免潜在的版权问题,我们在此提供文章的摘要供您初步了解。如果您想要查阅更为详尽的内容,访问作者的公众号页面获取完整文章。
AI生成未来
扫码关注公众号
扫码阅读
手机扫码阅读
文章主旨:
LightenDiffusion框架结合Retinex理论与扩散模型,突破了无监督低光图像增强的现有技术瓶颈。
关键要点:
- LightenDiffusion通过潜空间分解网络,将低光图像编码为富含内容的反射率图和无内容的光照图。
- 扩散模型结合自约束一致性损失,确保恢复的图像质量与低光输入内容一致。
- 实验结果显示,LightenDiffusion在多个基准数据集上的性能超越现有无监督方法,与监督方法相比具有更强的泛化能力。
- 在低光人脸检测任务中,使用LightenDiffusion预处理显著提高了检测器性能。
- 消融实验验证了潜空间分解策略和自约束一致性损失对模型效率和恢复质量的关键作用。
内容结构:
- 简介:提出LightenDiffusion框架,结合Retinex理论与扩散模型,用于无监督低光图像增强。
- 方法:
- 内容传输分解网络:在潜空间中分解图像特征,生成反射率图和光照图,解决传统方法中内容信息未完全分离的问题。
- Latent-Retinex扩散模型:利用扩散模型进行前向扩散和逆向去噪,通过自约束一致性损失改善视觉质量。
- 网络训练:采用两阶段策略:先优化编码器、分解网络和解码器,再优化扩散模型。
- 实验:
- 与现有方法比较:在多个基准数据集上,LightenDiffusion在定量和视觉评价中均表现优异。
- 低光人脸检测:验证增强方法对低光人脸检测任务的提升效果。
- 消融实验:评估潜空间分解策略、分解网络设计和损失函数对性能的影响。
- 结论:LightenDiffusion通过创新性的框架设计,在无监督低光图像增强领域实现了技术突破,具有广泛应用潜力。
文章总结:
LightenDiffusion展示了扩散模型与传统理论结合的创新路径,为低光图像增强提供了高质量解决方案,兼具视觉效果与实用价值。
AI生成未来
AI生成未来
扫码关注公众号
还在用多套工具管项目?
一个平台搞定产品、项目、质量与效能,告别整合之苦,实现全流程闭环。
查看方案
AI生成未来的其他文章
超越SDEdit等七大SOTA,免训练多模态图像编辑里程碑:HeadRouter带来精准语义调整
点击下方卡片,关注“AI生成未来”后台回复“GAI”??
2024年了,Diffusion模型还有什么可做的?
点击下方卡片,关注“AI生成未来”>>后台回复“
ECCV`24 | 编辑能力无上限!北航&谷歌&旷视等开源Chat-Edit-3D: 3D 场景编辑新范式!
点击下方卡片,关注“AI生成未来”>>后台回复“
长视频AI推理的“圣杯”!英伟达、MIT、港大、UC伯克利等重磅开源Long-RL
点击下方卡片,关注“AI生成未来”如您有工作需要??
3D人体重建新SOTA!清华&腾讯等重磅发布MagicMan:单一图像生成高质量人体新突破
点击下方卡片,关注“AI生成未来”作者:Xu He等 ?
加入社区微信群
与行业大咖零距离交流学习
PMO实践白皮书
白皮书上线
白皮书上线