低光照图像和视频增强(Low-Light Image and Video Enhancement, LLIE)是计算机视觉领域的一个重要研究方向。在日常生活和专业应用中,我们经常会遇到在弱光环境下拍摄的图像和视频,这些低光照数据往往存在可见度低、细节丢失、噪声严重等问题,严重影响了后续的视觉分析和处理。因此,如何有效地增强低光照图像和视频的质量,提升其可见度和可用性,成为了一个备受关注的研究课题。
近年来,随着深度学习技术的快速发展,LLIE领域取得了长足的进步。本文旨在对LLIE领域进行全面的综述,梳理该领域的发展脉络,总结主要的技术方法,并展望未来的研究方向。
LLIE的研究可以追溯到20世纪70年代,最初主要基于图像处理的传统方法。随着计算机视觉和机器学习技术的发展,LLIE的方法逐渐向数据驱动和学习式方法转变。我们可以将LLIE的发展大致分为以下几个阶段:
传统图像处理阶段(1970s-2000s):主要包括直方图均衡化、Retinex理论等基于图像处理的方法。
机器学习阶段(2000s-2015):开始引入机器学习技术,如稀疏编码、字典学习等方法。
深度学习初期(2015-2018):CNN等深度学习模型被引入LLIE领域,但主要是端到端的直接映射。
深度学习快速发展期(2018至今):各种先进的深度学习模型被提出,如GAN、Transformer等,LLIE的性能得到显著提升。
根据处理原理和模型结构,我们可以将LLIE方法大致分为以下几类:
其中,深度学习方法又可以根据是否需要配对数据进行监督学习,分为有监督、半监督和无监督方法。
本节将介绍LLIE领域一些具有代表性的算法,按照发表时间顺序进行梳理。
LIME (TIP 2016): LIME提出了一种基于illumination map估计的低光照图像增强方法。该方法首先估计输入图像的illumination map,然后根据估计的illumination map对原始图像进行增强。LIME方法简单有效,在当时取得了不错的效果。
LightenNet (PRL 2018): LightenNet是一种基于卷积神经网络的弱光照图像增强方法。该网络采用了一种轻量级的结构,通过学习图像的明暗对比关系来实现增强效果。LightenNet在计算效率和增强效果之间取得了较好的平衡。
Retinex-Net (BMVC 2018): Retinex-Net将传统的Retinex理论与深度学习相结合,提出了一种端到端的低光照图像增强网络。该网络包含了反射分量估计、照明分量估计和重建三个子网络,能够有效地处理不同程度的低光照图像。
EnlightenGAN (TIP 2021): EnlightenGAN是一种基于生成对抗网络(GAN)的无监督低光照图像增强方法。该方法不需要配对的低光照-正常光照图像对进行训练,而是通过对抗学习来生成增强后的图像。EnlightenGAN在真实场景的低光照图像增强任务中表现出色。
Zero-DCE (CVPR 2020): Zero-DCE提出了一种零参考的深度曲线估计方法,用于低光照图像增强。该方法通过学习一组像素级 的曲线来调整图像的亮度,不需要配对数据或参考图像,具有很强的实用性和泛化能力。
KinD++ (IJCV 2021): KinD++是一种基于图像分解的低光照图像增强方法。该方法将输入图像分解为反射分量和照明分量,分别对两个分量进行增强,然后重新组合得到最终的增强结果。KinD++在保持图像细节和颜色保真度方面表现优异。
LLFlow (AAAI 2022): LLFlow引入了标准化流(Normalizing Flow)的概念,提出了一种基于可逆网络的低光照图像增强方法。该方法能够学习低光照图像到正常光照图像的概率分布映射,在增强效果和计算效率方面都取得了不错的效果。
高质量的数据集对于LLIE研究至关重要。以下是一些常用的LLIE数据集:
LOL (Low-Light Dataset):包含500对低光照-正常光照图像对,是最常用的LLIE数据集之一。
SICE (Scene Illumination and Capture Expert Dataset):包含来自589个场景的多曝光序列图像,适用于多曝光融合和HDR重建任务。
ExDark:一个专门用于低光照目标检测的数据集,包含7363张图像,涵盖12个目标类别。
ACDC (Adverse Conditions Dataset with Correspondences):一个包含4006张图像的自动驾驶场景数据集,涵盖了不同天气和光照条件。
Night Wenzhou:本文作者提出的一个新的低光照视频数据集,包含了快速移动的航拍场景和具有不同光照和退化的街景。
研究人员还提出了一些合成数据集,如SICE_Grad和SICE_Mix,用于模拟复杂的混合过曝光/欠曝光场景。
LLIE方法的评价通常包括定量指标和定性评估两个方面。
全参考指标:
无参考指标:
除了客观的定量指标,主观的定性评估也是非常重要的。这通常包括:
尽管LLIE领域取得了显著进展,但仍然面临一些挑战和有待探索的方向:
真实场景的鲁棒性:如何提高LLIE方法在复杂、多变的真实场景中的鲁棒性和泛化能力。
计算效率:在保证增强效果的同时,如何进一步提高算法的计算效率,使其适用于移动设备和实时应用。
视频增强:相比于单帧图像增强,低光照视频增强还需要考虑时间一致性等问题,有待进一步研究。
多模态融合:如何结合其他模态的信息(如红外、深度等)来提升低光照增强的效果。
可解释性:提高LLIE方法的可解释性和可控性,使其更加可信和易于调整。
特定任务优化:针对不同的下游任务(如目标检测、人脸识别等)优化LLIE方法,以获得更好的任务性能。
低光照图像和视频增强是一个具有重要实际应用价值的研究 领域。本文对LLIE的发展历程、主要方法、数据集和评价指标等方面进行了全面的综述。随着深度学习技术的不断进步,LLIE领域已经取得了显著的成果。然而,仍然存在许多挑战和值得探索的方向。未来,结合多模态信息、提高方法的鲁棒性和可解释性、针对特定任务进行优化等方向可能会成为LLIE研究的重点。我们期待看到更多创新性的工作,推动LLIE技术在实际应用中发挥更大的作用。
对于想要深入学习LLIE的研究者,以下是一些有用的资源:
LLIE_Survey GitHub仓库:包含了本文提到的许多方法的实现和数据集链接。
Awesome Low Light Image Enhancement:一个精心整理的LLIE相关资源列表。
Lighting the Darkness in the Deep Learning Era:另一个全面的LLIE相关资源集合。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
用于可扩展和多功能 3D 生成的结构化 3D 潜在表示
TRELLIS 是一个专注于 3D 生成的项目,它利用结构化 3D 潜在表示技术,实现了可扩展且多功能的 3D 生成。项目提供了多种 3D 生成的方法和工具,包括文本到 3D、图像到 3D 等,并且支持多种输出格式,如 3D 高斯、辐射场和网格等。通过 TRELLIS,用户可以根据文本描述或图像输入快速生成高质量的 3D 资产,适用于游戏开发、动画制作、虚拟现实等多个领域。
10 节课教你开启构建 AI 代理所需的一切知识
AI Agents for Beginners 是一个专为初学者打造的课程项目,提供 10 节课程,涵盖构建 AI 代理的必备知识,支持多种语言,包含规划设计、工具使用、多代理等丰富内容,助您快速入门 AI 代理领域。
AI Excel全自动制表工具
AEE 在线 AI 全自动 Excel 编辑器,提供智能录入、自动公式、数据整理、图表生成等功能,高效处理 Excel 任务,提升办公效率。支持自动高亮数据、批量计算、不规则数据录入,适用于企业、教育、金融等多场景。
基于 UI-TARS 视觉语言模型的桌面应用,可通过自然语言控制计算机进行多模态操作。
UI-TARS-desktop 是一款功能强大的桌面应用,基于 UI-TARS(视觉语言模型)构建。它具备自然语言控制、截图与视觉识别、精确的鼠标键盘控制等功能,支持跨平台使用(Windows/MacOS),能提供实时反馈和状态显示,且数据完全本地处理,保障隐私安全。该应用 集成了多种大语言模型和搜索方式,还可进行文件系统操作。适用于需要智能交互和自动化任务的场景,如信息检索、文件管理等。其提供了详细的文档,包括快速启动、部署、贡献指南和 SDK 使用说明等,方便开发者使用和扩展。
开源且先进的大规模视频生成模型项目
Wan2.1 是一个开源且先进的大规模视频生成模型项目,支持文本到图像、文本到视频、图像到视频等多种生成任务。它具备丰富的配置选项,可调整分辨率、扩散步数等参数,还能对提示词进行增强。使用了多种先进技术和工具,在视频和图像生成领域具有广泛应用前景,适合研究人员和开发者使用。
全流程 AI 驱动的数据可视化工具,助力用户轻松创作高颜值图表
爱图表(aitubiao.com)就是AI图表,是由镝数科技推出的一款创新型智能数据可视化平台,专注于为用户提供便捷的图表生成、数据分析和报告撰写服务。爱图表是中国首个在图表场景接入DeepSeek的产品。通过接入前沿的DeepSeek系列AI模型,爱图表结合强大的数据处理能力与智能化功能,致力于帮助职场人士高效处理和表达数据,提升工作效率和报告质量。
一款强大的视觉语言模型,支持图像和视频输入
Qwen2.5-VL 是一款强大的视觉语言模型,支持图像和视频输入,可用于多种场景,如商品特点总结、图像文字识别等。项目提供了 OpenAI API 服务、Web UI 示例等部署方式,还包含了视觉处理工具,有助于开发者快速集成和使用,提升工作效率。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号