分享自:

基于调色板的图像间颜色传递方法

期刊:computer & graphics

基于调色板的图像间色彩迁移方法研究

作者及机构
本研究的作者为Chenlei Lv(深圳大学计算机与软件工程学院)和Dan Zhang(青海师范大学计算机学院),论文于2024年5月15日提交至预印本平台arXiv(编号:2405.08263v1),并计划发表于期刊《Computer & Graphics》。

学术背景
色彩迁移(Color Transfer)是图像增强领域的重要子课题,其目标是通过参考图像的色彩方案调整源图像的色彩分布,同时保留语义内容。传统方法依赖复杂的语义分析或人工调参,限制了实用性。调色板(Palette)作为色彩分布的简化表示,可避免语义依赖,但现有调色板生成方法受限于颜色分离程度和人工干预。本研究提出了一种全自动的调色板色彩迁移框架,结合改进的聚类算法和深度学习分割技术,提升了色彩迁移的自然性、一致性和鲁棒性。

研究流程与方法
1. 调色板聚类(Palette-based Clustering)
- 目标:自动生成代表图像色彩分布的调色板。
- 方法
- 色彩空间选择:在LAB色彩空间(LAB Color Space)中进行分析,因其通道解耦特性便于分离光照与颜色信息。
- 直方图分析:将LAB各通道划分为100个区间(bins),统计像素分布,检测局部峰值(Peak Searching)。
- 峰值合并:通过KD树对三通道峰值聚类,设定上限(默认32)以控制调色板规模,避免过度分散。
- 像素分类:根据峰值距离将像素归类,生成调色板。
- 创新点:无需人工指定聚类中心,通过直方图分析自适应生成调色板。

  1. 色彩映射策略(Color Mapping Strategy)

    • 目标:建立源图像与参考图像调色板间的映射关系。
    • 约束条件
      • 分割对应(Split Correspondence):利用DeepLabV3+分割前景与背景,分别映射。
      • 色差控制(Chromatic Aberration Control):基于LAB空间的最近邻搜索,避免色彩失真。
      • 色彩一致性保持(Color Consistency Keeping):通过内部一致性(合并多对一映射)和外部连续性(邻域加权插值)维护色彩分布结构。
    • 映射公式:像素最终色彩由调色板映射值与原始色差调整得到(式11)。
  2. 光照优化(Lighting Optimization)

    • 目标:独立调整L通道(亮度)以避免异常曝光。
    • 方法
      • 加权更新:融合原始亮度与映射结果(权重α=0.3)。
      • 全局增强:针对参考图像异常曝光区域,采用Retinex模型优化光照。

实验结果
1. 定性分析
- 在可分图像(如人像、风景)中,分割对应策略显著提升前景物体的色彩准确性(图7)。
- 对不可分图像(如卡通),全局映射仍能保持色彩分布一致性(图8)。
- 相比传统方法(如Reinhard的LAB全局迁移、Tai的GMM聚类),本方法避免了色彩溢出和曝光异常(图7红框与黄框标注)。

  1. 定量分析
    • 色彩一致性评估:通过RGB和L通道直方图方差计算,本方法方差最低(表1:RGB方差252 vs 其他方法773–3453)。
    • 褪色率(Fading Rate):衡量色彩信号损失,本方法在a/b通道的褪色率接近最优(表1:2.34e-02/5.75e-03)。
    • 图像质量评估:在BRISQUE、CLIPIQA+等指标中表现优异(表2:NIMA得分4.9361,优于对比方法)。

结论与价值
1. 科学价值
- 提出无需人工干预的调色板生成与映射框架,解决了传统方法对语义对应和调参的依赖。
- 通过分割对应和色差控制,平衡了色彩迁移的灵活性与稳定性。

  1. 应用价值
    • 适用于医学影像处理、影视后期等领域,尤其适合语义对应薄弱的图像(如低光照或艺术创作)。
    • 开源实现可提升自动化图像增强工具的实用性。

研究亮点
1. 全自动调色板聚类:首次结合直方图分析与自适应峰值合并,避免人工指定聚类数。
2. 语义无关的分割映射:通过前景/背景独立处理,兼顾语义一致性与色彩分布对齐。
3. 光照与色彩解耦优化:独立处理L通道,避免参考图像曝光问题影响迁移结果。

局限性
1. 对色彩分布高度集中或差异过大的图像可能退化为全局滤镜效果(图17)。
2. 计算效率待提升(300×300图像需1–3分钟),暂不适用于实时视频处理。

未来方向
作者计划优化算法效率,并引入结构信息分析以进一步抑制迁移退化。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com