基于事件触发机制的高效分布式Frank-Wolfe在线算法

学术背景 在当今大数据时代,分布式学习(Distributed Learning)已成为解决大规模在线机器学习问题的有效方法。然而,分布式学习中的频繁通信和投影操作(Projection Operations)带来了高昂的通信和计算成本。尤其是在高维约束优化问题中,投影操作的计算复杂度极高,严重影响了算法的效率。为了解决这些问题,本文提出了一种基于事件触发机制(Event-Triggered Mechanism)的分布式Frank-Wolfe在线优化算法,旨在减少通信开销和计算成本。 Frank-Wolfe算法作为一种投影自由(Projection-Free)的优化方法,因其简单高效的实现而备受关注。与基于投影的方法相比,Frank-Wolfe算法在每轮迭代中只需计算线性优化步骤,避免了复杂...

基于改进生成对抗网络和损失函数优化的雨痕去除方法

学术背景 在计算机视觉领域,雨纹(rain streaks)是一个常见的干扰因素,尤其是在户外监控、自动驾驶和智能交通系统中。雨纹会显著降低图像质量,影响视觉系统的识别和分析能力。传统的雨纹去除方法通常依赖于单一图像进行处理,但由于雨纹的复杂性和多样性,这些方法在处理远距离雨纹或复杂场景时效果有限。近年来,深度学习技术,特别是生成对抗网络(Generative Adversarial Networks, GANs),在图像处理领域展现了巨大的潜力。然而,现有的基于GAN的雨纹去除方法在处理不同方向、形状和透明度的雨纹时仍存在挑战。因此,本研究旨在提出一种改进的GAN框架,以更有效地去除雨纹,提升图像质量。 论文来源 本论文由Prabha R、Suma R、Suresh Babu D和S Sa...

基于效用和动态定位变换程序的三向决策方法在圆形q-rung orthopair模糊集中用于大型语言模型的排序和分级

学术背景 随着人工智能(AI)和自然语言处理(Natural Language Processing, NLP)的快速发展,大型语言模型(Large Language Models, LLMs)在学术界和工业界都取得了显著进展。然而,尽管LLMs在多个NLP任务中表现出色,但尚未有单一模型能够同时满足所有任务需求。这种多样化的任务需求和评估标准的复杂性,使得LLMs的评估成为一个多准则决策(Multi-Criteria Decision-Making, MCDM)问题。传统的MCDM方法虽然能够进行排名,但在处理不确定性、任务优先级和数据变异性等方面存在局限性,尤其是在处理二元数据时,难以有效进行分级。 为了解决这一问题,本文提出了一种基于效用和动态定位变换的三支决策(Three-Way D...

基于格式塔理论的视觉注意力建模

背景介绍 在计算机视觉领域,视觉注意力模型的研究旨在模拟人类视觉系统如何从图像或自然场景中选择感兴趣的区域。人类大脑能够快速且准确地识别视觉场景中的显著区域,这一能力在图像处理、目标识别、图像分割等任务中具有重要意义。然而,如何有效地检测图像中的多个显著物体仍然是一个具有挑战性的问题。 格式塔理论(Gestalt Theory)是现代认知学习理论的基础,强调“整体大于部分之和”,其中相似性(similarity)和邻近性(proximity)是两个重要原则。尽管格式塔理论为视觉感知研究提供了重要的理论支持,但如何将其应用于多显著物体检测仍然存在技术难题。本研究提出了一种基于格式塔理论的显著性模型——颜色相似性与空间邻近性模型(CSSP模型),旨在通过结合颜色相似性和空间邻近性,更有效地检测图...

基于区间集差异度量和可能性度的改进替代排队方法及其在多专家多准则决策中的应用

学术背景与问题引入 在多专家多准则决策(Multi-Expert Multi-Criteria Decision-Making, MEMCDM)领域,如何有效处理不确定性和不精确信息一直是一个核心挑战。特别是在涉及多个专家和多个决策准则的复杂场景中,专家的意见往往存在分歧,导致决策过程复杂化。为了应对这一问题,研究者们提出了基于区间集(Interval Sets)的决策方法,区间集能够通过上下界集合来更全面地描述不确定的定性信息。然而,现有的基于区间集的决策方法,尤其是替代排队法(Alternative Queuing Method, AQM)中的相似性和差异性度量,仍存在一定的局限性,特别是在绝对量化(Absolute Quantization)的框架下,信息提取的精确性和全面性有待提升。...

基于注意力机制的多层子词联合学习的中文词嵌入研究

学术背景 近年来,中文词向量(Chinese Word Embedding)在自然语言处理(Natural Language Processing, NLP)领域引起了广泛关注。与英语不同,中文的字符结构复杂且多样,这为语义表示带来了独特的挑战。传统的词向量模型(如Word2Vec)在处理中文时,往往无法充分捕捉汉字内部的细微语义信息,尤其是忽略了不同层次的子词信息对语义的贡献差异。例如,汉字由笔画、部首、拼音等多个子成分构成,这些子成分在不同语境下对语义的理解起着重要作用。然而,现有的模型在处理这些信息时,往往采用统一的方式,未能有效区分各子成分的权重。 为了解决这一问题,本文提出了一种基于权重的中文词向量模型,该模型将中文词的内部结构分为六个层次的子词信息:词、字、部件、拼音、笔画和结构...