分享自:

量子启发式进化算法在神经架构搜索中的应用

期刊:Applied Soft ComputingDOI:https://doi.org/10.1016/j.asoc.2022.108674

类型a:这篇文档报告了一项原创研究。

主要作者和机构及发表期刊
本研究的主要作者是Daniela Szwarcman、Daniel Civitarese和Marley Vellasco。Daniela Szwarcman和Daniel Civitarese隶属于IBM Research(里约热内卢),而Marley Vellasco则来自Pontifical Catholic University of Rio de Janeiro (PUC-Rio)。该研究发表于《Applied Soft Computing》期刊,2022年3月8日在线发布。

学术背景
本研究属于机器学习和深度学习领域,特别是神经架构搜索(Neural Architecture Search, NAS)这一子领域。近年来,随着深度神经网络的显著进步,机器学习模型在许多任务中取得了超越人类水平的表现,例如图像识别和策略游戏。然而,设计这些网络结构需要专家投入大量时间和资源。为了应对这一挑战,研究人员提出了多种算法来自动化网络结构的设计过程,其中包括进化算法和强化学习方法。尽管如此,这些方法通常计算成本高昂。为提高效率,一种常见的方法是通过专家知识减少搜索空间,例如搜索单元而非整个网络。然而,这种方法引入了较强的人类偏见。本研究旨在探索量子启发式进化算法(Quantum-Inspired Evolutionary Algorithm, QIEA)在NAS问题中的应用,以避免依赖单元搜索,同时保持高效性和自动化。

研究工作流程
本研究的工作流程主要包括以下几个步骤:

  1. 量子个体初始化
    研究首先定义了一个量子种群(quantum population),其中每个量子个体编码一个可能的网络架构。量子基因表示节点的概率质量函数(Probability Mass Function, PMF),用于生成候选网络。初始PMF对所有节点是相等的,但用户可以调整初始概率以偏向某些特定功能。

  2. 经典种群生成与评估
    在每一代进化中,量子种群被观测以生成经典种群(classical population)。经典个体通过从量子基因的概率分布中采样生成,并解码为具体的网络结构。生成的网络使用CIFAR-10或CIFAR-100数据集的一个子集进行训练和评估。评估过程包括50个epoch的训练,采用RMSProp优化器和固定学习率。最后,通过验证集计算准确率作为适应度值。

  3. 量子更新
    根据经典种群中的最佳个体,量子个体的概率分布通过一个简单的启发式方法更新。具体而言,选择表现优异的功能的概率增加,而其他功能的概率按比例减少。更新频率和幅度由参数update_quantum_genupdate_quantum_rate控制。

  4. 惩罚机制与修正
    为了避免生成无效结构,研究引入了惩罚机制。无效结构通过简单修正方法处理,例如忽略多余的池化操作。此外,超过一定数量的池化层会导致适应度值降低。

  5. 最终重训练
    进化结束后,选择最佳经典个体进行最终重训练。重训练阶段使用完整的训练数据集,并采用SGD优化器结合余弦退火学习率调度策略。最终模型在测试集上评估性能。

主要结果
1. 惩罚机制的影响
研究比较了有无惩罚机制的结果。结果显示,惩罚机制显著减少了保存种群中的无效个体数量,从而降低了它们对进化过程的影响。在CIFAR-10数据集上,惩罚机制并未显著影响测试准确率,但有助于生成更深的网络结构。

  1. 不同搜索空间的探索
    研究测试了三种不同的功能列表(conv-set-1、conv-set-2和residual-set)。对于conv-set-1,最佳测试准确率达到92.96%;对于更复杂的residual-set,最佳测试准确率达到93.85%。这些结果优于初步版本的Q-NAS(89.28%)以及一些手工设计的模型(如VGG和ResNet)。

  2. 早停机制的效果
    引入早停机制后,研究发现可以在较少的代数内找到性能良好的网络结构。例如,在CIFAR-100数据集上,最佳运行时间减少了73%(从200 GPU天降至55 GPU天),且测试准确率保持不变(74.23%)。

  3. 与其他NAS方法的比较
    Q-NAS在不依赖单元搜索的情况下表现出色。其性能和效率与现有NAS方法相当,甚至在某些情况下优于后者。例如,Q-NAS在67 GPU天内达到了93.85%的测试准确率,而其他方法(如Large-Scale Evolution)需要2670 GPU天才能达到类似性能。

结论与意义
本研究表明,Q-NAS能够在性能、效率和自动化之间取得良好的平衡。它不仅避免了单元搜索带来的偏见,还无需特殊设计的学习率调度策略。Q-NAS在CIFAR-10和CIFAR-100数据集上的表现表明,它可以自动生成优于手工设计模型的网络架构。此外,早停机制的应用进一步提高了效率,使其在实际应用中更具吸引力。

研究亮点
1. 提出了改进版的Q-NAS算法,新增了惩罚机制和余弦退火重训练策略。 2. 探索了更复杂的搜索空间,包括残差单元,证明了算法的鲁棒性。 3. 引入早停机制,显著减少了计算成本,同时保持了高准确率。 4. 在CIFAR-10和CIFAR-100数据集上的实验结果表明,Q-NAS具有竞争力的性能和效率。

其他有价值的内容
研究还探讨了量子个体的概率分布如何随进化过程变化,并分析了最佳种群中其他潜在优秀个体的性能。这些分析为进一步优化Q-NAS提供了方向。未来工作包括改进惩罚机制、扩展算法至循环神经网络架构,以及在更多数据集上验证其性能。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com