|
Download PDFOpen PDF in browserEN The title and the abstract of this preprint are also available in English 可微凸优化的元学习EasyChair Preprint 1037216 pages•Date: June 10, 2023Abstract许多用于小样本学习的元学习方法依赖于简单的基础学习器,例如最近邻分类器。 然而,即使在少样本的情况下,经过区分训练的线性预测器也可以提供更好的泛化。本 文使用这些预测器作为基础学习器来学习小样本学习的表示,并证明了它们在一系列小 样本识别基准中在特征大小和性能之间提供更好的权衡。本文的目标是学习在新类别的 线性分类规则下可以很好地泛化的特征嵌入。为了有效地解决目标,本论文利用了线性 分类器的两个特性,即凸问题最优条件的隐式微分和优化问题的对偶公式,提出了名为 MetaOptNet 的元学习方法,使得能够在适度增加计算开销的情况下使用具有改进泛化 的高维嵌入,在 miniImageNet、 tieredImageNet、 CIFAR-FS 和 FC100 等小样本学习基准 数据集上的实验结果表明了该方法的有效性。 Keyphrases: 元学习, 凸优化, 小样本学习 Download PDFOpen PDF in browser |
|
|