Download PDFOpen PDF in browser
EN
The title and the abstract of this preprint are also available
in English

可微凸优化的元学习

EasyChair Preprint 10372

16 pagesDate: June 10, 2023

Abstract

许多用于小样本学习的元学习方法依赖于简单的基础学习器,例如最近邻分类器。
然而,即使在少样本的情况下,经过区分训练的线性预测器也可以提供更好的泛化。本
文使用这些预测器作为基础学习器来学习小样本学习的表示,并证明了它们在一系列小
样本识别基准中在特征大小和性能之间提供更好的权衡。本文的目标是学习在新类别的
线性分类规则下可以很好地泛化的特征嵌入。为了有效地解决目标,本论文利用了线性
分类器的两个特性,即凸问题最优条件的隐式微分和优化问题的对偶公式,提出了名为
MetaOptNet 的元学习方法,使得能够在适度增加计算开销的情况下使用具有改进泛化
的高维嵌入,在 miniImageNet、 tieredImageNet、 CIFAR-FS 和 FC100 等小样本学习基准
数据集上的实验结果表明了该方法的有效性。

Keyphrases: 元学习, 凸优化, 小样本学习

BibTeX entry
BibTeX does not have the right entry for preprints. This is a hack for producing the correct reference:
@booklet{EasyChair:10372,
  author    = {Yue Gong},
  title     = {Meta-Learning with Differentiable Convex Optimization},
  howpublished = {EasyChair Preprint 10372},
  year      = {EasyChair, 2023}}
Download PDFOpen PDF in browser