Klein 突破性地提出将几何定义为对不变性的研究,即研究在某类变换下保持不变的结构(对称性)。Klein 通过群论形式化定义了这种变换,并且使用群及其子群的层次对由它们产生的不同几何进行分类。因此,刚性运动群产生了传统的欧氏几何,而仿射或射影变换分别产生了仿射几何和射影几何。值得一提的是,爱尔兰根纲领仅仅局限于齐次空间,最初并不适用于黎曼几何。
图注:维数诅咒示意图。对于一个由处于 d 维单位超立方体的象限中的高斯核组成的连续函数(蓝色),如果我们希望以 ε 的误差近似一个李普希兹连续的函数,则需要 𝒪(1/εᵈ) 的样本(红色点)。
在计算机视觉问题(例如,图像分类)中,这种现象尤为突出。即使是很小的图像也往往具有非常高的维度,但是直观地看,当我们将一张图像解析为一个输入给感知机的向量时,许多图像的结构被破坏并丢弃了。即使我们将图像仅仅平移一个像素,向量化的输入也会有很大的区别。为了使平移后的输入能够被分到同一类中,我们需要向神经网络输入大量的训练样本。幸运的是,在许多高维机器学习问题中,我们可以使用来自于输入信号的几何学上的额外结构信息。我们将这种结构称为「对称先验」,这种通用的强大原理有助于我们应对维数诅咒问题。在图像分类的例子中,输入图像 x 不仅仅是一个 d 维向量,也是一个在某个域 Ω 上定义的信号,在本例中这个域是一个二维网格。我们通过一个对称群 𝔊(本例中为一个二维变换组成的群)捕获域的结构信息,该群在域中的点上进行操作。在信号 𝒳(Ω) 的空间中,底层域上的群操作(群的元素,𝔤∈𝔊)通过群表征 ρ(𝔤) 体现。在本例中,上述操作为简单的平移操作,即一个在 d 维向量上运算的 d×d 矩阵。图注:几何先验示意图——我们在域(网格 Ω)上定义输入信号(图像 x∈𝒳(Ω)),其中的对称群(变换群 𝔊)通过群表征ρ(𝔤) 在信号空间中进行平移操作。对函数(例如,图像分类器)如何与群进行交互的假设限制了假设类别。 输入信号底层的域的几何结构为我们试图学习的函数 f 的类别施加了架构信息。对于任意的 𝔤∈𝔊 和 x,我们可以找出不会被群的操作所影响的不变性函数,即 f(ρ(𝔤)x)=f(x)。另一方面,有时函数具有相同的输入输出结构,并且输出以与输入相同的方式进行变换,这种函数被称为同变性函数,它满足 f(ρ(𝔤)x)=ρ(𝔤)f(x)。在计算机视觉领域中,图像分类是一种典型的人们希望得到不变性函数的任务(例如,无论猫位于图像的什么位置,我们都希望将该图分类为猫);而图像分割任务的输出是一个像素级别的标签掩模,这是一种同变性函数(分割掩模需要遵循输入图像的变化)。「尺度分离」是另一种强大的几何先验。在某些情况下,我们可以通过「同化」附近的点来构建域的多尺度层次结构(如图7 所示的 Ω and Ω’),并且生成一个由粗粒度算子 P 关联的信号空间的层次。在粗尺度上,我们可以应用粗尺度的函数。如果一个函数 f 可以被近似为粗粒度算子 P 和粗尺度函数的组合 f≈f’∘P,则 f 是局部稳定的。尽管 f 可能取决于长距离依赖,如果 f 是局部稳定的,它们可以被分解为局部交互,然后向着粗尺度传播。 图注:尺度分离的示意图,其中我们可以将细尺度函数 f 近似为粗尺度函数 f' 和粗粒度算子 P 的组合 f≈f′∘P这两个原理为我们提供了一个非常通用的几何深度学习设计范式,可以在大多数用于表示学习的流行深度神经架构中得以体现:一个典型的设计由一系列同变层(例如,CNN 中的卷积层)组成,然后可以通过不变的全局池化层将所有内容聚合到一个输出中。在某些情况下,也可以通过采用局部池化形式的粗化过程(coarsening procedure)来创建域的层次结构