第 5 章 信息论与熵 现有的人工智能技术与相对成熟的信息论有着千丝万缕的联系。例如,特 征抽取与选择其实就是剔除冗余信息,对数据进行“压缩编码”,从而实现其高 效表示的一种方式。从训练集所有数据的“编码结果”中发现规律其实就是一 种解码过程。需要说明的是,信息论的发展本质是为了提升数据传输的质量与 速度。而人工智能处理技术面对的是从已有数据中发现规律,并用于实现对新 数据类别或评估结果的正确预测。因此,与信息论中解码器实现数据高质量恢 复不同,人工智能算法的解码过程关注隐藏在数据背后的规律的显式表达。除 此之外,给定预测集 X ={x1,x2,…,xN }, 设其对应的真实值变量Y ^ 服从某一 分布Γ ^。数据驱动的人工智能算法的本质是使得预测值变量 Y 的分布函数 Γ与真实分布Γ ^ 尽可能相等。这一目标通常由最小化交叉熵损失函数来实现。 本章重点介绍人工智能领域涉及的信息论知识。 ..5.1 人工智能与信息论 有人说“人工智能与信息论构成一枚硬币的正反两面”。实际上,发展更加 成熟的信息论为人工智能技术的成长提供了许多营养供给。例如,数据驱动的 Encoder-Decoder模型本质上是一个单工通信系统。这一点从其名字中即可发 现一些蛛丝马迹。不同的是,通信系统中的编码与解码重点关注的是信息传播 的便捷性,即便存在编码损失、传输干扰,其解码结果通常是对原数据的“保真 恢复”。而人工智能技术更关注海量数据中对待解决问题有指导意义信息的有 效表达(编码), 以及从有价值信息中推演(解码)待解决问题答案的问题。也就 是说,通常地,人工智能领域中的解码技术并不是为了完全恢复编码前的数据, 而是从中发现蕴藏其中的与待解决问题相关的规律、模式。例如,给定句子对 <X,自然语言翻译领域的EcdrDcdr模型可实现由语句 X 到语句 Y>, noe-eoeY 的翻译工作。具体地,若语句 X 由 n 个词组构成,设第 i 个词组的嵌入表示 为xi,则 X x1,xn }, 其中,i1,。与之对应地, ={x2,…,=2,…,语句 Y 由 m 个 词组构成,第 j 个词组的嵌入表示为yj ,则 Y ={y(n) 1,ym }, 其中, y2,…,j=1, 2,…,m。需要说明的是,在自然翻译领域,词组的嵌入表示通常指的是该词组 122人工智能的数学基础 的特征向量表示。另外,构成一个句子的词组的嵌入表达是有序的。在以上形式化表达 的基础上,编码任务即是找到语句X的中间语义表示S,即S=E(x1,x2,…,xn) 。与之对 应地,对于解码器来说,其任务是根据语句X的中间语义表示S和之前已翻译完成的k 个词组{y~ 1,y~ 2,…,y~ k}, 来重构第k+1 个词组y~ k+1,其中,1≤k<m。也即,y~ k+1=D(S; y~ 1,y~ 2,…,y~ k) 。其中,k=1,2,…,m-1。 其实,从不确定性较高的海量数据中得到确定性答案的过程,是一个信息不确定度不 断下降的过程。在信息论中,信息的不确定性是由信息熵来表达的。信息熵在决策树分 类、特征选择、损失函数构建等方面均起着重要作用。本章接下来将就人工智能领域中的 编码、解码、熵相关信息论知识展开详细介绍。 有必要指出的是,实际上,人工智能与信息论两个学科互相交叉。但主要还是人 工智能借用更加成熟的信息论方法,用于推进其理论研究进展,拓展其应用场景。一 个比较典型的例子就是借鉴信息理论创造和改进学习算法,甚至已经衍生出一个称 作信息理论学习的研究方向。 注. ..5.2特征编码 数据驱动的人工智能方法通常由原始数据集 D 中抽取特征向量,并组成特征矩阵 F,即寻找映射f:D→F。这一过程可由人工设计完成,也可由包括神经网络在内的智 能模型来生成。由特征矩阵 F 来表示待分析数据 D 本质上就是实现对 D 的有效编码。 具体地,每种特征的结构、取值范围、长度,以及特征与特征之间的组合方式均是信息编码 的体现。 5.1 直接编码 2. 设一特征向量由体重与性别两种特征值构成。不难理解,由于体重取连续浮点值,其 测量结果可直接写入特征向量。不考虑生物学上的特殊情况,性别特征取值有“男”与 “女”两种。也就是说,一个二进制位的两种取值状态足以实现对性别特征的编码表达。 类似地,若某一特征由 N 个不同状态取值构成,则其取值可用{0,1,…, N -1}表示。需 要说明的是,若存在取值未知特征,则需要多增加一个状态,用于表示缺失值。若一个特 征向量由性别、归属地、浏览器工具三类特征构成,且性别特征 S 取值空间为{男,女}, 归 属地 L 取值空间为{亚洲,欧洲,非洲,美洲}, 浏览器工具 B 取值空间为{Chrome,IE, 360,Firefox,Safari}, 则以上三类特征可直接编码表示为S={0,1},L={0,1,2,3}, B={0,1,2,3,4}。不难理解,对于样本“来自欧洲使用Firefox的男性”来说,其特征向量 的一种直接编码结果为[0,1,3]。需要说明的是,实际上0,1,3的任意“拼接”均可用于表 示以上样本,主要取决于特征向量中不同特征所处位置的差异性。这本身也是特征编码 的一种体现。 第5章信息论与熵123 并不是连续值型变量一定不需要重新编码。特别地,在有些应用场景下,连续型 变量需要离散化处理以解决实际问题。 注. 5.2.2One-hot编码 又称一位有效编码。该编码方法用一个二进制位独立表达特征的某一取值状态,并 且编码结果中有且仅有一个二进制位是有效位。也就是说,对于包含4种取值的某特征, 直接编码采用2个比特位来表示其各个取值状态。而One-hot编码采用4个比特位来表 示,每个比特位与一个状态对应。也就是说,一位有效编码码字总位数取决于特征状态 数,每一个码字里“1”的位置,代表对应状态生效。例如,包含4种取值特征编码依次为 0001 、0010 、0100 、1000 。若一个特征向量由性别、归属地、浏览器工具三类特征构成,且性 别特征S取值空间为{男,女}, 归属地L取值空间为{亚洲,欧洲,非洲,美洲}, 浏览器工 具B取值空间为{Chrome,IE,360,Firefox,Safari}, 则以上三类特征的One-hot编码可 分别对应表示为S={01,10},L={0001,0010,0100,1000},B={00001,00010,00100, 01000,10000 } 。不难理解,对于样本“来自欧洲使用Firefox的男性”来说,其特征向量的 One-hot编码结果为[01,00,0000,0010,0000,0000,00000,00000,00000,01000, 00000], 可进一步简写为[1,0,0,1,0,0,0,0,0,1,0] 。 5.3 Dummy编码 2. Dummy编码又称哑变量编码、虚拟变量编码。不难发现,One-hot编码保证每个取 值只有一种状态被“激活”,即只有一个状态位取值为1,其他状态位均被设置为0。实际 上,若一个离散型特征变量只有 N 种不同取值状态,则用 N -1位即可表达其所有状态 取值情况。这是因为,例如,若归属地 L 取值空间为{亚洲,欧洲,非洲,美洲}, 则不是亚 洲、欧洲、非洲的归属地,必然是美洲。也就是说,若前三个归属地依次编码为0001, 0010,0100,则全0状态位0000 即可代表美洲。以上编码可进一步化简为001,010, 100,000 。 注. 有必要说明的是连续型变量的离散化处理,如有效编码与哑变量编码,均可提升 模型的非线性能力。这是因为,就线性模型来说,给定连续型变量x,其权重控制参 数只有一个,设为w;而离散化处理后,其对应取值为 N 个,记作x1,…,权重 x2,xn , 控制参数也由原来的一个增加为 N 个。显然,这使得对变量 x 的控制参数管理更加 精细。这显然可以提升原模型的非线性表达能力。除此之外,与由一个很大的权值 管理一个特征相比,拆分成众多小权值管理这个特征,可降低特征值扰动、异常数据 对模型稳定性的影响,进而使得模型鲁棒性更强。 124人工智能的数学基础 ..5.3压缩编码 信息论中编码的主要任务是尽可能保证信息完整性的前提下,降低其对传输带宽或 存储空间的占用。也就是说,其背后均蕴含着对数据的压缩处理思想。这一点与数据驱 动的人工智能领域涉及的多项技术紧密相关。 5.3.1聚类 聚类的目的通常是将数据集中样本划分为若干互不相交的子集,使得每个子集与一 个现实中的概念相对应,并用子集“中心”作为对应概念的抽象表达。形式化地,给定包含 m个样本的数据集D={x1,x2,…,xm}, 其中每个样本均由一个n维特征向量来表示,即 xi=[xi,1,xi,2,…,xi,n], 其中i=1,2,…,m。设某一聚类算法将样本数据集D划分为k 个互不相交子集,分别记作D1,D2,…,Dk,其中,D=∪kj=1 Dj且Dj∩Dl≠j=. 。若k个 子集对应语义分别记作Sj,其中,j=1,2,…,k,则聚类的实质是在样本数据集 D与语义概念之间建立映射F。也就是说,F实现了样本数据集D的语义压缩编码。 数据驱动的人工智能领域存在许多聚类方法,大致可划分为K均值聚类、模糊 C均值聚类、高斯混合聚类、密度聚类、谱聚类等。感兴趣的读者可查阅相关资料。 注. 5.2 特征降维 3. 在数据驱动的人工智能领域,用于解决实际问题的方法是否有效,与样本数据的特征 表达强相关。不幸的是,特征向量维度的增加,导致样本数据在其空间内的分布密度急剧 降低。与此同时,维度的增加必然给样本间距离的度量带来额外开销。这在人工智能领 域被称作维度灾难。解决这一问题的有效途径之一,是特征降维。这是因为,很多时候虽 然特征向量分布在高维空间,但是待求解问题的解只与这一高维空间中的一个低维嵌入 相关。显然,随机剔除组成整个特征向量的部分特征值,可以起到缓解维度灾难的作用。 但这不可避免地导致有价值信息的丢失。因此,一类特征降维方法基于降低特征维度的 同时,确保高维空间中样本距离在低维空间中保持不变的前提。 x1,xm 形式化地,给定包含 m 个样本的数据集S={x2,…,}, 其中每个样本均由一个 n 维特征向量来表示,即xi=[1,2,…,], i=2,…, xi,xi,xi,其中,1,。所有样本构成特 征矩阵A∈Rm×n ,则样本间距离在n维特征空间(n) 内构成 m 阶距离矩阵(m) D。其中,第 i 行 j 列元素为样本xi 与样本xj 之间的欧氏距离,记作Di,(xj ‖。若降 j =d欧xj xi,)=‖xi 维后样本特征向量长度由 n 维缩减为 d 维,其中,d≤n,则样本新特征向量构成特征矩阵 Z∈Rm×d 。样本xi 与xj 在 d 维空间中与特征矩阵 Z 中第 i 行、第 j 行元素zi 与zj 一一 对应。为保持距离不变性,也就是说,Di, i -zj ‖恒成立。与距离矩阵 D 类似,构 j =‖z 造降维后样本特征向量间内积矩阵B,其中, j =ij ,显然其为 m 阶矩阵。也就是说, Bi,zzT 第5章 信息论与熵1 25 内积矩阵B 与特征矩阵Z 之间存在如下关系:B=ZZT。由Di,j=‖zi-zj‖,可得 D2i,j =‖zi‖2 + ‖zj‖2 -2zizT j =Bi,i +Bj,j -2Bi,j (5-1) 设降维后样本已中心化处理,即Σm i=1 zi =0。易得 Σm i=1 Bi,j =Σm i=1 zizT j = Σm i=1 ( zi )zT j =0 (5-2) 类似地,Σm j=1 Bi,j =0。 中心化的作用与意义详见第7章。另外,降维后样本中心化处理后,内积矩阵实 际应对样本的协方差矩阵。 注. 结合以上各式,可得 Σm i=1 D2i,j =tr(B)+mBj,j (5-3) Σm j=1 D2i,j =tr(B)+mBi,i (5-4) Σm i=1Σm j=1 D2i,j =2mtr(B) (5-5) 其中,tr(B)表示矩阵B 的迹。结合式(5-1),易得 Bi,j =-12 (D2i,j -Bi,i -Bj,j) =-12 D2i,j -1 mΣm i=1 D2i,j -1 mΣm j=1 D2i,j + 1 m2Σm i=1Σm j=1 D2i,j . è . . . ÷ (5-6) 也就是说,降维后的任意样本对之间的内积可由降维前二者间的欧几里得距离唯一 表示。由1.16.2节可知,只需对内积矩阵B 进行特征值分解便可以得到特征矩阵Z。不 难理解,降维后的特征向量可视作对原始特征向量的压缩编码。 5.3.3 特征选择 特征降维是解决“维度灾难”的有效途径之一。若特征集中部分特征对待解决问题的 求解有指导性意义,则称为相关特征,否则称为无关特征。由给定特征集选择出相关特征 子集,有助于降维或降低待解决问题的难度。需要说明的是,特征降维关注的是特征向量 的长度。降维后的向量中任意元素段均可能失去原有语义。而特征选择更关注特征类别 的取舍,被选中特征的完整性并未被破坏。特征选择必须保证不丢失对待解问题求解重 要的特征。待求解问题不同,相关特征也不尽相同。 有必要指出的是,给定特征集合,若没有任何先验知识,遍历所有的可能子集不可避 免地导致组合爆炸问题。一种可能的解决方法是,构造候选子集,对其进行评价,并由评 1 26 人工智能的数学基础 价结论修正候选子集。持续以上步骤直到无法找到更优的候选子集为止。形式化地,给 定特征集合A ={a1,a2,…,ad },最小候选集只有一个特征构成。也就是说,首先对特征 集合中的d 个特征依次进行评价。假设a3 最优,则A1={a3}为当前最优候选子集。然 后将除特征a3 之外的其他d-1个特征与a3 依次构成包含两个特征元素的候选子集。 假设A2={a3,a1}最优,且优于{a3},则将{a3,a1}作为本轮候选特征子集。直到第k+1轮 时拥有k+1个特征最优候选子集Ak+1的评价结果均不如第k 轮生成的拥有k 个特征的 最优候选子集Ak ,则Ak 为最终的特征选择结果。 除采取逐轮搜索增加相关特征的最优候选子集外,还可由全集出发,采用逐轮减 少无关特征数量的搜索策略。或者将二者有机结合。另外需要指出的是,上述搜索 策略均是基于贪心机制的,可能陷入局部最优。 注. 由以上描述不难发现,最优候选子集的构造过程离不开对其优化程度的评价。信息 增益是这类评价中的典型代表。给定特征子集B,假定根据其取值可将样本数据集D 划 分为v 个子集,即{D1,D2,…,Dv},其中每个子集中的样本在特征子集B 上取值相同,则 特征子集B 的信息增益定义为 G(B)=Ent(D )- Σv i=1 card(Di) card(D )Ent(Di) (5-7) 其中,Ent(D )与Ent(Di)为样本数据集D 及其子集Di 的信息熵。 信息熵与各类样本占总体的比值有关。熵值越大表示数据类别多样性越强。反 之,数据类别单一,纯度更高。因此,若特征子集使得式(5-7)定义的信息增益越大, 则意味着此候选子集更有利于类别划分。关于信息熵的定义与性质详见5.7节。有 必要说明的是,以上定义的信息增益只是候选子集评价的一种途径,任何一种可判断 划分差异性的评价均可用于最优候选子集筛选。另外,有必要指出的是,特征权重正 则化也是特征选择的一种有效策略。关于正则化详见第7章。 注. 5.3.4 稀疏编码 来看现实生活中的实例,通常图书均有目录,字典有拼音查字法、部首查字法等,这里 的目录以及多种不同的查字方法,实际是在海量信息与其代表的核心信息之间建立了一 个快速定位索引。换个角度,给定一份文档以及一本字典,则该文档中同一汉字出现的频 次构成一个特征向量。此特征向量的长度为字典中包含汉语的个数。通常地,受主题及 上下文环境影响,一份文档不可能涵盖字典中所有的汉字。也就是说,生成的特征向量中 包含多个零元,具备稀疏性。不难理解,维度相同时,稀疏分布的样本更易区分。构造字 典使得特征表达具备稀疏性是数据驱动的人工智能解决实际问题的一种有效策略。 形式化地,给定样本数据集D ={x1,x2,…,xm },其中每个样本均由一个n 维特征向 第5章 信息论与熵1 27 量来表示,即xi=[xi,1,xi,2,…,xi,n],其中,i=1,2,…,n。所有样本构成特征矩阵A∈ Rm ×n 。构造词汇量规模为k 的字典矩阵B ∈Rk×n ,使得任意特征向量xi =[xi,1,xi,2, …,xi,n]均与其编码后的特征向量yi =[yi,1,yi,2,…,yi,k ]保持线性关系,即xi =yiB。 为求得字典矩阵B 及稀疏表达的特征向量集{y1,y2,…,ym },最小化如下目标函数: min B,yi Σm i=1 xi -yiB 2 ( 2 +λ‖yi‖1 ) (5-8) 其中,上式第二项编码后特征向量的1-范数,起正则化作用。关于范数与正则化详见第7章。 有必要说明的是,物极必反。当稀疏到一程度时,再增加样本特征表达的稀疏性 可能给待解决问题的求解带来新的挑战。 注. 5.3.5 压缩感知 给定样本的n 维特征向量x,考虑线性变换构成矩阵Φ ∈Rn×m ,且满足y=xΦ ,显然 变换结果y 为m 维向量,其中,m <<n。也就是说,线性变换矩阵Φ 实现了特征向量的 压缩编码。但是,给定变换结果m 维特征向量y 以及变换矩阵Φ ,几乎不可能恢复原特 征向量x。这是因为,由于m <<n,所以y=xΦ 构成欠定方程组,即方程个数小于变量 个数。即便少数变量相互间具备线性关系,方程组解仍不唯一。幸运的是,假设存在另一 个线性变换Ψ ∈Rn×n ,使得x=sΨ 。显然,s 也是一个n 维特征向量。也就是说,y=xΦ 可改写为y=sΨΦ 。令A=ΨΦ ,则可得出如下结论:若能根据特征向量y 恢复出特征向 量s,则可依据x=sΨ 进一步恢复出原特征向量x。有必要说明的是,乍看起来,由特征 向量y 恢复出特征向量s 仍然是一个由m 维特征向量恢复n 维特征向量的问题,且变换 矩阵A 仍然是n×m 的。也就是说,这仍然是一个求解欠定方程组的问题。有趣的是,若 特征向量s 是稀疏的,即多个位置的特征值为0,则sA 构成欠定方程组的可能性减小,有 利于上述问题的求解。 不难理解,上述变换矩阵A 与稀疏编码中字典作用类似,用于将特征向量转换为稀 疏表示。但是,与特征选择与稀疏编码不同的是,压缩感知从特征向量本身具备的稀疏性 出发,由部分非0特征恢复完整向量。幸运的是,通常在原定义域上不具备稀疏性的数 据,经过某种线性变换后,在变换域上表现出稀疏性。可能的变换包括傅里叶变换、余弦 变换、小波变换等。感兴趣的读者可参阅相关材料。 .. 5.4 决策编码 数据驱动的人工智能方法从历史数据中发现规律,实现对未知样本的正确决策。其 本质是构造数据与决策结果之间的函数映射。其间通常借助特征向量对数据进行全面、 深入、细致的描述。如前文所述,这一数据到特征的转换过程与信息论中数据编码思想相 对应。实际上,函数映射的表达形式、求解过程也与信息编码有类似之处。接下来,将详 细介绍相关内容。 128人工智能的数学基础 5.4.1假设空间 对于待求解问题来说,选定模型后,数据驱动的人工智能方法通常可视作参数最优化 过程。假设一个模型共有m个可变参数,记作θ1,θ2,…,θm。不难理解,所有参数一起构 成一个m维假设空间Θ。而各参数的取值范围则定义了对应维度的界。理想的人工智 能方法是在假设空间Θ内找到一个最优参数向量[θ^ 1,θ^ 2,…,θ^ m] 。 5.4.2版本空间 不难理解,假设空间通常很大,而训练数据集毕竟有限可数。与欠定线性方程组存在 多个可能解类似,数据驱动的人工智能方法很可能由有限训练样本得到多个参数向量。 也就是说,存在着多个假设与训练集保持一致。这些假设构成解的“版本空间”。有必要 说明的是,构成“版本空间”的多个参数向量对新样本的预测必然存在结论差异风险。这 给人工智能决策模型的选择带来不确定因素。这一点与压缩感知中线性变换矩阵的欠定 性导致的方程组解不唯一问题类似。解决这一问题的有效策略是引入“归纳偏好”机制, 这与压缩感知采用的稀疏性机制有异曲同工之妙。例如,偏好位置的特征值保持不变,其 他位置置0。这一机制的设计灵感来自于人类通常对某大类事物中部分事物具有特殊偏 好的事实。需要指出的是,式(5-8)中的1-范数正则化其实就是对解空间中模较小的参 数向量的一种归纳偏好。 注. 关于范数与正则化详见第7章。 5.3 决策平面 4. 以线性二分类为例,给定样本数据集 D ={x1,x2,…,xm }, 其中每个样本均由一个 xi,1,xi,i=1,m n 维特征向量来表示,即xi=[xi,2,…, n ], 其中,2,…,。设各样本真实标 ^1,^^^xi, 签依次为yy2,…,ym 。也就是说,样本数据xi 及其真实标签yi 之间构成数对< >,其中,2,…,。另外,实际上真实标签y1 为二值变量。具体地,若样本数据xiy^ii^ =1, 否则 my^ 为正例,则yi=1; ^ i =0。线性分类的本质是寻找最优参数向量w=[w1,w2,…, wn+1], 使得给定待预测样本x=[x2,…,], x,T>0 时, x,1] x1,xn 当w[1] x,1] 样本 x 被归类为正 例;当w[T<0 时,样本 x 被归类为负例。对应地,方程w[T=0即构成了这一 问题的决策平面。分类模型确定后,决策面方程中的控制参数值由训练样本数据集 D = {x2,…,} x1,xm 唯一确定。也就是说,就给定的分类问题来说,决策面方程就是对其已知 训练样本数据的一种编码表达。 5.4 纠错输出码 4. 延续上文的分类问题,待解决问题不是二分类任务而是一个多分类任务。也就是说, 样本数据xi 的真实标签y1 有多个取值。设类别个数记作 N , ^且真实标签所有取值构成 第5章信息论与熵129 集合{0,1,2,…,N-1} 。如何借助二分类器完成多分类任务,是数据驱动人工智能研究 需要解决的一个问题。有必要指出的是,有些二分类模型可直接推广,用于解决多分类问 题,如KNN 、朴素贝叶斯等。更一般地,通常将多分类问题拆解为多个二分类问题,为每个 二分类任务训练一个分类器。不难理解,这里的拆分过程与信息论中的编码思想不谋而合。 领域内经典的拆分策略包括一对一、一对其余、多对多三种。对于一对一分类来讲, 给定样本数据集D={x1,x2,…,xm}及其真实标签值y^1,y^2,…,y^m,其中y^i∈{0,1,2,…, N-1}, 以类别标签为基准将样本数据划分为N个子集。再将各子集两两配对,构成正 反例,并分别训练一个二分类器。显然,类别数目为N时,一对一策略将引入N(N-1)/2 个二分类器。这必然导致分类器训练代价大幅上涨。与之对应地,一对其余策略将产生 N个分类器,开销更小。多对多拆分策略是以上两种策略的范化版本。纠错输出码在该 拆分策略中比较常见。该策略将类别与行对应,将分类器与列对应,如图5-1所示,若分 类器与类别相交处为+1,则表示该分类器将此类别样本视作正例;若为-1则表示该分 类器将此类别样本视作负例;若为0则表示该分类器对该类别样本不做识别处理。由图 5-1不难发现,以上三类拆分策略均可采用纠错输出码来表示。 图5- 1 纠错输出码示例 ..5.5 决策解码 信息论中编码是为了压缩数据,提升传输性能。接收端需要对数据进行解码恢复操 作。虽然人工智能领域的编码、解码应用与其不完全相同,但多数情况下,是需要对编码 结果进行类似解码操作的。 5.1 聚类 5. x2,…,}, 向量来表示,即xi=[1,2,…,], 其中,1,2,…,。设某一聚类算法将样本数 给定包含 m 个样本的数据集D={x1,xm 其中每个样本均由一个 n 维特征 xi,xi,xi,ni= m 据集 D 划分为 k 个互不相交的子集,分别记作D1,D2,…,Dk ,其中, D =∪(k) Dj 且 j=1 Dj ∩Dl≠ j =. 。设 k 个子集聚类中心,记作co 。对于预测样本y,若其与各聚类中心的 距离构成集合S={d(c1),y,d(ck )}, y,d(c2),…,yy, , 则预测样本 y 应归类为第 o 类。其中,1,k。 argmin(d(co)) (5-9) o=2,…, 130人工智能的数学基础 5.5.2线性分类 如前文所述,分类平面可视作训练数据的编码。对线性二分类平面来说,参数向量 w包含训练数据的编码信息。给定待预测样本x,当w[x,1]T>0 时,样本x被归类为正 例;当w[x,1]T<0 时,样本x被归类为负例。显然,预测过程即是对训练数据编码的参 数向量w的解码过程。 5.5.3纠错输出码 仍以纠错输出码为例,与分类问题拆分与编码相对应类似,各分类器预测结果的集成 与解码相对应。如图5-2所示,对于预测样本x来说,不同的分类器预测其为正负例的 情况组成行向量。计算此向量与纠错输入码各编码行的距离,如图5-2所示,二者的曼哈 顿距离构成图示中的列向量。其中,最小值所在行所属类别即为样本x的预测结果。 图5- 2 纠错输出码解码示例 5.特征降维 5.4 对于PCA 降维来说,设原中心化样本特征向量长度为d,由样本协方差矩阵XXT 前 d'大的特征值对应的特征向量w1,w2,…,wd' 构成的投影矩阵 W =[w1;w2;…;wd' ], 对新 样本特征向量y进行降维处理,即是对降维压缩编码进行解码处理,新样本特征向量y的 降维结果为WyT,其长度为d'。 ..5.6 自编码 前文所述特征选择、降维均建立在特征提取基础上。当前流行的神经网络模型,采用 由多个隐层构成的自编码器完成对训练数据显著特征的提取。通常地,自编码器由一个 编码器和一个解码器构成。编码过程对应一个函数映射f,负责将样本 x 编码为特征h, x 也有书籍将此编码结果称作隐藏码。另外,即 的是 h= ,根据待解决问题的不同 f()。有必要说明的是 ,解码器 , r=g(的形式各不相同。 有必要指出 h) 5.1 恒等变换 6. 如果解码器对应的函数映射是编码器函数映射的逆映射,即g=f-1, f(=。 则g(x)) x