93文本检索 三、隐含语义索引 上面所介绍的都是将文档表示为T维词条权 向量的。但用户可能提出的查询中的词条 不在用在索引文档的词条中。 >例如,从词条相似性的角度来看,词条 数据挖掘”和“知识发现”设有什么直 接的共同点。然而,从语义角度来看,这 两个词条有很大的相同点
9.3 文本检索 三、隐含语义索引 ➢ 上面所介绍的都是将文档表示为T维词条权 向量的。但用户可能提出的查询中的词条 不在用在索引文档的词条中。 ➢ 例如,从词条相似性的角度来看,词条 “数据挖掘”和“知识发现”设有什么直 接的共同点。然而,从语义角度来看,这 两个词条有很大的相同点
>因此,在提出一个包含其中之一的查询,那 么应该考虑包含另一个的文档。解决方法是 预先创建一个把语义相关词条连接在一起的 知识库同义词典或本体集)。然而,这样的 知识库存在固有的主观性,因它取决于从何 种角度来把词条和语义内容联系起来。 >隐含语义索引( latent semantic indexing)(LS)—种可选的有趣又有价值的 方法。该方法不是仅使用词条出现信息,而 是从文本中提取出隐藏的语义结构信息
➢ 因此,在提出一个包含其中之一的查询,那 么应该考虑包含另一个的文档。解决方法是: 预先创建一个把语义相关词条连接在一起的 知识库(同义词典或本体集)。然而,这样的 知识库存在固有的主观性,因它取决于从何 种角度来把词条和语义内容联系起来。 ➢ 隐含语义索引(latent semantic indexing)(LSI)—一种可选的有趣又有价值的 方法。该方法不是仅使用词条出现信息,而 是从文本中提取出隐藏的语义结构信息
实际上,LS采用T维词条空间中前k个主成 分来近似原始的T维词条空间,使用N×T的 文档词条来估计这个方向。 主成分方法的直观解释是,由原始词条的加 权组合所构成的单个向量可以非常好的近似 由大得多的向量集合所起的效果。于是可以 把原来的N×大小的文档-词条矩阵简化为 N×k的矩阵(k<<T), >对于固定的查全率,和前面讨论的向量空间 方法相比,LS可以提高查准率
➢ 实际上,LSI采用T维词条空间中前k个主成 分来近似原始的T维词条空间,使用N×T的 文档-词条来估计这个方向。 ➢ 主成分方法的直观解释是,由原始词条的加 权组合所构成的单个向量可以非常好的近似 由大得多的向量集合所起的效果。于是可以 把原来的N×T大小的文档-词条矩阵简化为 N×k的矩阵(k<<T), ➢ 对于固定的查全率,和前面讨论的向量空间 方法相比,LSI可以提高查准率
对表9-2中的矩阵M计算奇异分解式〈SVD)。 表9-210篇文档6个词条的文档词条示例矩阵 tl t2 t4 d1 24 21 d 2 10 d3 12 16 d4 20 60300372 6300006 18 d8 0 22 (续) t6 d10 6 0 0 17 4
➢ 对表9-2中的矩阵M计算奇异分解式(SVD)
目标是,找—个分解式M=USV。式中是 个10×6的矩阵,它的每行是相对特定 文栏的权向量,S是每个主成分方向特征值 的6×6对角阵,66的师阵的列提供 据的新其轭基,被称为主成分方向 S矩阵的对角线元素是协方差矩阵对应…) A1…,n={774,69.5,229,13.5,12.1,4.8} 可见,前两个主成分捕捉了数据中的主要变 化,和直觉一致。 当使用两个主成分时,那么二维表征所保 留的变化比例0.925,信息丢失仅7.5%。 (4+)∑1=0925
➢ 目标是,找一个分解式M=USVT。式中U是 一个10×6的矩阵,它的每一行是相对特定 文档的权向量,S是每个主成分方向特征值 的6×6对角阵, 6×6的矩阵VT的各列提供 了数据的新共轭基,被称为主成分方向。 ➢ S矩阵的对角线元素是(协方差矩阵对应…): λ1 ,…, λn={77.4,69.5,22.9,13.5,12.1,4.8} 可见,前两个主成分捕捉了数据中的主要变 化,和直觉一致。 ➢ 当使用两个主成分时,那么二维表征所保 留的变化比例0.925,信息丢失仅7.5%。 ( )/ 0.925 6 1 2 2 2 2 1 + = i= i