博客
关于我
自然语言处理之LDA主题模型
阅读量:507 次
发布时间:2019-03-07

本文共 2071 字,大约阅读时间需要 6 分钟。

LDA基本原理、优缺点及参数学习

1. LDA基本原理

LDA(Latent Dirichlet Allocation,隐含狄利克雷分配模型)是一种生成式模型,广泛应用于文本挖掘、自然语言处理等领域。其核心思想是,每篇文档可以被视为多个主题的混合,其中每个主题由词的概率分布定义。相比于PLSA,LDA采用经验贝叶斯的方法,能够通过EM算法求解。

在LDA中,文档、主题和词的关系可以用概率表达。具体来说,文档中每个词属于一个主题,该主题的词分布由参数ϕz和文档主题分布θm决定。而LDA的整体概率表达式为:

p(W, z, ϕ, θ ∣ α, β) = ∏m=1^M p(θm ∣ α) ∏k=1^K p(ϕk ∣ β) ∑z=1^K ∑w=1^N P(w | z, ϕk, θm) P(z | θm)

其中,α和β是先验分布参数,分别用于文档主题分布和主题词分布。

2. LDA优缺点

LDA算法的主要优点

  • 能够使用先验知识:LDA可以结合类别的先验知识,例如文档的分类信息,从而在降维时进行更好的特征提取。
  • 对样本的分类信息响应灵活:LDA在样本的分类信息取决于均值或方差时都表现良好,但可能在信息依赖均值时更为优越。
  • 简化模型:相比于PCA,LDA可以结合先验知识,从而避免过度借叠。
  • LDA算法的主要缺点

  • 不适用于非高斯样本:LDA假设样本服从高斯分布,而对非高斯样本(如分布较为离散的文本数据)表现可能不佳。
  • 降维限 制:LDA的降维效果受到主题数K的限制,最多只能降到K-1维,无法实现更高维度的降维。
  • 对样本分类信息的依赖性:LDA在样本的分类信息依赖方差时,降维效果较差。
  • 3. LDA参数学习

    在使用LDA时,参数的设置对模型的性能至关重要。Scikit-learn中的LatentDirichletAllocation类提供了丰富的参数选项。关键参数包括:

    • n_topics:决定主题数K,需要根据主题的粒度(粗粒度或细粒度)选择合适的值。
    • doc_topic_prior (α):文档主题先验分布的参数,通常取1/K。
    • topic_word_prior (β):主题词先验分布的参数,通常取1/K。
    • learning_method:选择“batch”或“online”两种方法,“online”适合样本量大但训练样本不均衡的情况,默认为“batch”。
    • learning_decay:在线学习时的学习率衰减因子,建议在(0.5,1]范围内,默认为0.7。
    • max_iter:EM算法的最大迭代次数,建议根据训练集大小调整。

    4. LDA在文本分类中的应用

    4.1 数据准备

    from sklearn.datasets import fetch_20newsgroupsimport numpy as npimport pandas as pd# 示例数据集下载data = fetch_20newsgroups()categories = ["sci.space", "rec.sport.hockey", "talk.politics.guns", "talk.politics.mideast"]train = data.subset("train", categories)test = data.subset("test", categories)

    4.2 TF-IDF特征提取

    from sklearn.feature_extraction.text import TfidfVectorizer# 构建TF-IDF向量模型tfidf = TfidfVectorizer()train_text = train.documentstrain_idfs = tfidf.fit_transform(train_text)# 查看结果train_ids = pd.DataFramePainter(train_idfs.toarray(), columns=tfidf.get_feature_names())print("TF-IDF矩阵列数:", train_ids.shape)

    4.3 LDA特征提取与分类

    from sklearn.decomposition import LatentDirichletAllocation# 初始化LDA模型lda_model = LatentDirichletAllocation(n_topics=14, max_iter=50, learning_method='batch')# 模型训练lda_model.fit(train_idfs, train_targets)# 比较模型性能scores = lda_model.score(test_idfs, test_targets)print("准确率:{0:.3f}".format(scores))

    通过以上代码,可以看到,LDA模型能够有效地从文本中提取特征,并完成分类任务。这与前面的理论也相得益彰。

    转载地址:http://coojz.baihongyu.com/

    你可能感兴趣的文章
    NLP 项目:维基百科文章爬虫和分类【01】 - 语料库阅读器
    查看>>
    NLP_什么是统计语言模型_条件概率的链式法则_n元统计语言模型_马尔科夫链_数据稀疏(出现了词库中没有的词)_统计语言模型的平滑策略---人工智能工作笔记0035
    查看>>
    NLP三大特征抽取器:CNN、RNN与Transformer全面解析
    查看>>
    NLP学习笔记:使用 Python 进行NLTK
    查看>>
    NLP度量指标BELU真的完美么?
    查看>>
    NLP的不同研究领域和最新发展的概述
    查看>>
    NLP的神经网络训练的新模式
    查看>>
    NLP采用Bert进行简单文本情感分类
    查看>>
    NLP问答系统:使用 Deepset SQUAD 和 SQuAD v2 度量评估
    查看>>
    NLP项目:维基百科文章爬虫和分类【02】 - 语料库转换管道
    查看>>
    NLP:使用 SciKit Learn 的文本矢量化方法
    查看>>
    nmap 使用方法详细介绍
    查看>>
    Nmap扫描教程之Nmap基础知识
    查看>>
    nmap指纹识别要点以及又快又准之方法
    查看>>
    Nmap渗透测试指南之指纹识别与探测、伺机而动
    查看>>
    Nmap端口扫描工具Windows安装和命令大全(非常详细)零基础入门到精通,收藏这篇就够了
    查看>>
    NMAP网络扫描工具的安装与使用
    查看>>
    NMF(非负矩阵分解)
    查看>>
    nmon_x86_64_centos7工具如何使用
    查看>>
    NN&DL4.1 Deep L-layer neural network简介
    查看>>