文本分类核心是合理预处理、特征提取与模型匹配:清洗噪声、统一格式、分词去停用词;向量化选词袋 /Tfidf/ 预训练词向量;小数据用逻辑回归等传统模型,大数据用 BERT;评估需看 F1、混淆矩阵与交叉验证。

用 Python 做文本分类,核心是把自然语言转换成机器能理解的数字特征,再用机器学习模型学习规律。关键不在代码多复杂,而在每一步是否合理:文本预处理是否去除了干扰、特征提取是否保留了区分度、模型选择是否匹配任务规模。
清洗和标准化文本
原始文本常含噪声,比如 HTML 标签、多余空格、特殊符号或大小写混杂。不统一格式会干扰后续向量化效果。
- 用 re.sub() 去掉 URL、邮箱、多余标点(如r’httpS+|wwwS+|@S+’)
- 统一转小写,避免“Apple”和“apple”被当成两个词
- 对中文需先分词(如用jieba),英文可直接按空格或用nltk.word_tokenize
- 停用词过滤要谨慎——新闻分类中“的”“了”可删,但情感分析里“不”“很”“太”必须保留
把文字变成数字向量
模型不能直接读句子,得靠向量化把文本映射成固定长度的数值数组。常用方法有三种,适用场景不同:
- 词袋(Bag-of-Words):统计每个词出现次数,简单快,适合短文本或基线实验;缺点是忽略词序和语义
- TfidfVectorizer:在词频基础上加权重,降低高频无区分度词(如“的”“是”)的影响,实战中比纯词袋更稳定
- 预训练词向量(如 Word2Vec、FastText):每个词对应一个稠密向量,可计算相似度;适合数据少但需语义信息的任务;注意需对句子做平均或用更高级的句向量方法
选模型不追新,看任务特点
不是模型越深越好。小数据、短文本、类别少时,传统模型往往更稳、更快、更易解释:
立即学习“Python 免费学习笔记(深入)”;
- 逻辑回归(LogisticRegression):速度快,系数可解读哪些词倾向哪类,适合入门和调试特征
- 朴素贝叶斯(MultinomialNB):对小样本友好,尤其适合新闻、邮件等主题分类
- SVM(LinearSVC):在中等规模 TF-IDF 特征上表现强,但调参稍敏感
- 深度模型(如 LSTM、BERT)适合长文本、语义复杂或数据量大(万级 +)场景;用 transformers 库可快速加载微调,但需 GPU 和更多训练时间
评估别只看准确率
类别不均衡时(比如 95% 是“正常”,5% 是“垃圾邮件”),准确率可能虚高。必须看更细的指标:
- 用 classification_report 输出精确率、召回率、F1 值,重点关注少数类的召回率(漏判代价高时尤其重要)
- 混淆矩阵(confusion_matrix)帮你定位错在哪两类之间频繁混淆(比如“科技”和“财经”新闻难分)
- 交叉验证(cross_val_score)比单次划分更能反映模型稳定性