返回首页

"是助手还是掘墓人?"

微博与知乎关于生成式 AI 影响就业的公众话语比较研究

Python 数据抓取 语义网络分析 内容分析法 传播学研究

本研究聚焦 2024-2025 年生成式 AI 技术变革期,通过 Python 自动化数据抓取与 AI 辅助编码,对比微博与知乎两大平台关于 AI 影响就业的公众话语差异。运用混合内容分析法与语义关联网络分析,揭示平台启示性如何系统性地重塑公众的风险感知与心理防御机制。

技术手段

1

Python 自动化数据抓取

基于 Python 爬虫技术,针对微博与知乎平台设计差异化抓取策略。通过关键词检索("AI"+"人工智能"+"失业"等组合)与时间窗口筛选(2024/2025 年春招期),自动化采集公众话语样本。

Python Requests BeautifulSoup API 调用
2

三级数据清洗流程

第一轮:账号主体过滤,剔除官媒、营销号与机器人;第二轮:AI 辅助语义识别,剔除转发无评论与广告引流;第三轮:人工复核,确保数据纯净度达 98.4%。

正则表达式 NLP 语义识别 人工复核
3

AI 辅助编码 + 人工监督

利用 DeepSeek 大语言模型进行批量编码,输入包含明确操作化定义的提示词,对全量样本进行议题焦点、技术接纳立场、归因模式三维分类。随机抽取 10% 样本进行人工独立编码,Kappa 系数达 0.7 以上。

DeepSeek API Prompt Engineering Kappa 信度检验
4

语义关联网络可视化

提取高频关键词构建"关键词-情感立场"矩阵,采用余弦相似度计算语义关联强度,通过 Fruchterman-Reingold 力导向算法生成网络布局,揭示微博"同心圆焦虑结构"与知乎"多中心辩证网络"的话语差异。

余弦相似度 NetworkX 力导向算法 数据可视化
5

统计分析与假设检验

运用卡方检验验证平台属性对话语维度的影响,通过调整后残差分析识别具体差异模式,Cramer's V 值量化关联强度,Cronbach's α 系数检验编码内部一致性。

SPSS 卡方检验 残差分析 信度分析

核心发现

📱 微博:碎片化焦虑

  • 议题聚焦微观生存体验(裁员、房贷压力)
  • 技术替代立场占比 34.8%,"掘墓人"叙事主导
  • 外部归因倾向,将危机归咎于资本与技术必然性
  • 语义网络呈"同心圆"结构,情绪高度集中

💡 知乎:理性防御

  • 议题聚焦宏观行业研判与技能转型分析
  • 技术增强立场占比 47.4%,"助手"叙事占优
  • 内部归因倾向,强调个人能力提升与适应性
  • 语义网络呈"多中心"结构,话语多元辩证

研究方法

混合内容分析法 语义网络分析 平台启示性理论 归因理论 卡方检验 信度分析

研究意义

📚 理论贡献

拓展平台启示性理论的解释力,论证媒介技术架构如何系统性地重塑公众的议程设置与话语逻辑,为理解数字时代的舆论部落化提供新证据

🎯 实践价值

为政府与企业的风险沟通提供分层治理策略:微博端侧重就业保障与心理疏导,知乎端侧重职业转型路径与 AI 素养培训

🔍 方法创新

创新性地将 AI 辅助编码与人工监督相结合,通过语义关联网络可视化揭示话语深层结构,为大规模文本分析提供新范式