Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.08169

帮助 | 高级搜索

计算机科学 > 社会与信息网络

arXiv:2507.08169 (cs)
[提交于 2025年7月10日 ]

标题: 政治偏见来源推文中的宣传分析

标题: Analysis of Propaganda in Tweets From Politically Biased Sources

Authors:Vivek Sharma, Mohammad Mahdi Shokri, Sarah Ita Levitan, Elena Filatova, Shweta Jain
摘要: 新闻媒体以具有政治关联而广为人知,许多国家级媒体培养政治偏见以迎合不同的受众。 为这些新闻媒体工作的记者对其报道的新闻有重大影响。 在这项工作中,我们提出了一种方法来分析与受欢迎的新闻媒体有关的记者,在使用某种类似宣传的语言传播其偏见中的作用。 我们介绍了JMBX(Journalist Media Bias on X),这是一个系统收集和标注的1874条推文的数据集,这些推文来自Twitter(现在称为X)。 这些推文由来自10家新闻媒体的知名记者撰写,这些新闻媒体的政治偏见从极端左翼到极端右翼不等。 我们从数据中提取了几个见解,并得出结论,与那些隶属于具有温和政治倾向的媒体的记者相比,隶属于具有极端偏见媒体的记者更有可能在写作中使用类似宣传的语言。 我们通过OpenAI和Google的八种不同大型语言模型(LLM)进行了比较。 我们发现,与针对宣传检测进行微调的基于BERT的模型相比,大型语言模型在检测社交媒体和新闻文章中的宣传方面表现更好。 虽然使用大型语言模型(LLMs)的性能提升显著,但它们带来了可观的经济和环境成本。 这项研究分析了基于令牌使用的财务成本和环境影响,利用估算与LLM操作相关的碳排放的工具。
摘要: News outlets are well known to have political associations, and many national outlets cultivate political biases to cater to different audiences. Journalists working for these news outlets have a big impact on the stories they cover. In this work, we present a methodology to analyze the role of journalists, affiliated with popular news outlets, in propagating their bias using some form of propaganda-like language. We introduce JMBX(Journalist Media Bias on X), a systematically collected and annotated dataset of 1874 tweets from Twitter (now known as X). These tweets are authored by popular journalists from 10 news outlets whose political biases range from extreme left to extreme right. We extract several insights from the data and conclude that journalists who are affiliated with outlets with extreme biases are more likely to use propaganda-like language in their writings compared to those who are affiliated with outlets with mild political leans. We compare eight different Large Language Models (LLM) by OpenAI and Google. We find that LLMs generally performs better when detecting propaganda in social media and news article compared to BERT-based model which is fine-tuned for propaganda detection. While the performance improvements of using large language models (LLMs) are significant, they come at a notable monetary and environmental cost. This study provides an analysis of both the financial costs, based on token usage, and the environmental impact, utilizing tools that estimate carbon emissions associated with LLM operations.
评论: 《国际FLAIRS会议论文集》,38(1)。 https://doi.org/10.32473/flairs.38.1.138706
主题: 社会与信息网络 (cs.SI)
引用方式: arXiv:2507.08169 [cs.SI]
  (或者 arXiv:2507.08169v1 [cs.SI] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.08169
通过 DataCite 发表的 arXiv DOI(待注册)
相关 DOI: https://doi.org/10.32473/flairs.38.1.138706
链接到相关资源的 DOI

提交历史

来自: Vivek Sharma [查看电子邮件]
[v1] 星期四, 2025 年 7 月 10 日 21:00:29 UTC (813 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.SI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号