首页 >科技周边 >人工智能 >通过大型语言模型来解释新闻建议

通过大型语言模型来解释新闻建议

WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB
WBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWBOYWB原创
2025-02-25 19:56:14118浏览

Spiegel der Spiegel使用大型语言模型(LLM)探索以改善新闻文章的建议。 离线实验评估了LLM根据阅读历史预测读者兴趣的能力。

方法论:

读者调查数据提供了偏好的基础真实。 使用了每个参与者的阅读历史记录和文章兴趣评分。 Anthropic的Claude 3.5 Sonnet LLM充当推荐引擎,收到了每个读者的历史记录(标题和摘要),以预测新文章的兴趣(得分为0-1000)。 JSON输出格式确保结构化结果。 将LLM的预测与实际的调查等级进行了比较。

中可用详细的方法。

>
脱机评估新闻推荐系统的混合方法

>

键调查结果:

取得了令人印象深刻的结果。 Precision@5达到56% - 推荐5篇文章时,将近3篇是用户最高评级的文章。 对于24%的用户,正确预测了4个或5个顶级文章;对于另外41%,5分中有3个是正确的。 这显着优于随机建议(38.8%),基于受欢迎程度的建议(42.1%)和以前的基于嵌入的方法(45.4%)。 图表说明了LLM方法的性能在其他方法上的性能。

第二个度量标准达到0.41,大大超过了基于嵌入的方法(0.17),这表明对偏好强度的理解超过了。

>

Making News Recommendations Explainable with Large Language Models

Making News Recommendations Explainable with Large Language Models解释性:

LLM的解释性是关键优势。 一个示例说明了系统如何分析阅读模式并证明建议:

这种透明度增强了信任和个性化。

挑战和未来方向:
<code>User has 221 articles in reading history

Top 5 Predicted by Claude:
... (List of articles with scores and actual ratings)

Claude's Analysis:
... (Analysis of reading patterns and scoring rationale)</code>

>高API成本(每位用户$ 0.21)和处理速度(每个用户几秒钟)构成可伸缩性挑战。 探索开源模型和及时工程可以减轻这些模型。 合并其他数据(阅读时间,文章的受欢迎程度)可以进一步提高性能。

结论:

> LLM的强大预测能力和解释性使它们对于新闻推荐很有价值。 除了建议之外,他们还提供了分析用户行为和内容旅行的新方法,实现了个性化的摘要和见解。

确认

这项研究利用了匿名,汇总的用户数据。 欢迎通过LinkedIn进行进一步的讨论。

>参考

[1] Dairui,Liu&Yang,Boming&Du,Honghui&Greene,Derek&Hurley,Neil&Lawlor,Aonghus&Dong,Ruihai&Li,Ruihai&Li,Irene。 (2024)。 Recprompt:使用大语言模型的新闻推荐提示框架的自我调整框架。

以上是通过大型语言模型来解释新闻建议的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn