Spiegel
读者调查数据提供了偏好的基础真实。 使用了每个参与者的阅读历史记录和文章兴趣评分。 Anthropic的Claude 3.5 Sonnet LLM充当推荐引擎,收到了每个读者的历史记录(标题和摘要),以预测新文章的兴趣(得分为0-1000)。 JSON输出格式确保结构化结果。 将LLM的预测与实际的调查等级进行了比较。
>
取得了令人印象深刻的结果。 Precision@5达到56% - 推荐5篇文章时,将近3篇是用户最高评级的文章。 对于24%的用户,正确预测了4个或5个顶级文章;对于另外41%,5分中有3个是正确的。 这显着优于随机建议(38.8%),基于受欢迎程度的建议(42.1%)和以前的基于嵌入的方法(45.4%)。
图表说明了LLM方法的性能在其他方法上的性能。 >
这种透明度增强了信任和个性化。
结论: > LLM的强大预测能力和解释性使它们对于新闻推荐很有价值。 除了建议之外,他们还提供了分析用户行为和内容旅行的新方法,实现了个性化的摘要和见解。
确认
[1] Dairui,Liu&Yang,Boming&Du,Honghui&Greene,Derek&Hurley,Neil&Lawlor,Aonghus&Dong,Ruihai&Li,Ruihai&Li,Irene。 (2024)。 Recprompt:使用大语言模型的新闻推荐提示框架的自我调整框架。脱机评估新闻推荐系统的混合方法
键调查结果:
解释性:
<code>User has 221 articles in reading history
Top 5 Predicted by Claude:
... (List of articles with scores and actual ratings)
Claude's Analysis:
... (Analysis of reading patterns and scoring rationale)</code>
>参考
以上是通过大型语言模型来解释新闻建议的详细内容。更多信息请关注PHP中文网其他相关文章!