Spiegel
讀者調查數據提供了偏好的基礎真實。 使用了每個參與者的閱讀歷史記錄和文章興趣評分。 Anthropic的Claude 3.5 Sonnet LLM充當推薦引擎,收到了每個讀者的歷史記錄(標題和摘要),以預測新文章的興趣(得分為0-1000)。 JSON輸出格式確保結構化結果。 將LLM的預測與實際的調查等級進行了比較。
>
取得了令人印象深刻的結果。 Precision@5達到56% - 推薦5篇文章時,將近3篇是用戶最高評級的文章。 對於24%的用戶,正確預測了4個或5個頂級文章;對於另外41%,5分中有3個是正確的。 這顯著優於隨機建議(38.8%),基於受歡迎程度的建議(42.1%)和以前的基於嵌入的方法(45.4%)。
圖表說明了LLM方法的性能在其他方法上的性能。 >
這種透明度增強了信任和個性化。
結論: > LLM的強大預測能力和解釋性使它們對於新聞推薦很有價值。 除了建議之外,他們還提供了分析用戶行為和內容旅行的新方法,實現了個性化的摘要和見解。
確認
[1] Dairui,Liu&Yang,Boming&Du,Honghui&Greene,Derek&Hurley,Neil&Lawlor,Aonghus&Dong,Ruihai&Li,Ruihai&Li,Irene。 (2024)。 Recprompt:使用大語言模型的新聞推薦提示框架的自我調整框架。脫機評估新聞推薦系統的混合方法
鍵調查結果:
解釋性:
<code>User has 221 articles in reading history
Top 5 Predicted by Claude:
... (List of articles with scores and actual ratings)
Claude's Analysis:
... (Analysis of reading patterns and scoring rationale)</code>
>參考
以上是通過大型語言模型來解釋新聞建議的詳細內容。更多資訊請關注PHP中文網其他相關文章!