时间序列预测在各个领域中起着重要作用,例如零售、金融、制造业、医疗保健和自然科学等。在零售行业中,通过提高需求预测的准确性,可以有效降低库存成本并增加收入。这意味着企业能够更好地满足客户需求,减少库存积压和损失,同时提高销售额和利润。因此,时间序列预测在零售领域中具有重要的价值,能够为企业带来实质
深度学习(DL)模型在“多变量时间序列预测”任务中占据主导地位,在各种比赛和实际应用中展现出色的性能。
与此同时,自然语言处理(NLP)任务中的大型基础语言模型也取得了显著进展,有效提升了翻译、检索增强生成、代码补全等任务的性能。
NLP模型的训练依赖于海量文本数据,其中数据来源多种多样,包括爬虫、开源代码等,训练后的模型能够识别语言中的模式,并具备零样本学习的能力:比如说把大模型用在检索任务时,模型可以回答有关当前事件的问题并对其进行总结。
尽管基于深度学习的预测器在许多方面优于传统方法,包括降低训练和推理成本,但仍然存在一些挑战需要克服:
许多深度学习模型要经过长时间的训练和验证才能在新的时间序列上进行测试。相比之下,时间序列预测的基础模型具备"开箱即用预测"功能,无需额外训练即可应用于未知时间序列数据。这种特性让用户能够专注于改进零售需求规划等实际下游任务的预测工作。
Google Research的研究人员最近提出了一个名为TimesFM的时序预测基础模型,在1000亿个真实世界时间点上进行了预训练。与目前最新的大型语言模型(LLMs)相比,TimesFM的规模要小得多,仅包含200M参数。
论文链接:https://arxiv.org/pdf/2310.10688.pdf
实验结果表明,尽管规模较小,TimesFM在各个领域和时间尺度上的不同未经训练的数据集中展现出了令人惊讶的「零样本性能」,接近于明确经过训练、最先进的监督方法在这些数据集上的表现。
研究人员计划今年晚些时候在Google Cloud Vertex AI中为外部客户提供TimesFM模型。
基础模型TimesFM
LLMs通常以仅解码器(decoder-only)的方式进行训练,包括三个步骤:
1. 文本被分解为称为token的子词(subwords)
2. tokens被馈送到堆叠的causal Transformer层,并生成与每个输入token对应的输出,需要注意的是,该层无法处理没输入的token,即future tokens
3. 对应于第i个token的输出总结了来自先前token的所有信息,并预测第(i 1)个token
在推理期间,LLM每次生成一个token的输出。
例如,当输入提示「法国的首都是哪里?」(What is the capital of France?)时,模型可能会生成token为「The」,然后以该提示为条件生成下一个token「首都」(captial)等,直到模型生成完整的答案:「法国的首都是巴黎」(The capital of France is Paris)。
時間序列預測的基礎模型應該適應可變的上下文(模型觀察到的內容)和範圍(查詢模型預測的內容)長度,同時具有足夠的能力來編碼來自大型預訓練資料集的所有模式(patterns)。
與LLMs類似,研究人員使用堆疊的Transformer層(自註意力和前饋層)作為TimesFM模型的主要構建塊;在時間序列預測的背景下,把一個patch(一組連續的時間點)作為一個token,思路來自最近的long-horizon forecasting工作:具體任務是預測在堆疊的Transformer層的末尾處,針對給定第i個輸出來預測第(i 1)個時間點patch
但TimesFM與語言模型有幾個關鍵的差異:
1. 模型需要一個具有殘差連接的多層感知器塊,將時間序列的patch轉換為token,其可以與位置編碼(PE)一起沿著輸入到Transformer層。為此,我們使用類似於我們以前在長期預測中的工作的殘差塊。
2. 來自堆疊的Transformer的輸出token可以用來預測比輸入patch長度更長的後續時間點的長度,即,輸出patch長度可以大於輸入patch長度。
假設,長度為512個時間點的時間序列被用來訓練具有「輸入patch長度32」和「輸出patch長度128」的TimesFM模型時:
在訓練期間,模型同時被訓練為使用前32個時間點來預測接下來的128個時間點,使用前64個時間點來預測時間點65至192,使用前96個時間點來預測時間點97至224等等。
假設輸入資料為長度為256的時間序列,且其任務是預測未來的接下來的256個時間點,模型首先產生時間點257至384的未來預測,然後以初始256長度輸入加上產生的輸出為條件來產生時間點385至512。
另一方面,如果在模型中,輸出patch長度等於輸入patch長度32,那麼對於相同的任務,模型經歷八次生成步驟而非2次,增加了錯誤累積的風險,因此在實驗結果中可以看到,更長的輸出patch長度會帶來更好的長期預測性能。
預先訓練資料
就像LLMs可以透過更多token變得更好一樣,TimesFM需要大量合法的時間序列資料來學習和改進;研究人員花了大量的時間來創建和評估訓練資料集,發現兩個比較好的方法:
#合成資料有助於基礎(Synthetic data helps with the basics)
可以使用統計模型或物理模擬產生有意義的合成時間序列數據,基本的時間模式可以引導模型學習時間序列預測的語法。
真實世界的資料增加了真實世界的感覺(Real-world data adds real-world flavor)
研究人員梳理了可用的公共時間序列資料集,並選擇性地將1000億個時間點的大型語料庫放在一起。
在資料集中,有Google趨勢和維基百科的頁面瀏覽量,追蹤使用者感興趣的內容,並且很好地反映了許多其他真實世界時間序列的趨勢和模式,有助於TimesFM理解更大的圖景,可以針對「訓練期間沒見過的、特定領域上下文」提升泛化表現。
零樣本評估結果
研究人員使用常用的時間序列基準,針對訓練期間未見過的資料對TimesFM進行零樣本評估,可以觀察到TimesFM的表現優於大多數統計方法,如ARIMA,ETS,並且可以匹配或優於強大的DL模型,如DeepAR,PatchTST,這些模型已經在目標時間序列上進行了明確的訓練。
研究人員使用Monash Forecasting Archive來評估TimesFM的開箱即用效能,該資料集包含來自各個領域的數萬個時間序列,如交通、天氣和需求預測,覆蓋頻率從幾分鐘到每年的數據。
根據現有文獻,研究人員檢查了適當縮放的平均絕對誤差(MAE),以便在資料集上取平均值。
可以看到,zero-shot(ZS)TimesFM比大多數監督方法都要好,包括最近的深度學習模型。也比較了TimesFM和GPT-3.5使用llmtime(ZS)提出的特定提示技術進行預測,結果證明了TimesFM的效能優於llmtime(ZS)
在Monash資料集上,TimesFM(ZS)與其他有監督和零樣本方法的比例MAE(越低越好)
大多數Monash資料集都是短期或中期的,也就是說預測長度不會太長;研究人員也測試了TimesFM對常用基準長期預測對最先進的基線PatchTST(和其他長期預測基線)。
研究人員繪製了ETT資料集上的MAE,用於預測未來96和192個時間點的任務,在每個資料集的最後一個測試視窗上計算指標。
TimesFM(ZS)的最後一個視窗MAE(越低越好)相對於ETT資料集上的llmtime(ZS)和長期預測基準
可以看到,TimesFM不僅超過了llmtime(ZS)的效能,而且與在對應資料集上明確訓練的監督PatchTST模型的效能相符。
結論
研究人員使用1000億真實的世界時間點的大型預訓練語料庫訓練了一個僅用於解碼器的基礎模型,其中大部分是來自Google趨勢的搜尋興趣時間序列資料和維基百科的頁面瀏覽量。
結果表明,即使是一個相對較小的200 M參數預訓練模型,使用TimesFM架構,在各種公共基準測試(不同的領域和粒度)中都展現出相當好的零樣本表現。
以上是僅需200M參數,零樣本性能超越有監督!谷歌發佈時序預測基礎模型TimesFM的詳細內容。更多資訊請關注PHP中文網其他相關文章!

1 前言在发布DALL·E的15个月后,OpenAI在今年春天带了续作DALL·E 2,以其更加惊艳的效果和丰富的可玩性迅速占领了各大AI社区的头条。近年来,随着生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(Diffusion models)的出现,深度学习已向世人展现其强大的图像生成能力;加上GPT-3、BERT等NLP模型的成功,人类正逐步打破文本和图像的信息界限。在DALL·E 2中,只需输入简单的文本(prompt),它就可以生成多张1024*1024的高清图像。这些图像甚至

Wav2vec 2.0 [1],HuBERT [2] 和 WavLM [3] 等语音预训练模型,通过在多达上万小时的无标注语音数据(如 Libri-light )上的自监督学习,显著提升了自动语音识别(Automatic Speech Recognition, ASR),语音合成(Text-to-speech, TTS)和语音转换(Voice Conversation,VC)等语音下游任务的性能。然而这些模型都没有公开的中文版本,不便于应用在中文语音研究场景。 WenetSpeech [4] 是

“Making large models smaller”这是很多语言模型研究人员的学术追求,针对大模型昂贵的环境和训练成本,陈丹琦在智源大会青源学术年会上做了题为“Making large models smaller”的特邀报告。报告中重点提及了基于记忆增强的TRIME算法和基于粗细粒度联合剪枝和逐层蒸馏的CofiPruning算法。前者能够在不改变模型结构的基础上兼顾语言模型困惑度和检索速度方面的优势;而后者可以在保证下游任务准确度的同时实现更快的处理速度,具有更小的模型结构。陈丹琦 普

由于复杂的注意力机制和模型设计,大多数现有的视觉 Transformer(ViT)在现实的工业部署场景中不能像卷积神经网络(CNN)那样高效地执行。这就带来了一个问题:视觉神经网络能否像 CNN 一样快速推断并像 ViT 一样强大?近期一些工作试图设计 CNN-Transformer 混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。基于此,来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer——Next-ViT。从延迟 / 准确性权衡的角度看,

3月27号,Stability AI的创始人兼首席执行官Emad Mostaque在一条推文中宣布,Stable Diffusion XL 现已可用于公开测试。以下是一些事项:“XL”不是这个新的AI模型的官方名称。一旦发布稳定性AI公司的官方公告,名称将会更改。与先前版本相比,图像质量有所提高与先前版本相比,图像生成速度大大加快。示例图像让我们看看新旧AI模型在结果上的差异。Prompt: Luxury sports car with aerodynamic curves, shot in a

人工智能就是一个「拼财力」的行业,如果没有高性能计算设备,别说开发基础模型,就连微调模型都做不到。但如果只靠拼硬件,单靠当前计算性能的发展速度,迟早有一天无法满足日益膨胀的需求,所以还需要配套的软件来协调统筹计算能力,这时候就需要用到「智能计算」技术。最近,来自之江实验室、中国工程院、国防科技大学、浙江大学等多达十二个国内外研究机构共同发表了一篇论文,首次对智能计算领域进行了全面的调研,涵盖了理论基础、智能与计算的技术融合、重要应用、挑战和未来前景。论文链接:https://spj.scien

译者 | 李睿审校 | 孙淑娟近年来, Transformer 机器学习模型已经成为深度学习和深度神经网络技术进步的主要亮点之一。它主要用于自然语言处理中的高级应用。谷歌正在使用它来增强其搜索引擎结果。OpenAI 使用 Transformer 创建了著名的 GPT-2和 GPT-3模型。自从2017年首次亮相以来,Transformer 架构不断发展并扩展到多种不同的变体,从语言任务扩展到其他领域。它们已被用于时间序列预测。它们是 DeepMind 的蛋白质结构预测模型 AlphaFold

说起2010年南非世界杯的最大网红,一定非「章鱼保罗」莫属!这只位于德国海洋生物中心的神奇章鱼,不仅成功预测了德国队全部七场比赛的结果,还顺利地选出了最终的总冠军西班牙队。不幸的是,保罗已经永远地离开了我们,但它的「遗产」却在人们预测足球比赛结果的尝试中持续存在。在艾伦图灵研究所(The Alan Turing Institute),随着2022年卡塔尔世界杯的持续进行,三位研究员Nick Barlow、Jack Roberts和Ryan Chan决定用一种AI算法预测今年的冠军归属。预测模型图


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

DVWA
Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中

Atom編輯器mac版下載
最受歡迎的的開源編輯器

Dreamweaver Mac版
視覺化網頁開發工具

PhpStorm Mac 版本
最新(2018.2.1 )專業的PHP整合開發工具

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。