今天跟大家聊一聊大模型在时间序列预测中的应用。随着大模型在NLP领域的发展,越来越多的工作尝试将大模型应用到时间序列预测领域中。这篇文章介绍了大模型应用到时间序列预测的主要方法,并汇总了近期相关的一些工作,帮助大家理解大模型时代时间序列预测的研究方法。
最近三个月涌现了很多大模型做时间序列预测的工作,基本可以分为2种类型。
重写后的内容:一种方法是直接使用NLP的大型模型进行时间序列预测。在这种方法中,使用GPT、Llama等NLP大型模型来进行时间序列预测,关键在于如何将时间序列数据转化为适合大型模型输入的数据
第二种是训练时间序列领域的大模型。这类方法中,使用大量的时间序列数据集,联合训练一个时间序列领域的GPT或者Llama等大模型,并用于下游时间序列任务。
针对上述两类方法,下面给大家分别介绍几篇相关的经典大模型时间序列代表工作。
这种方法是最早出现的一批大型模型时间序列预测工作
纽约大学和卡内基梅隆大学合作发表的论文《大型语言模型作为零样本时间序列预测器》中,通过对时间序列的数字表示进行了tokenize的设计,以便转换成GPT、LLaMa等大型模型可以识别的输入。由于不同的大型模型对数字的tokenize方式不同,因此在使用不同的模型时需要进行个性化处理。例如,GPT会将一串数字分割成不同的子序列,这会影响模型的学习。因此,本文在数字之间强制添加了一个空格,以适应GPT的输入格式。而对于LLaMa等最近发布的大型模型,一般会将单独的数字进行分割,因此不再需要添加空格。同时,为了避免时间序列数值过大导致输入序列过长,文中进行了一些缩放操作,将原始时间序列的值限定在一个较合理的范围内
图片
上述处理后的数字字符串,输入到大模型中,让大模型自回归的预测下一个数字,最后再将预测出的数字转换成相应的时间序列数值。下图中给出了一个示意图,利用语言模型的条件概率建模数字,就是根据前面的数字预测下一位为各个数字的概率,是一种迭代的层次softmax结构,加上大模型的表征能力,可以适配各种各样的分布类型,这也是大模型可以以这种方式用于时间序列预测的原因。同时,模型对于下一个数字预测的概率,也可以转换成对不确定性的预测,实现时间序列的不确定性预估。
图片
在另一篇名为“TIME-LLM: TIME SERIES FORECASTING BY REPROGRAMMING LARGE LANGUAGE MODELS”的文章中,作者提出了一种重新编程的方法,将时间序列转化为文本,以实现时间序列和文本这两种形式之间的对齐
具体实现方法为,首先将时间序列分成多个patch,每个patch通过MLP得到一个embedding。然后,将patch embedding映射到语言模型中的词向量上,实现时间序列片段和文本的映射和跨模态对齐。文中提出了一种text prototype的思路,将多个词映射到一个prototype,以此来表示一段时间序列patch的语义。例如下图例子中,shot和up两个词映射到红色三角,对应时间序列中短期上升形式子序列的patch。
图片
另一个研究方向是参考自然语言处理领域的大模型构建方法,直接构建一个用于时间序列预测的大模型
Lag-Llama: Towards Foundation Models for Time Series Forecasting这篇文章搭建了时间序列中的Llama模型。核心包括特征层面和模型结构层面的设计。
在特征方面,文中提取了多尺度多类型的lag feature,主要是原始时间序列不同时间窗口的历史序列统计值。这些序列作为额外的特征输入到模型中。在模型结构方面,NLP中的LlaMA结构,核心是Transformer,对其中的normalization方式和position encoding部分做了优化。最后的输出层,使用多个head拟合概率分布的参数,例如高斯分布就拟合均值方差,文中采用的是student-t分布,输出freedom、mean、scale三个对应参数,最后得到每个时间点的预测概率分布结果。
图片
另一项类似的工作是TimeGPT-1,该模型构建了时间序列领域的GPT模型。在数据训练方面,TimeGPT采用了大量的时间序列数据,总共达到了100亿个数据样本点,涉及多种类型的领域数据。在训练过程中,采用更大的批量大小和更小的学习率来提高训练的鲁棒性。模型主要结构为经典的GPT模型
图片
通过下面的实验结果也可以看出,在一些零样本学习任务中,这种时间序列预训练大模型相比基础的模型都取得了显著的效果提升。
图片
这篇文章介绍了大模型浪潮下的时间序列预测研究思路,整体包括直接利用NLP大模型做时间序列预测,以及训练时间序列领域的大模型。无论哪种方法,都向我们展现了大模型+时间序列的潜力,是一个值得深入研究的方向。
以上是一篇学会大模型浪潮下的时间序列预测的详细内容。更多信息请关注PHP中文网其他相关文章!