北大林宙辰团队:从最优传输角度训练时序预测模型 丨ICLR 2026
DistDF:从点对点误差转向联合分布对齐,重构时间序列预测的损失函数。 作者丨郑佳美 编辑丨岑 峰 在时间序列预测研究中,一个耐人寻味的现象长期存在: 一方面,模型结构不断演进,从循环网络到 Transformer,再到频域与混合结构;另一方面,几乎所有方法在训练阶段依赖同一类损失函数,即以均方误差(MSE)为代表的点对点误差。 这使得时间序列预测在方法论层面呈现出一种隐性的停滞,即研究重心持续向模型表达能力倾斜,而对损失函数所隐含的统计假设缺乏系统反思。 点对点误差的核心假设在于,标签序列中的各时间步可被视为给定历史条件下相互独立的预测对象。然而,这一假设与时间序列数据的生成机制之间始终存在偏差。 真实世界中的时间序列由随机过程演化而来,不同时间点之间存在显著的相关关系。将多步预测问题拆解为一组独立的回归任务,不可避免地为损失函数引入了结构性偏差,使模型难以学习标签序列的整体形态、相关结构以及条件依赖关系。 针对这一问题,北京大学林宙辰团队深入剖析了此类结构性偏差的成因。在此基础上,团队提出了 DistDF:一种通过联合分布对齐训练预测模型的损失函数。DistDF...