成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能 正文
    發私信給鄭佳美
    發送

    0

    北大林宙辰團隊論文:從數據中自適應學習時序預測損失丨ICLR 2026

    本文作者: 鄭佳美   2026-02-12 10:45 專題:ICLR 2019
    導語:QDF:以極大似然估計為起點,結合元學習思想重構預測模型損失函數,實現跨模型泛化。

    在多步時間序列預測任務中,預測性能隨時間步長迅速退化幾乎成為一種共識。例如:在氣象預測中,短期的溫度變化能夠較為準確地刻畫,但當預測跨度擴展至數日甚至一周時,預測誤差就會逐漸放大,周期與趨勢結構逐漸偏離真實軌跡。類似的問題在金融價格走勢和電力負荷預測等場景中也廣泛存在。

    無論模型結構如何變化,當預測范圍從短期擴展至中長期時,誤差積累、趨勢漂移和結構失真往往不可避免地出現。這類現象在實踐中被頻繁觀察,卻通常被視為模型表達能力或依賴建模不足的直接結果。

    然而,與模型結構持續演進形成鮮明對比的是,多步預測在訓練階段所使用的損失函數卻長期保持固定。大多數方法仍以逐時間點的均方誤差(MSE)作為優化目標,默認將未來不同預測步視為相互獨立且重要性一致的預測對象。

    但是,多步預測并非一組彼此獨立的回歸任務,未來不同時間點之間往往呈現顯著的相關性;此外,不同預測步在優化階段的重要性也并不相同。若損失函數無法顯式刻畫這些結構特征,模型在長期預測中出現系統性偏差便并非偶然,而是訓練階段錯誤假設的自然結果。

    正是在這一背景下,林宙辰團隊提出了題為《Quadratic Direct Forecast for Training Multi-step Time-Series Forecast Models》的研究工作。通過重構訓練目標的加權結構,引入對預測步相關性與不確定性差異的顯式建模。研究團隊展示了在不改變模型架構的前提下,僅通過調整訓練目標即可顯著改善多步預測性能的可能性,從而為時間序列預測提供了一種從訓練機制層面理解長期預測失效的新視角。

    北大林宙辰團隊論文:從數據中自適應學習時序預測損失丨ICLR 2026

    論文鏈接:https://arxiv.org/pdf/2511.00053v1

    問題根源:均方誤差的兩個先驗

    在當下的時序預測領域,絕大多數文獻仍以逐時間點的均方誤差(MSE)作為損失函數:

    $$\mathcal{L}_{\text{MSE}} = \|\mathbf{y} - g_\theta(\mathbf{x})\|^2=\sum_{t=1}^\mathrm{T}\left(y_t-g_{\theta,t}(\mathbf{x})\right)$$

    這個損失函數隱含了兩個先驗:1. 未來不同時間點的預測是相互獨立的;2. 所有預測步的重要性是相同的。

    然而,現實并非如此:明天的天氣與后天的天氣存在相關性,預測未來1小時和1周的難度也完全不同。因此,多步預測并非一組獨立的回歸任務;不同預測步在優化階段的重要性也并不相同。如損失函數無法正確刻畫這些結構特征,模型在長期預測中出現系統性偏差,就并非偶然,而是訓練階段錯誤假設的必然結果。

    北大林宙辰團隊論文:從數據中自適應學習時序預測損失丨ICLR 2026

    研究人員上述兩點先驗進行了實驗檢驗,發現它們在多步預測場景中均不成立。

    首先,對標簽序列的條件協方差進行了偏相關分析,以刻畫在控制歷史輸入的影響之后,標簽序列不同時間點 $Y_t$ 與 $Y_{t'}$ 之間的直接關系。實驗結果顯示,未來時間點之間存在大量非零偏相關系數,否定了均方誤差所隱含的條件獨立假設。雷峰網(公眾號:雷峰網)

    進一步,對標簽序列的條件方差進行了分析。實驗結果顯示,不同時間點的誤差方差存在顯著差異,且隨著預測步整體增大,說明將所有預測步視為難度一致的任務并不符合數據特性,否定了均方誤差隱含重要性一致假設。

    QDF:從數據中自適應學習預測損失

    針對MSE存在的兩個不合理先驗,林宙辰教授團隊提出了QDF(Quadratic Direct Forecast)方法,核心創新在于:不再將損失函數視為固定不變的優化目標,而是將其本身作為可學習的對象,從而自動“發現”最適合特定任務數據結構的損失表述。

    從概率建模的視角出發,理想的損失函數應來源于負對數似然。在高斯誤差假設下。在高斯誤差假設下,給定歷史序列 $\mathbf{x}$,標簽序列 $$\mathbf{y}\in\mathbb{R}^\mathrm{T\times 1}$$ 的條件分布為多元高斯分布,其負對數似然(忽略常數項)可表示為:

    $$\mathcal{L}_{\boldsymbol{\Sigma}}(\mathbf{x},\mathbf{y};g_\theta) = (\mathbf{y} - g_\theta(\mathbf{x}))^\top \boldsymbol{\bar{\Sigma}} (\mathbf{y} - g_\theta(\mathbf{x}))$$

    其中,$\boldsymbol{\Sigma} \in \mathbb{R}^{T \times T}$是標簽序列的條件協方差矩陣,$T$ 為預測步長,$\boldsymbol{\bar{\Sigma}} = \boldsymbol{\Sigma}^{-1}$為該二次型的權重矩陣。在該二次型中:權重矩陣的非對角元素刻畫了未來不同時間點之間的條件相關性,從而能夠顯式建模標簽自相關效應,打破了MSE所隱含的條件獨立假設;權重矩陣的對角元素反映了不同預測步的不確定性差異,使得模型能夠為不同難度的預測任務分配異構權重,打破了MSE所隱含的重要性一致假設。雷峰網

    因此,該二次型損失函數在理論上能夠同時解決傳統MSE損失在多步預測場景下的兩個結構性偏差問題。

    然而,在實際預測任務中,權重矩陣$\boldsymbol{\bar{\Sigma}}$難以估計。為解決這一問題,研究團隊受到元學習啟發,將$\boldsymbol{\bar{\Sigma}}$作為可學習的對象,通過一個雙層優化機制將$\boldsymbol{\bar{\Sigma}}$從數據中“學”出來:

    $$\min_{\boldsymbol{\Sigma} \succeq 0} \mathcal{L}_{\boldsymbol{\Sigma}}(\mathbf{x}_{\text{out}}, \mathbf{y}_{\text{out}};g_{\theta^*}) \quad \text{s.t.} \quad \theta^* = \arg\min_{\theta} \mathcal{L}_{\boldsymbol{\Sigma}}(\mathbf{x}_{\text{in}}, \mathbf{y}_{\text{in}};g_\theta)$$

    該雙層優化問題的求解過程包括兩個階段。首先,在給定$\boldsymbol{\Sigma}$ 的條件下,通過在元訓練集$(\mathbf{x}_{\text{in}}, \mathbf{y}_{\text{in}})$上最小化損失函數$\mathcal{L}_{\boldsymbol{\Sigma}}$來更新模型參數$\theta$。接著,依據模型在元驗證集$(\mathbf{x}_{\text{out}}, \mathbf{y}_{\text{out}})$上的預測誤差,反向傳播更新$\boldsymbol{\Sigma}$。其中,元訓練集和元驗證集來自對訓練集的不同切片。

    這種雙層設計的核心優勢在于:訓練目標的優劣不再由擬合優度決定,而是由元驗證集上的泛化性能來刻畫。通過多次數據拆分與迭代更新,算法得以學習到在不同時間區間內一致的誤差相關模式,從而形成穩定且可泛化的訓練目標。

    在大量實驗中,一致驗證優勢

    論文首先將 QDF 與現有損失函數進行了比較,包括通過標簽變換削弱標簽相關性的 FreDF 和 Time-o1。這些方法相較于均方誤差均能帶來一定的性能提升,但在穩定性和性能上限方面仍不及 QDF。原因在于這些方法僅部分處理標簽之間的相關性,仍隱含地假設剩余誤差可通過均勻加權方式進行優化,而 QDF 同時建模了標簽間的相關性以及不同預測步的不確定性,并通過元學習得到最優加權權重,徹底解決了損失函數中可能存在的偏差。

    北大林宙辰團隊論文:從數據中自適應學習時序預測損失丨ICLR 2026

    其次,研究人員通過消融實驗對上述兩個關鍵因素進行了驗證。實驗分別考察僅建模不同預測步權重、僅建模時間相關性以及同時建模二者的情形。結果顯示,兩種因素單獨引入時均能帶來性能提升,而二者同時作用時效果最為顯著。

    北大林宙辰團隊論文:從數據中自適應學習時序預測損失丨ICLR 2026

    研究人員也對模型輸出的預測序列進行了可視化分析。結果表明,基于均方誤差訓練的模型在周期性時間序列中普遍存在振幅壓縮、峰值被抹平以及拐點響應滯后的現象。引入QDF后,模型在峰值位置、周期相位以及長期趨勢穩定性方面均表現出更高一致性,時間結構得到了更完整的保留,說明QDF有效訓練模型尊重未來不同時間點之間的整體關系。

    北大林宙辰團隊論文:從數據中自適應學習時序預測損失丨ICLR 2026

    一次針對均方誤差的系統性審判

    從研究意義的角度來看,這項研究首先推翻了一個在時間序列領域長期被默認接受的假設:多步預測可以被視為多個相互獨立且等權重的回歸任務。這一假設在實踐中被廣泛采用,卻缺乏系統性的經驗驗證。研究通過嚴格的概率建模分析與全面的實證檢驗表明,**這一前提假設在多步預測場景中并不成立**。

    在此基礎上,研究進一步提出了一種新穎的研究方法:將損失函數本身視為可以被學習的對象。不同于傳統通過超參數調節或啟發式設計的方式,該研究通過引入結構化的權重參數來顯式建模標簽間的關聯性和不同預測步的重要性差異,并通過雙層優化機制,直接利用未見數據上的泛化誤差學習權重參數。這種設計使得損失函數的形式能夠根據數據特性自適應地調整,從而形成既符合統計建模原理又具有良好泛化能力的訓練目標。

    對于后續研究而言,該工作所提供的啟示并不局限于具體方法本身,而體現在更一般的研究范式上。其一,研究強調了對領域內默認假設保持持續審視的重要性;其二,展示了如何從統計建模出發反推優化目標的合理形式;其三,為元學習思想在時間序列預測領域的應用和發展提供了理論和實踐參考,展示了如何將元學習的思想與領域特定的統計方法有機結合。

    作者信息

    論文第一作者王浩,現為浙江大學控制學院博士研究生,研究方向聚焦于因果推斷、多任務學習技術及其在大語言模型中的應用。2022 年- 2023 年,他曾在螞蟻金服、微軟亞洲研究院科研實習,從事推薦系統理論研究。2025 年起,他在小紅書參加 RedStar 實習項目,進行大語言模型、可信獎勵模型領域的研究工作。

    北大林宙辰團隊論文:從數據中自適應學習時序預測損失丨ICLR 2026

    論文通訊作者林宙辰,現任北京大學智能學院、通用人工智能全國重點實驗室教授。他的研究領域包括機器學習和數值優化。他已發表論文360余篇,谷歌學術引用超過42,000次。他是IAPR、IEEE、AAIA、CCF和CSIG會士,多次擔任CVPR、NeurIPS、ICML等會議的Senior Area Chair,現任ICML Board Member。

    北大林宙辰團隊論文:從數據中自適應學習時序預測損失丨ICLR 2026

    參考鏈接:https://zhouchenlin.github.io/

    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

    北大林宙辰團隊論文:從數據中自適應學習時序預測損失丨ICLR 2026

    分享:
    相關文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說