跳到主要內容

Sakana AI 發布自適應 LLM Transformer²


Sakana AI 發布 Transformer²,這是一個 自適應 LLM 模型,主要是透過一種機器學習系統,可以動態調整各種任務的權重,Transformer² 這個名稱反映了它的兩步驟過程:首先,模型分析傳入的任務以了解其要求,然後應用特定於任務的調整來產生最佳結果。

Transformer² 將在測試時動態擴展其運算,以適應它們遇到的任務的複雜性,體現出能夠持續變化和終身學習的生活智慧,並在各種任務(例如數學、編碼、推理和視覺理解)中展示了顯著進步,在效率和特定於任務的表現方面優於 LoRA 等傳統靜態方法,同時需要的參數少得多。

Transformer² 框架設計了一個兩遍適應策略,該策略有效地結合了一組特定於任務的 z 向量。在第一次推理過程中,給定任務或單獨的輸入提示,並使用以下三種適應方法之一分析其測試時間條件。

  • 基於提示的適應。專門設計的適應提示對任務進行分類(例如,數學、編碼)並選擇預先訓練的 z 向量。
  • 基於分類器的適應。使用 SVF 訓練的任務分類器在推理期間識別任務並選擇適當的 z 向量。
  • 少鏡頭適應。透過加權插值組合多個預訓練的 z 向量。一個簡單的最佳化演算法根據幾次評估集的效能來調整這些權重。

https://sakana.ai/transformer-squared/

留言

這個網誌中的熱門文章

美國公布 2025 年六月非農就業人數

美國勞工統計局今天報告稱,6 月非農業就業總人數增加了 14.7 萬人,失業率基本持平於 4.1%。州政府和醫療保健領域的就業機會增加。聯邦政府部門的就業機會持續減少。 本新聞稿提供的統計數據來自兩項月度調查。 家庭調查以人口統計特徵衡量勞動力狀況,包括失業率。 機構調查以行業衡量非農業就業人數、工時和收入。 家庭調查數據 6月份,失業率為 4.1%,失業人數為 700 萬,兩者皆變化不大。自2024年5月以來,失業率一直維持在 4.0% 至 4.2% 的窄幅區間內。 在主要勞動族群中,非裔美國人(6.8%)的失業率在6月有所上升,而成年女性(3.6%)和白人(3.6%)的失業率則下降。成年男性(3.9%)、青少年(14.4%)、亞裔(3.5%)和西班牙裔(4.8%)的失業率在當月幾乎沒有變化。 6 月份,長期失業人數(失業 27 週或以上)增加了 19 萬,達到 160 萬,基本上抵消了上個月的降幅。長期失業者佔所有失業人口的 23.3%。 6 月份,勞動參與率基本維持不變,為 62.3%,就業人口比率維持在 59.7%。 6 月份,因經濟原因從事兼職工作的人數為 450 萬,基本維持不變。這些人原本更傾向於全職工作,但由於工作時間減少或無法找到全職工作,他們只能從事兼職工作。 6 月份,目前希望就業但未加入勞動力的人數基本保持不變,為 600 萬人。這些人未被計入失業人數,因為他們在調查前 4 週內沒有積極尋找工作,或無法接受工作。 在希望就業但未加入勞動力隊伍的人數中,6 月處於邊緣就業狀態的人數增加了 23.4 萬人,達到 180 萬人。這些人希望工作,並且能夠工作,在過去 12 個月的某個時間點尋找工作,但在調查前 4 週內沒有尋找工作。灰心喪志的工人(邊緣就業人群中的一部分,他們認為沒有工作機會)的人數在 6 月增加了 25.6 萬人,達到 63.7 萬人。 機構調查數據 6月份非農業就業總人數增加了 14.7 萬個,與過去 12 個月平均每月增加 14.6 萬個的水平持平。6月份,州政府和醫療保健領域的就業機會增加。聯邦政府的就業機會持續減少。 6月政府就業機會增加了 7.3 萬個。州政府就業機會增加了4.7萬個,主要集中在教育領域(增加了4萬個)。地方政府教育領域的就業機會持續增加(增加了2.3萬個)。聯邦政府就業機會持續減少(減少了7千個),自1月...

Kyutai Labs 發布最新文字轉語音 AI 模型 - Kyutai TTS

法國 AI 研究機構 Kyutai Labs 發布最新文字轉語音 AI 模型 - Kyutai TTS,這是一個即時低延遲,並擁有 16 億參數的模型,包含多項創新。 Kyutai TTS 引領了文字轉語音領域的新潮流。 詞錯率(WER) 衡量的是 TTS 未能遵循腳本的頻率。 說話人相似度是語音複製時衡量產生的音訊與原始樣本的接近程度的指標。 Kyutai Labs 將 Kyutai TTS 與其他模型在 NTREX 的 15 篇英文新聞和 15 篇法文新聞上進行了比較。除 Kyutai TTS 和 ElevenLabs 外,所有模型都被要求逐句生成,因為我們觀察到這種方式效果最佳。 Kyutai TTS 無需提前了解整個文本,從接收第一個文本標記到生成第一個音頻區塊的延遲為 220 毫秒。在Unmute.sh部署中,我們使用批次功能同時處理最多 32 個請求,使用 L40S GPU 時觀察到延遲為 350 毫秒。 Kyutai STT 模型針對即時使用進行了最佳化,可以批量處理以提高效率,並返回單字級時間戳記。我們提供兩種模型: kyutai/stt-1b-en_fr,一個具有約 1B 個參數、0.5 秒延遲和語義 VAD 的英語和法語模型。 kyutai/stt-2.6b-en,一個僅支援英語的模型,具有約 26 億個參數和 2.5 秒的延遲。 這些語音轉文字模型有幾個優點: 流式推理:模型可以分塊處理音頻,從而實現即時轉錄,非常適合互動式應用程式。 輕鬆批次處理以實現最高效率:H100 可以即時處理 400 個串流。 它們傳回單字級時間戳。 1B 模型具有語義語音活動偵測 (VAD) 元件,可用於偵測使用者何時說話。這對於建立語音代理尤其有用。 https://kopyai.com/zh-tw/latest/view/type.news/0/39 Picture Source: kyutai.org

微軟發布輕量級推理模型 Phi-4-mini-flash-reasoning

微軟推出 Phi 模型系列的新版本 - Phi-4-mini-flash-reasoning,此新模型專為運算、記憶體和延遲受到嚴格約束的場景而設計,旨在為邊緣設備、行動應用程式和其他資源受限的環境帶來高級推理能力。 新模型沿用 Phi-4-mini,但建立在一種新的混合架構上,吞吐量提高了 10 倍,延遲平均降低了 2 到 3 倍,在不犧牲推理性能的情況下實現了顯著加快的推理速度。 Phi-4-mini-flash-reasoning 在數學推理能力和效率之間取得平衡,使其可能適用於教育應用、基於即時邏輯的應用等。  與前代產品類似,Phi-4-mini-flash-reasoning 是一個擁有 38 億個參數的開放模型,並針對高階數學推理進行了最佳化。它支援 64K 的 token 上下文長度,並基於高品質合成資料進行了微調,以提供可靠的邏輯密集型效能部署。   Phi-4-mini-flash-reasoning 的核心是全新引入的解碼器-混合解碼器架構 SambaY,其核心創新在於門控記憶單元 (GMU),這是一種簡單而有效的跨層共享表徵機制。該架構包含一個自解碼器,它結合了 Mamba(狀態空間模型)和滑動視窗注意力 (SWA),以及一個單層全注意力機制。此外,該架構還包含一個交叉解碼器,它將昂貴的交叉注意力層與全新的高效 GMU 交錯排列。這種具有 GMU 模組的新架構顯著提升了解碼效率,增強了長上下文檢索效能,並使該架構能夠在各種任務中提供卓越的效能。  SambaY 架構的主要優勢包括:  增強解碼效率。 保留線性預歸檔時間複雜度。 提高了可擴展性並增強了長上下文效能。 吞吐量提高高達 10 倍。 與 Phi 系列的所有模型一樣,Phi-4-mini-flash-reasoning 可部署在單 GPU 上,從而適用於廣泛的用例。然而,它的獨特之處在於其架構優勢。與 Phi-4-mini-reasoning 相比,這個新模型實現了顯著更低的延遲和更高的吞吐量,尤其是在長上下文生成和延遲敏感型推理任務中。  這使得 Phi-4-mini-flash-reasoning 成為希望部署需要快速、可擴展和高效推理的智慧型系統的開發人員和企業的引人注目的選擇——無論是在本地還是在設備上。  h...