跳到主要內容

Mistral OCR - 世界上最好的文件理解 API


縱觀歷史,資訊抽象和檢索的進步推動了人類的進步。從象形文字到紙莎草紙,從印刷機到數位化,每一次飛躍都使人類知識更易於獲取和操作,從而推動進一步的創新。

今天,我們正處於下一次大飛躍的邊緣——釋放所有數位化訊息的集體智慧。世界上大約 90%的組織資料都以文件形式存儲,為了發揮這一潛力,我們引入了Mistral OCR。

Mistral OCR 是一種光學字元辨識 API,它為文件理解樹立了新的標準。與其他模型不同,Mistral OCR 以前所未有的準確性和認知能力理解文件的每個元素——媒體、文字、表格、方程式。它以圖像和 PDF 作為輸入,並以有序交錯的文字和圖像中提取內容。

因此,Mistral OCR 是與以多模式文件(如幻燈片或複雜的 PDF)作為輸入的 RAG 系統結合使用的理想模型。

我們已將 Mistral OCR 作為 Le Chat 上數百萬用戶的文檔理解預設模型,並以 1000 頁 / $ 的價格發布 API mistral-ocr-latest(透過批量推理,每美元的頁數大約增加一倍)。該 API 現已在我們的開發套件 la Plateforme上提供,並將很快在我們的雲端和推理合作夥伴以及本地提供。

亮點

  • 對複雜文件的最新理解
  • 原生多語言和多模式
  • 頂級基準
  • 同級中速度最快
  • 文件即刻、結構化輸出
  • 對於處理高度敏感或機密資訊的組織,可選擇自行託管

對複雜文件的最新理解

Mistral OCR 擅長理解複雜的文件元素,包括交錯圖像、數學表達式、表格和高級佈局(如 LaTeX 格式)。該模型能夠更深入地理解包含圖表、圖形、方程式和數字的豐富文檔,例如科學論文。

同級中速度最快

Mistral OCR 比同類產品中的大多數型號更輕,但效能卻比同類產品快得多,在單一節點上每分鐘可處理多達 2000 頁。快速處理文件的能力確保即使在高吞吐量環境中也能持續學習和改進。

文件即刻、結構化輸出

Mistral OCR 還引入了使用文件作為提示的功能,從而能夠提供更強大、更精確的指令。此功能允許使用者從文件中提取特定資訊並將其格式化為結構化輸出,例如 JSON。使用者可以將提取的輸出連結到下游函數呼叫和建置代理程式中。請參閱此範例 筆記本。


Picture Source:
mistral.ai

留言

這個網誌中的熱門文章

美國公布 2025 年六月非農就業人數

美國勞工統計局今天報告稱,6 月非農業就業總人數增加了 14.7 萬人,失業率基本持平於 4.1%。州政府和醫療保健領域的就業機會增加。聯邦政府部門的就業機會持續減少。 本新聞稿提供的統計數據來自兩項月度調查。 家庭調查以人口統計特徵衡量勞動力狀況,包括失業率。 機構調查以行業衡量非農業就業人數、工時和收入。 家庭調查數據 6月份,失業率為 4.1%,失業人數為 700 萬,兩者皆變化不大。自2024年5月以來,失業率一直維持在 4.0% 至 4.2% 的窄幅區間內。 在主要勞動族群中,非裔美國人(6.8%)的失業率在6月有所上升,而成年女性(3.6%)和白人(3.6%)的失業率則下降。成年男性(3.9%)、青少年(14.4%)、亞裔(3.5%)和西班牙裔(4.8%)的失業率在當月幾乎沒有變化。 6 月份,長期失業人數(失業 27 週或以上)增加了 19 萬,達到 160 萬,基本上抵消了上個月的降幅。長期失業者佔所有失業人口的 23.3%。 6 月份,勞動參與率基本維持不變,為 62.3%,就業人口比率維持在 59.7%。 6 月份,因經濟原因從事兼職工作的人數為 450 萬,基本維持不變。這些人原本更傾向於全職工作,但由於工作時間減少或無法找到全職工作,他們只能從事兼職工作。 6 月份,目前希望就業但未加入勞動力的人數基本保持不變,為 600 萬人。這些人未被計入失業人數,因為他們在調查前 4 週內沒有積極尋找工作,或無法接受工作。 在希望就業但未加入勞動力隊伍的人數中,6 月處於邊緣就業狀態的人數增加了 23.4 萬人,達到 180 萬人。這些人希望工作,並且能夠工作,在過去 12 個月的某個時間點尋找工作,但在調查前 4 週內沒有尋找工作。灰心喪志的工人(邊緣就業人群中的一部分,他們認為沒有工作機會)的人數在 6 月增加了 25.6 萬人,達到 63.7 萬人。 機構調查數據 6月份非農業就業總人數增加了 14.7 萬個,與過去 12 個月平均每月增加 14.6 萬個的水平持平。6月份,州政府和醫療保健領域的就業機會增加。聯邦政府的就業機會持續減少。 6月政府就業機會增加了 7.3 萬個。州政府就業機會增加了4.7萬個,主要集中在教育領域(增加了4萬個)。地方政府教育領域的就業機會持續增加(增加了2.3萬個)。聯邦政府就業機會持續減少(減少了7千個),自1月...

Kyutai Labs 發布最新文字轉語音 AI 模型 - Kyutai TTS

法國 AI 研究機構 Kyutai Labs 發布最新文字轉語音 AI 模型 - Kyutai TTS,這是一個即時低延遲,並擁有 16 億參數的模型,包含多項創新。 Kyutai TTS 引領了文字轉語音領域的新潮流。 詞錯率(WER) 衡量的是 TTS 未能遵循腳本的頻率。 說話人相似度是語音複製時衡量產生的音訊與原始樣本的接近程度的指標。 Kyutai Labs 將 Kyutai TTS 與其他模型在 NTREX 的 15 篇英文新聞和 15 篇法文新聞上進行了比較。除 Kyutai TTS 和 ElevenLabs 外,所有模型都被要求逐句生成,因為我們觀察到這種方式效果最佳。 Kyutai TTS 無需提前了解整個文本,從接收第一個文本標記到生成第一個音頻區塊的延遲為 220 毫秒。在Unmute.sh部署中,我們使用批次功能同時處理最多 32 個請求,使用 L40S GPU 時觀察到延遲為 350 毫秒。 Kyutai STT 模型針對即時使用進行了最佳化,可以批量處理以提高效率,並返回單字級時間戳記。我們提供兩種模型: kyutai/stt-1b-en_fr,一個具有約 1B 個參數、0.5 秒延遲和語義 VAD 的英語和法語模型。 kyutai/stt-2.6b-en,一個僅支援英語的模型,具有約 26 億個參數和 2.5 秒的延遲。 這些語音轉文字模型有幾個優點: 流式推理:模型可以分塊處理音頻,從而實現即時轉錄,非常適合互動式應用程式。 輕鬆批次處理以實現最高效率:H100 可以即時處理 400 個串流。 它們傳回單字級時間戳。 1B 模型具有語義語音活動偵測 (VAD) 元件,可用於偵測使用者何時說話。這對於建立語音代理尤其有用。 https://kopyai.com/zh-tw/latest/view/type.news/0/39 Picture Source: kyutai.org

微軟發布輕量級推理模型 Phi-4-mini-flash-reasoning

微軟推出 Phi 模型系列的新版本 - Phi-4-mini-flash-reasoning,此新模型專為運算、記憶體和延遲受到嚴格約束的場景而設計,旨在為邊緣設備、行動應用程式和其他資源受限的環境帶來高級推理能力。 新模型沿用 Phi-4-mini,但建立在一種新的混合架構上,吞吐量提高了 10 倍,延遲平均降低了 2 到 3 倍,在不犧牲推理性能的情況下實現了顯著加快的推理速度。 Phi-4-mini-flash-reasoning 在數學推理能力和效率之間取得平衡,使其可能適用於教育應用、基於即時邏輯的應用等。  與前代產品類似,Phi-4-mini-flash-reasoning 是一個擁有 38 億個參數的開放模型,並針對高階數學推理進行了最佳化。它支援 64K 的 token 上下文長度,並基於高品質合成資料進行了微調,以提供可靠的邏輯密集型效能部署。   Phi-4-mini-flash-reasoning 的核心是全新引入的解碼器-混合解碼器架構 SambaY,其核心創新在於門控記憶單元 (GMU),這是一種簡單而有效的跨層共享表徵機制。該架構包含一個自解碼器,它結合了 Mamba(狀態空間模型)和滑動視窗注意力 (SWA),以及一個單層全注意力機制。此外,該架構還包含一個交叉解碼器,它將昂貴的交叉注意力層與全新的高效 GMU 交錯排列。這種具有 GMU 模組的新架構顯著提升了解碼效率,增強了長上下文檢索效能,並使該架構能夠在各種任務中提供卓越的效能。  SambaY 架構的主要優勢包括:  增強解碼效率。 保留線性預歸檔時間複雜度。 提高了可擴展性並增強了長上下文效能。 吞吐量提高高達 10 倍。 與 Phi 系列的所有模型一樣,Phi-4-mini-flash-reasoning 可部署在單 GPU 上,從而適用於廣泛的用例。然而,它的獨特之處在於其架構優勢。與 Phi-4-mini-reasoning 相比,這個新模型實現了顯著更低的延遲和更高的吞吐量,尤其是在長上下文生成和延遲敏感型推理任務中。  這使得 Phi-4-mini-flash-reasoning 成為希望部署需要快速、可擴展和高效推理的智慧型系統的開發人員和企業的引人注目的選擇——無論是在本地還是在設備上。  h...