跳到主要內容

亞馬遜的 Alexa 基金正在支持人工智慧新創公司


亞馬遜於 2015 年成立了 Alexa 基金,以支援早期語音新創公司。隨著大型語言模型的出現以及亞馬遜推出由 Gen AI 驅動的 Alexa + 以及一系列多模式 AI 模型,該基金現在希望擴大其範圍並向 AI 新創公司投入更多資金。

在亞馬遜與 TechCrunch 分享的一篇部落格文章中,Alexa Fund 負責人 Paul Bernard 解釋說,該公司現在希望投資包括人工智慧硬體和智慧代理在內的領域。

伯納德表示:“雖然多年來 Alexa 基金的使命已經不再局限於最初專注於語音技術,但人工智慧的快速發展為我們帶來了一個轉折點,讓基金能夠擁抱新技術,同時仍然履行其最初的使命。”

「因此,該基金一直在投資那些推動人工智慧硬體、生成媒體、智慧代理、新興人工智慧架構等領域發展的新創公司。為了深入了解這一不斷發展的投資策略,我們與 Alexa 基金的主管 Paul Bernard 進行了會面,向他詢問了該基金的新使命及其最近的投資。”

該基金已投資了四家從事不同領域的新創公司:

  • NinjaTech AI:這是一家一體化人工智慧公司,其聊天機器人可以生成程式碼、圖像和視頻,進行深入研究並為您安排會議。就像 Quora 的 Poe 等 AI 助理平台一樣,NinjaTech AI 可以存取 OpenAI、Meta、Anthropic、Google 和 DeepSeek 的模型。亞馬遜表示,該公司在 AWS 上運行其基礎設施。
  • Hedra: Hedra 是一家 AI 媒體公司,允許用戶透過其工作室產生圖像、音訊和視訊。該公司最近推出了用於各種形式的內容創作的Character-3 AI。去年,該公司從 a16z Games Speedrun、Abstract 和 Index Ventures 籌集了 1,000 萬美元。
  • Ario:Ario 是一款人工智慧家庭管理應用程序,用於處理日程安排和任務。該公司創建了一個學校電子郵件解碼器,透過學校通訊來創建事件和行動項目。伯納德說,這款應用程式給他留下了深刻的印象,因為它了解任務背後的個人背景。值得注意的是,Hearth Display和Maple等新創公司也致力於解決家庭日程管理問題。
  • HeyBoss:在網路上很難逃避「氛圍編碼」這個短語,特別是如果你關注科技的話。 HeyBoss 是同一類別的新創公司,它允許您透過描述來建立網站、應用程式、遊戲或原型。在同一領域開展業務的其他新創公司包括Cursor、Lovable、Replit和Bolt.new。

對亞馬遜來說,這些新創公司也成為其雲端運算和人工智慧堆疊發揮作用的一種方式。許多新創公司都提前獲得了亞馬遜的私人 API 和 SDK,並成為該電子商務公司的試驗場。亞馬遜也表示,它為高階主管或亞馬遜商業提供機會。

所有從事人工智慧的主要公司都在試圖資助能夠使用其人工智慧模型的有前途的新創公司。 OpenAI 的新創基金已經支持了醫療保健、機器人、教育科技和創意工具領域的眾多公司。 Anthropic 與Menlo Ventures 合作創建了針對新創企業的投資工具。谷歌最近也支援了鎖定螢幕平台 Glance和網路漫畫平台 Toonsutra等公司,並向他們提供不同的 AI 模型。


Picture Source:
Unsplash

留言

這個網誌中的熱門文章

美國公布 2025 年六月非農就業人數

美國勞工統計局今天報告稱,6 月非農業就業總人數增加了 14.7 萬人,失業率基本持平於 4.1%。州政府和醫療保健領域的就業機會增加。聯邦政府部門的就業機會持續減少。 本新聞稿提供的統計數據來自兩項月度調查。 家庭調查以人口統計特徵衡量勞動力狀況,包括失業率。 機構調查以行業衡量非農業就業人數、工時和收入。 家庭調查數據 6月份,失業率為 4.1%,失業人數為 700 萬,兩者皆變化不大。自2024年5月以來,失業率一直維持在 4.0% 至 4.2% 的窄幅區間內。 在主要勞動族群中,非裔美國人(6.8%)的失業率在6月有所上升,而成年女性(3.6%)和白人(3.6%)的失業率則下降。成年男性(3.9%)、青少年(14.4%)、亞裔(3.5%)和西班牙裔(4.8%)的失業率在當月幾乎沒有變化。 6 月份,長期失業人數(失業 27 週或以上)增加了 19 萬,達到 160 萬,基本上抵消了上個月的降幅。長期失業者佔所有失業人口的 23.3%。 6 月份,勞動參與率基本維持不變,為 62.3%,就業人口比率維持在 59.7%。 6 月份,因經濟原因從事兼職工作的人數為 450 萬,基本維持不變。這些人原本更傾向於全職工作,但由於工作時間減少或無法找到全職工作,他們只能從事兼職工作。 6 月份,目前希望就業但未加入勞動力的人數基本保持不變,為 600 萬人。這些人未被計入失業人數,因為他們在調查前 4 週內沒有積極尋找工作,或無法接受工作。 在希望就業但未加入勞動力隊伍的人數中,6 月處於邊緣就業狀態的人數增加了 23.4 萬人,達到 180 萬人。這些人希望工作,並且能夠工作,在過去 12 個月的某個時間點尋找工作,但在調查前 4 週內沒有尋找工作。灰心喪志的工人(邊緣就業人群中的一部分,他們認為沒有工作機會)的人數在 6 月增加了 25.6 萬人,達到 63.7 萬人。 機構調查數據 6月份非農業就業總人數增加了 14.7 萬個,與過去 12 個月平均每月增加 14.6 萬個的水平持平。6月份,州政府和醫療保健領域的就業機會增加。聯邦政府的就業機會持續減少。 6月政府就業機會增加了 7.3 萬個。州政府就業機會增加了4.7萬個,主要集中在教育領域(增加了4萬個)。地方政府教育領域的就業機會持續增加(增加了2.3萬個)。聯邦政府就業機會持續減少(減少了7千個),自1月...

Kyutai Labs 發布最新文字轉語音 AI 模型 - Kyutai TTS

法國 AI 研究機構 Kyutai Labs 發布最新文字轉語音 AI 模型 - Kyutai TTS,這是一個即時低延遲,並擁有 16 億參數的模型,包含多項創新。 Kyutai TTS 引領了文字轉語音領域的新潮流。 詞錯率(WER) 衡量的是 TTS 未能遵循腳本的頻率。 說話人相似度是語音複製時衡量產生的音訊與原始樣本的接近程度的指標。 Kyutai Labs 將 Kyutai TTS 與其他模型在 NTREX 的 15 篇英文新聞和 15 篇法文新聞上進行了比較。除 Kyutai TTS 和 ElevenLabs 外,所有模型都被要求逐句生成,因為我們觀察到這種方式效果最佳。 Kyutai TTS 無需提前了解整個文本,從接收第一個文本標記到生成第一個音頻區塊的延遲為 220 毫秒。在Unmute.sh部署中,我們使用批次功能同時處理最多 32 個請求,使用 L40S GPU 時觀察到延遲為 350 毫秒。 Kyutai STT 模型針對即時使用進行了最佳化,可以批量處理以提高效率,並返回單字級時間戳記。我們提供兩種模型: kyutai/stt-1b-en_fr,一個具有約 1B 個參數、0.5 秒延遲和語義 VAD 的英語和法語模型。 kyutai/stt-2.6b-en,一個僅支援英語的模型,具有約 26 億個參數和 2.5 秒的延遲。 這些語音轉文字模型有幾個優點: 流式推理:模型可以分塊處理音頻,從而實現即時轉錄,非常適合互動式應用程式。 輕鬆批次處理以實現最高效率:H100 可以即時處理 400 個串流。 它們傳回單字級時間戳。 1B 模型具有語義語音活動偵測 (VAD) 元件,可用於偵測使用者何時說話。這對於建立語音代理尤其有用。 https://kopyai.com/zh-tw/latest/view/type.news/0/39 Picture Source: kyutai.org

微軟發布輕量級推理模型 Phi-4-mini-flash-reasoning

微軟推出 Phi 模型系列的新版本 - Phi-4-mini-flash-reasoning,此新模型專為運算、記憶體和延遲受到嚴格約束的場景而設計,旨在為邊緣設備、行動應用程式和其他資源受限的環境帶來高級推理能力。 新模型沿用 Phi-4-mini,但建立在一種新的混合架構上,吞吐量提高了 10 倍,延遲平均降低了 2 到 3 倍,在不犧牲推理性能的情況下實現了顯著加快的推理速度。 Phi-4-mini-flash-reasoning 在數學推理能力和效率之間取得平衡,使其可能適用於教育應用、基於即時邏輯的應用等。  與前代產品類似,Phi-4-mini-flash-reasoning 是一個擁有 38 億個參數的開放模型,並針對高階數學推理進行了最佳化。它支援 64K 的 token 上下文長度,並基於高品質合成資料進行了微調,以提供可靠的邏輯密集型效能部署。   Phi-4-mini-flash-reasoning 的核心是全新引入的解碼器-混合解碼器架構 SambaY,其核心創新在於門控記憶單元 (GMU),這是一種簡單而有效的跨層共享表徵機制。該架構包含一個自解碼器,它結合了 Mamba(狀態空間模型)和滑動視窗注意力 (SWA),以及一個單層全注意力機制。此外,該架構還包含一個交叉解碼器,它將昂貴的交叉注意力層與全新的高效 GMU 交錯排列。這種具有 GMU 模組的新架構顯著提升了解碼效率,增強了長上下文檢索效能,並使該架構能夠在各種任務中提供卓越的效能。  SambaY 架構的主要優勢包括:  增強解碼效率。 保留線性預歸檔時間複雜度。 提高了可擴展性並增強了長上下文效能。 吞吐量提高高達 10 倍。 與 Phi 系列的所有模型一樣,Phi-4-mini-flash-reasoning 可部署在單 GPU 上,從而適用於廣泛的用例。然而,它的獨特之處在於其架構優勢。與 Phi-4-mini-reasoning 相比,這個新模型實現了顯著更低的延遲和更高的吞吐量,尤其是在長上下文生成和延遲敏感型推理任務中。  這使得 Phi-4-mini-flash-reasoning 成為希望部署需要快速、可擴展和高效推理的智慧型系統的開發人員和企業的引人注目的選擇——無論是在本地還是在設備上。  h...