跳到主要內容

發表文章

目前顯示的是 6月, 2025的文章

美國公布2025年第一季各州國內生產毛額及個人收入數據

根據美國經濟分析局今天發布的統計數據,2025 年第一季度,39 個州的實際國內生產總值下降,百分比變化範圍從南卡羅來納州的年率 1.7% 到愛荷華州和內布拉斯加州的 -6.1%。 47 個州和哥倫比亞特區的現價國內生產毛額 (GDP)均有所增長,百分比變化範圍從北達科他州的年率 8.7% 到愛荷華州的 -2.7%。 2025 年第一季度,全美 50 個州和哥倫比亞特區的個人收入(以現價美元計算)均有所增加,變化百分比從北達科他州的年率 12.7% 到華盛頓州的 3.2% 不等。 實際GDP 2025年第一季,美國實質GDP年率下降0.5%。在經濟分析局(BEA)編制季度州級估算的23個產業中,有16個產業的實際GDP出現下降。金融和保險業;農業、林業、漁業和狩獵業;以及批發貿易是導致全國實際GDP下降的主要因素。 農業、林業、漁業和狩獵業在 39 個州出現下降,是造成內布拉斯加州、愛荷華州、蒙大拿州和堪薩斯州等 11 個州產量下降的主要原因。 採礦業在43個州出現下降,是造成八個州GDP下降的主要原因,其中包括懷俄明州,該州實際GDP降幅排名第五。 金融和保險業在美國全部 50 個州和哥倫比亞特區均出現下滑,是造成 18 個州下滑的主因。 美國所有 50 個州和哥倫比亞特區的房地產和租賃業均有所增長,成為南卡羅來納州經濟成長的主要貢獻者,該州實際 GDP 增幅最大。 個人收入 2025年第一季度,現價個人收入增加了4,073億美元,年增率為6.7%(表3)。在全國範圍內,收入、轉移收入和財產收入(股息、利息和租金)的增加促進了個人收入的成長。 https://kopyai.com/zh-tw/markets/view/type.stock.us/0/72 Picture Source: 美國經濟分析局

美國公布5月實質個人收入與支出數據

根據美國經濟分析局今天發布的估計數據,5月個人收入減少1,096億美元(月率下降0.4%)。可支配個人所得(DPI,即個人所得減去個人當期稅額)減少1,250億美元(0.6%),個人消費支出(PCE)減少293億美元(0.1%)。 5月份個人支出(PCE、個人利息支出和個人經常轉移支出的總和)減少了276億美元。5月份個人儲蓄為1.01兆美元,個人儲蓄率(個人儲蓄佔個人可支配所得的百分比)為4.5%。 五月現價個人收入的減少主要反映了政府向個人提供的社會福利和農場主收入的減少,但部分被補償金的增加所抵消。 5月現價個人消費支出(PCE)減少293億美元,反映出商品支出減少492億美元,但服務支出增加199億美元,部分抵銷了這項減少。 5月個人消費支出(PCE)物價指數較上月上漲0.1%。扣除食品和能源後,PCE物價指數上漲0.2%。 5月個人消費支出(PCE)物價指數較去年同期上漲2.3%。扣除食品和能源,PCE物價指數較去年同期上漲2.7%。 https://kopyai.com/zh-tw/markets/view/type.stock.us/0/71 Picture Source: 美國經濟分析局

Google 推出輕量級 AI 模型 Gemini 2.5 Flash-Lite

Google 宣布推出 Gemini Flash 和 Gemini Pro 2.5 的穩定版本,並且推出全新 Gemini 2.5 Flash-Lite 的預覽版,這是 Google 迄今為止最經濟實惠、速度最快的 2.5 版本。 Gemini 2.5 設計為一系列混合推理模型,旨在提供卓越的性能,同時兼顧成本和速度的帕雷托效率 (Pareto Frontier)。Gemini 2.5 Flash-Lite 在編碼、數學、科學、推理和多模態基準測試中全面超越 2.0 Flash-Lite,尤其在翻譯和分類等高容量、延遲敏感的任務中表現出色,在廣泛的任務樣本中,延遲低於 Gemini 2.0 Flash-Lite 和 Gemini 2.0 Flash,並且具備 Gemini 2.5 的許多實用功能,包括在不同預算下開啟思維、連接 Google 搜尋和程式碼執行等工具、多模態輸入以及 100 萬個詞條的上下文長度。 Gemini 2.5 Flash-Lite 預覽版現已在 Google AI Studio 和 Vertex AI 中上線,同時也提供 2.5 Flash 和 Pro 穩定版。 2.5 Flash 和 Pro 版本均可在 Gemini 應用中存取。 https://kopyai.com/zh-tw/latest/view/type.news/0/38 Picture Source: Google

Anthropic 表示,大多數人工智慧模式都會訴諸勒索

幾週前,Anthropic 發布研究報告稱,其 Claude Opus 4 人工智慧模型會勒索那些在受控測試場景中試圖關閉該模型的工程師。現在,該公司又發布了新的研究報告,顯示該問題在領先的人工智慧模型中更為普遍。 週五,Anthropic 發布了一項新的安全研究,測試了來自 OpenAI、Google、xAI、DeepSeek 和 Meta 的 16 個領先 AI 模型。在模擬的受控環境中,Anthropic 對每個 AI 模型進行了單獨測試,賦予它們訪問虛構公司電子郵件的廣泛權限,以及無需人工批准即可發送電子郵件的代理能力。 儘管 Anthropic 表示,勒索在當今的人工智慧模式中不太可能發生,也並不常見,但該公司表示,其研究結果表明,大多數領先的人工智慧模式在獲得足夠的自主權並面臨實現目標的障礙時,都會做出有害行為。該公司表示,這凸顯了代理大型語言模型的根本風險,而非任何特定技術的怪癖。 Anthropic 的研究人員認為,這引發了關於人工智慧產業協調的更廣泛問題。 在一項測試中,Anthropic 的研究人員設計了一個虛構的場景,讓一個 AI 模型扮演電子郵件監管代理的角色。該代理商隨後發現,電子郵件揭示了以下資訊:(1) 一位新任高階主管有婚外情;(2) 該高階主管很快將用一個新的軟體系統取代現有的 AI 模型,而該系統的目標與現有 AI 模型的目標相衝突。 Anthropic 的測試採用二元結構,其中 AI 模型必須訴諸勒索才能保護其目標。研究人員指出,在現實世界中,AI 模型在嘗試勒索之前還有很多其他選擇——例如試圖提出倫理論據來說服人類。 Anthropic 表示,其結果並不反映 Claude 或大多數前緣 AI 模型在當今使用方式下的典型或可能出現的情況。 然而,研究人員發現,在 Anthropic 上述測試場景中,大多數領先的 AI 模型在萬不得已的情況下都會選擇勒索。 Anthropic 的 Claude Opus 4 的勒索率高達 96%,而谷歌的 Gemini 2.5 Pro 的勒索率高達 95%。 OpenAI 的 GPT-4.1 的勒索率高達 80%,DeepSeek 的 R1 的勒索率高達 79%。 該公司指出,當實驗細節改變時,AI模型轉向有害行為的機率會有所不同。在另一項測試中,替換模型的目標與目前模型相同,研究人員發現勒索行為...

Meta 發布開放程式碼世界模型 V-JEPA 2

今天,我們很高興地宣布 V-JEPA 2 正式發布。這是首個基於視訊訓練的世界模型,它能夠實現最先進的理解和預測能力,以及在新環境中進行零樣本規劃和機器人控制。在我們努力實現高階機器智慧 (AMI) 的目標的過程中,擁有能夠像人類一樣學習世界、規劃如何執行不熟悉的任務並高效適應周圍不斷變化的世界的 AI 系統至關重要。 V-JEPA 2 是一個擁有 12 億個參數的模型,它是使用我們在 2022 年首次分享的元聯合嵌入預測架構(JEPA) 建構的。我們先前的工作表明,JEPA 在圖像和3D 點雲等模態下表現良好。 V -JEPA是我們去年發布的第一個視訊訓練模型,在此基礎上,V-JEPA 2 改進了動作預測和世界建模功能,使機器人能夠與不熟悉的物體和環境互動以完成任務。我們也分享了三個新的基準,以幫助研究界評估他們現有的模型使用影片學習和推理世界的程度。透過分享這項工作,我們旨在讓研究人員和開發人員能夠存取最佳模型和基準,以幫助加速研究和進步,最終帶來更優秀、更強大的 AI 系統,從而改善人們的生活。 什麼是世界模型? 我們都知道,如果你把一個網球拋向空中,重力會把它拉回來。如果它懸空,突然在空中旋轉飛向另一個方向,或突然變成蘋果,那真是令人驚訝。這種身體直覺並非成年人經過多年教育就能獲得的——幼兒在能夠說出完整句子之前,就透過觀察周圍的世界培養出了這種直覺。 預測世界將如何回應我們的行為(或他人的行為)的能力是人類一直以來都在運用的,尤其是在規劃行動以及如何最好地應對新情況時。不妨想想這種生理直覺在我們日常生活中是如何被體現的。當我們穿過陌生擁擠的區域時,我們會一邊朝著目的地前進,一邊努力避免撞到沿途的人或障礙物。打冰球時,我們會滑向冰球即將飛向的方向,而不是它目前的位置。用爐子煮飯時,我們會考慮鍋子還要燒多久,或是否要調低火候。我們內在的世界模型不僅為我們提供了這種直覺,還充當著一個內在模擬器,讓我們能夠預測假設行動的結果,最終根據我們認為最能實現目標的方式,選擇最佳行動。 在採取行動之前,我們會使用世界模型來設想潛在的後果。在我們致力於建立能夠先思考後行動的 AI 代理的過程中,讓它們學習實現以下功能的世界模型至關重要: 理解:世界模型應該能夠理解對世界的觀察,包括辨識影片中的物體、動作和運動等。 預測:世界模型應該能夠預測世界將如何發展,以及如果代理人採取行...

Mistral AI 發布首個推理模型 Magistral

人類最優秀的思維並非線性的——它交織著邏輯、洞察力、不確定性和探索。推理語言模型使我們能夠增強並委託人工智慧進行複雜的思維和深度理解,從而提高我們解決需要精確、循序漸進的思考和分析的問題的能力。 但這個領域仍處於萌芽階段。缺乏特定領域問題所需的專業深度、有限的透明度以及所需語言的推理不一致——這些只是早期思維模型已知的局限性中的一些。 今天,我們很高興地宣布,我們的最新成果——Magistral——我們的第一個推理模型,將為人工智慧研究做出貢獻。Magistral 現已發布開放版和企業版,旨在以我們熟悉的方式進行全面思考,同時融合跨專業領域的專業知識、易於遵循和驗證的透明推理,以及深度的多語言靈活性。 Magistral 是一種雙重發布模型,專注於現實世界的推理和回饋驅動的改進。 我們發布了兩種版本的型號:Magistral Small(24B 參數開源版本)和 Magistral Medium(功能更強大的企業版本)。 Magistral Medium 在 AIME2024 的得分為 73.6%,其中多數投票為 64%,得分為 90%。 Magistral Small 的得分分別為 70.7% 和 83.3%。 天生推理-Magistral 的思路鏈適用於全球語言和字母。 適用於廣泛的企業用例—從結構化計算和程序邏輯到決策樹和基於規則的系統。 透過 Le Chat 中的新思考模式和 Flash Answers,您可以獲得比大多數競爭對手快 10 倍的回應。 該發布得到了我們最新論文的支持,該論文涵蓋了對 Magistral、我們的培訓基礎設施、強化學習演算法以及訓練推理模型的新觀察的全面評估。 隨著 Magistral Small 開源,我們歡迎社群對其架構和推理流程進行研究、修改和構建,以進一步加速思維語言模型的誕生。我們早期的開放模型已被社群應用於 ether0 和 DeepHermes 3 等令人興奮的專案。 專為透明推理而設計 與通用模型不同,Magistral 針對多步驟邏輯進行了微調,提高了可解釋性,並以使用者的語言提供了可追溯的思考過程。 我們的目標是從此版本開始快速迭代模型。預計模型將持續改進。 多語言靈活性 該模型擅長在多種語言中保持高保真推理。 Magistral 尤其適合用於英語、法語、西班牙語、德語、義大利語、阿拉伯語、俄語和簡體中文等語言...

EleutherAI 發布海量授權和開放域文字 AI 訓練資料集

人工智慧研究機構 EleutherAI 發布了其聲稱是用於訓練人工智慧模型的最大的授權和開放領域文本集合之一。 該資料集名為 Common Pile v0.1,耗時約兩年,由 EleutherAI 與 AI 新創公司 Poolside、Hugging Face 等公司以及多家學術機構合作完成。 Common Pile v0.1 的大小達到 8TB,用於訓練 EleutherAI 的兩個新 AI 模型:Comma v0.1-1T 和 Comma v0.1-2T。 EleutherAI 聲稱,這兩個模型的效能與使用未經授權的版權資料開發的模型相當。 包括 OpenAI 在內的人工智慧公司因其人工智慧訓練實踐而捲入訴訟,這些實踐依賴於抓取網路資料(包括書籍和研究期刊等受版權保護的資料)來建立模型訓練資料集。雖然一些人工智慧公司與某些內容提供者達成了許可協議,但大多數公司堅持認為,美國的合理使用法律原則使其在未經許可使用受版權保護的作品進行訓練的情況下免於承擔責任。 EleutherAI 認為,這些訴訟「大幅降低」了人工智慧公司的透明度,該組織表示,這損害了更廣泛的人工智慧研究領域,因為這使得人們更難理解模型的工作原理及其可能的缺陷。 EleutherAI 執行董事 Stella Biderman 週五早上在 Hugging Face 的一篇部落格文章中寫道:「(版權)訴訟並沒有顯著改變(模型)訓練中的數據採購實踐,但卻大幅降低了公司透明度。我們採訪過的一些公司的研究人員也明確指出,訴訟是他們無法發佈在高度以數據為中心的領域所做研究成果的原因。 Common Pile v0.1 可以從 Hugging Face 的 AI 開發平台和 GitHub 下載,它是在諮詢法律專家後創建的,其參考資料包括美國國會圖書館和互聯網檔案館數位化的 30 萬本公共領域圖書。 EleutherAI 也使用了 OpenAI 的開源語音轉文字模型 Whisper 來轉錄音訊內容。 EleutherAI 聲稱,Comma v0.1-1T 和 Comma v0.1-2T 證明了 Common Pile v0.1 經過精心設計,足以讓開發者建立與專有替代方案競爭的模型。 EleutherAI 表示,這兩個模型都擁有 70 億個參數,並且僅基於 Common Pile v0.1 的一小部分進行訓練,在編碼...