今日 — 2026 年 4 月 18 日
今天沒有新的 release、下架或關閉。
昨日 — 2026 年 4 月 17 日
11:00
新模型
Claude Design — Anthropic Labs 基於 Opus 4.7 的設計工具
研究預覽,面向設計、原型、slides、決策文件。從你的程式碼庫推導品牌系統。Pro/Max/Team/Enterprise 免費。
Anthropic 圖像 Anthropic Labs
10:15
新模型
GPT-Rosalind — OpenAI 生命科學研究模型
面向生物學、藥物發現、轉化醫學的推理模型。附帶 Codex 研究外掛,接入 50+ 科學工具。
OpenAI LLM OpenAI
14:30
新模型
Gemini Robotics-ER 1.6 — 具身推理升級
DeepMind 發布,改進空間指向、計數、成功偵測、儀器讀取。透過 Gemini API + AI Studio 提供。先前的 1.5 於 4 月 30 日下線。
DeepMind 3D DeepMind blog
2026 年 4 月 16 日
09:00
新模型
Claude Opus 4.7 GA — Anthropic 旗艦升級
SWE-bench Verified 87.6%(原 80.8%),CursorBench 70%,GPQA Diamond 94.2%。新增 xhigh effort、Task budgets、/ultrareview 多 agent 審查。定價和 4.6 一樣 $5/$25。
Anthropic LLM Anthropic
03:20
新模型
Qwen3.6-35B-A3B 開源 — 阿里稀疏 MoE
30B 啟用的 MoE,瞄準 agentic coding。Apache 風格開源權重,上線 Hugging Face。在多個 agentic coding benchmark 上領先 Gemma 4。
Alibaba LLM Hugging Face
2026 年 4 月 15 日
09:30
新模型
Adobe Firefly AI Assistant — 跨 Creative Cloud 的創意 agent
在 Photoshop、Premiere、Lightroom、Express、Illustrator 之間編排多步工作流。公共 beta 即將上線。
Adobe 圖像 Adobe blog
2026 年 4 月 14 日
10:00
新模型
OpenAI GPT-5.4-Cyber — 防禦性網路安全變體
GPT-5.4 針對網路防禦 fine-tune,包括二進位逆向工程。透過擴展的 Trusted Access for Cyber 計畫受限存取。
OpenAI LLM OpenAI
16:45
破壞性變更
Midjourney V8.1 Alpha — 更快、更便宜、支援 image prompts
HD 模式快 3 倍、便宜 3 倍;標準解析度快 50% / 便宜 25%。現在支援 image prompts 和 image weights。新增 Prompt Shortener 工具。
Midjourney 圖像 Midjourney updates
13:00
Deprecated
Claude Sonnet 4 和 Opus 4 退役公布
兩個模型計畫於 2026 年 6 月 15 日在 Claude Developer Platform 退役。請遷移到 4.5 或 4.7。
Anthropic LLM Release notes
2026 年 4 月 12 日
02:30
新模型
MiniMax M2.7 開源 — 首個自我進化 agent 模型
229B 稀疏 MoE(10B 啟用),在 Hugging Face / ModelScope 上以 Modified-MIT 發布。SWE-Pro 56.22%、Terminal Bench 2 57.0%。
MiniMax LLM Hugging Face
2026 年 4 月 9 日
13:30
新模型
GPT-5.3 Instant Mini — ChatGPT 更順滑的 fallback
新的 fallback 模型,在 rate limit 後替代 GPT-5 Instant Mini。便宜 tier 的寫作和上下文處理更順滑。
OpenAI LLM OpenAI
04:15
新模型
Seedance 2.0 上線 fal — 字節跳動多模態影片
文字/影像/影片/音訊輸入,15 秒多鏡頭輸出,原生立體聲,導演級鏡頭控制。
ByteDance 影片 fal.ai
2026 年 4 月 8 日
09:00
新模型
Meta Muse Spark — Meta 第一個不以 open weights 發布的 frontier
原生多模態推理、工具使用、視覺 chain-of-thought、多 agent 編排。在 Meta AI app、meta.ai、私有 API preview 可用。從 Llama 完全重構。
Meta LLM TechCrunch
15:00
新模型
Claude Managed Agents — 全託管 agent 執行時(公共 beta)
Agent loop、工具執行、sandbox、狀態持久化,全部透過 REST。$0.08/會話小時 + API token 成本。Header 受控:managed-agents-2026-04-01。
Anthropic 程式碼 SiliconANGLE
2026 年 4 月 7 日
10:30
新模型
Claude Mythos Preview — 新 frontier 類別,受限存取
Anthropic 研究預覽,定位為新模型類別,在網路/程式/推理上達到 SOTA。限於網路關鍵組織 + OSS 維護者。支援 Bedrock 和 Vertex AI。
Anthropic LLM red.anthropic.com
22:10
新模型
智譜/Z.ai GLM-5.1 — 744B MoE 的後訓練升級
40B 啟用,200K 上下文。SWE-Bench Pro 58.4(領先 GPT-5.4、Claude Opus 4.6)。HF 上 MIT 授權。API:每 M token $1/$3.20。
Zhipu / Z.ai LLM Testing Catalog
14:00
破壞性變更
Runway 上線 Seedance 2.0 整合
用文字、影像、影片或音訊生成或編輯影片。在美國以外的 Unlimited/Enterprise 方案可用。
Runway 影片 Runway changelog
2026 年 4 月 6 日
03:45
新模型
阿里 Wan 2.7 — 帶 Thinking Mode 的 text-to-video
首/末幀控制、影片到影片編輯、主體引用。4 月 3 日在 Together AI 上線。
Alibaba 影片 Together AI
2026 年 4 月 3 日
16:00
Deprecated
GPT-4o 完全從所有 ChatGPT 方案下線
Business/Enterprise/Edu Custom GPTs 失去 GPT-4o 存取(2 月 13 日消費端退役之後)。API 存取仍然可用。
OpenAI LLM OpenAI
11:30
新模型
Google Veo 3.1 Lite — 最具成本效益的 Veo
720p $0.05/秒,1080p $0.08/秒。在 Gemini API、AI Studio、Vertex AI 上付費預覽。
Google 影片 Google blog
09:15
破壞性變更
Tripo3D — 智慧 AI 貼圖工具
新的貼圖工具,讓已有模型的 3D 內容創作更快、更智慧。
Tripo AI 3D Press release
2026 年 4 月 2 日
08:45
新模型
ElevenLabs ElevenMusic — 免費 iOS text-to-song 應用
每天最多 7 首歌,帶商用安全授權(Merlin + Kobalt 協議)。與 Suno 和 Udio 競爭。
ElevenLabs 音訊 TechCrunch
04:30
新模型
阿里 Qwen3.6-Plus — 專有 agentic coding 模型
1M token 上下文視窗。為企業 agentic AI 部署打造的專有旗艦。
Alibaba LLM Alibaba Cloud
12:00
新模型
Google Gemma 4 — Apache 2.0 下的開源權重系列
4 種大小(E2B、E4B、26B-A4B MoE、31B 稠密)。140+ 語言、function calling、音訊/影片輸入。31B 在 Arena 開放榜排第 3。
Google LLM Google blog
2026 年 4 月 1 日
10:00
新模型
Tripo Smart Mesh P1.0 — 生產級原生 3D 擴散
約 2 秒生成低多邊形資產。Tripo AI 將其定位為「AI 3D 2.0」的起點。在 GDC 2026 亮相。
Tripo AI 3D PR Newswire
2026 年 3 月 30 日
22:30
新模型
阿里 Qwen3.5-Omni — 原生多模態(文字/影像/音訊/影片)
Thinker-Talker + Hybrid-Attention MoE。256K 上下文,113 種語言。在 215 個音訊/影片 benchmark 上 SOTA。保持閉源。
Alibaba LLM MarkTechPost
2026 年 3 月 26 日
09:30
新模型
Mistral Voxtral TTS — 4B 開源權重語音模型
9 種語言,5 秒語音克隆,TTFA 90 毫秒,RTF 6x。人類偏好下 68.4% 的時間勝過 ElevenLabs Flash v2.5。
Mistral Voice TechCrunch
11:00
新模型
Gemini 3.1 Flash Live — Google 最高品質語音模型
128K 上下文,90+ 語言。驅動 200+ 國家升級的 Gemini Live 和 Search Live。
Google 音訊 Google blog
2026 年 3 月 25 日
14:15
新模型
Google Lyria 3 Pro — 最長 3 分鐘音樂
從 Lyria 3(30 秒上限)升級:3 分鐘長度,帶對 intro/verse/chorus/bridge 的結構控制。在 Gemini app(付費)、Google Vids、Vertex AI 預覽可用。
Google 音訊 Google blog
2026 年 3 月 24 日
17:30
Deprecated
OpenAI 關閉 Sora
Web/app 4 月 26 日終止,API 9 月 24 日終止。OpenAI 引用算力成本(開發每日 ~$1M,推理每日 ~$15M,總收入僅 $2.1M)。Disney 退出 $1B 交易。
OpenAI 影片 CNN
2026 年 3 月 18 日
03:00
新模型
小米 MiMo V2-Omni — 原生全模態(影像/影片/音訊/文字)
262K 上下文,OpenRouter 上 $0.40/$2.00 每 M token。BigBench Audio(94.0)、MMAU-Pro(69.4)登頂。
Xiaomi LLM OpenRouter
March 17, 2026
14:23
新模型
Claude Opus 4.6 — 1M context window now available
Anthropic 最強模型現已支援 100 萬 token上下文。價格不變。即刻透過 API 與平台使用。
Anthropic LLM API monitor
11:07
破壞性變更
Vidu API model names silently changed — viduq2 no longer valid
Vidu deprecated bare "viduq2" model name. Must now use "viduq2-pro", "viduq2-pro-fast", "viduq3-pro", "viduq3-turbo", "viduq1", or "vidu2.0". No announcement from Vidu — discovered via our API monitor when requests started failing.
Vidu 影片 Discovered in production
09:45
新模型
Gemini 3.1 Flash Image Preview — native image generation
Google 在 Gemini 3.1 Flash 中透過標準的 generateContent endpoint 加入了影像生成。支援 4K 輸出、網頁搜尋接地與角色一致性。1K 解析度每張 $0.08。
Google 圖像 API monitor
08:12
Insight
Bria AI — the image utility API nobody's talking about
Tested Bria's API: background removal, 2x/4x upscaling, image expansion, background replacement — all synchronous, instant results. No cold starts, no queues. $0.018-$0.04/image. This is what fal.ai should have been.
Bria AI 圖像 Hands-on testing
March 16, 2026
18:30
新模型
Kling 2.6 Pro — new video model, strong motion quality
Kling AI 透過 Together.ai 加入 2.6 Pro 與 Standard 版本。$0.14/秒。早期測試顯示比 2.5 Turbo 在運動表現上明顯進步,特別是在鏡頭運動與角色動畫上。
Kling AI 影片 API monitor
15:12
Deprecated
Kling Video O1 Pro 與 Standard 從 Together.ai 下架
Both models return "unable to access model" errors. Removed from our platform. No deprecation notice from Together or Kling — just stopped working.
Together.ai 影片 Error monitoring
10:01
Insight
AI wrapper 經濟:fal.ai、Veed 與 HuggingFace 都路由到同一批後端
經過大量測試:Veed.io 的 API 會重新導向到 fal.ai。HuggingFace Inference Providers 會路由到 fal.ai、Replicate 或 WaveSpeed。fal.ai 本身則是 serverless GPU,較冷門的模型(Beatoven、Cosmos)有 10 分鐘以上的冷啟動。直接呼叫官方 API 更快也更便宜。
fal.ai Veed HuggingFace Production testing
08:30
新類別
Tripo V2.5 — text-to-3D and image-to-3D in 60 seconds
First 3D model generation service integrated. Text or image → GLB model with PBR textures in ~60 seconds. Interactive viewer with auto-rotate. $0.20/model, 3 modes (text, image, multiview).
Tripo 3D New integration
2026 年 3 月 15 日
16:00
Pricing
Qwen3.5 Plus added — Alibaba's latest, aggressive pricing
阿里雲推出 Qwen3.5 Plus 模型。具競爭力的定價:輸入 $0.0008/1K、輸出 $0.002/1K。128K 上下文視窗。多語言表現強,CJK 尤其突出。
Alibaba LLM API monitor
12:30
Update
Chatterbox TTS — Resemble AI adds multilingual support
Chatterbox 模型現支援英文以外的多種語言。新的 chatterbox-multilingual 版本可用。在對話式 TTS 的聲音複製品質上仍屬業界領先。
Resemble AI 音訊 API monitor
09:00
每週洞察
本週:12 款新模型、3 款下架、2 項靜默破壞性變更
新增:Claude Opus 4.6、Gemini 3.1 Flash Image、Kling 2.6 Pro/Standard、Qwen3.5 Plus、Chatterbox Multilingual、FLUX 2 Klein 4B/9B、Tripo V2.5(3 種模式)。下架:Kling O1 Pro/Standard、viduq2 裸名。破壞性變更:Vidu 模型名稱、4MP+ 影像不再支援 Bria enhance 同步模式。
Weekly digest
ESC