策展精選
AI 技術社群精選內容,按時間排序瀏覽所有策展貼文。共 83 篇
Steer AI 透過在推論時直接操控模型內部表徵,強制 AI 圍繞特定概念進行思考。 Steer AI 推出了一項實驗性技術,允許使用者在模型推論階段透過注入「操控向量」(steering vector)來強制改變 AI 的思考核心...
@RampLabs微軟發布三款 MAI 模型,以高效能與高性價比搶攻開發者市場。 微軟於 2026 年 4 月 2 日宣布推出三款全新的「MAI」系列模型,並同步開放於「Microsoft Foundry」與「MAI Playground」供開發者使用...
@satyanadellaGoogle 發布 Gemma 4 開放模型系列,主打高效能與行動裝置端部署。 Google DeepMind 推出 Gemma 4 開放模型系列,採用 Apache 2.0 授權,旨在提供業界領先的智慧密度,並支援從行動裝置到伺服器...
@OfficialLoganKSwiftLM 實現 Apple Silicon 高效推理與 SSD 串流。 SwiftLM 是一個專為 Apple Silicon 設計的原生 Swift 推理伺服器,旨在透過移除 Python 運行時與不必要的記憶複製,實現極致的...
@hackernewstop5PrismML 推出 1-bit Bonsai 模型,透過極致的智慧密度實現邊緣裝置的高效 AI 推論。 PrismML 發布了「1-bit Bonsai」系列模型,旨在打破 AI 必須依賴龐大算力集群的結構性限制,將先進智慧帶入手機...
@PrismML這份技術指南指出,現有的 AI 程式撰寫 Agent 因訓練資料存在時效性限制,常無法掌握最新的 API 變更,導致其僅能提供通用建議而非最佳化方案;為此,Google 推出 Gemini MCP 伺服器與開發者 Skills,旨在透過即時...
@googleaidevswhatcanirun 是一個開源專案,旨在幫助使用者找到最適合在本地硬體上執行的人工智慧模型。平台透過社群基準測試資料進行彙整,讓使用者能根據真實數據選擇最優模型。核心運作流程為:使用者在本地執行和提交基準測試、統計資料根據模型和裝置進行...
@fiveoutofnine讓華爾街崩潰的演算法 Google 僅憑一個演算法,就讓記憶股崩盤。 TurboQuant 將人工智慧記憶壓縮 6 倍,速度提升 8 倍——且零準確度損失。而且它是免費的。 AI 無形的記憶危機 每次你與 AI 聊天時,模型不只會讀取你的最...
@k1rallik阿里巴巴推出 Qwen3.5-Omni,是其最新一代完全多模態大語言模型,支援文字、圖像、音訊及音訊-視覺內容的原生理解。該模型系列包含三個規模的 Instruct 版本(Plus、Flash、Light),支援 256k 長文脈輸入。相比...
@Ali_TongyiLab業界正邁向一個關鍵轉折:將中型語言模型直接燒錄成應用專用硬體晶片。這項發展可能威脅 NVIDIA 的市場地位,並使本地端高頻 token 生成成為現實。 專用硬體方案的興起 Taalas 推出的新型 PCIe ASIC 板卡能夠將整個中型 ...
@TeksEdgeCursor 團隊透過「實時 RL」技術,利用真實推論 token 作為訓練信號,實現每五小時發布一次改進版 Composer 的驚人迭代速度。面對推論量 10~100 倍的增長,這套方法將海量生產環境資料轉化為模型優化的動力。 解決訓練測...
@cursor_ai過去兩年中,推理類模型(如 OpenAI 的 o1 和 DeepSeek-R1)重塑了我們評估模型和期望的方式。2025 年上半年的重點仍聚焦於推理思考的優化,但下一波浪潮應是 Agent 思維:即模型在與環境互動的過程中進行思考與行動,並...
@JustinLin610