【緯來新聞網】聯發科於 13 日舉辦天璣開發者大會(MDDC 2026),會上宣佈了一項重大技術突破:攜手群聯成功在「天璣 9500」平台上,成功運行高達 200 億參數(20B)的大型語言模型。這類模型過去通常需要 16GB 以上的記憶體才跑得動,但現在透過群聯的專利解決方案,在僅有 12GB 記憶體的手機上也能流暢運行。

群聯進一步解釋,這項突破是透過其專利的 aiDAPTIV™ Hybrid UFS 解決方案,結合 aiDAPTIV™ Cache Memory 與 aiDAPTIV™ Middleware 技術,將部分模型權重動態卸載至 UFS 儲存層,有效降低對 DRAM 的依賴,大幅降低了生成式 AI 落地行動裝置的硬體門檻。
事實上,雙方的合作早從 2024 年就已展開,當時群聯的 AI 運算服務 aiDAPTIV+ 便與聯發科旗下生成式 AI 平台 MediaTek DaVinci 深度整合,致力於優化模型的訓練與推論效率。此次技術再進化,有效突破了手機記憶體容量與功耗的限制,解決了過往大型模型難以在終端裝置穩定執行的痛點。
這項進展預示著 AI 應用正從雲端加速走向個人手機與 IoT 設備,隨著模型數據能在儲存與記憶體間彈性調配,未來的 AI 功能不必依賴網路連線,就能在個人裝置上提供更即時、有隱私保護的終端運算體驗。

文章語音朗讀