業界觀察指出,隨著 Apple 推出配備強大神經網路引擎的 M5 與即將登場的 A20 晶片,蘋果正堅定地走「端側 AI (On-device AI)」路線。透過在設備本地運行壓縮版的大語言模型,蘋果不僅保護了用戶隱私,更大幅降低了本應支付給 OpenAI 或 Google 的雲端推理成本。
📌 關鍵重點
- 蘋果硬體升級全面向端側 AI 推理能力傾斜
- 將高頻率、輕量級的 AI 請求留在本地處理,降低雲端成本
- 解決了消費者對將個人資料上傳至雲端大模型的隱私擔憂
- 端側 AI 將引發小型、高度壓縮且專注特定任務的「小模型」開發熱潮
💡 創業者啟示
未來 AI 的終局不是一切都在雲端,而是「雲端與邊緣的協同」。蘋果的策略證明了端側 AI 的可行性。對於 App 開發者,學習如何利用 Core ML 或其它端側框架,將輕量級 AI 模型直接打包進應用程式中,不僅能實現零延遲的極致體驗,還能為公司省下龐大的 API 費用。