Finews
台灣最好懂得財經、科技新聞網!
帶給你最有用的新聞資訊。
新聞摘要:
根據研究機構 TrendForce 的觀察,2024 年,大型雲端服務供應商 (CSPs) 如 Microsoft、Google、Meta 和 AWS 等公司,將繼續成為採購高階 AI 伺服器的主要客戶,這些伺服器旨在作為大規模語言模型 (LLM) 及 AI 建模的基礎設施。隨著 2024 年這些企業逐步完成 AI 訓練伺服器的部署,2025 年他們將更積極地從雲端擴展到邊緣 AI,發展較為小型的 LLM 模型,並建立邊緣 AI 伺服器,使其企業客戶在製造、金融、醫療和商務等各個領域的應用得以實現。
此外,AI 筆記型電腦 (PC 或 NB) 因其基本架構與 AI 伺服器相似,具有一定的運算能力,能夠運行小型 LLM 及生成式 AI 應用,有望成為 CSPs 從雲端 AI 基礎設施到邊緣 AI 應用的橋樑。
近期在 AI PC 的晶片布局上,Intel 的 Lunar Lake 及 AMD 的 Strix Point 在本月的台北國際電腦展 (COMPUTEX) 首次亮相,這些晶片均符合 AI PC 標準,預計會在今年第三或第四季正式上市。Aurora、華碩 (ASUS) 和宏碁 (Acer) 等品牌也推出了搭載這些晶片的機種,新款 AI PC 的建議售價在 1,399 至 1,899 美元之間。
TrendForce 預測,隨著 AI 應用的日益成熟,2025 年 AI 筆記型電腦的滲透率將從 2024 年的 1% 增至 20.4%,帶動 NB DRAM 平均搭載容量從 2023 年的 10.5GB 增至 2024 年的 11.8GB,並預計 2025 年至少再增長 7%,達到 16GB。
TrendForce 認為,除了提升 NB DRAM 平均搭載容量,AI 筆記型電腦的普及也將帶動省電和高頻率記憶體的需求。相較於 DDR,LPDDR 的優勢更加突出,將加速 LPDDR 替代 DDR 的趨勢,成為新選擇之一。
延伸閱讀:
英業達奪得GB200 AI伺服器液冷大單 出貨量創新高準備就緒
TikTok 挑戰美國政府禁令 引發網絡言論自由爭議
ZKsync空投爭議揭示Web3啟動挑戰與機制設計難題