| 雲原生 | wasm | 容器 | VM | AI推論 | CUDA

為何Wasm檔案超小執行速度極快?虛擬機器、容器、Wasm三大雲原生技術大比較

AI推論程式碼、CUDA runtime、PyTorch框架和10GB的LLM基礎模型,用Wasm編譯後的Bytecod檔,可以大幅縮小到數MB,比同樣功能的容器或VM映像檔,足足少了1千倍,這正是Wasm冷啟動速度可以超級快的原因。

2024-11-29

| Ampere | 高通 | Altra CPU | Qualcomm | AI晶片 | AI推論

Ampere、高通合作AI晶片,主打無GPU運算環境

Ampere將透過整合其Altra CPU及高通的Cloud AI 100 Ultra AI加速器,開發專為處理大型語言模型推論作業設計的資料中心伺服器晶片,以創造無GPU的AI推論

2024-05-20

| AI耗電量 | 電力 | 用電量 | AI推論 | 能源 | google | AI搜尋 | Nvidia | AI伺服器 | ChatGPT

科學家預估AI到2027年的用電量堪比荷蘭

數位經濟平臺Digiconomist、比特幣耗電量指數的創辦人Alex De Vries預估到了2027年,AI的用電量可能等同於荷蘭一年的電力使用

2023-10-12

| GPU加速卡 | AI推論 | Turing架構

導入GPU新架構,Nvidia AI推論加速卡提升多精度運算效能

今年9月,Nvidia推出新一代AI推論加速卡Tesla T4,導入最新發表的GPU架構Turing,強化多精度的運算效能

2018-11-29