| AWS | AWS re:Invent 2024 | 雲端 | 儲存 | Amazon S3 | Parquet | Metadata

【re:Invent 2024現場直擊】S3雲端儲存兩大新功能瞄準AI需求,Iceberg超大型資料表查詢能快3倍,還能自動產生Metadata

在今日re:Invent年會中,AWS執行長Matt Garman揭露2項雲端儲存服務新功能,包括Amazon S3 Tables,支援3倍查詢加速的Iceberg資料表,以及Amazon S3 Metadata預覽版,可自動為物件產生Metadata,加速使用者找到所需資料、用於分析。這2大新功能都瞄準AI需求。

2024-12-04

| AWS | AWS re:Invent 2024 | 運算 | 執行個體 | Nvidia | Blackwell | UltraServer

【re:Invent 2024現場直擊】AWS執行長揭運算服務新亮點,專為GAI設計推P6、Trn2和Trn2 UltraServer執行個體

在今日主題演講中,AWS執行長Matt Garman揭露一系列運算新亮點,包括採用Nvidia Blackwell GPU的P6系列EC2執行個體、AWS自研晶片Trainium2的EC2 Trn2執行個體,以及由4個Trn2執行個體組成的Trn2 UltraServer執行個體,可用來訓練兆級參數模型。另外,新一代Trainium3晶片將於明年推出。

2024-12-04

| Amazon Nova | AWS | 多模態模型

Amazon公布多模態AI模型家族Nova

AWS發表該公司首款多模態模型Amazon Nova系列,於Amazon Bedrock平臺上提供給企業用戶

2024-12-04

| Nvidia H100 GPU Server | Nvidia H200 GPU Server | AMD Instinct MI300X server

支援AI加速器品牌坐二望三,聯想推出8U、8加速模組的伺服器

聯想推出兩款支援多廠牌AI加速器的8U伺服器,目前均能搭配8個Nvidia H100、H200,或是AMD Instinct MI300X,未來可能搭配AI加速器Intel Gaudi 3,兩款機型的區分在於搭配的中央處理器為英特爾或AMD

2024-12-04

| re:Invent | AWS | 資料中心 | PUE | 多模態冷卻

AWS公布資料中心AI節能技術,新增支援液冷的多模態冷卻系統

在re:Invent大會上,AWS公布新的資料中心基礎架構元件,包括簡化電子電機設計和多模態冷卻系統,提高AWS執行AI的能源效率

2024-12-04

| AWS | re:Invent | Trainium 2 | 晶片 | UltraServer | Claude 3.5 Haiku | Project Rainier | 加速 | 推論

【re:Invent 2024現場直擊】AWS揭Bedrock AI推論加速功能,能讓Anthropic最新模型推論加速60%

在今年re:Invent年會中,AWS揭露Trainium 2 UltraServer主機,也推出全託管AI平臺Amazon Bedrock的AI推論加速功能預覽版,可加速Llama 3.1模型和Claude 3.5 Haiku模型的推論速度。Anthropic共同創辦人暨運算長Tom Brown還透露,下一代Claude模型將由數十萬顆Trainium 2晶片來訓練。

2024-12-03

| Visual Studio | Copilot | 單元測試

Visual Studio新增Debug with Copilot功能,提升單元測試除錯效率

Visual Studio 2022新增Debug with Copilot功能,透過GitHub Copilot自動設置中斷點並分析變數,簡化單元測試除錯流程

2024-12-02

馬斯克請求法院阻止OpenAI轉型為營利機構

馬斯克向法院聲請,請求法官阻止OpenAI轉為營利機構,及和微軟合作鞏固市場壟斷等行為

2024-12-02

| WebAssembly | wasm | Bytecode | CNCF | 容器 | 虛擬化 | AI | Wasm大調查 | Wasm生態地圖 | Wasm Landscape | 雲原生生態地圖 | 雲原生

雲原生技術關鍵下一步

11月剛在鹽湖城落幕的KubeCon北美大會,WebAssembly成了這場容器與雲原生大會最熱門的技術話題,被視為K8s未來十年的三大發展方向之一,與eBPF、IT永續並列

2024-11-29

| 阿里巴巴 | QwQ-32B-Preview | 開源模型

阿里巴巴釋出具備325億個參數的QwQ-32B-Preview模型

阿里巴巴的Qwen Team釋出QwQ-32B-Preview,這個強調推論能力的實驗性研究模型,在AIME及MATH-500基準測試上的表現,勝過了OpenAI的o1-preview

2024-11-29

| WebAssembly | wasm | Bytecode | CNCF | 容器 | 虛擬化 | AI | 元件模式 | Wasm大調查 | Wasm生態地圖 | Wasm Landscape | 雲原生生態地圖

WebAssembly如何成為雲原生生態圈關鍵技術

生成式AI的浪潮,成了加速Wasm擴大影響力的新助力

2024-11-29

| 雲原生 | wasm | 容器 | VM | AI推論 | CUDA

為何Wasm檔案超小執行速度極快?虛擬機器、容器、Wasm三大雲原生技術大比較

AI推論程式碼、CUDA runtime、PyTorch框架和10GB的LLM基礎模型,用Wasm編譯後的Bytecod檔,可以大幅縮小到數MB,比同樣功能的容器或VM映像檔,足足少了1千倍,這正是Wasm冷啟動速度可以超級快的原因。

2024-11-29