| AWS | AWS re:Invent 2024 | 雲端 | 儲存 | Amazon S3 | Parquet | Metadata
【re:Invent 2024現場直擊】S3雲端儲存兩大新功能瞄準AI需求,Iceberg超大型資料表查詢能快3倍,還能自動產生Metadata
在今日re:Invent年會中,AWS執行長Matt Garman揭露2項雲端儲存服務新功能,包括Amazon S3 Tables,支援3倍查詢加速的Iceberg資料表,以及Amazon S3 Metadata預覽版,可自動為物件產生Metadata,加速使用者找到所需資料、用於分析。這2大新功能都瞄準AI需求。
2024-12-04
| AWS | AWS re:Invent 2024 | 運算 | 執行個體 | Nvidia | Blackwell | UltraServer
【re:Invent 2024現場直擊】AWS執行長揭運算服務新亮點,專為GAI設計推P6、Trn2和Trn2 UltraServer執行個體
在今日主題演講中,AWS執行長Matt Garman揭露一系列運算新亮點,包括採用Nvidia Blackwell GPU的P6系列EC2執行個體、AWS自研晶片Trainium2的EC2 Trn2執行個體,以及由4個Trn2執行個體組成的Trn2 UltraServer執行個體,可用來訓練兆級參數模型。另外,新一代Trainium3晶片將於明年推出。
2024-12-04
| Nvidia H100 GPU Server | Nvidia H200 GPU Server | AMD Instinct MI300X server
支援AI加速器品牌坐二望三,聯想推出8U、8加速模組的伺服器
聯想推出兩款支援多廠牌AI加速器的8U伺服器,目前均能搭配8個Nvidia H100、H200,或是AMD Instinct MI300X,未來可能搭配AI加速器Intel Gaudi 3,兩款機型的區分在於搭配的中央處理器為英特爾或AMD
2024-12-04
| AWS | re:Invent | Trainium 2 | 晶片 | UltraServer | Claude 3.5 Haiku | Project Rainier | 加速 | 推論
【re:Invent 2024現場直擊】AWS揭Bedrock AI推論加速功能,能讓Anthropic最新模型推論加速60%
在今年re:Invent年會中,AWS揭露Trainium 2 UltraServer主機,也推出全託管AI平臺Amazon Bedrock的AI推論加速功能預覽版,可加速Llama 3.1模型和Claude 3.5 Haiku模型的推論速度。Anthropic共同創辦人暨運算長Tom Brown還透露,下一代Claude模型將由數十萬顆Trainium 2晶片來訓練。
2024-12-03
| Visual Studio | Copilot | 單元測試
Visual Studio新增Debug with Copilot功能,提升單元測試除錯效率
Visual Studio 2022新增Debug with Copilot功能,透過GitHub Copilot自動設置中斷點並分析變數,簡化單元測試除錯流程
2024-12-02
| 阿里巴巴 | QwQ-32B-Preview | 開源模型
阿里巴巴釋出具備325億個參數的QwQ-32B-Preview模型
阿里巴巴的Qwen Team釋出QwQ-32B-Preview,這個強調推論能力的實驗性研究模型,在AIME及MATH-500基準測試上的表現,勝過了OpenAI的o1-preview
2024-11-29