| 阿里巴巴 | QwQ-32B-Preview | 開源模型

阿里巴巴釋出具備325億個參數的QwQ-32B-Preview模型

阿里巴巴的Qwen Team釋出QwQ-32B-Preview,這個強調推論能力的實驗性研究模型,在AIME及MATH-500基準測試上的表現,勝過了OpenAI的o1-preview

2024-11-29

| Stable Diffusion 3.5 | Stability AI | 開源模型

一雪前恥,Stability AI開源Stable Diffusion 3.5

6月發布開源版圖像生成模型Stable Diffusion 3 Medium慘收負評後,Stability AI企圖以重新打造的Stable Diffusion 3.5模型挽回聲譽

2024-10-23

| NVLM | Nvidia | 開源模型

Nvidia開源能與GPT-4o媲美的NVLM 1.0

NVLM 1.0在光學字元辨識以及自然圖像理解的基準測試上,表現優於Llama 3-V、GPT-4o、Claude 3.5 Sonnet及Gemini 1.5 Pro

2024-10-02

| Llama 3.1 | Meta | 開源模型

Meta開源Llama 3.1 405B,強調開源才是AI的未來

Meta強調相較於GPT-4o與Claude Sonnet等封閉性模型,規模涵括80億到4千億個參數的Llama 3.1家族除了具備更好的成本與性能,模型的開放性也成為外界微調出小模型的最好選擇

2024-07-24

| Nemotron-4 340B | Nvidia | 開源模型 | 指令模型 | 獎勵模型 | 合成資料

Nvidia開源Nemotron-4 340B家族,以供開發者建置大型語言模型

Nemotron-4 340B家族包含了基礎模型、指令模型及獎勵模型,其中指令模型可用來生成大型語言模型的訓練資料

2024-06-17

| 開源模型 | Mixtral 8x22B | Mistral AI | Mixtral

Mistral AI釋出開源模型Mixtral 8x22B

Mistral AI以Apache 2.0授權釋出Mixtral 8x22B模型,Mixtral 8x22B支援1,760億個參數,以及6.5萬個Token的脈絡長度,成為目前最大的開源模型之一

2024-04-11

| Gemma | google | 開源模型 | LLM

Google公布開源AI模型Gemma,支援多種框架、可跑在筆電上

根據Google公布的測試數據,Gemma 7B在推論、數學、撰寫程式上,超越Llama 2 7B以及Mistral 7B

2024-02-22