我们是暨南大学附属广东省第二人民医院的人工智能研究所的医疗大模型组,主要探索医疗人工智能,医疗大模型的相关工作。
这里是我们组的大语言模型课程,主要讲解大语言模型的原理、相关技术发展。
本课程配套视频课程、讲义链接以及代码实现,一般每周更新一次,欢迎大家star⭐⭐⭐~
课程 | 内容简介 | 视频课程链接 | 课件及代码链接 | 备注 |
---|---|---|---|---|
大语言模型课程Lesson1-1 什么是大语言模型? | 本节课为大语言模型概述课程,主要介绍大语言模型的相关基础知识和核心概念 | 大语言模型课程Lesson1-1 什么是大语言模型? | / | |
大语言模型课程Lesson1-2 借助ChaGPT-Claude等大语言模型工具提高学习及工作效率 | 本节课为大语言模型概述课程,主要介绍如何借助ChaGPT、Claude等大语言模型工具提高学习及工作效率 | 大语言模型课程Lesson1-2 借助ChaGPT-Claude等大语言模型工具提高学习及工作效率 | / | |
L2-1 10个从基础到高级的GPT提示词优化指南 | 10个从基础到高级的GPT提示词优化指南 | L2-1 10个从基础到高级的GPT提示词优化指南 | ||
L2-2 大模型思维链Cot | 讲解如何在prompt中应用思维链 | L2-2 大模型思维链Cot | ||
L2-3 大模型论文科研实用工具推荐 | 如何利用一些便捷工具提高科研效率 | L2-3 大模型论文科研实用工具推荐 | ||
L2-4 大模型GPT辅助论文写作 | 如何利用大模型GPT辅助论文写作 | L2-4 大模型GPT辅助论文写作 | ||
Lesson3: Attention-transformer-BERT-GPT | 本节课程主要从Attention机制开始,之后详细介绍Transformer每个模块的组成以及对应的公式。在介绍Transformer后,将分别从两个分支分别介绍其中的编码器发展部分BERT以及解码器发展部分GPT,总共时长约90min。 | L3:90分钟串讲Attention-Transformer-BERT-GPT | Lesson3: Attention-transformer-BERT-GPT | 20240904第一版本上传; 20240912更新对应论文中的对应实现细节; 20240915 修订部分编译错误; |
Lesson4: 基于Pytorch手把手从头实现Transformer | 本节课是代码课程。使用Pytorch从零开始实现一个Transformer结构,并完成一个把英文翻译为中文任务。 | L4:基于Pytorch手把手从头实现Transformer | Lesson4 基于Pytorch手把手从头实现Transformer | Lesson2与Lesson1共用讲义; |