Andrej Karpathy 在YouTube上发布了一段新视频,时长3小时31分钟:
《深入探讨大型语言模型(LLM)如ChatGPT》
这是一部面向普通观众的深入讲解视频,探讨了驱动ChatGPT及相关产品的大型语言模型(LLM)技术。视频全面覆盖了模型开发的完整训练流程,还讨论了如何从“心理模型”角度理解LLM,以及在实际应用中如何最大化利用它们。
视频涵盖的主要阶段如下:
1. 预训练阶段
- 数据处理
- 分词
- Transformer神经网络的输入/输出及内部结
- 推理过程
- GPT-2训练示例
- Llama 3.1基础模型的推理示例
2. 监督微调阶段
- 对话数据
- LLM的“心理模型”:幻觉现象、工具使用、知识与工作记忆、对自身的理解
- 模型需要通过“令牌”进行思考
- 拼写能力与参差不齐的智能表现
3. 强化学习阶段
- 熟能生巧
- DeepSeek-R1
- AlphaGo
- 通过人类反馈的强化学习(RLHF)
关于这段视频的设计
AK 将其设定为“普通观众”导向的视频,相信即使没有技术背景的大多数人也能够理解。它旨在通过许多示例为观众提供对LLM完整训练流程的直观理解,同时引导大家思考LLM当前的能力、发展现状以及未来趋势。
补充说明
大约一年前,AK发布过一个《LLM入门》视频,不过那只是一次随机演讲的重新录制版本。因此,这次的视频更为全面和深入,涵盖了更多话题,例如LLM操作系统(LLM OS)和LLM安全性(LLM Security)等。两个视频可以相辅相成,为大家提供更广泛的视角。
希望大家看得开心、觉得有帮助!
点击图片查看原图