进阶:a16z推荐进阶经典
作者:Derrick Harris, Matt Bornstein 和 Guido Appenzeller 原文地址:https://a16z.com/2023/05/25/ai-canon/ 译者:通往 AGI 之路 前半部分:目录:a16z 推荐入门经典
技术深度探讨:了解 transformers 和大模型
有无数的资源(有些内容更好些)试图解释大语言模型(LLMs)的工作原理。以下是我们的一些最爱,面向广泛的读者/观众。
讲解资源
- The illustrated transformer:Jay Alammar 对 transformer 架构的更多技术概述。
- The annotated transformer:如果你想在源代码级别理解 transformer 模型,这是一篇深度文章。需要一些 PyTorch 的知识。
- Let’s build GPT: from scratch, in code, spelled out:从零开始,通过代码,详细解释:对于工程师们,Karpathy 做了一个如何构建 GPT 模型的视频演示。
- The illustrated Stable Diffusion**:**对潜在扩散模型的介绍,这是最常见的用于图像生成的 AI 模型。
- RLHF: Reinforcement Learning from Human Feedback:Chip Huyen 解释了 RLHF(基于人类反馈的强化学习 ),它可以使 LLMs 的行为更可预测、更符合人类的友好方式。这是像 ChatGPT 这样的系统中最重要但最不好理解的方面之一。
- Reinforcement learning from human feedback:计算机科学家和 OpenAI 联合创始人 John Shulman 在这个精彩的演讲中更深入地探讨了 LLMs(大语言模型)与 RLHF(基于人类反馈的强化学习 )的当前状态、进展和限制。